JP7475808B2 - Information processing device, information processing method, and information processing program - Google Patents
Information processing device, information processing method, and information processing program Download PDFInfo
- Publication number
- JP7475808B2 JP7475808B2 JP2018158393A JP2018158393A JP7475808B2 JP 7475808 B2 JP7475808 B2 JP 7475808B2 JP 2018158393 A JP2018158393 A JP 2018158393A JP 2018158393 A JP2018158393 A JP 2018158393A JP 7475808 B2 JP7475808 B2 JP 7475808B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- evaluation
- moving body
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 363
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000011156 evaluation Methods 0.000 claims description 334
- 238000000034 method Methods 0.000 claims description 16
- 230000004044 response Effects 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 description 81
- 238000010586 diagram Methods 0.000 description 18
- 230000000875 corresponding effect Effects 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 13
- 102100027867 FH2 domain-containing protein 1 Human genes 0.000 description 11
- 101001060553 Homo sapiens FH2 domain-containing protein 1 Proteins 0.000 description 11
- 238000007796 conventional method Methods 0.000 description 9
- 238000010191 image analysis Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000000877 morphologic effect Effects 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 241000510091 Quadrula quadrula Species 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.
従来、ユーザの移動体の操作(運転)の評価に関する種々の技術が提供されている。例えば、車載端末の基本的なカーナビゲーション機能により取得した安全運転の行動についての実績データを用いて、安全運転の努力に対して還元を行なうためのサービスを提供する技術が提供されている。 Various technologies have been proposed for evaluating a user's operation (driving) of a mobile object. For example, a technology has been proposed that uses actual data on safe driving behavior obtained through the basic car navigation function of an in-vehicle terminal to provide a service that rewards efforts at safe driving.
しかしながら、上記の従来技術では、移動体の運転に関するユーザの評価を適切に決定することができるとは限らない。例えば、上記の従来技術では、ユーザが運転する移動体自体のカーナビゲーション機能によるデータのみを収集しているに過ぎず、ユーザに対して適切な評価を決定することができない場合がある。 However, the above-mentioned conventional technology does not necessarily allow for an appropriate determination of a user's evaluation of the driving of a mobile object. For example, the above-mentioned conventional technology only collects data from the car navigation function of the mobile object that the user is driving, and may not be able to determine an appropriate evaluation for the user.
本願は、上記に鑑みてなされたものであって、移動体の運転に関するユーザの評価を適切に決定する情報処理装置、情報処理方法、及び情報処理プログラムを提供することを目的とする。 The present application has been made in consideration of the above, and aims to provide an information processing device, an information processing method, and an information processing program that appropriately determine a user's evaluation regarding the driving of a moving object.
本願に係る情報処理装置は、ユーザが乗る一の移動体に配置された一の端末装置、及び他の移動体に配置された他の端末装置のうち、いずれか一方の端末装置により検知されたセンサ情報を取得する取得部と、前記取得部により取得された前記センサ情報に基づいて、前記移動体の運転に関する前記ユーザの評価を決定する決定部と、を備えたことを特徴とする。 The information processing device according to the present application is characterized by comprising an acquisition unit that acquires sensor information detected by one of a terminal device installed in a mobile body in which a user rides and another terminal device installed in another mobile body, and a determination unit that determines an evaluation of the user regarding the driving of the mobile body based on the sensor information acquired by the acquisition unit.
実施形態の一態様によれば、移動体の運転に関するユーザの評価を適切に決定することができるという効果を奏する。 According to one aspect of the embodiment, it is possible to appropriately determine a user's evaluation of the driving of a moving object.
以下に、本願に係る情報処理装置、情報処理方法、及び情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、及び情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Below, the information processing device, information processing method, and information processing program according to the present application will be described in detail with reference to the drawings. Note that the information processing device, information processing method, and information processing program according to the present application are not limited to these embodiments. In addition, the same parts in the following embodiments will be denoted by the same reference numerals, and duplicated descriptions will be omitted.
(実施形態)
〔1.情報処理〕
まず、図1を用いて、実施形態に係る情報処理の一例について説明する。図1は、実施形態に係る情報処理の一例を示す図である。図1の例では、情報処理装置100は、各ユーザの移動体に配置された端末装置であるスマートスピーカにより検知されたセンサ情報に基づいて、移動体の運転に関するユーザの評価(以下、単に「ユーザの評価」ともいう)を決定する場合を示す。図1の例では、ユーザが運転する移動体が自動車である場合を一例として示すが、移動体は、ユーザが運転する移動体であれば、自動二輪車や自転車等の種々の移動体であってもよい。
(Embodiment)
[1. Information Processing]
First, an example of information processing according to the embodiment will be described with reference to FIG. 1. FIG. 1 is a diagram showing an example of information processing according to the embodiment. In the example of FIG. 1, the
〔情報処理システムの構成〕
図1の説明に先立って、図2を用いて情報処理システム1の構成について説明する。図2は、実施形態に係る情報処理システムの構成例を示す図である。図2に示すように、情報処理システム1は、複数台のスマートスピーカ10と、情報処理装置100とが含まれる。スマートスピーカ10と、情報処理装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。なお、図2に示した情報処理システム1には、複数台の情報処理装置100が含まれてもよい。
[Configuration of information processing system]
Prior to the description of Fig. 1, the configuration of the
スマートスピーカ10は、音声入力手段であるマイク(音センサ)や音声出力手段であるスピーカ(音声出力部)を有し、ユーザによって利用される端末装置(情報処理装置)である。スマートスピーカ10は、例えば、スマートスピーカやAIスピーカと称されるデバイスであってもよい。また、スマートスピーカ10は、対話型の音声操作に対応し音声アシスト機能を有してもよい。
The
図1は、スマートスピーカTM1-1とスマートスピーカTM1-2の2つのスマートスピーカ10を示す。例えば、スマートスピーカTM1-1は、図1に示すユーザU1の移動体C1に配置されるスマートスピーカ10に対応する。また、スマートスピーカTM1-2は、図1に示すユーザU2の移動体C2に配置されるスマートスピーカ10に対応する。このように、「ユーザU*(*は任意の数値)」と記載した場合、そのユーザはユーザID「U*」により識別されるユーザであることを示す。例えば、「ユーザU1」と記載した場合、そのユーザはユーザID「U1」により識別されるユーザである。また、「移動体C*(*は任意の数値)」と記載した場合、その移動体は移動体ID「C*」により識別される移動体であることを示す。例えば、「移動体C1」と記載した場合、その移動体は移動体ID「C1」により識別される移動体である。
Figure 1 shows two
また、端末ID「TM1-1」により識別されるスマートスピーカ10は、ユーザU1により利用される車載のスマートスピーカ10であり、上記のようにスマートスピーカTM1-1と記載する場合がある。また、例えば、端末ID「TM1-2」により識別されるスマートスピーカ10は、ユーザU2により利用される車載のスマートスピーカ10であり、スマートスピーカTM1-2と記載する場合がある。このように、各スマートスピーカ10を区別して説明する場合、「スマートスピーカ」の末尾に端末ID(TM1-1等)を付加した記載とする。各スマートスピーカ10について、特に区別なく説明する場合には、単に「スマートスピーカ10」と記載する。
The
また、スマートスピーカ10は、種々のセンサにより検知された情報(以下、「センサ情報」ともいう)を収集する。スマートスピーカ10は、種々のセンサを含むセンサ部を備える。また、スマートスピーカ10は、GPS(Global Positioning System)センサ等の位置センサの機能を有し、位置を検知し、取得可能であるものとする。また、スマートスピーカ10は、通信を行っている基地局の位置情報や、Wi-Fi(登録商標)(Wireless Fidelity)の電波を用いて位置情報を推定し、取得してもよい。なお、以下では位置情報を単に「位置」と記載する場合がある。
The
また、スマートスピーカ10は、マイク等の音を検知する音センサを有する。例えば、スマートスピーカ10は、音センサにより、スマートスピーカ10の周囲におけるユーザの発話を検知する。例えば、スマートスピーカ10は、周囲の音を検知し、検知した音に応じて種々の処理を行うデバイス(音声アシスト端末)であってもよい。例えば、スマートスピーカ10は、ユーザの発話に対して、処理を行う端末装置である。例えば、スマートスピーカ10は、ユーザの発話に限らず、スマートスピーカ10の周囲の環境音等を収集する。なお、スマートスピーカ10は、上記に限らず、種々のセンサを有してもよい。例えば、スマートスピーカ10は、加速度センサ、ジャイロセンサ、温度センサ、湿度センサ、照度センサ、圧力センサ、近接センサ、ニオイや汗や心拍や脈拍や脳波等の生体情報を取得のためのセンサ等の種々のセンサを有してもよい。そして、スマートスピーカ10は、各種センサにより検知された種々のセンサ情報を情報処理装置100に送信してもよい。
The
また、スマートスピーカ10は、音声認識の機能を有してもよい。また、スマートスピーカ10は、音声認識サービスを提供する音声認識サーバから情報を取得可能であってもよい。この場合、情報処理システム1は、音声認識サーバが含まれてもよい。なお、図1の例では、スマートスピーカ10や音声認識サーバが、種々の従来技術を適宜用いてユーザの発話を認識したり、発話したユーザを推定したりするものとして、適宜説明を省略する。
The
また、スマートスピーカ10は、画像センサ等を有してもよい。例えば、スマートスピーカ10は、移動体外を撮像する外部用画像センサや移動体内を撮像する内部用画像センサ等の複数の画像センサを有してもよい。例えば、スマートスピーカ10は、移動体の前方を撮像する第1外部用画像センサや移動体の後方を撮像する第2外部用画像センサ等の複数の外部用画像センサを有してもよい。また、スマートスピーカ10は、ドライブレコーダ等の所定の撮像装置のセンサにより検知(撮像)された移動体外や移動体内の動画像情報(以下、単に「画像」や「動画」や「動画像」や「画像情報」ともいう)を、所定の撮像装置から取得してもよい。
The
また、例えば、スマートスピーカ10は、赤外線センサや人感センサや温度センサや気圧センサ等の種々の機能を有し、温度や気圧等のスマートスピーカ10の周囲の環境に関するセンサ情報を検知し、取得可能であってもよい。また、スマートスピーカ10は、情報処理装置100に種々の情報等を送信する。例えば、スマートスピーカ10は、ユーザに関する位置情報等の種々のセンサ情報を情報処理装置100へ送信する。なお、図1の例では、端末装置がスマートスピーカ10である場合を示すが、スマートスピーカ10は一例に過ぎず、端末装置は、スマートスピーカ10に限らず、種々のデバイスであってもよい。例えば、端末装置は、後述する処理において要求される機能を実現可能であれば、スマートスピーカ10に限らず、種々のデバイスであってもよい。例えば、端末装置は、スマートフォンや、タブレット型端末や、ノート型等のPC(Personal Computer)や、携帯電話機や、PDA(Personal Digital Assistant)等であってもよい。
For example, the
情報処理装置100は、ユーザが乗る一の移動体に配置された一の端末装置、及び他の移動体に配置された他の端末装置のうち、いずれか一方の端末装置により検知されたセンサ情報に基づいて、移動体の運転に関するユーザの評価を決定する情報処理装置(コンピュータ)である。情報処理装置100は、一方の端末装置により検知されたセンサ情報に基づいて、ユーザの評価を決定する決定装置である。図1の例では、情報処理装置100は、ユーザU1が運転する移動体C1に配置されたスマートスピーカTM1-1により検知されたセンサ情報や、他のユーザU2が運転する移動体C2に配置されたスマートスピーカTM1-2により検知されたセンサ情報に基づいて、移動体の運転に関するユーザU1の評価を決定する。
The
また、情報処理装置100は、決定したユーザの評価に基づくサービスを提供する情報処理装置(コンピュータ)である。すなわち、情報処理装置100は、ユーザの評価に基づくサービスを提供する提供装置である。例えば、情報処理装置100は、移動体の運転に関するユーザU1の評価に基づいて、ユーザU1にサービスを提供する。また、例えば、情報処理装置100は、移動体の運転に関するユーザU1の評価に基づいて、ユーザU1とは異なる他のユーザにサービスを提供する。
In addition, the
また、情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、動画像等のセンサ情報を解析してもよい。例えば、情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、動画に含まれる物体や撮像時におけるコンテキストを推定してもよい。例えば、情報処理装置100は、移動体外を撮像した動画に含まれる他の移動体の情報に基づいて、その他の移動体を特定してもよい。情報処理装置100は、移動体外を撮像した動画に含まれる他の移動体の登録番号に基づいて、その他の移動体を特定してもよい。
The
例えば、情報処理装置100は、移動体の前方を撮像した動画に含まれる信号のうち赤が点灯している場合、その移動体が停止しなければならない状況(コンテキスト)であると推定してもよい。すなわち、情報処理装置100は、移動体の前方を撮像した動画に含まれる信号のうち赤が点灯している場合、その移動体が停止するコンテキストであると推定してもよい。例えば、情報処理装置100は、移動体の前方を撮像した動画に含まれる信号のうち青が点灯している場合、その移動体が進行してよいコンテキストであると推定してもよい。すなわち、情報処理装置100は、移動体の前方を撮像した動画に含まれる信号のうち青が点灯している場合、その移動体が進行するコンテキストであると推定してもよい。例えば、情報処理装置100は、記憶部120(図3参照)に記憶された運転に関する種々の状況と、その状況時の運転内容を示す一覧情報を用いて、移動体のコンテキストを推定してもよい。例えば、情報処理装置100は、記憶部120に記憶された信号の色及び位置の組合せ(状況)と、その組み合わせ時の運転内容とが対応付けられた一覧情報を用いて、移動体のコンテキストを推定してもよい。例えば、情報処理装置100は、信号の色「青」及び位置「前」の組合せと、運転内容「進行」との対応付情報Xを含む一覧情報を用いて、移動体のコンテキストを推定してもよい。例えば、情報処理装置100は、移動体の前方を撮像した動画の解析に基づく情報と、一覧情報との比較に基づいて、移動体のコンテキストを推定してもよい。例えば、情報処理装置100は、移動体の前方を撮像した動画に信号の色「青」が含まれる場合、一覧情報の対応付情報Xと一致するため、移動体のコンテキストを進行であると推定してもよい。
For example, the
なお、上記は一例であり、情報処理装置100は、種々の従来技術を適宜用いて、コンテキストの推定や動画の解析を行ってもよい。また、情報処理装置100は、動画の解析サービスを提供する外部の情報処理装置(解析装置)に動画(センサ情報)を送信することにより、外部の情報処理装置から動画(センサ情報)の解析結果を取得してもよい。この場合、情報処理装置100は、解析部132(図3参照)を有しなくてもよい。
Note that the above is just one example, and the
また、情報処理装置100は、音声認識に関する種々の技術を適宜用いて、取得した発話等の音声情報を文字情報に変換してもよい。また、情報処理装置100は、発話等の音声情報を変換した文字情報を、形態素解析等の自然言語処理技術を適宜用いて解析することにより、コンテキストを推定してもよい。なお、ここでいうコンテキストは、例えば、スマートスピーカ10を利用するユーザの状況を示す情報である。例えば、コンテキストは、スマートスピーカ10の周囲に位置するユーザの状況やスマートスピーカ10の周囲の環境(背景)に基づいて推定されるスマートスピーカ10の周囲の状況であってもよい。
The
また、情報処理装置100は、ユーザの発話の内容に基づいて会話のトピック(話題)に関する情報を推定する。例えば、情報処理装置100は、ユーザの発話等に基づいてトピックに関する情報を推定する。例えば、情報処理装置100は、トピック分析(解析)等の種々の従来手法を適宜用いて、ユーザの発話等からトピックを抽出してもよい。例えば、情報処理装置100は、ユーザの発話等を変換した文字情報を、形態素解析等の自然言語処理技術を適宜用いて解析することにより、ユーザの発話等の文字情報から重要なキーワードをユーザの発話等のトピックとして抽出してもよい。
The
また、情報処理システム1には、図示を省略するが情報処理装置100等に種々の情報を提供する情報提供装置が含まれてもよい。例えば、情報提供装置は、いわゆる広く開かれた利用が許可されているデータであるオープンデータを情報処理装置100へ提供する報処理装置である。例えば、情報提供装置は、各自治体が管理し、自治体が保有するデータをオープンデータとして外部に提供する情報処理装置であってもよい。また、例えば、情報提供装置は、気象庁が管理するサーバ等の種々の情報処理装置であってもよい。情報提供装置は、利用が許可されているデータ(情報)であれば、上記に限らず、道路情報等の交通に関するオープンデータや天気や気温等の気象に関するオープンデータや地理空間情報、防災・減災情報、調達情報、統計情報等の種々のオープンデータを提供してもよい。情報処理装置100は、情報提供装置から取得した情報を加味して、スマートスピーカ10により提供する提供情報を決定してもよい。
The
ここから、図1を用いて、情報処理の流れについて説明する。図1は、実施形態に係る情報処理の一例を示す図である。具体的には、図1は、提供する情報を決定する決定処理の一例を示す図である。 From here, the flow of information processing will be described with reference to FIG. 1. FIG. 1 is a diagram showing an example of information processing according to an embodiment. Specifically, FIG. 1 is a diagram showing an example of a decision process for deciding what information to provide.
図1の例では、情報処理装置100がマップ情報MP1に示す所定の道路上でのユーザU1による移動体C1の運転に関して取得されたセンサ情報に基づいて、ユーザU1の評価を決定する場合を示す。図1の例では、マップ情報MP1に示す交差点CR1でのユーザU1による移動体C1の運転に関して、センサ情報によりユーザU1の評価を決定する場合を示す。
The example of FIG. 1 shows a case where the
図1では、ユーザU1が運転する移動体C1にスマートスピーカTM1-1が配置され、ユーザU2が運転する移動体C2にスマートスピーカTM1-2が配置されている場合を示す。スマートスピーカTM1-1やスマートスピーカTM1-2は、種々のセンサにより、センサ情報を検知し、情報処理装置100へ送信する。例えば、スマートスピーカTM1-1やスマートスピーカTM1-2は、画像センサにより移動体内外の動画像を検知(撮像)し、情報処理装置100へ送信する。例えば、スマートスピーカTM1-1やスマートスピーカTM1-2は、音センサによりユーザU1やユーザU2の発話等の種々の音を検知し、情報処理装置100へ送信する。また、スマートスピーカTM1-1やスマートスピーカTM1-2は、位置センサにより検知した位置情報を情報処理装置100へ送信する。なお、図1の例では位置情報を、位置情報LC1-1等の抽象的な符号で図示するが、位置情報は、具体的な緯度や経度を示す情報(緯度経度情報)等であってもよい。また、以下、「位置情報LC*(*は任意の数値等の文字列)」を「位置LC*」と記載する場合がある。例えば、「位置LC1-1」と記載した場合、その位置は位置情報LC1-1に対応する位置であることを示す。
Figure 1 shows a case where smart speaker TM1-1 is placed on a moving body C1 driven by user U1, and smart speaker TM1-2 is placed on a moving body C2 driven by user U2. Smart speaker TM1-1 and smart speaker TM1-2 detect sensor information using various sensors and transmit it to the
図1中のマップ情報MP1は、交差点CR1の1つの停止線の位置において、ユーザU1が運転する移動体C1が停止している状態を示す。そして、移動体C1に配置されたスマートスピーカTM1-1は、検知されたセンサ情報SN1-1を情報処理装置100へ送信する。スマートスピーカTM1-1は、画像センサにより検知された動画像の画像情報であるセンサ情報SN1-1を情報処理装置100へ送信する。図1の例では、スマートスピーカTM1-1は、移動体C1の前方を撮像した動画であるセンサ情報SN1-1を情報処理装置100へ送信する。図1の例では、センサ情報SN1-1には、移動体C1の前方の信号のうち青が点灯しており、移動体C1の車線の対向車線に位置する移動体C3が移動体C1の前方を通過して右折したことを示す情報が含まれるものとする。
Map information MP1 in FIG. 1 shows a state in which a mobile body C1 driven by a user U1 is stopped at one of the stop lines at intersection CR1. A smart speaker TM1-1 disposed on the mobile body C1 transmits detected sensor information SN1-1 to the
例えば、スマートスピーカTM1-1は、センサ情報SN1-1が検知された位置LC1-1を示す位置情報やセンサ情報SN1-1が日時dt1-1に検知されたことを示す日時情報をセンサ情報SN1-1に対応付けて情報処理装置100に送信する。例えば、スマートスピーカTM1-1は、スマートスピーカTM1-1の位置情報やセンサ情報SN1-1が検知された日時の情報をセンサ情報SN1-1とともに情報処理装置100に送信する。また、例えば、スマートスピーカTM1-1は、センサ情報SN1-1の取得元がスマートスピーカTM1-1であることを特定可能にする端末情報(端末ID等)をセンサ情報SN1-1に対応付けて情報処理装置100に送信する。例えば、スマートスピーカTM1-1は、スマートスピーカTM1-1の端末ID等をセンサ情報SN1-1とともに情報処理装置100に送信する。
For example, smart speaker TM1-1 transmits to the
これにより、情報処理装置100は、センサ情報SN1-1や位置情報や日時情報や端末情報等を取得する(ステップS11)。図1の例では、情報処理装置100は、一覧情報SLST1に示すように、ログID「LG11」により識別されるログを取得する。情報処理装置100は、センサ情報SN1-1の取得元は、スマートスピーカTM1-1であることを示す情報を取得する。情報処理装置100は、種別が「画像」、すなわち動画像であるセンサ情報SN1-1を取得する。また、情報処理装置100は、センサ情報SN1-1が日時dt1-1において、位置LC1-1で取得(検知)されたことを示す情報を取得する。
As a result, the
動画であるセンサ情報SN1-1を取得した情報処理装置100は、センサ情報SN1-1を解析する(ステップS12)。図1の例では、情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、センサ情報SN1-1を解析することにより、移動体C1を運転するユーザU1の運転態様を推定する。情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、図1中の内容一覧情報ALST1に示すように、センサ情報SN1-1に含まれるユーザU1の移動体C1の運転の内容を推定する。
The
例えば、情報処理装置100は、移動体C1の前方を撮像したセンサ情報SN1-1では、信号のうち青が点灯しているため、移動体C1が進行してよいコンテキストであると推定する。また、情報処理装置100は、移動体C1の前方を撮像したセンサ情報SN1-1では、移動体C1が進行してよいコンテキストにおいて、移動体C3が移動体C1の前方を通過したため、移動体C1が道を譲ったと推定する。これにより、情報処理装置100は、センサ情報SN1-1におけるユーザU1の運転が移動体C3を対象として道を譲る行為であると解析する。
For example, in sensor information SN1-1 capturing an image of the area in front of the moving body C1, the
図1の例では、情報処理装置100は、図1中の内容一覧情報ALST1に示すように、ユーザU1による移動体C1に道を譲った運転が、内容ID「A11」により識別される内容「道を譲る」であると特定する。例えば、情報処理装置100は、記憶部120(図3参照)に記憶された内容IDと運転に関する内容(単に「内容」ともいう)とが対応付けられた内容一覧情報を用いて、センサ情報SN1-1におけるユーザU1の運転が内容ID「A11」により識別される内容「道を譲る」であると特定する。また、図1の例では、情報処理装置100は、移動体情報記憶部122に記憶された情報に基づいて、移動体C1の運転手を推定する。
In the example of FIG. 1, the
図1中の移動体情報記憶部122に示す「移動体ID」は、移動体を識別するための識別情報を示す。図1中の移動体情報記憶部122に示す「登録番号」は、移動体の具体的な登録番号を示す。図1中の移動体情報記憶部122に示す「車載端末ID」は、移動体に搭載される端末装置を識別する情報を示す。図1中の移動体情報記憶部122に示す「利用ユーザID」は、移動体を利用(運転)するユーザを示す。
The "mobile body ID" shown in the mobile body
図1の例では、スマートスピーカTM1-1が配置された移動体が移動体C1であり、移動体C1の利用ユーザがユーザU1であるため、情報処理装置100は、移動体情報記憶部122に記憶された情報に基づいて、移動体C1の運転手がユーザU1であると推定する。例えば、情報処理装置100は、移動体情報記憶部122に記憶された各移動体の車載端末IDと、センサ情報SN1-1とともに取得した端末ID「TM1-1」とを比較することにより、スマートスピーカTM1-1が配置された移動体が移動体C1であると特定してもよい。情報処理装置100は、特定したスマートスピーカTM1-1が配置された移動体が移動体C1に対応付けられた利用ユーザID「U1」であるため、移動体C1の運転手がユーザU1であると推定してもよい。
In the example of FIG. 1, the mobile body in which the smart speaker TM1-1 is located is mobile body C1, and the user of mobile body C1 is user U1, so the
なお、情報処理装置100は、図1中の内容一覧情報ALST1に示すような情報(解析結果)を取得可能であれば、どのような手段により、解析結果を取得してもよい。例えば、情報処理装置100は、動画の解析サービスを提供する外部の情報処理装置(解析装置)にセンサ情報SN1-1を送信することにより、外部の情報処理装置から図1中の内容一覧情報ALST1に示すような、センサ情報SN1-1の解析結果を取得してもよい。
Incidentally, the
そして、情報処理装置100は、評価を決定する(ステップS13)。情報処理装置100は、図1中の内容一覧情報ALST1に示すようなセンサ情報SN1-1の解析結果に基づいて、移動体の運転に関するユーザU1の評価を決定する。例えば、情報処理装置100は、記憶部120(図3参照)に記憶された運転の内容とその評価とが対応付けられた評価一覧情報を用いて、ユーザU1の評価を決定する。図1の例では、情報処理装置100は、記憶部120に記憶された内容IDと評価とが対応付けられた評価一覧情報を用いて、ユーザU1の評価を決定する。
Then, the
例えば、情報処理装置100は、内容IDに「悪(-1)」、「普通(0)」、「良(1)」の3つのいずれかの評価が対応付けられた評価一覧情報を用いて、ユーザU1の評価を決定する。例えば、「悪(-1)」、「普通(0)」、「良(1)」に示す数値は、各評価に対応する部分評価スコアである。例えば、評価「悪」は、部分評価スコアが「-1」であり、評価「普通」は、部分評価スコアが「0」であり、評価「良」は、部分評価スコアが「1」であることを示す。なお、図1の例では、評価一覧情報において、内容ID「A11」は評価「良(1)」に対応付けられているものとする。
For example, the
例えば、情報処理装置100は、解析結果と評価一覧情報とを比較することにより、ユーザU1の評価を決定する。情報処理装置100は、評価一覧情報において、図1中の内容一覧情報ALST1に示す解析結果中の内容ID「A11」に該当する内容の評価をユーザU1の評価を決定する。図1の例では、評価一覧情報では、内容ID「A11」が評価「良(1)」に対応付けられているため、情報処理装置100は、図1中の評価一覧情報RLST1に示すように、ユーザU1の評価を「良」に決定する。
For example, the
そして、情報処理装置100は、サービスを決定する(ステップS14)。例えば、情報処理装置100は、ユーザU1の評価「良」に基づいて、ユーザU1に提供するサービスを決定する。図1の例では、情報処理装置100は、ユーザU1の評価「良」に基づいて、ユーザU1に通知を行うと決定する。具体的には、情報処理装置100は、ユーザU1の評価「良」に基づいて、ユーザU1の運転を評価する通知を行うと決定する。
Then, the
そして、情報処理装置100は、ユーザU1の運転を評価する通知情報をスマートスピーカTM1-1に提供する(ステップS15)。図1の例では、情報処理装置100は、スマートスピーカTM1-1に出力させる音声情報である通知情報INF1をスマートスピーカTM1-1に送信する。例えば、情報処理装置100は、ユーザU1が移動体C1に道を譲ったことを示す内容一覧情報ALST1に基づいて、ユーザU1の運転を評価し、ユーザU1に感謝を示す通知情報INF1を生成する。例えば、情報処理装置100は、音声合成等の種々の従来技術を適宜用いて、通知情報INF1を生成してもよい。
Then, the
情報処理装置100から通知情報INF1を受信したスマートスピーカTM1-1は、通知情報INF1を出力する。例えば、スマートスピーカTM1-1は、音声情報である通知情報INF1を音声出力する。図1の例では、スマートスピーカTM1-1は、ユーザU1の運転の評価に関する通知情報INF1を音声出力する。例えば、スマートスピーカTM1-1は、「ありがとう」等の通知情報INF1を音声出力する。なお、通知情報INF1は、ユーザU1の運転の評価に関する情報であれば、どのような情報であってもよい。例えば、通知情報INF1は、「安全運転で良いですね」、「道を譲っていただきありがとうございます」等、ユーザの運転を評価する音声情報であればどのような音声情報であってもよい。
The smart speaker TM1-1 receives the notification information INF1 from the
このように、情報処理装置100は、ユーザU1が運転する移動体C1に配置されたスマートスピーカTM1-1により検知されたセンサ情報に基づいて、ユーザU1の評価を決定することにより、移動体の運転に関するユーザの評価を適切に決定することができる。
In this way, the
次に、情報処理装置100がユーザU1の運転する移動体C1に配置されたスマートスピーカTM1-1以外により検知されたセンサ情報に基づいて、ユーザU1の評価を決定する場合を示す。図1の例では、情報処理装置100は、ユーザU1以外のユーザU2が運転する移動体C2に配置されたスマートスピーカTM1-2により検知されたセンサ情報に基づいて、ユーザU1の評価を決定する場合を示す。
Next, a case will be shown in which the
図1中のマップ情報MP1は、交差点CR1において、移動体C1が停止している車線の対向車線の停止線の位置において、ユーザU2が運転する移動体C2が停止している状態を示す。そして、移動体C2に配置されたスマートスピーカTM1-2は、検知されたセンサ情報SN1-2を情報処理装置100へ送信する。スマートスピーカTM1-2は、画像センサにより検知された動画像の画像情報であるセンサ情報SN1-2を情報処理装置100へ送信する。図1の例では、スマートスピーカTM1-2は、移動体C2の前方を撮像した動画であるセンサ情報SN1-2を情報処理装置100へ送信する。図1の例では、センサ情報SN1-2には、移動体C2の前方の信号のうち青が点灯しており、移動体C2の車線において移動体C2の前方に位置する移動体C3が、対向車線に位置する移動体C1の前方を通過して右折したことを示す情報が含まれるものとする。
Map information MP1 in FIG. 1 shows a state in which a mobile body C2 driven by a user U2 is stopped at the stop line of the oncoming lane where the mobile body C1 is stopped at intersection CR1. Then, a smart speaker TM1-2 arranged on the mobile body C2 transmits the detected sensor information SN1-2 to the
例えば、スマートスピーカTM1-2は、センサ情報SN1-2が検知された位置LC1-2を示す位置情報やセンサ情報SN1-2が日時dt1-1に検知されたことを示す日時情報をセンサ情報SN1-2に対応付けて情報処理装置100に送信する。例えば、スマートスピーカTM1-2は、スマートスピーカTM1-2の位置情報やセンサ情報SN1-2が検知された日時の情報をセンサ情報SN1-2とともに情報処理装置100に送信する。また、例えば、スマートスピーカTM1-2は、センサ情報SN1-2の取得元がスマートスピーカTM1-2であることを特定可能にする端末情報(端末ID等)をセンサ情報SN1-2に対応付けて情報処理装置100に送信する。例えば、スマートスピーカTM1-2は、スマートスピーカTM1-2の端末ID等をセンサ情報SN1-2とともに情報処理装置100に送信する。
For example, smart speaker TM1-2 transmits to the
これにより、情報処理装置100は、センサ情報SN1-2や位置情報や日時情報や端末情報等を取得する(ステップS21)。図1の例では、情報処理装置100は、一覧情報SLST2に示すように、ログID「LG21」により識別されるログを取得する。情報処理装置100は、センサ情報SN1-2の取得元は、スマートスピーカTM1-2であることを示す情報を取得する。情報処理装置100は、種別が「画像」、すなわち動画像であるセンサ情報SN1-2を取得する。また、情報処理装置100は、センサ情報SN1-2が日時dt1-1において、位置LC1-2で取得(検知)されたことを示す情報を取得する。
As a result, the
そして、図1では、移動体C2内において、ユーザU2が発話を行う。例えば、ユーザU2が、スマートスピーカTM1-2の周囲において、「対向車の運転手いい人ね」という発話PA1を行う。そして、情報処理装置100は、音センサにより「対向車の運転手いい人ね」という発話PA1(音声情報)を検知する。これにより、スマートスピーカTM1-2は、「対向車の運転手いい人ね」という発話PA1を入力として検知する(ステップS22)。そして、スマートスピーカTM1-2は、検知した発話PA1に関するセンサ情報SN1-3を情報処理装置100に送信する。これにより、情報処理装置100は、スマートスピーカTM1-2が検知したセンサ情報SN1-3を取得する。例えば、スマートスピーカTM1-2は、発話PA1が位置LC1-2で行われたことを示す位置情報や発話PA1が日時dt1-2に行われたことを示す日時情報をセンサ情報SN1-3に対応付けて情報処理装置100に送信する。例えば、スマートスピーカTM1-2は、スマートスピーカTM1-2の位置情報や発話PA1が行われた日時の情報をセンサ情報SN1-3とともに情報処理装置100に送信する。また、例えば、スマートスピーカTM1-2は、発話PA1を検知したスマートスピーカ10がスマートスピーカTM1-2であることを特定可能にする端末情報(端末ID等)をセンサ情報SN1-3に対応付けて情報処理装置100に送信する。例えば、スマートスピーカTM1-2は、スマートスピーカTM1-2の端末ID等をセンサ情報SN1-3とともに情報処理装置100に送信する。
In FIG. 1, user U2 makes an utterance within moving body C2. For example, user U2 makes an utterance PA1 saying "The driver of the oncoming car is nice" around smart speaker TM1-2. Then,
これにより、情報処理装置100は、センサ情報SN1-3や位置情報や日時情報や端末情報等を取得する(ステップS23)。図1の例では、情報処理装置100は、一覧情報SLST2に示すように、ログID「LG22」により識別されるログを取得する。情報処理装置100は、センサ情報SN1-3の取得元は、スマートスピーカTM1-2であることを示す情報を取得する。情報処理装置100は、種別が「発話」、すなわちユーザに関する音声であるセンサ情報SN1-3を取得する。また、情報処理装置100は、センサ情報SN1-2が日時dt1-2において、位置LC1-2で取得(検知)されたことを示す情報を取得する。
As a result, the
なお、スマートスピーカTM1-2は、発話PA1の音声情報を音声認識サーバへ送信し、音声認識サーバから発話PA1の文字情報を取得し、取得した文字情報をセンサ情報SN1-3として情報処理装置100へ送信してもよい。この場合、スマートスピーカTM1-2は、取得した発話PA1を行ったユーザがユーザU2であることを示す情報を情報処理装置100に送信してもよい。また、スマートスピーカTM1-2が音声認識機能を有する場合、スマートスピーカTM1-2は、情報処理装置100に送信することを要する情報のみを情報処理装置100に送信してもよい。また、情報処理装置100が、音声認識サーバから音声情報(発話PA1等)の文字情報を取得してもよいし、情報処理装置100が、音声認識サーバであってもよい。また、情報処理装置100は、発話PA1等の音声情報を変換した文字情報を、形態素解析等の自然言語処理技術を適宜用いて解析することにより、発話の内容やユーザの状況を推定(特定)してもよい。
The smart speaker TM1-2 may transmit the voice information of the speech PA1 to the voice recognition server, obtain text information of the speech PA1 from the voice recognition server, and transmit the obtained text information to the
センサ情報SN1-3を取得した情報処理装置100は、センサ情報SN1-3を解析することにより、発話PA1を行ったユーザがユーザU2であることを推定してもよい。情報処理装置100は、種々の従来技術を適宜用いて発話を行ったユーザを推定してもよい。例えば、情報処理装置100は、ユーザの発話と、ユーザ情報記憶部121(図4参照)等に記憶された音声とを用いて、発話を行ったユーザを推定してもよい。例えば、情報処理装置100は、ユーザの発話の音声情報と、ユーザ情報記憶部121に記憶された各ユーザの音声情報とを比較することにより、発話を行ったユーザを推定してもよい。また、情報処理装置100は、スマートスピーカTM1-2から発話を行ったユーザを識別する情報をセンサ情報SN1-3とともに取得してもよい。
The
このように、図1の例では、情報処理装置100は、種々の従来技術を適宜用いて、発話PA1を行ったユーザがユーザU2であると推定する。なお、上記は一例であり、情報処理装置100は、種々の情報を適宜用いて、発話を行ったユーザを推定してもよい。また、情報処理装置100は、画像センサ等により撮像されたユーザの画像を用いて、画像により発話を行ったユーザを推定してもよい。
In this way, in the example of FIG. 1, the
動画であるセンサ情報SN1-2やユーザU2の発話PA1に関するセンサ情報SN1-3を取得した情報処理装置100は、センサ情報SN1-2、SN1-3を解析する(ステップS24)。
After acquiring the sensor information SN1-2, which is a video, and the sensor information SN1-3 related to the speech PA1 of the user U2, the
まず、情報処理装置100は、種々の従来技術を適宜用いて、センサ情報SN1-3を解析することにより、ユーザU2の発話PA1の内容を推定する。例えば、情報処理装置100は、ユーザU2の発話PA1に関するセンサ情報SN1-3を変換した文字情報を構文解析等の種々の従来技術を適宜用いて解析することにより、ユーザU2の発話PA1の内容を推定してもよい。例えば、情報処理装置100は、ユーザU2の発話PA1を変換した文字情報を、形態素解析等の自然言語処理技術を適宜用いて解析することにより、ユーザU2の発話PA1の文字情報から重要なキーワードを抽出し、抽出したキーワードに基づいてユーザU2の発話PA1の内容を推定してもよい。
First, the
図1の例では、情報処理装置100は、センサ情報SN1-3を解析することにより、ユーザU2が対向する移動体(単に「車」ともいう)の運転手の運転を評価していると推定する。例えば、情報処理装置100は、行動者「U2」や評価対象「対向する車の運転手」や評価「高評価」等の情報を含むセンサ情報SN1-3の解析結果を示す解析結果情報RS11を生成する。例えば、情報処理装置100は、センサ情報SN1-3を解析することにより、ユーザU2が対向する車の運転について高評価であると推定する。なお、情報処理装置100は、ユーザの発話の内容を推定可能であれば、どのような手段により、発話に関する解析結果を取得してもよい。例えば、情報処理装置100は、音声の解析サービスを提供する外部の情報処理装置(解析装置)にセンサ情報SN1-3を送信することにより、外部の情報処理装置からユーザU2が対向する車の運転について高評価であることを示すような、センサ情報SN1-3の解析結果(解析結果情報RS11)を取得してもよい。
In the example of FIG. 1, the
そして、情報処理装置100は、解析結果情報RS11に基づいて、センサ情報SN1-2を解析することにより、ユーザU2が評価した評価対象を推定する。図1の例では、情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、センサ情報SN1-2を解析することにより、ユーザU2の移動体C2に対向する車を推定する。情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、ユーザU2の移動体C2に対向する車が移動体C1であることを特定する。
Then, the
図1の例では、情報処理装置100は、移動体C2の前方を撮像したセンサ情報SN1-2に含まれる移動体の登録番号に基づいて、ユーザU2の移動体C2に対向する車が移動体C1であることを特定する。例えば、情報処理装置100は、移動体C2の前方を撮像したセンサ情報SN1-2に基づいて、移動体C2に対向する車の登録番号が登録番号NB1であると特定する。例えば、情報処理装置100は、移動体C2の前方を撮像したセンサ情報SN1-2における移動体C2に対向する車のナンバープレート部分の画像を解析することにより、移動体C2に対向する車の登録番号が登録番号NB1であると特定する。
In the example of FIG. 1, the
そして、情報処理装置100は、移動体情報記憶部122に記憶された各移動体の登録番号と、移動体C2に対向する車の登録番号NB1とを比較することにより、移動体C2に対向する車が移動体C1であると特定してもよい。情報処理装置100は、特定した移動体C1に対応付けられた利用ユーザID「U1」であるため、移動体C1の運転手がユーザU1であると推定してもよい。
Then, the
上記のような解析により、情報処理装置100は、図1中の内容一覧情報ALST2に示すように、ユーザU2によるユーザU1の運転に対する評価が、内容ID「A21」により識別される内容「高評価」であると特定する。例えば、情報処理装置100は、記憶部120(図3参照)に記憶された内容IDと内容とが対応付けられた内容一覧情報を用いて、ユーザU2によるユーザU1の運転に対する評価が内容ID「A21」により識別される内容「高評価」であると特定する。
By the above analysis, the
なお、情報処理装置100は、図1中の内容一覧情報ALST2に示すような情報(解析結果)を取得可能であれば、どのような手段により、解析結果を取得してもよい。例えば、情報処理装置100は、音声や動画の解析サービスを提供する外部の情報処理装置(解析装置)にセンサ情報SN1-2、SN1-3を送信することにより、外部の情報処理装置から図1中の内容一覧情報ALST2に示すような、センサ情報SN1-2、SN1-3の解析結果を取得してもよい。
Incidentally, the
そして、情報処理装置100は、評価を決定する(ステップS25)。情報処理装置100は、図1中の内容一覧情報ALST2に示すようなセンサ情報SN1-2、SN1-3の解析結果に基づいて、移動体の運転に関するユーザU1の評価を決定する。例えば、情報処理装置100は、上記のような運転の内容とその評価とが対応付けられた評価一覧情報を用いて、ユーザU1の評価を決定する。図1の例では、情報処理装置100は、記憶部120に記憶された内容IDと評価とが対応付けられた評価一覧情報を用いて、ユーザU1の評価を決定する。なお、図1の例では、評価一覧情報において、内容ID「A21」は評価「良(1)」に対応付けられているものとする。
Then, the
例えば、情報処理装置100は、解析結果と評価一覧情報とを比較することにより、ユーザU1の評価を決定する。情報処理装置100は、評価一覧情報において、図1中の内容一覧情報ALST2に示す解析結果中の内容ID「A21」に該当する内容の評価をユーザU1の評価を決定する。図1の例では、評価一覧情報では、内容ID「A21」が評価「良(1)」に対応付けられているため、情報処理装置100は、図1中の評価一覧情報RLST2に示すように、ユーザU1の評価を「良」に決定する。また、情報処理装置100は、ユーザの評価「良」に限らず、ユーザの評価を「悪」に決定してもよい。例えば、情報処理装置100は、図1の例でユーザU2の発話が「対向車の人危ない」や「あいつ危ない」等であった場合、ユーザU1の評価を「悪」に決定する。
For example, the
このように、情報処理装置100は、ユーザU2が運転する移動体C2に配置されたスマートスピーカTM1-2により検知されたセンサ情報に基づいて、ユーザU1の評価を決定する。このように、情報処理装置100は、ユーザU1が運転する移動体C1以外の移動体C2により検知されたセンサ情報を用いて、ユーザU1の評価を決定することにより、移動体の運転に関するユーザの評価を適切に決定することができる。
In this way, the
〔1-1.その他の情報〕
なお、情報処理装置100は、上記のセンサ情報に限らず、種々のセンサ情報に基づいて、移動体の運転に関するユーザの評価を決定してもよい。例えば、情報処理装置100は、移動体に設けられたセンサにより検知されたセンサ情報に限らず、道路等に設けられた画像センサ等の種々のセンサにより検知されたセンサ情報に基づいて、移動体の運転に関するユーザの評価を決定してもよい。
[1-1. Other information]
The
また、情報処理装置100は、移動体を運転するユーザ自身の発話に基づいて、移動体の運転に関するユーザの評価を決定してもよい。図1の例では、情報処理装置100は、移動体C1を運転するユーザU1自身の発話に基づいて、移動体の運転に関するユーザU1の評価を決定してもよい。例えば、情報処理装置100は、移動体C1を運転するユーザU1が、「邪魔だ」、「どけ」等の暴言に該当する発話を行っている場合、ユーザU1の評価を低くしてもよい。例えば、情報処理装置100は、移動体C1を運転するユーザU1の発話に、暴言のキーワードを示す一覧情報に含まれるキーワードに該当する文字列が含まれる場合、ユーザU1が暴言を発話したとして、ユーザU1の評価を低くしてもよい。この場合、情報処理装置100は、ユーザU1の評価を「悪」に決定する。
The
〔1-2.評価について〕
図1の例では、情報処理装置100は、センサ情報SN1-1に基づく評価一覧情報RLST1に示す評価「良」と、センサ情報SN1-1に基づく評価一覧情報RLST1に示す評価「良」とに基づいて、ユーザU1の総合的な評価を決定してもよい。例えば、情報処理装置100は、評価一覧情報RLST1に示す評価「良」に対応する部分評価スコア「1」と、評価一覧情報RLST2に示す評価「良」に対応する部分評価スコア「1」とを合算し、ユーザU1の評価スコアを「2(=1+1)」と算出(決定)してもよい。この場合、図7に示すユーザU1の評価スコアRP1が「2」となる。また、情報処理装置100は、ユーザの評価スコアに基づいて、種々のサービスを決定してもよい。
[1-2. Evaluation]
In the example of FIG. 1, the
〔1-3.サービスについて〕
情報処理装置100は、図1に示すユーザU1への通知サービスにおいて、種々の態様により、ユーザU1へ通知を行ってもよい。例えば、情報処理装置100は、ユーザU1に道を譲られた移動体C1に乗るユーザU3からの指示に応じて、ユーザU1へ通知を行ってもよい。例えば、情報処理装置100は、ユーザU1に道を譲られたユーザU3が利用する端末装置であるスマートフォンTM1-3(図4参照)からの指示に応じて、ユーザU1へ通知を行ってもよい。例えば、情報処理装置100は、ユーザU3のスマートフォンTM1-3から感謝の通知の指示に応じて、ユーザU1へ通知を行ってもよい。
[1-3. About the Service]
The
この場合、例えば、情報処理装置100は、図1中の内容一覧情報ALST1により、ユーザU3の移動体C3に道を譲ったユーザがユーザU1であることを特定し、ユーザU3の感謝の通知の対象がユーザU1であることを特定してもよい。また、情報処理装置100は、ユーザU3を示す情報を含む通知情報をユーザU1へ提供してもよい。例えば、情報処理装置100は、「ユーザU3さんが感謝しております」といいた通知情報をユーザU1へ提供してもよい。
In this case, for example, the
〔1-3-1.他のサービス〕
〔1-3-1-1.安全運転〕
また、情報処理装置100は、図1に示す通知サービスに限らず、種々のサービスを提供してもよい。例えば、情報処理装置100は、ユーザの評価が安全運転に関する所定の基準を満たす場合、ユーザの運転を高評価する情報を通知する。例えば、情報処理装置100は、記憶部120(図3参照)に記憶された安全運転に関する基準を満たす内容を示す安全運転一覧情報に基づいて、ユーザの運転を高評価する情報を通知する。例えば、情報処理装置100は、安全運転に関する基準を満たす内容を識別する内容IDを示す安全運転一覧情報に基づいて、ユーザの運転を高評価する情報を通知する。
[1-3-1. Other services]
[1-3-1-1. Safe driving]
Furthermore, the
例えば、情報処理装置100は、特定したユーザの運転に関する内容を示す内容IDと安全運転一覧情報とを比較することにより、ユーザの運転を高評価する情報を通知するかどうかを決定する。例えば、情報処理装置100は、特定したユーザの運転に関する内容が安全運転一覧情報に含まれる場合、ユーザの運転を高評価する情報を通知する。例えば、情報処理装置100は、図1中の内容一覧情報ALST1に示すユーザU1の運転の内容ID「A11」が、安全運転一覧情報に含まれる場合、ユーザU1の運転を高評価する情報を通知する。情報処理装置100は、図1中の内容一覧情報ALST1に示すユーザU1の運転の内容ID「A11」が、安全運転一覧情報に含まれる場合、ユーザU1に「安全運転ありがとうございます」等の運転を高評価する情報を通知する。
For example, the
〔1-3-1-2.他の移動体〕
また、情報処理装置100は、ユーザの評価が他のユーザの配慮に関する所定の基準を満たす場合、一の移動体の周囲に位置する移動体に、安全運転を促す情報を通知する。例えば、情報処理装置100は、ユーザが初心者または高齢者に関する所定の基準を満たす場合、一の移動体の周囲に位置する移動体に、安全運転を促す情報を通知する。
[1-3-1-2. Other moving objects]
Furthermore, when the user's evaluation satisfies a predetermined standard regarding consideration for other users, the
例えば、情報処理装置100は、ユーザの運転に関する属性を示す情報(運転属性情報)に基づいて、ユーザの評価を決定してもよい。例えば、情報処理装置100は、ユーザの運転属性情報が運転初心者である場合、ユーザの評価を「追い抜き可」に決定してもよい。例えば、情報処理装置100は、ユーザの運転属性情報が高齢者である場合、ユーザの評価を「追い抜き可」に決定してもよい。このように、情報処理装置100は、ユーザの運転の良し悪しに限らず、種々の観点からユーザの評価を行ってもよい。
For example, the
例えば、情報処理装置100は、撮像された移動体に若葉マークが取り付けられている場合、その移動体を運転するユーザ(初心者ユーザ)の運転属性情報を運転初心者と決定してもよい。そして、情報処理装置100は、その初心者ユーザの評価を「追い抜き可」に決定してもよい。また、例えば、情報処理装置100は、撮像された移動体にもみじマークが取り付けられている場合、その移動体を運転するユーザ(高齢者ユーザ)の運転属性情報を高齢者と決定してもよい。そして、情報処理装置100は、その高齢者ユーザの評価を「追い抜き可」に決定してもよい。
For example, when a young leaf mark is attached to an imaged moving object, the
この場合、例えば、情報処理装置100は、初心者ユーザの評価「追い抜き可」に基づいて、サービスを決定してもよい。例えば、情報処理装置100は、記憶部120(図3参照)に記憶された他のユーザの配慮に関する所定の基準を示す配慮一覧情報に基づいて、サービスを決定する。例えば、情報処理装置100は、決定したユーザの評価と配慮一覧情報とを比較することにより、サービスを決定する。例えば、情報処理装置100は、決定したユーザの評価が配慮一覧情報に含まれる場合、ユーザの周囲の移動体に安全運転を促す情報を通知するサービスを行うと決定する。
In this case, for example, the
例えば、情報処理装置100は、決定したユーザの評価「追い抜き可」が配慮一覧情報に含まれる場合、ユーザの周囲の移動体に安全運転を促す情報を通知するサービスを行うと決定する。例えば、情報処理装置100は、初心者ユーザの評価「追い抜き可」が配慮一覧情報に含まれる場合、初心者ユーザの運転する移動体の周囲の移動体に安全運転を促す情報を通知するサービスを行うと決定する。例えば、情報処理装置100は、初心者ユーザの移動体の位置から所定の範囲(例えば100m以内等)内に位置する移動体に安全運転を促す情報を通知してもよい。例えば、情報処理装置100は、初心者ユーザの移動体の後方に位置する移動体に安全運転を促す情報を通知してもよい。
For example, when the consideration list information includes the determined user's evaluation "overtaking allowed", the
例えば、情報処理装置100は、運転属性情報や評価「追い抜き可」等の情報をユーザに対応付けて記憶部120(図3参照)に記憶してもよい。例えば、情報処理装置100は、運転属性情報や評価「追い抜き可」等の情報をユーザに対応付けて評価情報記憶部124(図7参照)に記憶してもよい。また、例えば、情報処理装置100は、評価「追い抜き可」等の運転の良し悪し以外の評価もユーザの評価スコアの算出に用いてもよい。例えば、情報処理装置100は、評価「追い抜き可」の部分評価スコアを良い評価と同様の値に決定してもよい。例えば、情報処理装置100は、評価「追い抜き可」が安全運転に対応する評価であるため、評価「追い抜き可」の部分評価スコアを「1」に決定してもよい。
For example, the
〔1-3-1-3.インセンティブ〕
例えば、情報処理装置100は、ユーザの評価に基づいて、ユーザに所定のインセンティブを提供してもよい。情報処理装置100は、ユーザの評価に基づいて、ユーザに提供するインセンティブを決定してもよい。情報処理装置100は、ユーザの評価スコアに基づいて、ユーザに所定のインセンティブを提供してもよい。例えば、情報処理装置100は、ユーザの評価スコアが所定の閾値(例えば「5」や「10」等)以上である場合、そのユーザに所定のインセンティブを提供すると決定してもよい。
[1-3-1-3. Incentives]
For example, the
例えば、情報処理装置100は、ユーザの評価が所定の基準を満たす場合、ユーザに駐車場サービスに関するインセンティブを提供する。例えば、情報処理装置100は、ユーザの評価が所定の基準を満たす場合、提携駐車場における専用区画の利用や料金の割引などの駐車場サービスに関するインセンティブを提供してもよい。
For example, the
例えば、情報処理装置100は、ユーザU1の評価スコアが所定の閾値「10」以上である場合、ユーザU1に駐車場サービスに関するインセンティブを提供すると決定する。例えば、情報処理装置100は、ユーザの評価スコアが所定の閾値以上である場合、ユーザが駐車場を利用する場合に所定の割合(例えば5%)だけ利用料を割り引いて駐車場の利用可能にするインセンティブを提供すると決定してもよい。
For example, when the evaluation score of user U1 is equal to or greater than a predetermined threshold value of "10," the
例えば、情報処理装置100は、ユーザの評価が所定の基準を満たす場合、ユーザにユーザの運送サービスに関するインセンティブを提供する。例えば、情報処理装置100は、ユーザの評価が所定の基準を満たす場合、タクシーや所定の配車サービスにおける予約時に、ポイント(グレード)を指定可能にする等の運送サービスに関するインセンティブを提供してもよい。
For example, when the user's evaluation satisfies a predetermined standard, the
例えば、情報処理装置100は、ユーザの評価スコアが所定の閾値以上である場合、ユーザにユーザの運送サービスに関するインセンティブを提供すると決定する。例えば、情報処理装置100は、ユーザU1の評価スコアが所定の閾値「5」以上である場合、ユーザU1にユーザU1の運送サービスに関するインセンティブを提供すると決定する。例えば、情報処理装置100は、ユーザの評価スコアが所定の閾値以上である場合、ユーザがタクシーを利用する場合に所定の割合(例えば10%)だけ利用料を割り引いてタクシーの利用可能にするインセンティブを提供すると決定してもよい。
For example, the
〔1-4.スマートスピーカ〕
図1の例では、スマートスピーカTM1-1が移動体C1に配置された場合を示したが、スマートスピーカTM1-1は、ユーザとともに移動可能であれば、どのようなデバイスであってもよい。例えば、スマートスピーカTM1-1は、ユーザが携帯する携帯端末であってもよい。また、図1の例では、スマートスピーカTM1-2が移動体C2に搭載された場合を示したが、スマートスピーカTM1-2は、ユーザとともに移動可能であれば、どのようなデバイスであってもよい。例えば、スマートスピーカTM1-2は、ユーザが携帯する携帯端末であってもよい。
[1-4. Smart Speaker]
In the example of FIG. 1, the smart speaker TM1-1 is disposed on a moving body C1, but the smart speaker TM1-1 may be any device that can move with the user. For example, the smart speaker TM1-1 may be a portable terminal carried by the user. In addition, in the example of FIG. 1, the smart speaker TM1-2 is mounted on a moving body C2, but the smart speaker TM1-2 may be any device that can move with the user. For example, the smart speaker TM1-2 may be a portable terminal carried by the user.
〔1-5.システム構成〕
なお、情報処理システム1は、図2に示したシステム構成に限らず、種々の構成であってもよい。例えば、スマートスピーカ10が決定処理を行ってもよい。例えば、スマートスピーカ10が情報処理装置100の機能を有してもよい。すなわち、情報処理装置100とスマートスピーカ10とは一体であってもよい。この場合、情報処理システムには、種々のサービスを提供するサービス提供装置が含まれてもよい。そして、スマートスピーカ10である情報処理装置100は、ユーザの評価を決定し、決定した評価をサービス提供装置に送信してもよい。そして、情報処理装置100からユーザの評価を受信したサービス提供装置は、ユーザの評価に基づいて種々のサービスを提供してもよい。
1-5. System Configuration
The
〔2.情報処理装置の構成〕
次に、図3を用いて、実施形態に係る情報処理装置100の構成について説明する。図3は、実施形態に係る情報処理装置100の構成例を示す図である。図3に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
2. Configuration of information processing device
Next, the configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、スマートスピーカ10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a network interface card (NIC) etc. The communication unit 110 is connected to a network via a wired or wireless connection, and transmits and receives information to and from the
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図3に示すように、ユーザ情報記憶部121と、移動体情報記憶部122と、センサ情報記憶部123と、評価情報記憶部124とを有する。なお、記憶部120は、上記に限らず、種々の情報を記憶してもよい。
(Memory unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk. As shown in Fig. 3, the storage unit 120 according to the embodiment has a user
(ユーザ情報記憶部121)
実施形態に係るユーザ情報記憶部121は、ユーザに関する各種情報を記憶する。例えば、ユーザ情報記憶部121は、ユーザ属性情報等の種々の情報を記憶する。図4は、実施形態に係るユーザ情報記憶部の一例を示す図である。図4に示すユーザ情報記憶部121は、「ユーザID」、「年齢」、「性別」、「利用端末」、「興味」、「位置情報」といった項目が含まれる。また、「位置情報」には、「最新位置」といった項目が含まれる。
(User information storage unit 121)
The user
「ユーザID」は、ユーザを識別するための識別情報を示す。また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。 "User ID" indicates identification information for identifying a user. Furthermore, "age" indicates the age of the user identified by the user ID. Note that "age" may be the specific age of the user identified by the user ID, such as 35 years old. Furthermore, "gender" indicates the gender of the user identified by the user ID.
「利用端末」は、ユーザにより利用される端末を示す。なお、図4に示す例では、各ユーザに1つの端末装置10が対応付けられる場合を示すが、ユーザには複数の端末装置10が対応付けられてもよい。例えば、ユーザU3が、スマートフォンである第1端末装置TM1-3とは別に、スマートスピーカである第1端末装置TM1-30を利用する場合、ユーザU3に対応する「利用端末」は、「TM1-3」と「TM1-30」とが記憶されてもよい。
"Terminal in use" refers to a terminal used by a user. Note that, although the example shown in FIG. 4 shows a case where one
また、「興味」は、ユーザIDにより識別されるユーザの興味を示す。すなわち、「興味」は、ユーザIDにより識別されるユーザが関心の高い対象を示す。なお、図4に示す例では、「興味」は、各ユーザに1つずつ図示するが、複数であってもよい。 "Interests" indicates the interests of a user identified by a user ID. In other words, "Interests" indicates subjects in which a user identified by a user ID has a high interest. Note that in the example shown in FIG. 4, each user is shown to have one "interest," but there may be multiple interests.
また、「位置情報」中の「最新位置」は、対応するユーザについて最後に取得された位置情報を示す。なお、「最新位置」は、「LC1-1」といった抽象的な符号を図示するが、緯度や経度を示す情報や「X県Y市Z町A交差点」等のような住所を示す情報であってもよい。また、「位置情報」は「取得日時」の項目を有してもよい。例えば、「取得日時」は、最後に位置情報が取得された日時を示す。 In addition, the "Latest Location" in the "Location Information" indicates the location information last obtained for the corresponding user. Note that although the "Latest Location" is illustrated as an abstract code such as "LC1-1", it may also be information indicating latitude and longitude, or information indicating an address such as "A intersection, Z town, Y city, X prefecture". The "Location Information" may also have an "Acquisition Date and Time" field. For example, the "Acquisition Date and Time" indicates the date and time when the location information was last obtained.
図4の例では、ユーザID「U1」により識別されるユーザ(ユーザU1)の年齢は、「20代」であり、性別は、「男性」であることを示す。ユーザU1の利用端末は、スマートスピーカである第1端末装置TM1-1であることを示す。また、ユーザU1は経済に興味があることを示す。例えば、ユーザU1については、位置LC1-1に位置したことを示す位置情報が最後に取得された位置情報、すなわち最新の位置情報であることを示す。 In the example of FIG. 4, the age of the user (user U1) identified by the user ID "U1" is "20s" and the gender is "male". The terminal used by user U1 is the first terminal device TM1-1, which is a smart speaker. It also indicates that user U1 is interested in economics. For example, for user U1, the location information indicating that he was located at position LC1-1 indicates that it is the last location information obtained, i.e., the latest location information.
なお、ユーザ情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、ユーザの位置に限らず、ユーザのコンテキストに関する各種情報を記憶する。例えば、ユーザ情報記憶部121は、ユーザの端末装置10が撮像した画像情報等の種々の情報を記憶する。例えば、ユーザ情報記憶部121は、デモグラフィック属性情報やサイコグラフィック属性情報等の種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、氏名、家族構成、収入等の情報を記憶してもよい。
The user
例えば、ユーザ情報記憶部121は、ユーザに付与されたインセンティブに関する情報を記憶する。例えば、ユーザ情報記憶部121は、ユーザに付与されたAレストランのポイント情報をユーザIDに対応付けて記憶する。
For example, the user
また、ユーザ情報記憶部121は、図示を省略するが、センサ情報を基に各ユーザを識別するための識別情報を、各ユーザIDに対応付けて記憶してもよい。例えば、ユーザ情報記憶部121には、「音声」といった項目を含む項目「識別情報」が含まれてもよい。
Although not shown in the figure, the user
項目「音声」には、ユーザの識別に用いられる音声情報が記憶される。項目「音声」には、各ユーザの音声情報、またはこれらの格納場所を示すファイルパス名などが格納されてもよい。項目「音声」に記憶される情報は、ユーザの音声の特徴を示す特徴情報であってもよい。例えば、項目「音声」に記憶される情報は、ユーザの発話から抽出された音声的な特徴を示す情報(音声特徴情報)であってもよい。例えば、項目「音声」に記憶される情報は、各発話から音声の特徴抽出に関する種々の従来技術を適宜用いて抽出された音声特徴情報であってもよい。 The "Voice" item stores voice information used to identify users. The "Voice" item may store voice information of each user, or a file path name indicating the storage location of this information. The information stored in the "Voice" item may be feature information indicating the features of the user's voice. For example, the information stored in the "Voice" item may be information indicating voice features extracted from the user's speech (voice feature information). For example, the information stored in the "Voice" item may be voice feature information extracted from each utterance using various conventional technologies related to voice feature extraction as appropriate.
図1の例では、情報処理装置100は、ユーザの発話と、ユーザ情報記憶部121中に記憶された音声とを用いて、発話を行ったユーザを判定(推定)してもよい。例えば、情報処理装置100は、ユーザの発話の音声情報と、ユーザ情報記憶部121中の項目「音声」に記憶された各ユーザの音声情報とを比較することにより、発話を行ったユーザを判定(推定)してもよい。なお、項目「識別情報」には、「画像」といった項目が含まれてもよい。この場合、項目「画像」には、ユーザの識別に用いられる画像情報が記憶される。
In the example of FIG. 1, the
(移動体情報記憶部122)
実施形態に係る移動体情報記憶部122は、移動体に関する各種情報を記憶する。図5は、実施形態に係る移動体情報記憶部の一例を示す図である。例えば、移動体情報記憶部122は、種々の移動体に関する情報を記憶する。図5に示す移動体情報記憶部122には、「移動体ID」、「登録番号」、「車載端末ID」、「利用ユーザID」といった項目が含まれる。
(Mobile object information storage unit 122)
The mobile object
「移動体ID」は、移動体を識別するための識別情報を示す。「登録番号」は、移動体の具体的な登録番号を示す。例えば、「登録番号」は、自動車等の移動体に取り付けられた自動車登録番号標(ナンバープレート)に表示される番号であってもよい。例えば、「登録番号」は、「品川500 たXX-XX」のような文字や数字等の記号を組合せたものであってもよい。また、「車載端末ID」は、移動体に搭載される端末装置を識別する情報を示す。なお、「車載端末ID」が「-(ハイフン)」である移動体には、端末装置が搭載されていないことを示す。また、「利用ユーザID」は、移動体を利用(運転)するユーザを示す。例えば、「利用ユーザID」は、移動体を所有するユーザを示す。 "Mobile object ID" indicates identification information for identifying a mobile object. "Registration number" indicates the specific registration number of a mobile object. For example, the "registration number" may be a number displayed on a vehicle registration plate attached to a mobile object such as an automobile. For example, the "registration number" may be a combination of letters, numbers, and other symbols, such as "Shinagawa 500 XX-XX." Furthermore, "on-board terminal ID" indicates information for identifying a terminal device mounted on a mobile object. Note that a mobile object with an "on-board terminal ID" of "- (hyphen)" indicates that no terminal device is mounted on the mobile object. Furthermore, "user ID" indicates the user who uses (drives) the mobile object. For example, the "user ID" indicates the user who owns the mobile object.
図5の例では、移動体ID「C1」により識別される移動体(移動体C1)は、登録番号が登録番号NB1であることを示す。また、移動体C1は、搭載される端末装置が車載端末ID「TM1-1」により識別される端末装置であることを示す。すなわち、移動体C1は、搭載される端末装置がスマートスピーカTM1-1であることを示す。また、移動体C1は、利用ユーザID「U1」により識別されるユーザ(ユーザU1)により利用される移動体であることを示す。 In the example of FIG. 5, the mobile unit (mobile unit C1) identified by the mobile unit ID "C1" has a registration number NB1. The mobile unit C1 also indicates that the terminal device mounted thereon is a terminal device identified by the vehicle-mounted terminal ID "TM1-1." In other words, the mobile unit C1 indicates that the terminal device mounted thereon is a smart speaker TM1-1. The mobile unit C1 also indicates that it is a mobile unit used by a user (user U1) identified by the user ID "U1."
なお、移動体情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
The mobile
(センサ情報記憶部123)
実施形態に係るセンサ情報記憶部123は、センサによる検知に関する各種情報を記憶する。例えば、センサ情報記憶部123は、センサにより検知されたセンサ情報を記憶する。図6は、実施形態に係るセンサ情報記憶部の一例を示す図である。例えば、センサ情報記憶部123は、各ユーザが利用する端末装置により検知されたセンサ情報を記憶する。図6に示すセンサ情報記憶部123には、「ログID」、「取得元」、「種別」、「センサ情報」、「日時」、「位置」といった項目が含まれる。
(Sensor information storage unit 123)
The sensor
「ログID」は、取得されたセンサ情報を識別するための識別情報を示す。「取得元」は、センサ情報を検知した端末装置を示す。また、「種別」は、検知されたセンサ情報の種別に関する情報を示す。「センサ情報」は、検知されたセンサ情報を示す。図6では「センサ情報」に「SN1-1」といった概念的な情報が格納される例を示したが、実際には、具体的に検知された情報(センサデータ)、または、その格納場所を示すファイルパス名などが格納されてもよい。 "Log ID" indicates identification information for identifying the acquired sensor information. "Source" indicates the terminal device that detected the sensor information. "Type" indicates information related to the type of detected sensor information. "Sensor information" indicates the detected sensor information. Figure 6 shows an example in which conceptual information such as "SN1-1" is stored in "sensor information," but in reality, specific detected information (sensor data) or a file path name indicating its storage location may be stored.
例えば、センサ情報の種別「画像」である場合、「センサ情報」には、静止画像や動画像、または、これらの格納場所を示すファイルパス名などが格納される。また、例えば、センサ情報の種別「発話」である場合、「センサ情報」には、音声データや音声データを変換後の文字情報、または、これらの格納場所を示すファイルパス名などが格納される。 For example, if the type of sensor information is "image," the "sensor information" stores still images, moving images, or file path names indicating where these are stored. Also, for example, if the type of sensor information is "speech," the "sensor information" stores voice data, text information after converting voice data, or file path names indicating where these are stored.
「日時」は、センサ情報が検知された日時を示す。「日時」には、「dt1-1」等のように抽象的に図示するが、「2018年8月9日22時31分52秒」等の具体的な日時が記憶されてもよい。なお、「日時」は、時点に限らず、「2018年8月9日22時31分」や「2018年8月9日22時30-31分」等の所定の期間であってもよい。また、「位置」は、対応する行動が行われた位置を示す。なお、「位置」は、「LC1-2」といった抽象的な符号を図示するが、緯度や経度を示す情報や「X県Y市Z町B交差点」等のような住所を示す情報であってもよい。 "Date and time" indicates the date and time when the sensor information was detected. "Date and time" is illustrated abstractly, such as "dt1-1", but a specific date and time, such as "August 9, 2018, 22:31:52", may also be stored. Note that "date and time" is not limited to a point in time, but may be a predetermined period, such as "August 9, 2018, 22:31" or "August 9, 2018, 22:30-31". Furthermore, "location" indicates the location where the corresponding action was performed. Note that "location" is illustrated as an abstract code, such as "LC1-2", but it may also be information indicating latitude and longitude, or information indicating an address, such as "B intersection, Z town, Y city, X prefecture".
図6の例では、ログID「LG11」により識別される履歴情報(ログLG11)におけるセンサ情報SN1-1の取得元は、ID「TM1-1」により識別される端末装置であることを示す。すなわち、ログLG11のセンサ情報SN1-1は、スマートスピーカTM1-1により検知されたことを示す。ログLG11のセンサ情報SN1-1は、種別「画像」である動画像情報であることを示す。また、ログLG11のセンサ情報SN1-1は、日時dt1-1において、位置LC1-1で取得(検知)されたことを示す。 In the example of FIG. 6, the source of sensor information SN1-1 in the history information (log LG11) identified by log ID "LG11" is the terminal device identified by ID "TM1-1". In other words, the sensor information SN1-1 in log LG11 indicates that it was detected by smart speaker TM1-1. The sensor information SN1-1 in log LG11 indicates that it is video image information of type "image". In addition, the sensor information SN1-1 in log LG11 indicates that it was acquired (detected) at position LC1-1 at date and time dt1-1.
また、図6の例では、ログID「LG22」により識別される履歴情報(ログLG22)におけるセンサ情報SN1-3の取得元は、ID「TM1-2」により識別される端末装置であることを示す。すなわち、ログLG22のセンサ情報SN1-3は、スマートスピーカTM1-2により検知されたことを示す。ログLG22のセンサ情報SN1-3は、種別「発話」である音声情報であることを示す。また、ログLG22のセンサ情報SN1-3は、日時dt1-2において、位置LC1-2で取得(検知)されたことを示す。 In the example of FIG. 6, the sensor information SN1-3 in the history information (log LG22) identified by the log ID "LG22" was acquired from a terminal device identified by the ID "TM1-2". In other words, the sensor information SN1-3 in log LG22 indicates that it was detected by smart speaker TM1-2. The sensor information SN1-3 in log LG22 indicates that it is voice information of the type "utterance". Furthermore, the sensor information SN1-3 in log LG22 indicates that it was acquired (detected) at position LC1-2 at date and time dt1-2.
なお、センサ情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
The sensor
(評価情報記憶部124)
実施形態に係る評価情報記憶部124は、評価に関する情報を記憶する。例えば、評価情報記憶部124は、移動体の運転に関するユーザの評価に関する情報を記憶する。図7は、実施形態に係る評価情報記憶部の一例を示す図である。図7に示す評価情報記憶部124は、「ユーザID」、「評価スコア」といった項目が含まれる。
(Evaluation information storage unit 124)
The evaluation
「ユーザID」は、ユーザを識別するための識別情報を示す。「評価スコア」は、ユーザの移動体の運転に関する評価を示す。例えば、「評価スコア」は、ユーザの移動体の運転に関する評価を示す数値(スコア)を示す。なお、図7の例では、「評価スコア」には、「RP1」等のように抽象的に図示するが、「15」、「0.85」等の具体的なスコアが記憶されるものとする。 "User ID" indicates identification information for identifying a user. "Evaluation score" indicates an evaluation of the user's driving of a mobile object. For example, "Evaluation score" indicates a numerical value (score) indicating an evaluation of the user's driving of a mobile object. Note that in the example of FIG. 7, "Evaluation score" is illustrated abstractly as "RP1", etc., but concrete scores such as "15" and "0.85" are stored.
図7の例では、ユーザID「U1」により識別されるユーザ(ユーザU1)は、評価スコアが「RP1」であることを示す。 In the example of Figure 7, the user (user U1) identified by the user ID "U1" has an evaluation score of "RP1".
なお、評価情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、評価情報記憶部124は、ユーザの運転に関する属性を示す情報(運転属性情報)をユーザに対応付けて記憶する。
The evaluation
評価情報記憶部124は、ユーザが運転初心者である場合、初心者であることを示す情報をそのユーザに対応付けて記憶する。例えば、評価情報記憶部124は、ユーザが若葉ワークを取り付けて移動体を運転するユーザである場合、若葉ワークが必要な初心者であることを示す情報をユーザに対応付けて記憶する。
If the user is a beginner driver, the evaluation
また、評価情報記憶部124は、ユーザが高齢者である場合、高齢者であることを示す情報をそのユーザに対応付けて記憶する。例えば、評価情報記憶部124は、ユーザがもみじマークを取り付けて移動体を運転するユーザである場合、もみじマークが必要な高齢者であることを示す情報をユーザに対応付けて記憶する。
In addition, if the user is an elderly person, the evaluation
(制御部130)
図3の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 130)
Returning to the explanation of Fig. 3, the control unit 130 is a controller, and is realized, for example, by a CPU (Central Processing Unit), MPU (Micro Processing Unit), etc., executing various programs (corresponding to an example of an information processing program) stored in a storage device inside the
図3に示すように、制御部130は、取得部131と、解析部132と、決定部133と、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。 As shown in FIG. 3, the control unit 130 has an acquisition unit 131, an analysis unit 132, a determination unit 133, and a provision unit 134, and realizes or executes the functions and actions of the information processing described below. Note that the internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 3, and may be other configurations as long as they perform the information processing described below. Also, the connection relationship between each processing unit in the control unit 130 is not limited to the connection relationship shown in FIG. 3, and may be other connection relationships.
(取得部131)
取得部131は、種々の情報を取得する。取得部131は、スマートスピーカ10等の外部装置から各種情報を取得する。また、取得部131は、記憶部120から各種情報を取得する。また、取得部131は、ユーザ情報記憶部121や、移動体情報記憶部122や、センサ情報記憶部123や、評価情報記憶部124等から各種情報を取得する。
(Acquisition unit 131)
The acquisition unit 131 acquires various information. The acquisition unit 131 acquires various information from an external device such as the
取得部131は、ユーザが乗る一の移動体に配置された一の端末装置、及び他の移動体に配置された他の端末装置のうち、いずれか一方の端末装置により検知されたセンサ情報を取得する。取得部131は、一のスマートスピーカである一方の端末装置により検知されたセンサ情報を取得する。取得部131は、一方の端末装置により検知された音声情報を含むセンサ情報を取得する。 The acquisition unit 131 acquires sensor information detected by one of a terminal device installed in a mobile body in which a user rides and another terminal device installed in another mobile body. The acquisition unit 131 acquires sensor information detected by one terminal device, which is a smart speaker. The acquisition unit 131 acquires sensor information including audio information detected by one terminal device.
取得部131は、他の端末装置により検知されたセンサ情報を取得する。取得部131は、他の移動体に乗る他のユーザの発話情報を含むセンサ情報を取得する。取得部131は、他の端末装置により撮像された画像情報を含むセンサ情報を取得する。 The acquisition unit 131 acquires sensor information detected by other terminal devices. The acquisition unit 131 acquires sensor information including speech information of other users riding on other moving objects. The acquisition unit 131 acquires sensor information including image information captured by other terminal devices.
取得部131は、一の端末装置により検知されたセンサ情報を取得する。取得部131は、ユーザの発話情報を含むセンサ情報を取得する。取得部131は、一の端末装置により撮像された画像情報を含むセンサ情報を取得する。 The acquisition unit 131 acquires sensor information detected by one terminal device. The acquisition unit 131 acquires sensor information including user speech information. The acquisition unit 131 acquires sensor information including image information captured by one terminal device.
図1の例では、取得部131は、センサ情報SN1-1や位置情報や日時情報や端末情報等を取得する。取得部131は、一覧情報SLST1に示すように、ログID「LG11」により識別されるログを取得する。取得部131は、センサ情報SN1-1の取得元は、スマートスピーカTM1-1であることを示す情報を取得する。取得部131は、種別が「画像」、すなわち動画像であるセンサ情報SN1-1を取得する。また、取得部131は、センサ情報SN1-1が日時dt1-1において、位置LC1-1で取得(検知)されたことを示す情報を取得する。 In the example of FIG. 1, the acquisition unit 131 acquires sensor information SN1-1, location information, date and time information, terminal information, etc. As shown in list information SLST1, the acquisition unit 131 acquires a log identified by log ID "LG11". The acquisition unit 131 acquires information indicating that the source of sensor information SN1-1 is smart speaker TM1-1. The acquisition unit 131 acquires sensor information SN1-1 whose type is "image", that is, a moving image. The acquisition unit 131 also acquires information indicating that sensor information SN1-1 was acquired (detected) at date and time dt1-1 at position LC1-1.
取得部131は、センサ情報SN1-2や位置情報や日時情報や端末情報等を取得する。取得部131は、一覧情報SLST2に示すように、ログID「LG21」により識別されるログを取得する。取得部131は、センサ情報SN1-2の取得元は、スマートスピーカTM1-2であることを示す情報を取得する。取得部131は、種別が「画像」、すなわち動画像であるセンサ情報SN1-2を取得する。また、取得部131は、センサ情報SN1-2が日時dt1-1において、位置LC1-2で取得(検知)されたことを示す情報を取得する。 The acquisition unit 131 acquires the sensor information SN1-2, location information, date and time information, terminal information, etc. The acquisition unit 131 acquires a log identified by the log ID "LG21" as shown in the list information SLST2. The acquisition unit 131 acquires information indicating that the source of the sensor information SN1-2 is the smart speaker TM1-2. The acquisition unit 131 acquires sensor information SN1-2 whose type is "image", i.e., a moving image. The acquisition unit 131 also acquires information indicating that the sensor information SN1-2 was acquired (detected) at the date and time dt1-1 at the position LC1-2.
取得部131は、センサ情報SN1-3や位置情報や日時情報や端末情報等を取得する。取得部131は、一覧情報SLST2に示すように、ログID「LG22」により識別されるログを取得する。取得部131は、センサ情報SN1-3の取得元は、スマートスピーカTM1-2であることを示す情報を取得する。取得部131は、種別が「発話」、すなわちユーザに関する音声であるセンサ情報SN1-3を取得する。また、取得部131は、センサ情報SN1-2が日時dt1-2において、位置LC1-2で取得(検知)されたことを示す情報を取得する。 The acquisition unit 131 acquires sensor information SN1-3, location information, date and time information, terminal information, etc. As shown in list information SLST2, the acquisition unit 131 acquires a log identified by log ID "LG22". The acquisition unit 131 acquires information indicating that the source of sensor information SN1-3 is smart speaker TM1-2. The acquisition unit 131 acquires sensor information SN1-3 whose type is "speech", that is, audio related to the user. The acquisition unit 131 also acquires information indicating that sensor information SN1-2 was acquired (detected) at date and time dt1-2 at position LC1-2.
(解析部132)
解析部132は、各種情報を解析する。解析部132は、各種情報を推定する。解析部132は、各種情報を特定する。解析部132は、各種情報を抽出する。解析部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を解析する。解析部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を推定する。解析部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を特定する。解析部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を抽出する。解析部132は、ユーザ情報記憶部121や、移動体情報記憶部122や、センサ情報記憶部123や、評価情報記憶部124等に基づいて、各種情報を解析する。解析部132は、ユーザ情報記憶部121や、移動体情報記憶部122や、センサ情報記憶部123や、評価情報記憶部124等に基づいて、各種情報を推定する。解析部132は、ユーザ情報記憶部121や、移動体情報記憶部122や、センサ情報記憶部123や、評価情報記憶部124等に基づいて、各種情報を特定する。解析部132は、ユーザ情報記憶部121や、移動体情報記憶部122や、センサ情報記憶部123や、評価情報記憶部124等に基づいて、各種情報を抽出する。解析部132は、取得部131により取得された各種情報に基づいて、種々の情報を解析する。解析部132は、取得部131により取得された各種情報に基づいて、種々の情報を推定する。解析部132は、取得部131により取得された各種情報に基づいて、種々の情報を特定する。解析部132は、取得部131により取得された各種情報に基づいて、種々の情報を抽出する。
(Analysis unit 132)
The analysis unit 132 analyzes various information. The analysis unit 132 estimates various information. The analysis unit 132 identifies various information. The analysis unit 132 extracts various information. The analysis unit 132 analyzes various information based on various information stored in the storage unit 120. The analysis unit 132 estimates various information based on various information stored in the storage unit 120. The analysis unit 132 identifies various information based on various information stored in the storage unit 120. The analysis unit 132 extracts various information based on various information stored in the storage unit 120. The analysis unit 132 analyzes various information based on the user
図1の例では、解析部132は、センサ情報SN1-1を解析する。解析部132は、画像解析や画像処理に関する種々の従来技術を適宜用いて、センサ情報SN1-1を解析することにより、移動体C1を運転するユーザU1の運転態様を推定する。解析部132は、画像解析や画像処理に関する種々の従来技術を適宜用いて、図1中の内容一覧情報ALST1に示すように、センサ情報SN1-1に含まれるユーザU1の移動体C1の運転の内容を推定する。 In the example of FIG. 1, the analysis unit 132 analyzes the sensor information SN1-1. The analysis unit 132 estimates the driving behavior of the user U1 who is driving the mobile object C1 by analyzing the sensor information SN1-1 using various conventional techniques related to image analysis and image processing as appropriate. The analysis unit 132 estimates the content of the driving of the mobile object C1 by the user U1 contained in the sensor information SN1-1 by using various conventional techniques related to image analysis and image processing as appropriate, as shown in the content list information ALST1 in FIG. 1.
解析部132は、移動体C1の前方を撮像したセンサ情報SN1-1では、信号のうち青が点灯しているため、移動体C1が進行してよいコンテキストであると推定する。また、解析部132は、移動体C1の前方を撮像したセンサ情報SN1-1では、移動体C1が進行してよいコンテキストにおいて、移動体C3が移動体C1の前方を通過したため、移動体C1が道を譲ったと推定する。これにより、解析部132は、センサ情報SN1-1におけるユーザU1の運転が移動体C1を対象として道を譲る行為であると解析する。 The analysis unit 132 estimates that the context in which the moving body C1 may proceed is OK because the green light is on in the sensor information SN1-1 that captures an image of the area in front of the moving body C1. The analysis unit 132 also estimates that the moving body C1 has given way because the moving body C3 has passed in front of the moving body C1 in a context in which the moving body C1 may proceed, in the sensor information SN1-1 that captures an image of the area in front of the moving body C1. As a result, the analysis unit 132 analyzes that the driving of the user U1 in the sensor information SN1-1 is an act of giving way to the moving body C1.
解析部132は、センサ情報SN1-2、SN1-3を解析する。解析部132は、センサ情報SN1-3を解析することにより、ユーザU2が対向する移動体(車)の運転手の運転を評価していると推定する。例えば、解析部132は、行動者「U2」や評価対象「対向する車の運転手」や評価「高評価」等の情報を含むセンサ情報SN1-3の解析結果を示す解析結果情報RS11を生成する。例えば、解析部132は、センサ情報SN1-3を解析することにより、ユーザU2が対向する車の運転について高評価であると推定する。 The analysis unit 132 analyzes the sensor information SN1-2 and SN1-3. By analyzing the sensor information SN1-3, the analysis unit 132 estimates that the user U2 is evaluating the driving of the driver of the oncoming moving body (car). For example, the analysis unit 132 generates analysis result information RS11 that indicates the analysis result of the sensor information SN1-3, which includes information such as the actor "U2", the evaluation target "driver of the oncoming car", and the evaluation "high evaluation". For example, by analyzing the sensor information SN1-3, the analysis unit 132 estimates that the user U2 is evaluating the driving of the oncoming car highly.
解析部132は、移動体C2の前方を撮像したセンサ情報SN1-2に含まれる移動体の登録番号に基づいて、ユーザU2の移動体C2に対向する車が移動体C1であることを特定する。例えば、解析部132は、移動体C2の前方を撮像したセンサ情報SN1-2に基づいて、移動体C2に対向する車の登録番号が登録番号NB1であると特定する。例えば、解析部132は、移動体C2の前方を撮像したセンサ情報SN1-2における移動体C2に対向する車のナンバープレート部分の画像を解析することにより、移動体C2に対向する車の登録番号が登録番号NB1であると特定する。 The analysis unit 132 identifies that the vehicle approaching the moving body C2 of the user U2 is the moving body C1 based on the registration number of the moving body contained in the sensor information SN1-2 that captured an image of the area in front of the moving body C2. For example, the analysis unit 132 identifies that the registration number of the vehicle approaching the moving body C2 is registration number NB1 based on the sensor information SN1-2 that captured an image of the area in front of the moving body C2. For example, the analysis unit 132 identifies that the registration number of the vehicle approaching the moving body C2 is registration number NB1 by analyzing an image of the license plate portion of the vehicle approaching the moving body C2 in the sensor information SN1-2 that captured an image of the area in front of the moving body C2.
解析部132は、図1中の内容一覧情報ALST2に示すように、ユーザU2によるユーザU1の運転に対する評価が、内容ID「A21」により識別される内容「高評価」であると特定する。解析部132は、記憶部120に記憶された内容IDと内容とが対応付けられた内容一覧情報を用いて、ユーザU2によるユーザU1の運転に対する評価が内容ID「A21」により識別される内容「高評価」であると特定する。 As shown in the content list information ALST2 in FIG. 1, the analysis unit 132 determines that the evaluation of user U2's driving by user U1 is "highly rated", a content identified by the content ID "A21". The analysis unit 132 determines that the evaluation of user U2's driving by user U1 is "highly rated", a content identified by the content ID "A21", by using the content list information in which the content IDs and contents stored in the storage unit 120 are associated with each other.
(決定部133)
決定部133は、各種情報を決定する。決定部133は、各種情報を判定する。決定部133は、各種情報を生成する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を決定する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を判定する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を生成する。決定部133は、ユーザ情報記憶部121や、移動体情報記憶部122や、センサ情報記憶部123や、評価情報記憶部124等に基づいて、各種情報を決定する。決定部133は、ユーザ情報記憶部121や、移動体情報記憶部122や、センサ情報記憶部123や、評価情報記憶部124等に基づいて、各種情報を生成する。決定部133は、解析部132により推定された各種情報に基づいて、種々の情報を決定する。決定部133は、取得部131により取得された各種情報に基づいて、種々の情報を決定する。決定部133は、取得部131により取得された各種情報に基づいて、種々の情報を生成する。
(Determination unit 133)
The determination unit 133 determines various information. The determination unit 133 judges various information. The determination unit 133 generates various information. The determination unit 133 determines various information based on various information stored in the storage unit 120. The determination unit 133 judges various information based on various information stored in the storage unit 120. The determination unit 133 generates various information based on various information stored in the storage unit 120. The determination unit 133 determines various information based on the user
決定部133は、取得部131により取得されたセンサ情報に基づいて、移動体の運転に関するユーザの評価を決定する。決定部133は、取得部131により取得された音声情報に基づいて、ユーザの評価を決定する。 The determination unit 133 determines the user's evaluation regarding the driving of the mobile object based on the sensor information acquired by the acquisition unit 131. The determination unit 133 determines the user's evaluation based on the voice information acquired by the acquisition unit 131.
決定部133は、他の移動体におけるセンサ情報に基づいて、ユーザの評価を決定する。決定部133は、他の移動体における発話情報に基づいて、ユーザの評価を決定する。決定部133は、他の移動体における画像情報に基づいて、ユーザの評価を決定する。 The determination unit 133 determines the user's evaluation based on sensor information in the other moving object. The determination unit 133 determines the user's evaluation based on speech information in the other moving object. The determination unit 133 determines the user's evaluation based on image information in the other moving object.
決定部133は、一の移動体におけるセンサ情報に基づいて、ユーザの評価を決定する。決定部133は、一の移動体における発話情報に基づいて、ユーザの評価を決定する。決定部133は、一の移動体における画像情報に基づいて、ユーザの評価を決定する。 The determination unit 133 determines the user's evaluation based on sensor information in one moving object. The determination unit 133 determines the user's evaluation based on speech information in one moving object. The determination unit 133 determines the user's evaluation based on image information in one moving object.
図1の例では、決定部133は、内容一覧情報ALST1に示すようなセンサ情報SN1-1の解析結果に基づいて、移動体の運転に関するユーザU1の評価を決定する。決定部133は、記憶部120に記憶された運転の内容とその評価とが対応付けられた評価一覧情報を用いて、ユーザU1の評価を決定する。決定部133は、記憶部120に記憶された内容IDと評価とが対応付けられた評価一覧情報を用いて、ユーザU1の評価を決定する。 In the example of FIG. 1, the determination unit 133 determines user U1's evaluation regarding the driving of a mobile object based on the analysis results of sensor information SN1-1 as shown in content list information ALST1. The determination unit 133 determines user U1's evaluation using evaluation list information in which the content of driving and the evaluation are associated with each other and stored in the memory unit 120. The determination unit 133 determines user U1's evaluation using evaluation list information in which the content ID and the evaluation are associated with each other and stored in the memory unit 120.
例えば、決定部133は、解析結果と評価一覧情報とを比較することにより、ユーザU1の評価を決定する。決定部133は、評価一覧情報において、図1中の内容一覧情報ALST1に示す解析結果中の内容ID「A11」に該当する内容の評価をユーザU1の評価を決定する。図1の例では、評価一覧情報では、内容ID「A11」が評価「良(1)」に対応付けられているため、決定部133は、図1中の評価一覧情報RLST1に示すように、ユーザU1の評価を「良」に決定する。 For example, the determination unit 133 determines the evaluation of user U1 by comparing the analysis result with the evaluation list information. The determination unit 133 determines the evaluation of user U1 based on the evaluation of the content corresponding to the content ID "A11" in the analysis result shown in the content list information ALST1 in FIG. 1 in the evaluation list information. In the example of FIG. 1, the content ID "A11" is associated with the evaluation "good (1)" in the evaluation list information, so the determination unit 133 determines the evaluation of user U1 to be "good" as shown in the evaluation list information RLST1 in FIG. 1.
決定部133は、ユーザU1の評価「良」に基づいて、ユーザU1に提供するサービスを決定する。決定部133は、ユーザU1の評価「良」に基づいて、ユーザU1に通知を行うと決定する。具体的には、決定部133は、ユーザU1の評価「良」に基づいて、ユーザU1の運転を評価する通知を行うと決定する。 The decision unit 133 decides the service to be provided to the user U1 based on the user U1's evaluation of "good". The decision unit 133 decides to provide a notification to the user U1 based on the user U1's evaluation of "good". Specifically, the decision unit 133 decides to provide a notification evaluating the driving of the user U1 based on the user U1's evaluation of "good".
決定部133は、図1中の内容一覧情報ALST2に示すようなセンサ情報SN1-2、SN1-3の解析結果に基づいて、移動体の運転に関するユーザU1の評価を決定する。例えば、決定部133は、上記のような運転の内容とその評価とが対応付けられた評価一覧情報を用いて、ユーザU1の評価を決定する。決定部133は、記憶部120に記憶された内容IDと評価とが対応付けられた評価一覧情報を用いて、ユーザU1の評価を決定する。 The determination unit 133 determines the user U1's evaluation regarding the driving of the mobile object based on the analysis results of the sensor information SN1-2 and SN1-3 as shown in the content list information ALST2 in FIG. 1. For example, the determination unit 133 determines the user U1's evaluation using the evaluation list information in which the driving content and the evaluation are associated as described above. The determination unit 133 determines the user U1's evaluation using the evaluation list information in which the content ID stored in the storage unit 120 is associated with the evaluation.
例えば、決定部133は、解析結果と評価一覧情報とを比較することにより、ユーザU1の評価を決定する。決定部133は、評価一覧情報において、図1中の内容一覧情報ALST2に示す解析結果中の内容ID「A21」に該当する内容の評価をユーザU1の評価を決定する。評価一覧情報では、内容ID「A21」が評価「良(1)」に対応付けられているため、決定部133は、図1中の評価一覧情報RLST2に示すように、ユーザU1の評価を「良」に決定する。 For example, the determination unit 133 determines the evaluation of user U1 by comparing the analysis result with the evaluation list information. In the evaluation list information, the determination unit 133 determines the evaluation of user U1 as the evaluation of the content corresponding to the content ID "A21" in the analysis result shown in the content list information ALST2 in FIG. 1. In the evaluation list information, the content ID "A21" is associated with the evaluation "good (1)," so the determination unit 133 determines the evaluation of user U1 to be "good," as shown in the evaluation list information RLST2 in FIG. 1.
(提供部134)
提供部134は、各種情報を提供する。提供部134は、外部の情報処理装置へ各種情報を提供する。提供部134は、スマートスピーカ10等の外部の情報処理装置に各種情報を提供する。提供部134は、スマートスピーカ10に各種情報を送信する。提供部134は、スマートスピーカ10に各種情報を配信する。提供部134は、取得部131により取得された各種情報に基づいて、種々の情報を提供する。提供部134は、解析部132により解析された各種情報に基づいて、種々の情報を提供する。提供部134は、決定部133により決定された各種情報に基づいて、種々の情報を提供する。
(Providing Unit 134)
The providing unit 134 provides various information. The providing unit 134 provides various information to an external information processing device. The providing unit 134 provides various information to an external information processing device such as the
提供部134は、決定部133により決定されたユーザの評価に基づくサービスを提供する。提供部134は、ユーザの評価に基づいて、ユーザに情報を通知する。 The providing unit 134 provides a service based on the user's evaluation determined by the determining unit 133. The providing unit 134 notifies the user of information based on the user's evaluation.
提供部134は、ユーザの評価が安全運転に関する所定の基準を満たす場合、ユーザの運転を高評価する情報を通知する。提供部134は、ユーザの評価が他のユーザの配慮に関する所定の基準を満たす場合、一の移動体の周囲に位置する移動体に、安全運転を促す情報を通知する。提供部134は、ユーザが初心者または高齢者に関する所定の基準を満たす場合、一の移動体の周囲に位置する移動体に、安全運転を促す情報を通知する。 When the user's evaluation meets a predetermined standard regarding safe driving, the providing unit 134 notifies the user of information that highly evaluates the user's driving. When the user's evaluation meets a predetermined standard regarding consideration for other users, the providing unit 134 notifies the mobile objects located around the one mobile object of information encouraging safe driving. When the user meets a predetermined standard regarding beginners or elderly people, the providing unit 134 notifies the mobile objects located around the one mobile object of information encouraging safe driving.
提供部134は、ユーザの評価に基づいて、ユーザに所定のインセンティブを提供する。提供部134は、ユーザの評価が所定の基準を満たす場合、ユーザに駐車場サービスに関するインセンティブを提供する。提供部134は、ユーザの評価が所定の基準を満たす場合、ユーザにユーザの運送サービスに関するインセンティブを提供する。 The providing unit 134 provides a predetermined incentive to the user based on the user's evaluation. If the user's evaluation meets a predetermined criterion, the providing unit 134 provides the user with an incentive related to a parking service. If the user's evaluation meets a predetermined criterion, the providing unit 134 provides the user with an incentive related to the user's transportation service.
図1の例では、提供部134は、ユーザU1の運転を評価する通知情報をスマートスピーカTM1-1に提供する。提供部134は、スマートスピーカTM1-1に出力させる音声情報である通知情報INF1をスマートスピーカTM1-1に送信する。 In the example of FIG. 1, the providing unit 134 provides notification information evaluating the driving of the user U1 to the smart speaker TM1-1. The providing unit 134 transmits notification information INF1, which is audio information to be output by the smart speaker TM1-1, to the smart speaker TM1-1.
〔3.情報処理のフロー〕
次に、図8を用いて、実施形態に係る情報処理システム1による情報処理の手順について説明する。図8は、実施形態に係る情報処理の一例を示すフローチャートである。具体的には、図8は、決定処理の一例を示すフローチャートである。
[3. Information processing flow]
Next, a procedure of information processing by the
図8に示すように、情報処理装置100は、ユーザが乗る一の移動体に配置された一の端末装置、及び他の移動体に配置された他の端末装置のうち、いずれか一方の端末装置により検知されたセンサ情報を取得する(ステップS101)。そして、情報処理装置100は、センサ情報に基づいて、移動体の運転に関するユーザの評価を決定する(ステップS102)。そして、情報処理装置100は、決定した評価に基づくサービスを提供する(ステップS103)。
As shown in FIG. 8, the
〔4.効果〕
上述してきたように、実施形態に係る情報処理装置100は、取得部131と、決定部133とを有する。取得部131は、ユーザが乗る一の移動体に配置された一の端末装置、及び他の移動体に配置された他の端末装置のうち、いずれか一方の端末装置により検知されたセンサ情報を取得する。決定部133は、取得部131により取得されたセンサ情報に基づいて、移動体の運転に関するユーザの評価を決定する。
4. Effects
As described above, the
このように、実施形態に係る情報処理装置100は、ユーザが乗る一の移動体に配置された一の端末装置、及び他の移動体に配置された他の端末装置のうち、いずれか一方の端末装置により検知されたセンサ情報に基づいて、移動体の運転に関するユーザの評価を決定することにより、移動体の運転に関するユーザの評価を適切に決定することができる。
In this way, the
また、実施形態に係る情報処理装置100において、取得部131は、一のスマートスピーカである一方の端末装置により検知されたセンサ情報を取得する。
In addition, in the
このように、実施形態に係る情報処理装置100は、一のスマートスピーカである一方の端末装置により検知されたセンサ情報に基づいて、移動体の運転に関するユーザの評価を決定することにより、移動体の運転に関するユーザの評価を適切に決定することができる。
In this way, the
また、実施形態に係る情報処理装置100において、取得部131は、一方の端末装置により検知された音声情報を含むセンサ情報を取得する。決定部133は、取得部131により取得された音声情報に基づいて、ユーザの評価を決定する。
In addition, in the
このように、実施形態に係る情報処理装置100は、一方の端末装置により検知された音声情報に基づいて、移動体の運転に関するユーザの評価を決定することにより、移動体の運転に関するユーザの評価を適切に決定することができる。
In this way, the
また、実施形態に係る情報処理装置100において、取得部131は、他の端末装置により検知されたセンサ情報を取得する。決定部133は、他の移動体におけるセンサ情報に基づいて、ユーザの評価を決定する。
In addition, in the
このように、実施形態に係る情報処理装置100は、他の端末装置により検知されたセンサ情報に基づいて、移動体の運転に関するユーザの評価を決定することにより、他の移動体により検知された情報を基に評価を決定することできる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価を適切に決定することができる。
In this way, the
また、実施形態に係る情報処理装置100において、取得部131は、他の移動体に乗る他のユーザの発話情報を含むセンサ情報を取得する。決定部133は、他の移動体における発話情報に基づいて、ユーザの評価を決定する。
In addition, in the
このように、実施形態に係る情報処理装置100は、他の移動体に乗る他のユーザの発話情報に基づいて、移動体の運転に関するユーザの評価を決定することにより、他の移動体により検知された情報を基に評価を決定することできる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価を適切に決定することができる。
In this way, the
また、実施形態に係る情報処理装置100において、取得部131は、他の端末装置により撮像された画像情報を含むセンサ情報を取得する。決定部133は、画像情報に基づいて、ユーザの評価を決定する。
In addition, in the
このように、実施形態に係る情報処理装置100は、他の端末装置により撮像された画像情報に基づいて、移動体の運転に関するユーザの評価を決定することにより、他の移動体により検知された情報を基に評価を決定することできる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価を適切に決定することができる。
In this way, the
また、実施形態に係る情報処理装置100において、取得部131は、一の端末装置により検知されたセンサ情報を取得する。決定部133は、一の移動体におけるセンサ情報に基づいて、ユーザの評価を決定する。
In addition, in the
このように、実施形態に係る情報処理装置100は、ユーザが乗る移動体に配置された一の端末装置により検知されたセンサ情報に基づいて、移動体の運転に関するユーザの評価を決定することにより、ユーザが乗る移動体自体により検知された情報を基に評価を決定することできる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価を適切に決定することができる。
In this way, the
また、実施形態に係る情報処理装置100において、取得部131は、ユーザの発話情報を含むセンサ情報を取得する。決定部133は、一の移動体における発話情報に基づいて、ユーザの評価を決定する。
In addition, in the
このように、実施形態に係る情報処理装置100は、ユーザが乗る移動体に配置された一の端末装置により検知されたユーザの発話情報に基づいて、移動体の運転に関するユーザの評価を決定することにより、ユーザが乗る移動体自体により検知された情報を基に評価を決定することできる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価を適切に決定することができる。
In this way, the
また、実施形態に係る情報処理装置100において、取得部131は、一の端末装置により撮像された画像情報を含むセンサ情報を取得する。決定部133は、画像情報に基づいて、ユーザの評価を決定する。
In addition, in the
このように、実施形態に係る情報処理装置100は、ユーザが乗る移動体に配置された一の端末装置により撮像された画像情報に基づいて、移動体の運転に関するユーザの評価を決定することにより、ユーザが乗る移動体自体により検知された情報を基に評価を決定することできる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価を適切に決定することができる。
In this way, the
また、実施形態に係る情報処理装置100は、提供部134を有する。提供部134は、決定部133により決定されたユーザの評価に基づくサービスを提供する。
The
このように、実施形態に係る情報処理装置100は、決定したユーザの評価に基づくサービスを提供することにより、移動体の運転に関するユーザの評価に応じて、適切なサービスを提供することができる。
In this way, the
また、実施形態に係る情報処理装置100において、提供部134は、ユーザの評価に基づいて、ユーザに情報を通知する。
In addition, in the
このように、実施形態に係る情報処理装置100は、ユーザの評に基づいて、ユーザに情報を通知することにより、ユーザに情報を通知するサービスを適切に提供することができる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価に応じて、適切なサービスを提供することができる。
In this way, the
また、実施形態に係る情報処理装置100において、提供部134は、ユーザの評価が安全運転に関する所定の基準を満たす場合、ユーザの運転を高評価する情報を通知する。
In addition, in the
このように、実施形態に係る情報処理装置100は、ユーザの評価が安全運転に関する所定の基準を満たす場合、ユーザの運転を高評価する情報を通知することにより、ユーザに情報を通知するサービスを適切に提供することができる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価に応じて、適切なサービスを提供することができる。
In this way, when the user's evaluation meets a predetermined standard regarding safe driving, the
また、実施形態に係る情報処理装置100において、提供部134は、ユーザの評価が他のユーザの配慮に関する所定の基準を満たす場合、一の移動体の周囲に位置する移動体に、安全運転を促す情報を通知する。
In addition, in the
このように、実施形態に係る情報処理装置100は、ユーザの評価が他のユーザの配慮に関する所定の基準を満たす場合、一の移動体の周囲に位置する移動体に、安全運転を促す情報を通知することにより、情報を通知するサービスを適切に提供することができる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価に応じて、適切なサービスを提供することができる。
In this way, when a user's evaluation satisfies a predetermined standard regarding consideration for other users, the
また、実施形態に係る情報処理装置100において、提供部134は、ユーザが初心者または高齢者に関する所定の基準を満たす場合、一の移動体の周囲に位置する移動体に、安全運転を促す情報を通知する。
In addition, in the
このように、実施形態に係る情報処理装置100は、ユーザが初心者または高齢者に関する所定の基準を満たす場合、一の移動体の周囲に位置する移動体に、安全運転を促す情報を通知することにより、情報を通知するサービスを適切に提供することができる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価に応じて、適切なサービスを提供することができる。
In this way, when a user meets a predetermined standard related to being a beginner or an elderly person, the
また、実施形態に係る情報処理装置100において、提供部134は、ユーザの評価に基づいて、ユーザに所定のインセンティブを提供する。
In addition, in the
このように、実施形態に係る情報処理装置100は、ユーザの評価に基づいて、ユーザに所定のインセンティブを提供することにより、ユーザにインセンティブを提供するサービスを適切に提供することができる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価に応じて、適切なサービスを提供することができる。
In this way, the
また、実施形態に係る情報処理装置100において、提供部134は、ユーザの評価が所定の基準を満たす場合、ユーザに駐車場サービスに関するインセンティブを提供する。
In addition, in the
このように、実施形態に係る情報処理装置100は、ユーザの評価が所定の基準を満たす場合、ユーザに駐車場サービスに関するインセンティブを提供することにより、ユーザにインセンティブを提供するサービスを適切に提供することができる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価に応じて、適切なサービスを提供することができる。
In this way, the
また、実施形態に係る情報処理装置100において、提供部134は、ユーザの評価が所定の基準を満たす場合、ユーザにユーザの運送サービスに関するインセンティブを提供する。
In addition, in the
このように、実施形態に係る情報処理装置100は、ユーザの評価が所定の基準を満たす場合、ユーザにユーザの運送サービスに関するインセンティブを提供することにより、ユーザにインセンティブを提供するサービスを適切に提供することができる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価に応じて、適切なサービスを提供することができる。
In this way, the
〔5.ハードウェア構成〕
上述してきた実施形態に係る情報処理装置100は、例えば図9に示すような構成のコンピュータ1000によって実現される。図9は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
5. Hardware Configuration
The
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the
以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments and variations of the present application have been described in detail above with reference to the drawings, these are merely examples, and the present invention can be implemented in other forms with various modifications and improvements based on the knowledge of those skilled in the art, including the aspects described in the lines of the disclosure of the invention.
〔6.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[6. Other]
Furthermore, among the processes described in the above embodiments and modifications, all or part of the processes described as being performed automatically can be performed manually, or all or part of the processes described as being performed manually can be performed automatically by a known method. In addition, the information including the processing procedures, specific names, various data and parameters shown in the above documents and drawings can be changed arbitrarily unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 In addition, each component of each device shown in the figure is a functional concept, and does not necessarily have to be physically configured as shown in the figure. In other words, the specific form of distribution and integration of each device is not limited to that shown in the figure, and all or part of them can be functionally or physically distributed and integrated in any unit depending on various loads, usage conditions, etc.
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 The above-described embodiments and variations can be combined as appropriate to the extent that they do not cause inconsistencies in the processing content.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 In addition, the above-mentioned "section, module, unit" can be read as "means" or "circuit." For example, an acquisition unit can be read as an acquisition means or an acquisition circuit.
1 情報処理システム
100 情報処理装置
121 ユーザ情報記憶部
122 移動体情報記憶部
123 センサ情報記憶部
124 評価情報記憶部
130 制御部
131 取得部
132 解析部
133 決定部
134 提供部
10 スマートスピーカ(端末装置)
N ネットワーク
REFERENCE SIGNS
N Network
Claims (15)
前記取得部により取得された前記センサ情報に基づいて、前記ユーザが乗る前記一の移動体の運転に関する前記ユーザの評価を決定する決定部と、
前記決定部により決定された前記ユーザの前記評価に基づくサービスを提供し、運転に関する通知情報を提供する提供部と、
を備え、
前記取得部は、
前記他の移動体に乗る他のユーザの発話情報であって、前記一の移動体及び前記他の移動体とは異なる第3の移動体であって、前記一の移動体及び前記他の移動体と同種の移動体である第3の移動体に対する前記ユーザによる前記一の移動体の運転への前記他のユーザの評価を示す発話情報を含む前記センサ情報を取得し、
前記決定部は、
前記他の移動体における前記発話情報のうち、前記ユーザを特定するための情報及び前記ユーザに対する前記他のユーザの評価を含む発話に対応する評価発話情報が示す前記ユーザの前記第3の移動体に対する運転の評価であって、前記他の移動体の前方に位置し、前記他の移動体と同じ車線を走行する前記第3の移動体が交差点を右折し、前記一の移動体の前方を右折する走行を妨げない前記ユーザの運転を良いとする評価により、前記ユーザの前記評価を決定し、前記ユーザの運転属性情報が示す前記ユーザの属性が初心者または高齢者のいずれかである場合、前記ユーザの前記評価を追い抜き可に決定し、決定した前記評価が示す追い抜き可と、記憶部に記憶された配慮に関する所定の基準を示す配慮一覧情報とに基づいて、初心者または高齢者である前記ユーザの周囲の移動体に安全運転を促す情報を通知するサービスを行うと決定し、
前記提供部は、
前記第3の移動体に乗る第3のユーザからの指示に応じて、前記第3のユーザの感謝の意思を示す文字情報を含む通知情報を前記ユーザへ提供することにより、前記第3のユーザによる前記ユーザの運転に対する感謝を示す情報を通知し、初心者または高齢者である前記ユーザが乗る前記一の移動体の後方に位置する移動体に、安全運転を促す情報を通知する
ことを特徴とする情報処理装置。 an acquisition unit that acquires sensor information detected by one of a terminal device disposed in one mobile body in which a user rides and another terminal device disposed in another mobile body, the one terminal device being the other terminal device , and driving attribute information that is information indicating attributes related to the driving of the user ;
A determination unit that determines an evaluation of the user regarding the driving of the one moving object in which the user rides, based on the sensor information acquired by the acquisition unit;
a providing unit that provides a service based on the evaluation of the user determined by the determining unit and provides notification information regarding driving;
Equipped with
The acquisition unit is
acquiring the sensor information including speech information of another user who is riding on the other moving body, the speech information indicating an evaluation of the other user of the driving of the first moving body by the user with respect to a third moving body different from the first moving body and the other moving body and being a moving body of the same type as the first moving body and the other moving body;
The determination unit is
determining the evaluation of the user based on an evaluation of the user's driving of the third moving body indicated by evaluation utterance information corresponding to an utterance including information for identifying the user and the evaluation of the other user of the user among the utterance information of the other moving body, the evaluation being an evaluation that the user's driving is good as it does not interfere with the third moving body, which is located in front of the other moving body and traveling in the same lane as the other moving body, turning right at an intersection and turning right in front of the first moving body; determining the evaluation of the user to be "overtaking allowed" if the attribute of the user indicated by the driving attribute information of the user is either a novice or an elderly person; and determining to provide a service of notifying moving bodies around the user, who is a novice or an elderly person, of information encouraging safe driving based on the overtaking allowed indicated by the determined evaluation and consideration list information indicating predetermined standards regarding consideration stored in a memory unit;
The providing unit is
An information processing device characterized in that, in response to an instruction from a third user riding in the third moving body, notification information including text information showing the third user's intention of gratitude is provided to the user, thereby notifying information showing the third user's gratitude for the user's driving , and notifying a moving body located behind the first moving body in which the user, who is a novice or elderly person, is riding, of information encouraging safe driving .
一のスマートスピーカである前記一方の端末装置により検知された前記センサ情報を取得する
ことを特徴とする請求項1に記載の情報処理装置。 The acquisition unit is
The information processing apparatus according to claim 1 , further comprising: acquiring the sensor information detected by the one of the terminal devices which is a smart speaker.
前記一方の端末装置により検知された音声情報を含む前記センサ情報を取得し、
前記決定部は、
前記取得部により取得された前記音声情報に基づいて、前記ユーザの前記評価を決定する
ことを特徴とする請求項1または請求項2に記載の情報処理装置。 The acquisition unit is
acquiring the sensor information including the voice information detected by the one terminal device;
The determination unit is
The information processing apparatus according to claim 1 , further comprising: determining the evaluation of the user based on the voice information acquired by the acquisition unit.
前記他の端末装置により撮像された画像情報を含む前記センサ情報を取得し、
前記決定部は、
前記画像情報に基づいて、前記ユーザの前記評価を決定する
ことを特徴とする請求項1~3のいずれか1項に記載の情報処理装置。 The acquisition unit is
acquiring the sensor information including image information captured by the other terminal device;
The determination unit is
4. The information processing apparatus according to claim 1, wherein the evaluation of the user is determined based on the image information.
前記一の端末装置により検知された前記センサ情報を取得し、
前記決定部は、
前記一の移動体における前記センサ情報に基づいて、前記ユーザの前記評価を決定する
ことを特徴とする請求項1~4のいずれか1項に記載の情報処理装置。 The acquisition unit is
Acquire the sensor information detected by the one terminal device;
The determination unit is
5. The information processing apparatus according to claim 1, wherein the evaluation of the user is determined based on the sensor information in the one moving object.
前記ユーザの発話情報を含む前記センサ情報を取得し、
前記決定部は、
前記一の移動体における前記発話情報に基づいて、前記ユーザの前記評価を決定する
ことを特徴とする請求項5に記載の情報処理装置。 The acquisition unit is
Acquire the sensor information including speech information of the user;
The determination unit is
The information processing apparatus according to claim 5 , further comprising: determining the evaluation of the user based on the speech information in the one moving object.
前記一の端末装置により撮像された画像情報を含む前記センサ情報を取得し、
前記決定部は、
前記画像情報に基づいて、前記ユーザの前記評価を決定する
ことを特徴とする請求項5または請求項6に記載の情報処理装置。 The acquisition unit is
acquiring the sensor information including image information captured by the one terminal device;
The determination unit is
The information processing apparatus according to claim 5 or 6, wherein the evaluation of the user is determined based on the image information.
前記ユーザの前記評価に基づいて、前記ユーザに情報を通知する
ことを特徴とする請求項1~7のいずれか1項に記載の情報処理装置。 The providing unit is
8. The information processing apparatus according to claim 1, further comprising: notifying the user of information based on the evaluation of the user.
前記ユーザの前記評価が安全運転に関する所定の基準を満たす場合、前記ユーザの運転を高評価する情報を通知する
ことを特徴とする請求項8に記載の情報処理装置。 The providing unit is
The information processing device according to claim 8 , further comprising: notifying the user of information that highly evaluates the user's driving when the evaluation of the user satisfies a predetermined standard regarding safe driving.
前記ユーザの前記評価が他のユーザの配慮に関する所定の基準を満たす場合、前記一の移動体の周囲に位置する移動体に、安全運転を促す情報を通知する
ことを特徴とする請求項1~9のいずれか1項に記載の情報処理装置。 The providing unit is
The information processing device according to any one of claims 1 to 9, characterized in that, when the evaluation of the user meets a predetermined standard regarding consideration for other users, information encouraging safe driving is notified to moving objects located around the one moving object.
前記ユーザの前記評価に基づいて、前記ユーザに所定のインセンティブを提供する
ことを特徴とする請求項1~10のいずれか1項に記載の情報処理装置。 The providing unit is
The information processing device according to claim 1 , further comprising: providing a predetermined incentive to the user based on the evaluation of the user.
前記ユーザの前記評価が所定の基準を満たす場合、前記ユーザに駐車場サービスに関するインセンティブを提供する
ことを特徴とする請求項11に記載の情報処理装置。 The providing unit is
The information processing device according to claim 11 , further comprising: providing the user with an incentive related to a parking service when the evaluation of the user satisfies a predetermined standard.
前記ユーザの前記評価が所定の基準を満たす場合、前記ユーザに前記ユーザの運送サービスに関するインセンティブを提供する
ことを特徴とする請求項11または請求項12に記載の情報処理装置。 The providing unit is
The information processing device according to claim 11 or 12 , further comprising: providing the user with an incentive related to the user's transportation service if the evaluation of the user satisfies a predetermined standard.
ユーザが乗る一の移動体に配置された一の端末装置、及び他の移動体に配置された他の端末装置のうち、前記他の端末装置である一方の端末装置により検知されたセンサ情報と、前記ユーザの運転に関する属性を示す情報である運転属性情報とを取得する取得工程と、
前記取得工程により取得された前記センサ情報に基づいて、前記ユーザが乗る前記一の移動体の運転に関する前記ユーザの評価を決定する決定工程と、
前記決定工程により決定された前記ユーザの前記評価に基づくサービスを提供し、運転に関する通知情報を提供する提供工程と、
を含み、
前記取得工程は、
前記他の移動体に乗る他のユーザの発話情報であって、前記一の移動体及び前記他の移動体とは異なる第3の移動体であって、前記一の移動体及び前記他の移動体と同種の移動体である第3の移動体に対する前記ユーザによる前記一の移動体の運転への前記他のユーザの評価を示す発話情報を含む前記センサ情報を取得し、
前記決定工程は、
前記他の移動体における前記発話情報のうち、前記ユーザを特定するための情報及び前記ユーザに対する前記他のユーザの評価を含む発話に対応する評価発話情報が示す前記ユーザの前記第3の移動体に対する運転の評価であって、前記他の移動体の前方に位置し、前記他の移動体と同じ車線を走行する前記第3の移動体が交差点を右折し、前記一の移動体の前方を右折する走行を妨げない前記ユーザの運転を良いとする評価により、前記ユーザの前記評価を決定し、前記ユーザの運転属性情報が示す前記ユーザの属性が初心者または高齢者のいずれかである場合、前記ユーザの前記評価を追い抜き可に決定し、決定した前記評価が示す追い抜き可と、記憶部に記憶された配慮に関する所定の基準を示す配慮一覧情報とに基づいて、初心者または高齢者である前記ユーザの周囲の移動体に安全運転を促す情報を通知するサービスを行うと決定し、
前記提供工程は、
前記第3の移動体に乗る第3のユーザからの指示に応じて、前記第3のユーザの感謝の意思を示す文字情報を含む通知情報を前記ユーザへ提供することにより、前記第3のユーザによる前記ユーザの運転に対する感謝を示す情報を通知し、初心者または高齢者である前記ユーザが乗る前記一の移動体の後方に位置する移動体に、安全運転を促す情報を通知する
ことを特徴とする情報処理方法。 1. A computer-implemented information processing method, comprising:
an acquisition step of acquiring sensor information detected by one of a terminal device disposed in one mobile body in which a user rides and another terminal device disposed in another mobile body, the one terminal device being the other terminal device , and driving attribute information which is information indicating attributes related to the driving of the user ;
a determination step of determining an evaluation of the user regarding the driving of the one moving object in which the user rides, based on the sensor information acquired by the acquisition step;
a providing step of providing a service based on the evaluation of the user determined by the determining step and providing notification information regarding driving;
Including,
The obtaining step includes:
acquiring the sensor information including speech information of another user who is riding on the other moving body, the speech information indicating an evaluation of the other user of the driving of the first moving body by the user with respect to a third moving body different from the first moving body and the other moving body and being a moving body of the same type as the first moving body and the other moving body;
The determining step includes:
determining the evaluation of the user based on an evaluation of the user's driving of the third moving body indicated by evaluation utterance information corresponding to an utterance including information for identifying the user and the evaluation of the other user of the user among the utterance information of the other moving body, the evaluation being an evaluation that the user's driving is good as it does not obstruct the third moving body, which is located in front of the other moving body and traveling in the same lane as the other moving body, turning right at an intersection and turning right in front of the first moving body; determining the evaluation of the user to be "overtaking allowed" if the attribute of the user indicated by the driving attribute information of the user is either a novice or an elderly person; and determining to provide a service of notifying moving bodies around the user, who is a novice or an elderly person, of information encouraging safe driving based on the overtaking allowed indicated by the determined evaluation and consideration list information indicating predetermined standards regarding consideration stored in a memory unit;
The providing step includes:
An information processing method comprising: in response to an instruction from a third user riding in the third moving body, providing notification information including text information showing the third user's intention of gratitude to the user, thereby notifying the third user of information showing gratitude to the user for his/her driving by the third user, and notifying a moving body located behind the first moving body in which the user, who is a novice or elderly person, is riding of information encouraging safe driving .
前記取得手順により取得された前記センサ情報に基づいて、前記ユーザが乗る前記一の移動体の運転に関する前記ユーザの評価を決定する決定手順と、
前記決定手順により決定された前記ユーザの前記評価に基づくサービスを提供し、運転に関する通知情報を提供する提供手順と、
をコンピュータに実行させ、
前記取得手順は、
前記他の移動体に乗る他のユーザの発話情報であって、前記一の移動体及び前記他の移動体とは異なる第3の移動体であって、前記一の移動体及び前記他の移動体と同種の移動体である第3の移動体に対する前記ユーザによる前記一の移動体の運転への前記他のユーザの評価を示す発話情報を含む前記センサ情報を取得し、
前記決定手順は、
前記他の移動体における前記発話情報のうち、前記ユーザを特定するための情報及び前記ユーザに対する前記他のユーザの評価を含む発話に対応する評価発話情報が示す前記ユーザの前記第3の移動体に対する運転の評価であって、前記他の移動体の前方に位置し、前記他の移動体と同じ車線を走行する前記第3の移動体が交差点を右折し、前記一の移動体の前方を右折する走行を妨げない前記ユーザの運転を良いとする評価により、前記ユーザの前記評価を決定し、前記ユーザの運転属性情報が示す前記ユーザの属性が初心者または高齢者のいずれかである場合、前記ユーザの前記評価を追い抜き可に決定し、決定した前記評価が示す追い抜き可と、記憶部に記憶された配慮に関する所定の基準を示す配慮一覧情報とに基づいて、初心者または高齢者である前記ユーザの周囲の移動体に安全運転を促す情報を通知するサービスを行うと決定し、
前記提供手順は、
前記第3の移動体に乗る第3のユーザからの指示に応じて、前記第3のユーザの感謝の意思を示す文字情報を含む通知情報を前記ユーザへ提供することにより、前記第3のユーザによる前記ユーザの運転に対する感謝を示す情報を通知し、初心者または高齢者である前記ユーザが乗る前記一の移動体の後方に位置する移動体に、安全運転を促す情報を通知する
ことを特徴とする情報処理プログラム。 an acquisition step of acquiring sensor information detected by one of a terminal device disposed in one mobile body in which a user rides and another terminal device disposed in another mobile body, the one terminal device being the other terminal device , and driving attribute information which is information indicating attributes related to the driving of the user ;
a determination step of determining an evaluation of the user regarding the driving of the one moving object in which the user rides, based on the sensor information acquired by the acquisition step;
a provision step of providing a service based on the evaluation of the user determined by the determination step and providing notification information regarding driving;
Run the following on your computer:
The acquisition step includes:
acquiring the sensor information including speech information of another user who is riding on the other moving body, the speech information indicating an evaluation of the other user of the driving of the first moving body by the user with respect to a third moving body different from the first moving body and the other moving body and being a moving body of the same type as the first moving body and the other moving body;
The determination procedure includes:
determining the evaluation of the user based on an evaluation of the user's driving of the third moving body indicated by evaluation utterance information corresponding to an utterance including information for identifying the user and the evaluation of the other user of the user among the utterance information of the other moving body, the evaluation being an evaluation that the user's driving is good as it does not interfere with the third moving body, which is located in front of the other moving body and traveling in the same lane as the other moving body, turning right at an intersection and turning right in front of the first moving body; determining the evaluation of the user to be "overtaking allowed" if the attribute of the user indicated by the driving attribute information of the user is either a novice or an elderly person; and determining to provide a service of notifying moving bodies around the user, who is a novice or an elderly person, of information encouraging safe driving based on the overtaking allowed indicated by the determined evaluation and consideration list information indicating predetermined standards regarding consideration stored in a memory unit;
The providing step comprises:
An information processing program characterized by providing notification information including text information indicating the third user's gratitude to the user in response to an instruction from the third user riding in the third moving body, thereby notifying the user of information indicating the third user's gratitude for the user's driving , and notifying a moving body located behind the first moving body in which the user, who is a novice or elderly person, is riding, of information encouraging safe driving .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018158393A JP7475808B2 (en) | 2018-08-27 | 2018-08-27 | Information processing device, information processing method, and information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018158393A JP7475808B2 (en) | 2018-08-27 | 2018-08-27 | Information processing device, information processing method, and information processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020034996A JP2020034996A (en) | 2020-03-05 |
JP7475808B2 true JP7475808B2 (en) | 2024-04-30 |
Family
ID=69668125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018158393A Active JP7475808B2 (en) | 2018-08-27 | 2018-08-27 | Information processing device, information processing method, and information processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7475808B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021163343A (en) * | 2020-04-02 | 2021-10-11 | トヨタ自動車株式会社 | Parking lot providing system, server device, and program |
WO2022097218A1 (en) * | 2020-11-05 | 2022-05-12 | パイオニア株式会社 | Driving evaluation device, driving evaluation method, driving evaluation program and recording medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012150557A (en) | 2011-01-17 | 2012-08-09 | Toyota Central R&D Labs Inc | Driving manner cultivation device, system, and program |
JP2016177375A (en) | 2015-03-18 | 2016-10-06 | 株式会社リコー | Driving performance evaluation information acquisition system and acquisition method |
JP2016224477A (en) | 2015-05-26 | 2016-12-28 | 富士通株式会社 | On-vehicle device, driving mode control system, and driving mode control method |
WO2017047176A1 (en) | 2015-09-18 | 2017-03-23 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2017187991A (en) | 2016-04-07 | 2017-10-12 | 京セラ株式会社 | Drive information display device and display system for vehicle |
JP2017211703A (en) | 2016-05-23 | 2017-11-30 | 三菱電機株式会社 | Drive evaluation device and drive evaluation program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004122804A (en) * | 2002-09-30 | 2004-04-22 | Fuji Enterprise Kk | Sign display method for vehicle, and its device |
JP4716371B2 (en) * | 2006-05-19 | 2011-07-06 | 富士通株式会社 | Driving support device for moving objects |
JP5255945B2 (en) * | 2008-08-04 | 2013-08-07 | トヨタ自動車株式会社 | Vehicle operation evaluation device |
JP2010097443A (en) * | 2008-10-17 | 2010-04-30 | Sanyo Electric Co Ltd | Inter-vehicle communication device |
JP5667907B2 (en) * | 2011-02-18 | 2015-02-12 | 株式会社東芝 | Information provision system |
JP6820668B2 (en) * | 2016-05-10 | 2021-01-27 | 三菱電機株式会社 | Driving support equipment, driving support system and driving support program |
-
2018
- 2018-08-27 JP JP2018158393A patent/JP7475808B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012150557A (en) | 2011-01-17 | 2012-08-09 | Toyota Central R&D Labs Inc | Driving manner cultivation device, system, and program |
JP2016177375A (en) | 2015-03-18 | 2016-10-06 | 株式会社リコー | Driving performance evaluation information acquisition system and acquisition method |
JP2016224477A (en) | 2015-05-26 | 2016-12-28 | 富士通株式会社 | On-vehicle device, driving mode control system, and driving mode control method |
WO2017047176A1 (en) | 2015-09-18 | 2017-03-23 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2017187991A (en) | 2016-04-07 | 2017-10-12 | 京セラ株式会社 | Drive information display device and display system for vehicle |
JP2017211703A (en) | 2016-05-23 | 2017-11-30 | 三菱電機株式会社 | Drive evaluation device and drive evaluation program |
Also Published As
Publication number | Publication date |
---|---|
JP2020034996A (en) | 2020-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2848995C (en) | A computing platform for development and deployment of sensor-driven vehicle telemetry applications and services | |
KR20180070970A (en) | Method and Apparatus for Voice Recognition | |
US9904938B2 (en) | Methods and systems to determine consumer locations based on navigational voice cues | |
KR102474247B1 (en) | Personal safety device and its operation method | |
JP7475808B2 (en) | Information processing device, information processing method, and information processing program | |
CN113401129B (en) | Information processing apparatus, recording medium, and information processing method | |
JP7267696B2 (en) | Information processing device, information processing method, and information processing program | |
CN111488792A (en) | System and method for predicting pedestrian behavior | |
EP3975170A1 (en) | Method, apparatus, and system for mapping conversation and audio data to locations | |
US20200262419A1 (en) | Method and Apparatus for Assisting Driving | |
JP6282839B2 (en) | Information processing apparatus, information providing system, information providing method, and program | |
Al-Rajab et al. | Smart Application for Every Car (SAEC).(AR Mobile Application) | |
JP7260263B2 (en) | Information processing device, information processing method, and information processing program | |
Stephens et al. | Development of a smartphone application serving pavement management engineers | |
JP7027281B2 (en) | Information processing equipment, information processing methods, and information processing programs | |
JP2018036074A (en) | Providing device, providing method, providing program, terminal device, output method, and output program | |
JP6971205B2 (en) | Information processing equipment, information processing methods, and information processing programs | |
JP7093268B2 (en) | Information processing equipment, information processing methods, and information processing programs | |
JP2022103675A (en) | Information processing device, information processing method, and program | |
JP6971206B2 (en) | Information processing equipment, information processing methods, and information processing programs | |
JP7405502B2 (en) | Information processing device, information processing method, and information processing program | |
Williams | Bicycle crash detection: Using a voice-assistant for more accurate reporting | |
US20230392936A1 (en) | Method and apparatus for determining lingering communication indicators | |
KR102349665B1 (en) | Apparatus and method for providing user-customized destination information | |
JP2023066132A (en) | Information processing device, information processing method and information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210716 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220613 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221205 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221205 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221212 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221213 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20221228 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20230110 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20230425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230904 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20231026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240417 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7475808 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |