JP2020034996A - 情報処理装置、情報処理方法、及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法、及び情報処理プログラム Download PDF

Info

Publication number
JP2020034996A
JP2020034996A JP2018158393A JP2018158393A JP2020034996A JP 2020034996 A JP2020034996 A JP 2020034996A JP 2018158393 A JP2018158393 A JP 2018158393A JP 2018158393 A JP2018158393 A JP 2018158393A JP 2020034996 A JP2020034996 A JP 2020034996A
Authority
JP
Japan
Prior art keywords
information
user
evaluation
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018158393A
Other languages
English (en)
Other versions
JP7475808B2 (ja
Inventor
玲 田島
Rei Tajima
玲 田島
衣織 西田
Iori Nishida
衣織 西田
西岡 孝章
Takaaki Nishioka
孝章 西岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LY Corp
Original Assignee
Z Holdings Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Z Holdings Corp filed Critical Z Holdings Corp
Priority to JP2018158393A priority Critical patent/JP7475808B2/ja
Publication of JP2020034996A publication Critical patent/JP2020034996A/ja
Application granted granted Critical
Publication of JP7475808B2 publication Critical patent/JP7475808B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】移動体の運転に関するユーザの評価を適切に決定する。【解決手段】本願に係る情報処理装置は、取得部と、決定部とを有する。取得部は、ユーザが乗る一の移動体に配置された一の端末装置、及び他の移動体に配置された他の端末装置のうち、いずれか一方の端末装置により検知されたセンサ情報を取得する。決定部は、取得部により取得されたセンサ情報に基づいて、移動体の運転に関するユーザの評価を決定する。【選択図】図3

Description

本発明は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。
従来、ユーザの移動体の操作(運転)の評価に関する種々の技術が提供されている。例えば、車載端末の基本的なカーナビゲーション機能により取得した安全運転の行動についての実績データを用いて、安全運転の努力に対して還元を行なうためのサービスを提供する技術が提供されている。
特開2001−283003号公報 特開2011−203784号公報
しかしながら、上記の従来技術では、移動体の運転に関するユーザの評価を適切に決定することができるとは限らない。例えば、上記の従来技術では、ユーザが運転する移動体自体のカーナビゲーション機能によるデータのみを収集しているに過ぎず、ユーザに対して適切な評価を決定することができない場合がある。
本願は、上記に鑑みてなされたものであって、移動体の運転に関するユーザの評価を適切に決定する情報処理装置、情報処理方法、及び情報処理プログラムを提供することを目的とする。
本願に係る情報処理装置は、ユーザが乗る一の移動体に配置された一の端末装置、及び他の移動体に配置された他の端末装置のうち、いずれか一方の端末装置により検知されたセンサ情報を取得する取得部と、前記取得部により取得された前記センサ情報に基づいて、前記移動体の運転に関する前記ユーザの評価を決定する決定部と、を備えたことを特徴とする。
実施形態の一態様によれば、移動体の運転に関するユーザの評価を適切に決定することができるという効果を奏する。
図1は、実施形態に係る情報処理の一例を示す図である。 図2は、実施形態に係る情報処理システムの構成例を示す図である。 図3は、実施形態に係る情報処理装置の構成例を示す図である。 図4は、実施形態に係るユーザ情報記憶部の一例を示す図である。 図5は、実施形態に係る移動体情報記憶部の一例を示す図である。 図6は、実施形態に係るセンサ情報記憶部の一例を示す図である。 図7は、実施形態に係る評価情報記憶部の一例を示す図である。 図8は、実施形態に係る情報処理の一例を示すフローチャートである。 図9は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る情報処理装置、情報処理方法、及び情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、及び情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
(実施形態)
〔1.情報処理〕
まず、図1を用いて、実施形態に係る情報処理の一例について説明する。図1は、実施形態に係る情報処理の一例を示す図である。図1の例では、情報処理装置100は、各ユーザの移動体に配置された端末装置であるスマートスピーカにより検知されたセンサ情報に基づいて、移動体の運転に関するユーザの評価(以下、単に「ユーザの評価」ともいう)を決定する場合を示す。図1の例では、ユーザが運転する移動体が自動車である場合を一例として示すが、移動体は、ユーザが運転する移動体であれば、自動二輪車や自転車等の種々の移動体であってもよい。
〔情報処理システムの構成〕
図1の説明に先立って、図2を用いて情報処理システム1の構成について説明する。図2は、実施形態に係る情報処理システムの構成例を示す図である。図2に示すように、情報処理システム1は、複数台のスマートスピーカ10と、情報処理装置100とが含まれる。スマートスピーカ10と、情報処理装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。なお、図2に示した情報処理システム1には、複数台の情報処理装置100が含まれてもよい。
スマートスピーカ10は、音声入力手段であるマイク(音センサ)や音声出力手段であるスピーカ(音声出力部)を有し、ユーザによって利用される端末装置(情報処理装置)である。スマートスピーカ10は、例えば、スマートスピーカやAIスピーカと称されるデバイスであってもよい。また、スマートスピーカ10は、対話型の音声操作に対応し音声アシスト機能を有してもよい。
図1は、スマートスピーカTM1−1とスマートスピーカTM1−2の2つのスマートスピーカ10を示す。例えば、スマートスピーカTM1−1は、図1に示すユーザU1の移動体C1に配置されるスマートスピーカ10に対応する。また、スマートスピーカTM1−2は、図1に示すユーザU2の移動体C2に配置されるスマートスピーカ10に対応する。このように、「ユーザU*(*は任意の数値)」と記載した場合、そのユーザはユーザID「U*」により識別されるユーザであることを示す。例えば、「ユーザU1」と記載した場合、そのユーザはユーザID「U1」により識別されるユーザである。また、「移動体C*(*は任意の数値)」と記載した場合、その移動体は移動体ID「C*」により識別される移動体であることを示す。例えば、「移動体C1」と記載した場合、その移動体は移動体ID「C1」により識別される移動体である。
また、端末ID「TM1−1」により識別されるスマートスピーカ10は、ユーザU1により利用される車載のスマートスピーカ10であり、上記のようにスマートスピーカTM1−1と記載する場合がある。また、例えば、端末ID「TM1−2」により識別されるスマートスピーカ10は、ユーザU2により利用される車載のスマートスピーカ10であり、スマートスピーカTM1−2と記載する場合がある。このように、各スマートスピーカ10を区別して説明する場合、「スマートスピーカ」の末尾に端末ID(TM1−1等)を付加した記載とする。各スマートスピーカ10について、特に区別なく説明する場合には、単に「スマートスピーカ10」と記載する。
また、スマートスピーカ10は、種々のセンサにより検知された情報(以下、「センサ情報」ともいう)を収集する。スマートスピーカ10は、種々のセンサを含むセンサ部を備える。また、スマートスピーカ10は、GPS(Global Positioning System)センサ等の位置センサの機能を有し、位置を検知し、取得可能であるものとする。また、スマートスピーカ10は、通信を行っている基地局の位置情報や、Wi−Fi(登録商標)(Wireless Fidelity)の電波を用いて位置情報を推定し、取得してもよい。なお、以下では位置情報を単に「位置」と記載する場合がある。
また、スマートスピーカ10は、マイク等の音を検知する音センサを有する。例えば、スマートスピーカ10は、音センサにより、スマートスピーカ10の周囲におけるユーザの発話を検知する。例えば、スマートスピーカ10は、周囲の音を検知し、検知した音に応じて種々の処理を行うデバイス(音声アシスト端末)であってもよい。例えば、スマートスピーカ10は、ユーザの発話に対して、処理を行う端末装置である。例えば、スマートスピーカ10は、ユーザの発話に限らず、スマートスピーカ10の周囲の環境音等を収集する。なお、スマートスピーカ10は、上記に限らず、種々のセンサを有してもよい。例えば、スマートスピーカ10は、加速度センサ、ジャイロセンサ、温度センサ、湿度センサ、照度センサ、圧力センサ、近接センサ、ニオイや汗や心拍や脈拍や脳波等の生体情報を取得のためのセンサ等の種々のセンサを有してもよい。そして、スマートスピーカ10は、各種センサにより検知された種々のセンサ情報を情報処理装置100に送信してもよい。
また、スマートスピーカ10は、音声認識の機能を有してもよい。また、スマートスピーカ10は、音声認識サービスを提供する音声認識サーバから情報を取得可能であってもよい。この場合、情報処理システム1は、音声認識サーバが含まれてもよい。なお、図1の例では、スマートスピーカ10や音声認識サーバが、種々の従来技術を適宜用いてユーザの発話を認識したり、発話したユーザを推定したりするものとして、適宜説明を省略する。
また、スマートスピーカ10は、画像センサ等を有してもよい。例えば、スマートスピーカ10は、移動体外を撮像する外部用画像センサや移動体内を撮像する内部用画像センサ等の複数の画像センサを有してもよい。例えば、スマートスピーカ10は、移動体の前方を撮像する第1外部用画像センサや移動体の後方を撮像する第2外部用画像センサ等の複数の外部用画像センサを有してもよい。また、スマートスピーカ10は、ドライブレコーダ等の所定の撮像装置のセンサにより検知(撮像)された移動体外や移動体内の動画像情報(以下、単に「画像」や「動画」や「動画像」や「画像情報」ともいう)を、所定の撮像装置から取得してもよい。
また、例えば、スマートスピーカ10は、赤外線センサや人感センサや温度センサや気圧センサ等の種々の機能を有し、温度や気圧等のスマートスピーカ10の周囲の環境に関するセンサ情報を検知し、取得可能であってもよい。また、スマートスピーカ10は、情報処理装置100に種々の情報等を送信する。例えば、スマートスピーカ10は、ユーザに関する位置情報等の種々のセンサ情報を情報処理装置100へ送信する。なお、図1の例では、端末装置がスマートスピーカ10である場合を示すが、スマートスピーカ10は一例に過ぎず、端末装置は、スマートスピーカ10に限らず、種々のデバイスであってもよい。例えば、端末装置は、後述する処理において要求される機能を実現可能であれば、スマートスピーカ10に限らず、種々のデバイスであってもよい。例えば、端末装置は、スマートフォンや、タブレット型端末や、ノート型等のPC(Personal Computer)や、携帯電話機や、PDA(Personal Digital Assistant)等であってもよい。
情報処理装置100は、ユーザが乗る一の移動体に配置された一の端末装置、及び他の移動体に配置された他の端末装置のうち、いずれか一方の端末装置により検知されたセンサ情報に基づいて、移動体の運転に関するユーザの評価を決定する情報処理装置(コンピュータ)である。情報処理装置100は、一方の端末装置により検知されたセンサ情報に基づいて、ユーザの評価を決定する決定装置である。図1の例では、情報処理装置100は、ユーザU1が運転する移動体C1に配置されたスマートスピーカTM1−1により検知されたセンサ情報や、他のユーザU2が運転する移動体C2に配置されたスマートスピーカTM1−2により検知されたセンサ情報に基づいて、移動体の運転に関するユーザU1の評価を決定する。
また、情報処理装置100は、決定したユーザの評価に基づくサービスを提供する情報処理装置(コンピュータ)である。すなわち、情報処理装置100は、ユーザの評価に基づくサービスを提供する提供装置である。例えば、情報処理装置100は、移動体の運転に関するユーザU1の評価に基づいて、ユーザU1にサービスを提供する。また、例えば、情報処理装置100は、移動体の運転に関するユーザU1の評価に基づいて、ユーザU1とは異なる他のユーザにサービスを提供する。
また、情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、動画像等のセンサ情報を解析してもよい。例えば、情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、動画に含まれる物体や撮像時におけるコンテキストを推定してもよい。例えば、情報処理装置100は、移動体外を撮像した動画に含まれる他の移動体の情報に基づいて、その他の移動体を特定してもよい。情報処理装置100は、移動体外を撮像した動画に含まれる他の移動体の登録番号に基づいて、その他の移動体を特定してもよい。
例えば、情報処理装置100は、移動体の前方を撮像した動画に含まれる信号のうち赤が点灯している場合、その移動体が停止しなければならない状況(コンテキスト)であると推定してもよい。すなわち、情報処理装置100は、移動体の前方を撮像した動画に含まれる信号のうち赤が点灯している場合、その移動体が停止するコンテキストであると推定してもよい。例えば、情報処理装置100は、移動体の前方を撮像した動画に含まれる信号のうち青が点灯している場合、その移動体が進行してよいコンテキストであると推定してもよい。すなわち、情報処理装置100は、移動体の前方を撮像した動画に含まれる信号のうち青が点灯している場合、その移動体が進行するコンテキストであると推定してもよい。例えば、情報処理装置100は、記憶部120(図3参照)に記憶された運転に関する種々の状況と、その状況時の運転内容を示す一覧情報を用いて、移動体のコンテキストを推定してもよい。例えば、情報処理装置100は、記憶部120に記憶された信号の色及び位置の組合せ(状況)と、その組み合わせ時の運転内容とが対応付けられた一覧情報を用いて、移動体のコンテキストを推定してもよい。例えば、情報処理装置100は、信号の色「青」及び位置「前」の組合せと、運転内容「進行」との対応付情報Xを含む一覧情報を用いて、移動体のコンテキストを推定してもよい。例えば、情報処理装置100は、移動体の前方を撮像した動画の解析に基づく情報と、一覧情報との比較に基づいて、移動体のコンテキストを推定してもよい。例えば、情報処理装置100は、移動体の前方を撮像した動画に信号の色「青」が含まれる場合、一覧情報の対応付情報Xと一致するため、移動体のコンテキストを進行であると推定してもよい。
なお、上記は一例であり、情報処理装置100は、種々の従来技術を適宜用いて、コンテキストの推定や動画の解析を行ってもよい。また、情報処理装置100は、動画の解析サービスを提供する外部の情報処理装置(解析装置)に動画(センサ情報)を送信することにより、外部の情報処理装置から動画(センサ情報)の解析結果を取得してもよい。この場合、情報処理装置100は、解析部132(図3参照)を有しなくてもよい。
また、情報処理装置100は、音声認識に関する種々の技術を適宜用いて、取得した発話等の音声情報を文字情報に変換してもよい。また、情報処理装置100は、発話等の音声情報を変換した文字情報を、形態素解析等の自然言語処理技術を適宜用いて解析することにより、コンテキストを推定してもよい。なお、ここでいうコンテキストは、例えば、スマートスピーカ10を利用するユーザの状況を示す情報である。例えば、コンテキストは、スマートスピーカ10の周囲に位置するユーザの状況やスマートスピーカ10の周囲の環境(背景)に基づいて推定されるスマートスピーカ10の周囲の状況であってもよい。
また、情報処理装置100は、ユーザの発話の内容に基づいて会話のトピック(話題)に関する情報を推定する。例えば、情報処理装置100は、ユーザの発話等に基づいてトピックに関する情報を推定する。例えば、情報処理装置100は、トピック分析(解析)等の種々の従来手法を適宜用いて、ユーザの発話等からトピックを抽出してもよい。例えば、情報処理装置100は、ユーザの発話等を変換した文字情報を、形態素解析等の自然言語処理技術を適宜用いて解析することにより、ユーザの発話等の文字情報から重要なキーワードをユーザの発話等のトピックとして抽出してもよい。
また、情報処理システム1には、図示を省略するが情報処理装置100等に種々の情報を提供する情報提供装置が含まれてもよい。例えば、情報提供装置は、いわゆる広く開かれた利用が許可されているデータであるオープンデータを情報処理装置100へ提供する報処理装置である。例えば、情報提供装置は、各自治体が管理し、自治体が保有するデータをオープンデータとして外部に提供する情報処理装置であってもよい。また、例えば、情報提供装置は、気象庁が管理するサーバ等の種々の情報処理装置であってもよい。情報提供装置は、利用が許可されているデータ(情報)であれば、上記に限らず、道路情報等の交通に関するオープンデータや天気や気温等の気象に関するオープンデータや地理空間情報、防災・減災情報、調達情報、統計情報等の種々のオープンデータを提供してもよい。情報処理装置100は、情報提供装置から取得した情報を加味して、スマートスピーカ10により提供する提供情報を決定してもよい。
ここから、図1を用いて、情報処理の流れについて説明する。図1は、実施形態に係る情報処理の一例を示す図である。具体的には、図1は、提供する情報を決定する決定処理の一例を示す図である。
図1の例では、情報処理装置100がマップ情報MP1に示す所定の道路上でのユーザU1による移動体C1の運転に関して取得されたセンサ情報に基づいて、ユーザU1の評価を決定する場合を示す。図1の例では、マップ情報MP1に示す交差点CR1でのユーザU1による移動体C1の運転に関して、センサ情報によりユーザU1の評価を決定する場合を示す。
図1では、ユーザU1が運転する移動体C1にスマートスピーカTM1−1が配置され、ユーザU2が運転する移動体C2にスマートスピーカTM1−2が配置されている場合を示す。スマートスピーカTM1−1やスマートスピーカTM1−2は、種々のセンサにより、センサ情報を検知し、情報処理装置100へ送信する。例えば、スマートスピーカTM1−1やスマートスピーカTM1−2は、画像センサにより移動体内外の動画像を検知(撮像)し、情報処理装置100へ送信する。例えば、スマートスピーカTM1−1やスマートスピーカTM1−2は、音センサによりユーザU1やユーザU2の発話等の種々の音を検知し、情報処理装置100へ送信する。また、スマートスピーカTM1−1やスマートスピーカTM1−2は、位置センサにより検知した位置情報を情報処理装置100へ送信する。なお、図1の例では位置情報を、位置情報LC1−1等の抽象的な符号で図示するが、位置情報は、具体的な緯度や経度を示す情報(緯度経度情報)等であってもよい。また、以下、「位置情報LC*(*は任意の数値等の文字列)」を「位置LC*」と記載する場合がある。例えば、「位置LC1−1」と記載した場合、その位置は位置情報LC1−1に対応する位置であることを示す。
図1中のマップ情報MP1は、交差点CR1の1つの停止線の位置において、ユーザU1が運転する移動体C1が停止している状態を示す。そして、移動体C1に配置されたスマートスピーカTM1−1は、検知されたセンサ情報SN1−1を情報処理装置100へ送信する。スマートスピーカTM1−1は、画像センサにより検知された動画像の画像情報であるセンサ情報SN1−1を情報処理装置100へ送信する。図1の例では、スマートスピーカTM1−1は、移動体C1の前方を撮像した動画であるセンサ情報SN1−1を情報処理装置100へ送信する。図1の例では、センサ情報SN1−1には、移動体C1の前方の信号のうち青が点灯しており、移動体C1の車線の対向車線に位置する移動体C3が移動体C1の前方を通過して右折したことを示す情報が含まれるものとする。
例えば、スマートスピーカTM1−1は、センサ情報SN1−1が検知された位置LC1−1を示す位置情報やセンサ情報SN1−1が日時dt1−1に検知されたことを示す日時情報をセンサ情報SN1−1に対応付けて情報処理装置100に送信する。例えば、スマートスピーカTM1−1は、スマートスピーカTM1−1の位置情報やセンサ情報SN1−1が検知された日時の情報をセンサ情報SN1−1とともに情報処理装置100に送信する。また、例えば、スマートスピーカTM1−1は、センサ情報SN1−1の取得元がスマートスピーカTM1−1であることを特定可能にする端末情報(端末ID等)をセンサ情報SN1−1に対応付けて情報処理装置100に送信する。例えば、スマートスピーカTM1−1は、スマートスピーカTM1−1の端末ID等をセンサ情報SN1−1とともに情報処理装置100に送信する。
これにより、情報処理装置100は、センサ情報SN1−1や位置情報や日時情報や端末情報等を取得する(ステップS11)。図1の例では、情報処理装置100は、一覧情報SLST1に示すように、ログID「LG11」により識別されるログを取得する。情報処理装置100は、センサ情報SN1−1の取得元は、スマートスピーカTM1−1であることを示す情報を取得する。情報処理装置100は、種別が「画像」、すなわち動画像であるセンサ情報SN1−1を取得する。また、情報処理装置100は、センサ情報SN1−1が日時dt1−1において、位置LC1−1で取得(検知)されたことを示す情報を取得する。
動画であるセンサ情報SN1−1を取得した情報処理装置100は、センサ情報SN1−1を解析する(ステップS12)。図1の例では、情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、センサ情報SN1−1を解析することにより、移動体C1を運転するユーザU1の運転態様を推定する。情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、図1中の内容一覧情報ALST1に示すように、センサ情報SN1−1に含まれるユーザU1の移動体C1の運転の内容を推定する。
例えば、情報処理装置100は、移動体C1の前方を撮像したセンサ情報SN1−1では、信号のうち青が点灯しているため、移動体C1が進行してよいコンテキストであると推定する。また、情報処理装置100は、移動体C1の前方を撮像したセンサ情報SN1−1では、移動体C1が進行してよいコンテキストにおいて、移動体C3が移動体C1の前方を通過したため、移動体C1が道を譲ったと推定する。これにより、情報処理装置100は、センサ情報SN1−1におけるユーザU1の運転が移動体C3を対象として道を譲る行為であると解析する。
図1の例では、情報処理装置100は、図1中の内容一覧情報ALST1に示すように、ユーザU1による移動体C1に道を譲った運転が、内容ID「A11」により識別される内容「道を譲る」であると特定する。例えば、情報処理装置100は、記憶部120(図3参照)に記憶された内容IDと運転に関する内容(単に「内容」ともいう)とが対応付けられた内容一覧情報を用いて、センサ情報SN1−1におけるユーザU1の運転が内容ID「A11」により識別される内容「道を譲る」であると特定する。また、図1の例では、情報処理装置100は、移動体情報記憶部122に記憶された情報に基づいて、移動体C1の運転手を推定する。
図1中の移動体情報記憶部122に示す「移動体ID」は、移動体を識別するための識別情報を示す。図1中の移動体情報記憶部122に示す「登録番号」は、移動体の具体的な登録番号を示す。図1中の移動体情報記憶部122に示す「車載端末ID」は、移動体に搭載される端末装置を識別する情報を示す。図1中の移動体情報記憶部122に示す「利用ユーザID」は、移動体を利用(運転)するユーザを示す。
図1の例では、スマートスピーカTM1−1が配置された移動体が移動体C1であり、移動体C1の利用ユーザがユーザU1であるため、情報処理装置100は、移動体情報記憶部122に記憶された情報に基づいて、移動体C1の運転手がユーザU1であると推定する。例えば、情報処理装置100は、移動体情報記憶部122に記憶された各移動体の車載端末IDと、センサ情報SN1−1とともに取得した端末ID「TM1−1」とを比較することにより、スマートスピーカTM1−1が配置された移動体が移動体C1であると特定してもよい。情報処理装置100は、特定したスマートスピーカTM1−1が配置された移動体が移動体C1に対応付けられた利用ユーザID「U1」であるため、移動体C1の運転手がユーザU1であると推定してもよい。
なお、情報処理装置100は、図1中の内容一覧情報ALST1に示すような情報(解析結果)を取得可能であれば、どのような手段により、解析結果を取得してもよい。例えば、情報処理装置100は、動画の解析サービスを提供する外部の情報処理装置(解析装置)にセンサ情報SN1−1を送信することにより、外部の情報処理装置から図1中の内容一覧情報ALST1に示すような、センサ情報SN1−1の解析結果を取得してもよい。
そして、情報処理装置100は、評価を決定する(ステップS13)。情報処理装置100は、図1中の内容一覧情報ALST1に示すようなセンサ情報SN1−1の解析結果に基づいて、移動体の運転に関するユーザU1の評価を決定する。例えば、情報処理装置100は、記憶部120(図3参照)に記憶された運転の内容とその評価とが対応付けられた評価一覧情報を用いて、ユーザU1の評価を決定する。図1の例では、情報処理装置100は、記憶部120に記憶された内容IDと評価とが対応付けられた評価一覧情報を用いて、ユーザU1の評価を決定する。
例えば、情報処理装置100は、内容IDに「悪(−1)」、「普通(0)」、「良(1)」の3つのいずれかの評価が対応付けられた評価一覧情報を用いて、ユーザU1の評価を決定する。例えば、「悪(−1)」、「普通(0)」、「良(1)」に示す数値は、各評価に対応する部分評価スコアである。例えば、評価「悪」は、部分評価スコアが「−1」であり、評価「普通」は、部分評価スコアが「0」であり、評価「良」は、部分評価スコアが「1」であることを示す。なお、図1の例では、評価一覧情報において、内容ID「A11」は評価「良(1)」に対応付けられているものとする。
例えば、情報処理装置100は、解析結果と評価一覧情報とを比較することにより、ユーザU1の評価を決定する。情報処理装置100は、評価一覧情報において、図1中の内容一覧情報ALST1に示す解析結果中の内容ID「A11」に該当する内容の評価をユーザU1の評価を決定する。図1の例では、評価一覧情報では、内容ID「A11」が評価「良(1)」に対応付けられているため、情報処理装置100は、図1中の評価一覧情報RLST1に示すように、ユーザU1の評価を「良」に決定する。
そして、情報処理装置100は、サービスを決定する(ステップS14)。例えば、情報処理装置100は、ユーザU1の評価「良」に基づいて、ユーザU1に提供するサービスを決定する。図1の例では、情報処理装置100は、ユーザU1の評価「良」に基づいて、ユーザU1に通知を行うと決定する。具体的には、情報処理装置100は、ユーザU1の評価「良」に基づいて、ユーザU1の運転を評価する通知を行うと決定する。
そして、情報処理装置100は、ユーザU1の運転を評価する通知情報をスマートスピーカTM1−1に提供する(ステップS15)。図1の例では、情報処理装置100は、スマートスピーカTM1−1に出力させる音声情報である通知情報INF1をスマートスピーカTM1−1に送信する。例えば、情報処理装置100は、ユーザU1が移動体C1に道を譲ったことを示す内容一覧情報ALST1に基づいて、ユーザU1の運転を評価し、ユーザU1に感謝を示す通知情報INF1を生成する。例えば、情報処理装置100は、音声合成等の種々の従来技術を適宜用いて、通知情報INF1を生成してもよい。
情報処理装置100から通知情報INF1を受信したスマートスピーカTM1−1は、通知情報INF1を出力する。例えば、スマートスピーカTM1−1は、音声情報である通知情報INF1を音声出力する。図1の例では、スマートスピーカTM1−1は、ユーザU1の運転の評価に関する通知情報INF1を音声出力する。例えば、スマートスピーカTM1−1は、「ありがとう」等の通知情報INF1を音声出力する。なお、通知情報INF1は、ユーザU1の運転の評価に関する情報であれば、どのような情報であってもよい。例えば、通知情報INF1は、「安全運転で良いですね」、「道を譲っていただきありがとうございます」等、ユーザの運転を評価する音声情報であればどのような音声情報であってもよい。
このように、情報処理装置100は、ユーザU1が運転する移動体C1に配置されたスマートスピーカTM1−1により検知されたセンサ情報に基づいて、ユーザU1の評価を決定することにより、移動体の運転に関するユーザの評価を適切に決定することができる。
次に、情報処理装置100がユーザU1の運転する移動体C1に配置されたスマートスピーカTM1−1以外により検知されたセンサ情報に基づいて、ユーザU1の評価を決定する場合を示す。図1の例では、情報処理装置100は、ユーザU1以外のユーザU2が運転する移動体C2に配置されたスマートスピーカTM1−2により検知されたセンサ情報に基づいて、ユーザU1の評価を決定する場合を示す。
図1中のマップ情報MP1は、交差点CR1において、移動体C1が停止している車線の対向車線の停止線の位置において、ユーザU2が運転する移動体C2が停止している状態を示す。そして、移動体C2に配置されたスマートスピーカTM1−2は、検知されたセンサ情報SN1−2を情報処理装置100へ送信する。スマートスピーカTM1−2は、画像センサにより検知された動画像の画像情報であるセンサ情報SN1−2を情報処理装置100へ送信する。図1の例では、スマートスピーカTM1−2は、移動体C2の前方を撮像した動画であるセンサ情報SN1−2を情報処理装置100へ送信する。図1の例では、センサ情報SN1−2には、移動体C2の前方の信号のうち青が点灯しており、移動体C2の車線において移動体C2の前方に位置する移動体C3が、対向車線に位置する移動体C1の前方を通過して右折したことを示す情報が含まれるものとする。
例えば、スマートスピーカTM1−2は、センサ情報SN1−2が検知された位置LC1−2を示す位置情報やセンサ情報SN1−2が日時dt1−1に検知されたことを示す日時情報をセンサ情報SN1−2に対応付けて情報処理装置100に送信する。例えば、スマートスピーカTM1−2は、スマートスピーカTM1−2の位置情報やセンサ情報SN1−2が検知された日時の情報をセンサ情報SN1−2とともに情報処理装置100に送信する。また、例えば、スマートスピーカTM1−2は、センサ情報SN1−2の取得元がスマートスピーカTM1−2であることを特定可能にする端末情報(端末ID等)をセンサ情報SN1−2に対応付けて情報処理装置100に送信する。例えば、スマートスピーカTM1−2は、スマートスピーカTM1−2の端末ID等をセンサ情報SN1−2とともに情報処理装置100に送信する。
これにより、情報処理装置100は、センサ情報SN1−2や位置情報や日時情報や端末情報等を取得する(ステップS21)。図1の例では、情報処理装置100は、一覧情報SLST2に示すように、ログID「LG21」により識別されるログを取得する。情報処理装置100は、センサ情報SN1−2の取得元は、スマートスピーカTM1−2であることを示す情報を取得する。情報処理装置100は、種別が「画像」、すなわち動画像であるセンサ情報SN1−2を取得する。また、情報処理装置100は、センサ情報SN1−2が日時dt1−1において、位置LC1−2で取得(検知)されたことを示す情報を取得する。
そして、図1では、移動体C2内において、ユーザU2が発話を行う。例えば、ユーザU2が、スマートスピーカTM1−2の周囲において、「対向車の運転手いい人ね」という発話PA1を行う。そして、情報処理装置100は、音センサにより「対向車の運転手いい人ね」という発話PA1(音声情報)を検知する。これにより、スマートスピーカTM1−2は、「対向車の運転手いい人ね」という発話PA1を入力として検知する(ステップS22)。そして、スマートスピーカTM1−2は、検知した発話PA1に関するセンサ情報SN1−3を情報処理装置100に送信する。これにより、情報処理装置100は、スマートスピーカTM1−2が検知したセンサ情報SN1−3を取得する。例えば、スマートスピーカTM1−2は、発話PA1が位置LC1−2で行われたことを示す位置情報や発話PA1が日時dt1−2に行われたことを示す日時情報をセンサ情報SN1−3に対応付けて情報処理装置100に送信する。例えば、スマートスピーカTM1−2は、スマートスピーカTM1−2の位置情報や発話PA1が行われた日時の情報をセンサ情報SN1−3とともに情報処理装置100に送信する。また、例えば、スマートスピーカTM1−2は、発話PA1を検知したスマートスピーカ10がスマートスピーカTM1−2であることを特定可能にする端末情報(端末ID等)をセンサ情報SN1−3に対応付けて情報処理装置100に送信する。例えば、スマートスピーカTM1−2は、スマートスピーカTM1−2の端末ID等をセンサ情報SN1−3とともに情報処理装置100に送信する。
これにより、情報処理装置100は、センサ情報SN1−3や位置情報や日時情報や端末情報等を取得する(ステップS23)。図1の例では、情報処理装置100は、一覧情報SLST2に示すように、ログID「LG22」により識別されるログを取得する。情報処理装置100は、センサ情報SN1−3の取得元は、スマートスピーカTM1−2であることを示す情報を取得する。情報処理装置100は、種別が「発話」、すなわちユーザに関する音声であるセンサ情報SN1−3を取得する。また、情報処理装置100は、センサ情報SN1−2が日時dt1−2において、位置LC1−2で取得(検知)されたことを示す情報を取得する。
なお、スマートスピーカTM1−2は、発話PA1の音声情報を音声認識サーバへ送信し、音声認識サーバから発話PA1の文字情報を取得し、取得した文字情報をセンサ情報SN1−3として情報処理装置100へ送信してもよい。この場合、スマートスピーカTM1−2は、取得した発話PA1を行ったユーザがユーザU2であることを示す情報を情報処理装置100に送信してもよい。また、スマートスピーカTM1−2が音声認識機能を有する場合、スマートスピーカTM1−2は、情報処理装置100に送信することを要する情報のみを情報処理装置100に送信してもよい。また、情報処理装置100が、音声認識サーバから音声情報(発話PA1等)の文字情報を取得してもよいし、情報処理装置100が、音声認識サーバであってもよい。また、情報処理装置100は、発話PA1等の音声情報を変換した文字情報を、形態素解析等の自然言語処理技術を適宜用いて解析することにより、発話の内容やユーザの状況を推定(特定)してもよい。
センサ情報SN1−3を取得した情報処理装置100は、センサ情報SN1−3を解析することにより、発話PA1を行ったユーザがユーザU2であることを推定してもよい。情報処理装置100は、種々の従来技術を適宜用いて発話を行ったユーザを推定してもよい。例えば、情報処理装置100は、ユーザの発話と、ユーザ情報記憶部121(図4参照)等に記憶された音声とを用いて、発話を行ったユーザを推定してもよい。例えば、情報処理装置100は、ユーザの発話の音声情報と、ユーザ情報記憶部121に記憶された各ユーザの音声情報とを比較することにより、発話を行ったユーザを推定してもよい。また、情報処理装置100は、スマートスピーカTM1−2から発話を行ったユーザを識別する情報をセンサ情報SN1−3とともに取得してもよい。
このように、図1の例では、情報処理装置100は、種々の従来技術を適宜用いて、発話PA1を行ったユーザがユーザU2であると推定する。なお、上記は一例であり、情報処理装置100は、種々の情報を適宜用いて、発話を行ったユーザを推定してもよい。また、情報処理装置100は、画像センサ等により撮像されたユーザの画像を用いて、画像により発話を行ったユーザを推定してもよい。
動画であるセンサ情報SN1−2やユーザU2の発話PA1に関するセンサ情報SN1−3を取得した情報処理装置100は、センサ情報SN1−2、SN1−3を解析する(ステップS24)。
まず、情報処理装置100は、種々の従来技術を適宜用いて、センサ情報SN1−3を解析することにより、ユーザU2の発話PA1の内容を推定する。例えば、情報処理装置100は、ユーザU2の発話PA1に関するセンサ情報SN1−3を変換した文字情報を構文解析等の種々の従来技術を適宜用いて解析することにより、ユーザU2の発話PA1の内容を推定してもよい。例えば、情報処理装置100は、ユーザU2の発話PA1を変換した文字情報を、形態素解析等の自然言語処理技術を適宜用いて解析することにより、ユーザU2の発話PA1の文字情報から重要なキーワードを抽出し、抽出したキーワードに基づいてユーザU2の発話PA1の内容を推定してもよい。
図1の例では、情報処理装置100は、センサ情報SN1−3を解析することにより、ユーザU2が対向する移動体(単に「車」ともいう)の運転手の運転を評価していると推定する。例えば、情報処理装置100は、行動者「U2」や評価対象「対向する車の運転手」や評価「高評価」等の情報を含むセンサ情報SN1−3の解析結果を示す解析結果情報RS11を生成する。例えば、情報処理装置100は、センサ情報SN1−3を解析することにより、ユーザU2が対向する車の運転について高評価であると推定する。なお、情報処理装置100は、ユーザの発話の内容を推定可能であれば、どのような手段により、発話に関する解析結果を取得してもよい。例えば、情報処理装置100は、音声の解析サービスを提供する外部の情報処理装置(解析装置)にセンサ情報SN1−3を送信することにより、外部の情報処理装置からユーザU2が対向する車の運転について高評価であることを示すような、センサ情報SN1−3の解析結果(解析結果情報RS11)を取得してもよい。
そして、情報処理装置100は、解析結果情報RS11に基づいて、センサ情報SN1−2を解析することにより、ユーザU2が評価した評価対象を推定する。図1の例では、情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、センサ情報SN1−2を解析することにより、ユーザU2の移動体C2に対向する車を推定する。情報処理装置100は、画像解析や画像処理に関する種々の従来技術を適宜用いて、ユーザU2の移動体C2に対向する車が移動体C1であることを特定する。
図1の例では、情報処理装置100は、移動体C2の前方を撮像したセンサ情報SN1−2に含まれる移動体の登録番号に基づいて、ユーザU2の移動体C2に対向する車が移動体C1であることを特定する。例えば、情報処理装置100は、移動体C2の前方を撮像したセンサ情報SN1−2に基づいて、移動体C2に対向する車の登録番号が登録番号NB1であると特定する。例えば、情報処理装置100は、移動体C2の前方を撮像したセンサ情報SN1−2における移動体C2に対向する車のナンバープレート部分の画像を解析することにより、移動体C2に対向する車の登録番号が登録番号NB1であると特定する。
そして、情報処理装置100は、移動体情報記憶部122に記憶された各移動体の登録番号と、移動体C2に対向する車の登録番号NB1とを比較することにより、移動体C2に対向する車が移動体C1であると特定してもよい。情報処理装置100は、特定した移動体C1に対応付けられた利用ユーザID「U1」であるため、移動体C1の運転手がユーザU1であると推定してもよい。
上記のような解析により、情報処理装置100は、図1中の内容一覧情報ALST2に示すように、ユーザU2によるユーザU1の運転に対する評価が、内容ID「A21」により識別される内容「高評価」であると特定する。例えば、情報処理装置100は、記憶部120(図3参照)に記憶された内容IDと内容とが対応付けられた内容一覧情報を用いて、ユーザU2によるユーザU1の運転に対する評価が内容ID「A21」により識別される内容「高評価」であると特定する。
なお、情報処理装置100は、図1中の内容一覧情報ALST2に示すような情報(解析結果)を取得可能であれば、どのような手段により、解析結果を取得してもよい。例えば、情報処理装置100は、音声や動画の解析サービスを提供する外部の情報処理装置(解析装置)にセンサ情報SN1−2、SN1−3を送信することにより、外部の情報処理装置から図1中の内容一覧情報ALST2に示すような、センサ情報SN1−2、SN1−3の解析結果を取得してもよい。
そして、情報処理装置100は、評価を決定する(ステップS25)。情報処理装置100は、図1中の内容一覧情報ALST2に示すようなセンサ情報SN1−2、SN1−3の解析結果に基づいて、移動体の運転に関するユーザU1の評価を決定する。例えば、情報処理装置100は、上記のような運転の内容とその評価とが対応付けられた評価一覧情報を用いて、ユーザU1の評価を決定する。図1の例では、情報処理装置100は、記憶部120に記憶された内容IDと評価とが対応付けられた評価一覧情報を用いて、ユーザU1の評価を決定する。なお、図1の例では、評価一覧情報において、内容ID「A21」は評価「良(1)」に対応付けられているものとする。
例えば、情報処理装置100は、解析結果と評価一覧情報とを比較することにより、ユーザU1の評価を決定する。情報処理装置100は、評価一覧情報において、図1中の内容一覧情報ALST2に示す解析結果中の内容ID「A21」に該当する内容の評価をユーザU1の評価を決定する。図1の例では、評価一覧情報では、内容ID「A21」が評価「良(1)」に対応付けられているため、情報処理装置100は、図1中の評価一覧情報RLST2に示すように、ユーザU1の評価を「良」に決定する。また、情報処理装置100は、ユーザの評価「良」に限らず、ユーザの評価を「悪」に決定してもよい。例えば、情報処理装置100は、図1の例でユーザU2の発話が「対向車の人危ない」や「あいつ危ない」等であった場合、ユーザU1の評価を「悪」に決定する。
このように、情報処理装置100は、ユーザU2が運転する移動体C2に配置されたスマートスピーカTM1−2により検知されたセンサ情報に基づいて、ユーザU1の評価を決定する。このように、情報処理装置100は、ユーザU1が運転する移動体C1以外の移動体C2により検知されたセンサ情報を用いて、ユーザU1の評価を決定することにより、移動体の運転に関するユーザの評価を適切に決定することができる。
〔1−1.その他の情報〕
なお、情報処理装置100は、上記のセンサ情報に限らず、種々のセンサ情報に基づいて、移動体の運転に関するユーザの評価を決定してもよい。例えば、情報処理装置100は、移動体に設けられたセンサにより検知されたセンサ情報に限らず、道路等に設けられた画像センサ等の種々のセンサにより検知されたセンサ情報に基づいて、移動体の運転に関するユーザの評価を決定してもよい。
また、情報処理装置100は、移動体を運転するユーザ自身の発話に基づいて、移動体の運転に関するユーザの評価を決定してもよい。図1の例では、情報処理装置100は、移動体C1を運転するユーザU1自身の発話に基づいて、移動体の運転に関するユーザU1の評価を決定してもよい。例えば、情報処理装置100は、移動体C1を運転するユーザU1が、「邪魔だ」、「どけ」等の暴言に該当する発話を行っている場合、ユーザU1の評価を低くしてもよい。例えば、情報処理装置100は、移動体C1を運転するユーザU1の発話に、暴言のキーワードを示す一覧情報に含まれるキーワードに該当する文字列が含まれる場合、ユーザU1が暴言を発話したとして、ユーザU1の評価を低くしてもよい。この場合、情報処理装置100は、ユーザU1の評価を「悪」に決定する。
〔1−2.評価について〕
図1の例では、情報処理装置100は、センサ情報SN1−1に基づく評価一覧情報RLST1に示す評価「良」と、センサ情報SN1−1に基づく評価一覧情報RLST1に示す評価「良」とに基づいて、ユーザU1の総合的な評価を決定してもよい。例えば、情報処理装置100は、評価一覧情報RLST1に示す評価「良」に対応する部分評価スコア「1」と、評価一覧情報RLST2に示す評価「良」に対応する部分評価スコア「1」とを合算し、ユーザU1の評価スコアを「2(=1+1)」と算出(決定)してもよい。この場合、図7に示すユーザU1の評価スコアRP1が「2」となる。また、情報処理装置100は、ユーザの評価スコアに基づいて、種々のサービスを決定してもよい。
〔1−3.サービスについて〕
情報処理装置100は、図1に示すユーザU1への通知サービスにおいて、種々の態様により、ユーザU1へ通知を行ってもよい。例えば、情報処理装置100は、ユーザU1に道を譲られた移動体C1に乗るユーザU3からの指示に応じて、ユーザU1へ通知を行ってもよい。例えば、情報処理装置100は、ユーザU1に道を譲られたユーザU3が利用する端末装置であるスマートフォンTM1−3(図4参照)からの指示に応じて、ユーザU1へ通知を行ってもよい。例えば、情報処理装置100は、ユーザU3のスマートフォンTM1−3から感謝の通知の指示に応じて、ユーザU1へ通知を行ってもよい。
この場合、例えば、情報処理装置100は、図1中の内容一覧情報ALST1により、ユーザU3の移動体C3に道を譲ったユーザがユーザU1であることを特定し、ユーザU3の感謝の通知の対象がユーザU1であることを特定してもよい。また、情報処理装置100は、ユーザU3を示す情報を含む通知情報をユーザU1へ提供してもよい。例えば、情報処理装置100は、「ユーザU3さんが感謝しております」といいた通知情報をユーザU1へ提供してもよい。
〔1−3−1.他のサービス〕
〔1−3−1−1.安全運転〕
また、情報処理装置100は、図1に示す通知サービスに限らず、種々のサービスを提供してもよい。例えば、情報処理装置100は、ユーザの評価が安全運転に関する所定の基準を満たす場合、ユーザの運転を高評価する情報を通知する。例えば、情報処理装置100は、記憶部120(図3参照)に記憶された安全運転に関する基準を満たす内容を示す安全運転一覧情報に基づいて、ユーザの運転を高評価する情報を通知する。例えば、情報処理装置100は、安全運転に関する基準を満たす内容を識別する内容IDを示す安全運転一覧情報に基づいて、ユーザの運転を高評価する情報を通知する。
例えば、情報処理装置100は、特定したユーザの運転に関する内容を示す内容IDと安全運転一覧情報とを比較することにより、ユーザの運転を高評価する情報を通知するかどうかを決定する。例えば、情報処理装置100は、特定したユーザの運転に関する内容が安全運転一覧情報に含まれる場合、ユーザの運転を高評価する情報を通知する。例えば、情報処理装置100は、図1中の内容一覧情報ALST1に示すユーザU1の運転の内容ID「A11」が、安全運転一覧情報に含まれる場合、ユーザU1の運転を高評価する情報を通知する。情報処理装置100は、図1中の内容一覧情報ALST1に示すユーザU1の運転の内容ID「A11」が、安全運転一覧情報に含まれる場合、ユーザU1に「安全運転ありがとうございます」等の運転を高評価する情報を通知する。
〔1−3−1−2.他の移動体〕
また、情報処理装置100は、ユーザの評価が他のユーザの配慮に関する所定の基準を満たす場合、一の移動体の周囲に位置する移動体に、安全運転を促す情報を通知する。例えば、情報処理装置100は、ユーザが初心者または高齢者に関する所定の基準を満たす場合、一の移動体の周囲に位置する移動体に、安全運転を促す情報を通知する。
例えば、情報処理装置100は、ユーザの運転に関する属性を示す情報(運転属性情報)に基づいて、ユーザの評価を決定してもよい。例えば、情報処理装置100は、ユーザの運転属性情報が運転初心者である場合、ユーザの評価を「追い抜き可」に決定してもよい。例えば、情報処理装置100は、ユーザの運転属性情報が高齢者である場合、ユーザの評価を「追い抜き可」に決定してもよい。このように、情報処理装置100は、ユーザの運転の良し悪しに限らず、種々の観点からユーザの評価を行ってもよい。
例えば、情報処理装置100は、撮像された移動体に若葉マークが取り付けられている場合、その移動体を運転するユーザ(初心者ユーザ)の運転属性情報を運転初心者と決定してもよい。そして、情報処理装置100は、その初心者ユーザの評価を「追い抜き可」に決定してもよい。また、例えば、情報処理装置100は、撮像された移動体にもみじマークが取り付けられている場合、その移動体を運転するユーザ(高齢者ユーザ)の運転属性情報を高齢者と決定してもよい。そして、情報処理装置100は、その高齢者ユーザの評価を「追い抜き可」に決定してもよい。
この場合、例えば、情報処理装置100は、初心者ユーザの評価「追い抜き可」に基づいて、サービスを決定してもよい。例えば、情報処理装置100は、記憶部120(図3参照)に記憶された他のユーザの配慮に関する所定の基準を示す配慮一覧情報に基づいて、サービスを決定する。例えば、情報処理装置100は、決定したユーザの評価と配慮一覧情報とを比較することにより、サービスを決定する。例えば、情報処理装置100は、決定したユーザの評価が配慮一覧情報に含まれる場合、ユーザの周囲の移動体に安全運転を促す情報を通知するサービスを行うと決定する。
例えば、情報処理装置100は、決定したユーザの評価「追い抜き可」が配慮一覧情報に含まれる場合、ユーザの周囲の移動体に安全運転を促す情報を通知するサービスを行うと決定する。例えば、情報処理装置100は、初心者ユーザの評価「追い抜き可」が配慮一覧情報に含まれる場合、初心者ユーザの運転する移動体の周囲の移動体に安全運転を促す情報を通知するサービスを行うと決定する。例えば、情報処理装置100は、初心者ユーザの移動体の位置から所定の範囲(例えば100m以内等)内に位置する移動体に安全運転を促す情報を通知してもよい。例えば、情報処理装置100は、初心者ユーザの移動体の後方に位置する移動体に安全運転を促す情報を通知してもよい。
例えば、情報処理装置100は、運転属性情報や評価「追い抜き可」等の情報をユーザに対応付けて記憶部120(図3参照)に記憶してもよい。例えば、情報処理装置100は、運転属性情報や評価「追い抜き可」等の情報をユーザに対応付けて評価情報記憶部124(図7参照)に記憶してもよい。また、例えば、情報処理装置100は、評価「追い抜き可」等の運転の良し悪し以外の評価もユーザの評価スコアの算出に用いてもよい。例えば、情報処理装置100は、評価「追い抜き可」の部分評価スコアを良い評価と同様の値に決定してもよい。例えば、情報処理装置100は、評価「追い抜き可」が安全運転に対応する評価であるため、評価「追い抜き可」の部分評価スコアを「1」に決定してもよい。
〔1−3−1−3.インセンティブ〕
例えば、情報処理装置100は、ユーザの評価に基づいて、ユーザに所定のインセンティブを提供してもよい。情報処理装置100は、ユーザの評価に基づいて、ユーザに提供するインセンティブを決定してもよい。情報処理装置100は、ユーザの評価スコアに基づいて、ユーザに所定のインセンティブを提供してもよい。例えば、情報処理装置100は、ユーザの評価スコアが所定の閾値(例えば「5」や「10」等)以上である場合、そのユーザに所定のインセンティブを提供すると決定してもよい。
例えば、情報処理装置100は、ユーザの評価が所定の基準を満たす場合、ユーザに駐車場サービスに関するインセンティブを提供する。例えば、情報処理装置100は、ユーザの評価が所定の基準を満たす場合、提携駐車場における専用区画の利用や料金の割引などの駐車場サービスに関するインセンティブを提供してもよい。
例えば、情報処理装置100は、ユーザU1の評価スコアが所定の閾値「10」以上である場合、ユーザU1に駐車場サービスに関するインセンティブを提供すると決定する。例えば、情報処理装置100は、ユーザの評価スコアが所定の閾値以上である場合、ユーザが駐車場を利用する場合に所定の割合(例えば5%)だけ利用料を割り引いて駐車場の利用可能にするインセンティブを提供すると決定してもよい。
例えば、情報処理装置100は、ユーザの評価が所定の基準を満たす場合、ユーザにユーザの運送サービスに関するインセンティブを提供する。例えば、情報処理装置100は、ユーザの評価が所定の基準を満たす場合、タクシーや所定の配車サービスにおける予約時に、ポイント(グレード)を指定可能にする等の運送サービスに関するインセンティブを提供してもよい。
例えば、情報処理装置100は、ユーザの評価スコアが所定の閾値以上である場合、ユーザにユーザの運送サービスに関するインセンティブを提供すると決定する。例えば、情報処理装置100は、ユーザU1の評価スコアが所定の閾値「5」以上である場合、ユーザU1にユーザU1の運送サービスに関するインセンティブを提供すると決定する。例えば、情報処理装置100は、ユーザの評価スコアが所定の閾値以上である場合、ユーザがタクシーを利用する場合に所定の割合(例えば10%)だけ利用料を割り引いてタクシーの利用可能にするインセンティブを提供すると決定してもよい。
〔1−4.スマートスピーカ〕
図1の例では、スマートスピーカTM1−1が移動体C1に配置された場合を示したが、スマートスピーカTM1−1は、ユーザとともに移動可能であれば、どのようなデバイスであってもよい。例えば、スマートスピーカTM1−1は、ユーザが携帯する携帯端末であってもよい。また、図1の例では、スマートスピーカTM1−2が移動体C2に搭載された場合を示したが、スマートスピーカTM1−2は、ユーザとともに移動可能であれば、どのようなデバイスであってもよい。例えば、スマートスピーカTM1−2は、ユーザが携帯する携帯端末であってもよい。
〔1−5.システム構成〕
なお、情報処理システム1は、図2に示したシステム構成に限らず、種々の構成であってもよい。例えば、スマートスピーカ10が決定処理を行ってもよい。例えば、スマートスピーカ10が情報処理装置100の機能を有してもよい。すなわち、情報処理装置100とスマートスピーカ10とは一体であってもよい。この場合、情報処理システムには、種々のサービスを提供するサービス提供装置が含まれてもよい。そして、スマートスピーカ10である情報処理装置100は、ユーザの評価を決定し、決定した評価をサービス提供装置に送信してもよい。そして、情報処理装置100からユーザの評価を受信したサービス提供装置は、ユーザの評価に基づいて種々のサービスを提供してもよい。
〔2.情報処理装置の構成〕
次に、図3を用いて、実施形態に係る情報処理装置100の構成について説明する。図3は、実施形態に係る情報処理装置100の構成例を示す図である。図3に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、スマートスピーカ10との間で情報の送受信を行う。
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図3に示すように、ユーザ情報記憶部121と、移動体情報記憶部122と、センサ情報記憶部123と、評価情報記憶部124とを有する。なお、記憶部120は、上記に限らず、種々の情報を記憶してもよい。
(ユーザ情報記憶部121)
実施形態に係るユーザ情報記憶部121は、ユーザに関する各種情報を記憶する。例えば、ユーザ情報記憶部121は、ユーザ属性情報等の種々の情報を記憶する。図4は、実施形態に係るユーザ情報記憶部の一例を示す図である。図4に示すユーザ情報記憶部121は、「ユーザID」、「年齢」、「性別」、「利用端末」、「興味」、「位置情報」といった項目が含まれる。また、「位置情報」には、「最新位置」といった項目が含まれる。
「ユーザID」は、ユーザを識別するための識別情報を示す。また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。
「利用端末」は、ユーザにより利用される端末を示す。なお、図4に示す例では、各ユーザに1つの端末装置10が対応付けられる場合を示すが、ユーザには複数の端末装置10が対応付けられてもよい。例えば、ユーザU3が、スマートフォンである第1端末装置TM1−3とは別に、スマートスピーカである第1端末装置TM1−30を利用する場合、ユーザU3に対応する「利用端末」は、「TM1−3」と「TM1−30」とが記憶されてもよい。
また、「興味」は、ユーザIDにより識別されるユーザの興味を示す。すなわち、「興味」は、ユーザIDにより識別されるユーザが関心の高い対象を示す。なお、図4に示す例では、「興味」は、各ユーザに1つずつ図示するが、複数であってもよい。
また、「位置情報」中の「最新位置」は、対応するユーザについて最後に取得された位置情報を示す。なお、「最新位置」は、「LC1−1」といった抽象的な符号を図示するが、緯度や経度を示す情報や「X県Y市Z町A交差点」等のような住所を示す情報であってもよい。また、「位置情報」は「取得日時」の項目を有してもよい。例えば、「取得日時」は、最後に位置情報が取得された日時を示す。
図4の例では、ユーザID「U1」により識別されるユーザ(ユーザU1)の年齢は、「20代」であり、性別は、「男性」であることを示す。ユーザU1の利用端末は、スマートスピーカである第1端末装置TM1−1であることを示す。また、ユーザU1は経済に興味があることを示す。例えば、ユーザU1については、位置LC1−1に位置したことを示す位置情報が最後に取得された位置情報、すなわち最新の位置情報であることを示す。
なお、ユーザ情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、ユーザの位置に限らず、ユーザのコンテキストに関する各種情報を記憶する。例えば、ユーザ情報記憶部121は、ユーザの端末装置10が撮像した画像情報等の種々の情報を記憶する。例えば、ユーザ情報記憶部121は、デモグラフィック属性情報やサイコグラフィック属性情報等の種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、氏名、家族構成、収入等の情報を記憶してもよい。
例えば、ユーザ情報記憶部121は、ユーザに付与されたインセンティブに関する情報を記憶する。例えば、ユーザ情報記憶部121は、ユーザに付与されたAレストランのポイント情報をユーザIDに対応付けて記憶する。
また、ユーザ情報記憶部121は、図示を省略するが、センサ情報を基に各ユーザを識別するための識別情報を、各ユーザIDに対応付けて記憶してもよい。例えば、ユーザ情報記憶部121には、「音声」といった項目を含む項目「識別情報」が含まれてもよい。
項目「音声」には、ユーザの識別に用いられる音声情報が記憶される。項目「音声」には、各ユーザの音声情報、またはこれらの格納場所を示すファイルパス名などが格納されてもよい。項目「音声」に記憶される情報は、ユーザの音声の特徴を示す特徴情報であってもよい。例えば、項目「音声」に記憶される情報は、ユーザの発話から抽出された音声的な特徴を示す情報(音声特徴情報)であってもよい。例えば、項目「音声」に記憶される情報は、各発話から音声の特徴抽出に関する種々の従来技術を適宜用いて抽出された音声特徴情報であってもよい。
図1の例では、情報処理装置100は、ユーザの発話と、ユーザ情報記憶部121中に記憶された音声とを用いて、発話を行ったユーザを判定(推定)してもよい。例えば、情報処理装置100は、ユーザの発話の音声情報と、ユーザ情報記憶部121中の項目「音声」に記憶された各ユーザの音声情報とを比較することにより、発話を行ったユーザを判定(推定)してもよい。なお、項目「識別情報」には、「画像」といった項目が含まれてもよい。この場合、項目「画像」には、ユーザの識別に用いられる画像情報が記憶される。
(移動体情報記憶部122)
実施形態に係る移動体情報記憶部122は、移動体に関する各種情報を記憶する。図5は、実施形態に係る移動体情報記憶部の一例を示す図である。例えば、移動体情報記憶部122は、種々の移動体に関する情報を記憶する。図5に示す移動体情報記憶部122には、「移動体ID」、「登録番号」、「車載端末ID」、「利用ユーザID」といった項目が含まれる。
「移動体ID」は、移動体を識別するための識別情報を示す。「登録番号」は、移動体の具体的な登録番号を示す。例えば、「登録番号」は、自動車等の移動体に取り付けられた自動車登録番号標(ナンバープレート)に表示される番号であってもよい。例えば、「登録番号」は、「品川500 たXX−XX」のような文字や数字等の記号を組合せたものであってもよい。また、「車載端末ID」は、移動体に搭載される端末装置を識別する情報を示す。なお、「車載端末ID」が「−(ハイフン)」である移動体には、端末装置が搭載されていないことを示す。また、「利用ユーザID」は、移動体を利用(運転)するユーザを示す。例えば、「利用ユーザID」は、移動体を所有するユーザを示す。
図5の例では、移動体ID「C1」により識別される移動体(移動体C1)は、登録番号が登録番号NB1であることを示す。また、移動体C1は、搭載される端末装置が車載端末ID「TM1−1」により識別される端末装置であることを示す。すなわち、移動体C1は、搭載される端末装置がスマートスピーカTM1−1であることを示す。また、移動体C1は、利用ユーザID「U1」により識別されるユーザ(ユーザU1)により利用される移動体であることを示す。
なお、移動体情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
(センサ情報記憶部123)
実施形態に係るセンサ情報記憶部123は、センサによる検知に関する各種情報を記憶する。例えば、センサ情報記憶部123は、センサにより検知されたセンサ情報を記憶する。図6は、実施形態に係るセンサ情報記憶部の一例を示す図である。例えば、センサ情報記憶部123は、各ユーザが利用する端末装置により検知されたセンサ情報を記憶する。図6に示すセンサ情報記憶部123には、「ログID」、「取得元」、「種別」、「センサ情報」、「日時」、「位置」といった項目が含まれる。
「ログID」は、取得されたセンサ情報を識別するための識別情報を示す。「取得元」は、センサ情報を検知した端末装置を示す。また、「種別」は、検知されたセンサ情報の種別に関する情報を示す。「センサ情報」は、検知されたセンサ情報を示す。図6では「センサ情報」に「SN1−1」といった概念的な情報が格納される例を示したが、実際には、具体的に検知された情報(センサデータ)、または、その格納場所を示すファイルパス名などが格納されてもよい。
例えば、センサ情報の種別「画像」である場合、「センサ情報」には、静止画像や動画像、または、これらの格納場所を示すファイルパス名などが格納される。また、例えば、センサ情報の種別「発話」である場合、「センサ情報」には、音声データや音声データを変換後の文字情報、または、これらの格納場所を示すファイルパス名などが格納される。
「日時」は、センサ情報が検知された日時を示す。「日時」には、「dt1−1」等のように抽象的に図示するが、「2018年8月9日22時31分52秒」等の具体的な日時が記憶されてもよい。なお、「日時」は、時点に限らず、「2018年8月9日22時31分」や「2018年8月9日22時30−31分」等の所定の期間であってもよい。また、「位置」は、対応する行動が行われた位置を示す。なお、「位置」は、「LC1−2」といった抽象的な符号を図示するが、緯度や経度を示す情報や「X県Y市Z町B交差点」等のような住所を示す情報であってもよい。
図6の例では、ログID「LG11」により識別される履歴情報(ログLG11)におけるセンサ情報SN1−1の取得元は、ID「TM1−1」により識別される端末装置であることを示す。すなわち、ログLG11のセンサ情報SN1−1は、スマートスピーカTM1−1により検知されたことを示す。ログLG11のセンサ情報SN1−1は、種別「画像」である動画像情報であることを示す。また、ログLG11のセンサ情報SN1−1は、日時dt1−1において、位置LC1−1で取得(検知)されたことを示す。
また、図6の例では、ログID「LG22」により識別される履歴情報(ログLG22)におけるセンサ情報SN1−3の取得元は、ID「TM1−2」により識別される端末装置であることを示す。すなわち、ログLG22のセンサ情報SN1−3は、スマートスピーカTM1−2により検知されたことを示す。ログLG22のセンサ情報SN1−3は、種別「発話」である音声情報であることを示す。また、ログLG22のセンサ情報SN1−3は、日時dt1−2において、位置LC1−2で取得(検知)されたことを示す。
なお、センサ情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
(評価情報記憶部124)
実施形態に係る評価情報記憶部124は、評価に関する情報を記憶する。例えば、評価情報記憶部124は、移動体の運転に関するユーザの評価に関する情報を記憶する。図7は、実施形態に係る評価情報記憶部の一例を示す図である。図7に示す評価情報記憶部124は、「ユーザID」、「評価スコア」といった項目が含まれる。
「ユーザID」は、ユーザを識別するための識別情報を示す。「評価スコア」は、ユーザの移動体の運転に関する評価を示す。例えば、「評価スコア」は、ユーザの移動体の運転に関する評価を示す数値(スコア)を示す。なお、図7の例では、「評価スコア」には、「RP1」等のように抽象的に図示するが、「15」、「0.85」等の具体的なスコアが記憶されるものとする。
図7の例では、ユーザID「U1」により識別されるユーザ(ユーザU1)は、評価スコアが「RP1」であることを示す。
なお、評価情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、評価情報記憶部124は、ユーザの運転に関する属性を示す情報(運転属性情報)をユーザに対応付けて記憶する。
評価情報記憶部124は、ユーザが運転初心者である場合、初心者であることを示す情報をそのユーザに対応付けて記憶する。例えば、評価情報記憶部124は、ユーザが若葉ワークを取り付けて移動体を運転するユーザである場合、若葉ワークが必要な初心者であることを示す情報をユーザに対応付けて記憶する。
また、評価情報記憶部124は、ユーザが高齢者である場合、高齢者であることを示す情報をそのユーザに対応付けて記憶する。例えば、評価情報記憶部124は、ユーザがもみじマークを取り付けて移動体を運転するユーザである場合、もみじマークが必要な高齢者であることを示す情報をユーザに対応付けて記憶する。
(制御部130)
図3の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図3に示すように、制御部130は、取得部131と、解析部132と、決定部133と、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
(取得部131)
取得部131は、種々の情報を取得する。取得部131は、スマートスピーカ10等の外部装置から各種情報を取得する。また、取得部131は、記憶部120から各種情報を取得する。また、取得部131は、ユーザ情報記憶部121や、移動体情報記憶部122や、センサ情報記憶部123や、評価情報記憶部124等から各種情報を取得する。
取得部131は、ユーザが乗る一の移動体に配置された一の端末装置、及び他の移動体に配置された他の端末装置のうち、いずれか一方の端末装置により検知されたセンサ情報を取得する。取得部131は、一のスマートスピーカである一方の端末装置により検知されたセンサ情報を取得する。取得部131は、一方の端末装置により検知された音声情報を含むセンサ情報を取得する。
取得部131は、他の端末装置により検知されたセンサ情報を取得する。取得部131は、他の移動体に乗る他のユーザの発話情報を含むセンサ情報を取得する。取得部131は、他の端末装置により撮像された画像情報を含むセンサ情報を取得する。
取得部131は、一の端末装置により検知されたセンサ情報を取得する。取得部131は、ユーザの発話情報を含むセンサ情報を取得する。取得部131は、一の端末装置により撮像された画像情報を含むセンサ情報を取得する。
図1の例では、取得部131は、センサ情報SN1−1や位置情報や日時情報や端末情報等を取得する。取得部131は、一覧情報SLST1に示すように、ログID「LG11」により識別されるログを取得する。取得部131は、センサ情報SN1−1の取得元は、スマートスピーカTM1−1であることを示す情報を取得する。取得部131は、種別が「画像」、すなわち動画像であるセンサ情報SN1−1を取得する。また、取得部131は、センサ情報SN1−1が日時dt1−1において、位置LC1−1で取得(検知)されたことを示す情報を取得する。
取得部131は、センサ情報SN1−2や位置情報や日時情報や端末情報等を取得する。取得部131は、一覧情報SLST2に示すように、ログID「LG21」により識別されるログを取得する。取得部131は、センサ情報SN1−2の取得元は、スマートスピーカTM1−2であることを示す情報を取得する。取得部131は、種別が「画像」、すなわち動画像であるセンサ情報SN1−2を取得する。また、取得部131は、センサ情報SN1−2が日時dt1−1において、位置LC1−2で取得(検知)されたことを示す情報を取得する。
取得部131は、センサ情報SN1−3や位置情報や日時情報や端末情報等を取得する。取得部131は、一覧情報SLST2に示すように、ログID「LG22」により識別されるログを取得する。取得部131は、センサ情報SN1−3の取得元は、スマートスピーカTM1−2であることを示す情報を取得する。取得部131は、種別が「発話」、すなわちユーザに関する音声であるセンサ情報SN1−3を取得する。また、取得部131は、センサ情報SN1−2が日時dt1−2において、位置LC1−2で取得(検知)されたことを示す情報を取得する。
(解析部132)
解析部132は、各種情報を解析する。解析部132は、各種情報を推定する。解析部132は、各種情報を特定する。解析部132は、各種情報を抽出する。解析部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を解析する。解析部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を推定する。解析部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を特定する。解析部132は、記憶部120に記憶された各種情報に基づいて、種々の情報を抽出する。解析部132は、ユーザ情報記憶部121や、移動体情報記憶部122や、センサ情報記憶部123や、評価情報記憶部124等に基づいて、各種情報を解析する。解析部132は、ユーザ情報記憶部121や、移動体情報記憶部122や、センサ情報記憶部123や、評価情報記憶部124等に基づいて、各種情報を推定する。解析部132は、ユーザ情報記憶部121や、移動体情報記憶部122や、センサ情報記憶部123や、評価情報記憶部124等に基づいて、各種情報を特定する。解析部132は、ユーザ情報記憶部121や、移動体情報記憶部122や、センサ情報記憶部123や、評価情報記憶部124等に基づいて、各種情報を抽出する。解析部132は、取得部131により取得された各種情報に基づいて、種々の情報を解析する。解析部132は、取得部131により取得された各種情報に基づいて、種々の情報を推定する。解析部132は、取得部131により取得された各種情報に基づいて、種々の情報を特定する。解析部132は、取得部131により取得された各種情報に基づいて、種々の情報を抽出する。
図1の例では、解析部132は、センサ情報SN1−1を解析する。解析部132は、画像解析や画像処理に関する種々の従来技術を適宜用いて、センサ情報SN1−1を解析することにより、移動体C1を運転するユーザU1の運転態様を推定する。解析部132は、画像解析や画像処理に関する種々の従来技術を適宜用いて、図1中の内容一覧情報ALST1に示すように、センサ情報SN1−1に含まれるユーザU1の移動体C1の運転の内容を推定する。
解析部132は、移動体C1の前方を撮像したセンサ情報SN1−1では、信号のうち青が点灯しているため、移動体C1が進行してよいコンテキストであると推定する。また、解析部132は、移動体C1の前方を撮像したセンサ情報SN1−1では、移動体C1が進行してよいコンテキストにおいて、移動体C3が移動体C1の前方を通過したため、移動体C1が道を譲ったと推定する。これにより、解析部132は、センサ情報SN1−1におけるユーザU1の運転が移動体C1を対象として道を譲る行為であると解析する。
解析部132は、センサ情報SN1−2、SN1−3を解析する。解析部132は、センサ情報SN1−3を解析することにより、ユーザU2が対向する移動体(車)の運転手の運転を評価していると推定する。例えば、解析部132は、行動者「U2」や評価対象「対向する車の運転手」や評価「高評価」等の情報を含むセンサ情報SN1−3の解析結果を示す解析結果情報RS11を生成する。例えば、解析部132は、センサ情報SN1−3を解析することにより、ユーザU2が対向する車の運転について高評価であると推定する。
解析部132は、移動体C2の前方を撮像したセンサ情報SN1−2に含まれる移動体の登録番号に基づいて、ユーザU2の移動体C2に対向する車が移動体C1であることを特定する。例えば、解析部132は、移動体C2の前方を撮像したセンサ情報SN1−2に基づいて、移動体C2に対向する車の登録番号が登録番号NB1であると特定する。例えば、解析部132は、移動体C2の前方を撮像したセンサ情報SN1−2における移動体C2に対向する車のナンバープレート部分の画像を解析することにより、移動体C2に対向する車の登録番号が登録番号NB1であると特定する。
解析部132は、図1中の内容一覧情報ALST2に示すように、ユーザU2によるユーザU1の運転に対する評価が、内容ID「A21」により識別される内容「高評価」であると特定する。解析部132は、記憶部120に記憶された内容IDと内容とが対応付けられた内容一覧情報を用いて、ユーザU2によるユーザU1の運転に対する評価が内容ID「A21」により識別される内容「高評価」であると特定する。
(決定部133)
決定部133は、各種情報を決定する。決定部133は、各種情報を判定する。決定部133は、各種情報を生成する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を決定する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を判定する。決定部133は、記憶部120に記憶された各種情報に基づいて、種々の情報を生成する。決定部133は、ユーザ情報記憶部121や、移動体情報記憶部122や、センサ情報記憶部123や、評価情報記憶部124等に基づいて、各種情報を決定する。決定部133は、ユーザ情報記憶部121や、移動体情報記憶部122や、センサ情報記憶部123や、評価情報記憶部124等に基づいて、各種情報を生成する。決定部133は、解析部132により推定された各種情報に基づいて、種々の情報を決定する。決定部133は、取得部131により取得された各種情報に基づいて、種々の情報を決定する。決定部133は、取得部131により取得された各種情報に基づいて、種々の情報を生成する。
決定部133は、取得部131により取得されたセンサ情報に基づいて、移動体の運転に関するユーザの評価を決定する。決定部133は、取得部131により取得された音声情報に基づいて、ユーザの評価を決定する。
決定部133は、他の移動体におけるセンサ情報に基づいて、ユーザの評価を決定する。決定部133は、他の移動体における発話情報に基づいて、ユーザの評価を決定する。決定部133は、他の移動体における画像情報に基づいて、ユーザの評価を決定する。
決定部133は、一の移動体におけるセンサ情報に基づいて、ユーザの評価を決定する。決定部133は、一の移動体における発話情報に基づいて、ユーザの評価を決定する。決定部133は、一の移動体における画像情報に基づいて、ユーザの評価を決定する。
図1の例では、決定部133は、内容一覧情報ALST1に示すようなセンサ情報SN1−1の解析結果に基づいて、移動体の運転に関するユーザU1の評価を決定する。決定部133は、記憶部120に記憶された運転の内容とその評価とが対応付けられた評価一覧情報を用いて、ユーザU1の評価を決定する。決定部133は、記憶部120に記憶された内容IDと評価とが対応付けられた評価一覧情報を用いて、ユーザU1の評価を決定する。
例えば、決定部133は、解析結果と評価一覧情報とを比較することにより、ユーザU1の評価を決定する。決定部133は、評価一覧情報において、図1中の内容一覧情報ALST1に示す解析結果中の内容ID「A11」に該当する内容の評価をユーザU1の評価を決定する。図1の例では、評価一覧情報では、内容ID「A11」が評価「良(1)」に対応付けられているため、決定部133は、図1中の評価一覧情報RLST1に示すように、ユーザU1の評価を「良」に決定する。
決定部133は、ユーザU1の評価「良」に基づいて、ユーザU1に提供するサービスを決定する。決定部133は、ユーザU1の評価「良」に基づいて、ユーザU1に通知を行うと決定する。具体的には、決定部133は、ユーザU1の評価「良」に基づいて、ユーザU1の運転を評価する通知を行うと決定する。
決定部133は、図1中の内容一覧情報ALST2に示すようなセンサ情報SN1−2、SN1−3の解析結果に基づいて、移動体の運転に関するユーザU1の評価を決定する。例えば、決定部133は、上記のような運転の内容とその評価とが対応付けられた評価一覧情報を用いて、ユーザU1の評価を決定する。決定部133は、記憶部120に記憶された内容IDと評価とが対応付けられた評価一覧情報を用いて、ユーザU1の評価を決定する。
例えば、決定部133は、解析結果と評価一覧情報とを比較することにより、ユーザU1の評価を決定する。決定部133は、評価一覧情報において、図1中の内容一覧情報ALST2に示す解析結果中の内容ID「A21」に該当する内容の評価をユーザU1の評価を決定する。評価一覧情報では、内容ID「A21」が評価「良(1)」に対応付けられているため、決定部133は、図1中の評価一覧情報RLST2に示すように、ユーザU1の評価を「良」に決定する。
(提供部134)
提供部134は、各種情報を提供する。提供部134は、外部の情報処理装置へ各種情報を提供する。提供部134は、スマートスピーカ10等の外部の情報処理装置に各種情報を提供する。提供部134は、スマートスピーカ10に各種情報を送信する。提供部134は、スマートスピーカ10に各種情報を配信する。提供部134は、取得部131により取得された各種情報に基づいて、種々の情報を提供する。提供部134は、解析部132により解析された各種情報に基づいて、種々の情報を提供する。提供部134は、決定部133により決定された各種情報に基づいて、種々の情報を提供する。
提供部134は、決定部133により決定されたユーザの評価に基づくサービスを提供する。提供部134は、ユーザの評価に基づいて、ユーザに情報を通知する。
提供部134は、ユーザの評価が安全運転に関する所定の基準を満たす場合、ユーザの運転を高評価する情報を通知する。提供部134は、ユーザの評価が他のユーザの配慮に関する所定の基準を満たす場合、一の移動体の周囲に位置する移動体に、安全運転を促す情報を通知する。提供部134は、ユーザが初心者または高齢者に関する所定の基準を満たす場合、一の移動体の周囲に位置する移動体に、安全運転を促す情報を通知する。
提供部134は、ユーザの評価に基づいて、ユーザに所定のインセンティブを提供する。提供部134は、ユーザの評価が所定の基準を満たす場合、ユーザに駐車場サービスに関するインセンティブを提供する。提供部134は、ユーザの評価が所定の基準を満たす場合、ユーザにユーザの運送サービスに関するインセンティブを提供する。
図1の例では、提供部134は、ユーザU1の運転を評価する通知情報をスマートスピーカTM1−1に提供する。提供部134は、スマートスピーカTM1−1に出力させる音声情報である通知情報INF1をスマートスピーカTM1−1に送信する。
〔3.情報処理のフロー〕
次に、図8を用いて、実施形態に係る情報処理システム1による情報処理の手順について説明する。図8は、実施形態に係る情報処理の一例を示すフローチャートである。具体的には、図8は、決定処理の一例を示すフローチャートである。
図8に示すように、情報処理装置100は、ユーザが乗る一の移動体に配置された一の端末装置、及び他の移動体に配置された他の端末装置のうち、いずれか一方の端末装置により検知されたセンサ情報を取得する(ステップS101)。そして、情報処理装置100は、センサ情報に基づいて、移動体の運転に関するユーザの評価を決定する(ステップS102)。そして、情報処理装置100は、決定した評価に基づくサービスを提供する(ステップS103)。
〔4.効果〕
上述してきたように、実施形態に係る情報処理装置100は、取得部131と、決定部133とを有する。取得部131は、ユーザが乗る一の移動体に配置された一の端末装置、及び他の移動体に配置された他の端末装置のうち、いずれか一方の端末装置により検知されたセンサ情報を取得する。決定部133は、取得部131により取得されたセンサ情報に基づいて、移動体の運転に関するユーザの評価を決定する。
このように、実施形態に係る情報処理装置100は、ユーザが乗る一の移動体に配置された一の端末装置、及び他の移動体に配置された他の端末装置のうち、いずれか一方の端末装置により検知されたセンサ情報に基づいて、移動体の運転に関するユーザの評価を決定することにより、移動体の運転に関するユーザの評価を適切に決定することができる。
また、実施形態に係る情報処理装置100において、取得部131は、一のスマートスピーカである一方の端末装置により検知されたセンサ情報を取得する。
このように、実施形態に係る情報処理装置100は、一のスマートスピーカである一方の端末装置により検知されたセンサ情報に基づいて、移動体の運転に関するユーザの評価を決定することにより、移動体の運転に関するユーザの評価を適切に決定することができる。
また、実施形態に係る情報処理装置100において、取得部131は、一方の端末装置により検知された音声情報を含むセンサ情報を取得する。決定部133は、取得部131により取得された音声情報に基づいて、ユーザの評価を決定する。
このように、実施形態に係る情報処理装置100は、一方の端末装置により検知された音声情報に基づいて、移動体の運転に関するユーザの評価を決定することにより、移動体の運転に関するユーザの評価を適切に決定することができる。
また、実施形態に係る情報処理装置100において、取得部131は、他の端末装置により検知されたセンサ情報を取得する。決定部133は、他の移動体におけるセンサ情報に基づいて、ユーザの評価を決定する。
このように、実施形態に係る情報処理装置100は、他の端末装置により検知されたセンサ情報に基づいて、移動体の運転に関するユーザの評価を決定することにより、他の移動体により検知された情報を基に評価を決定することできる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価を適切に決定することができる。
また、実施形態に係る情報処理装置100において、取得部131は、他の移動体に乗る他のユーザの発話情報を含むセンサ情報を取得する。決定部133は、他の移動体における発話情報に基づいて、ユーザの評価を決定する。
このように、実施形態に係る情報処理装置100は、他の移動体に乗る他のユーザの発話情報に基づいて、移動体の運転に関するユーザの評価を決定することにより、他の移動体により検知された情報を基に評価を決定することできる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価を適切に決定することができる。
また、実施形態に係る情報処理装置100において、取得部131は、他の端末装置により撮像された画像情報を含むセンサ情報を取得する。決定部133は、画像情報に基づいて、ユーザの評価を決定する。
このように、実施形態に係る情報処理装置100は、他の端末装置により撮像された画像情報に基づいて、移動体の運転に関するユーザの評価を決定することにより、他の移動体により検知された情報を基に評価を決定することできる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価を適切に決定することができる。
また、実施形態に係る情報処理装置100において、取得部131は、一の端末装置により検知されたセンサ情報を取得する。決定部133は、一の移動体におけるセンサ情報に基づいて、ユーザの評価を決定する。
このように、実施形態に係る情報処理装置100は、ユーザが乗る移動体に配置された一の端末装置により検知されたセンサ情報に基づいて、移動体の運転に関するユーザの評価を決定することにより、ユーザが乗る移動体自体により検知された情報を基に評価を決定することできる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価を適切に決定することができる。
また、実施形態に係る情報処理装置100において、取得部131は、ユーザの発話情報を含むセンサ情報を取得する。決定部133は、一の移動体における発話情報に基づいて、ユーザの評価を決定する。
このように、実施形態に係る情報処理装置100は、ユーザが乗る移動体に配置された一の端末装置により検知されたユーザの発話情報に基づいて、移動体の運転に関するユーザの評価を決定することにより、ユーザが乗る移動体自体により検知された情報を基に評価を決定することできる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価を適切に決定することができる。
また、実施形態に係る情報処理装置100において、取得部131は、一の端末装置により撮像された画像情報を含むセンサ情報を取得する。決定部133は、画像情報に基づいて、ユーザの評価を決定する。
このように、実施形態に係る情報処理装置100は、ユーザが乗る移動体に配置された一の端末装置により撮像された画像情報に基づいて、移動体の運転に関するユーザの評価を決定することにより、ユーザが乗る移動体自体により検知された情報を基に評価を決定することできる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価を適切に決定することができる。
また、実施形態に係る情報処理装置100は、提供部134を有する。提供部134は、決定部133により決定されたユーザの評価に基づくサービスを提供する。
このように、実施形態に係る情報処理装置100は、決定したユーザの評価に基づくサービスを提供することにより、移動体の運転に関するユーザの評価に応じて、適切なサービスを提供することができる。
また、実施形態に係る情報処理装置100において、提供部134は、ユーザの評価に基づいて、ユーザに情報を通知する。
このように、実施形態に係る情報処理装置100は、ユーザの評に基づいて、ユーザに情報を通知することにより、ユーザに情報を通知するサービスを適切に提供することができる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価に応じて、適切なサービスを提供することができる。
また、実施形態に係る情報処理装置100において、提供部134は、ユーザの評価が安全運転に関する所定の基準を満たす場合、ユーザの運転を高評価する情報を通知する。
このように、実施形態に係る情報処理装置100は、ユーザの評価が安全運転に関する所定の基準を満たす場合、ユーザの運転を高評価する情報を通知することにより、ユーザに情報を通知するサービスを適切に提供することができる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価に応じて、適切なサービスを提供することができる。
また、実施形態に係る情報処理装置100において、提供部134は、ユーザの評価が他のユーザの配慮に関する所定の基準を満たす場合、一の移動体の周囲に位置する移動体に、安全運転を促す情報を通知する。
このように、実施形態に係る情報処理装置100は、ユーザの評価が他のユーザの配慮に関する所定の基準を満たす場合、一の移動体の周囲に位置する移動体に、安全運転を促す情報を通知することにより、情報を通知するサービスを適切に提供することができる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価に応じて、適切なサービスを提供することができる。
また、実施形態に係る情報処理装置100において、提供部134は、ユーザが初心者または高齢者に関する所定の基準を満たす場合、一の移動体の周囲に位置する移動体に、安全運転を促す情報を通知する。
このように、実施形態に係る情報処理装置100は、ユーザが初心者または高齢者に関する所定の基準を満たす場合、一の移動体の周囲に位置する移動体に、安全運転を促す情報を通知することにより、情報を通知するサービスを適切に提供することができる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価に応じて、適切なサービスを提供することができる。
また、実施形態に係る情報処理装置100において、提供部134は、ユーザの評価に基づいて、ユーザに所定のインセンティブを提供する。
このように、実施形態に係る情報処理装置100は、ユーザの評価に基づいて、ユーザに所定のインセンティブを提供することにより、ユーザにインセンティブを提供するサービスを適切に提供することができる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価に応じて、適切なサービスを提供することができる。
また、実施形態に係る情報処理装置100において、提供部134は、ユーザの評価が所定の基準を満たす場合、ユーザに駐車場サービスに関するインセンティブを提供する。
このように、実施形態に係る情報処理装置100は、ユーザの評価が所定の基準を満たす場合、ユーザに駐車場サービスに関するインセンティブを提供することにより、ユーザにインセンティブを提供するサービスを適切に提供することができる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価に応じて、適切なサービスを提供することができる。
また、実施形態に係る情報処理装置100において、提供部134は、ユーザの評価が所定の基準を満たす場合、ユーザにユーザの運送サービスに関するインセンティブを提供する。
このように、実施形態に係る情報処理装置100は、ユーザの評価が所定の基準を満たす場合、ユーザにユーザの運送サービスに関するインセンティブを提供することにより、ユーザにインセンティブを提供するサービスを適切に提供することができる。したがって、情報処理装置100は、移動体の運転に関するユーザの評価に応じて、適切なサービスを提供することができる。
〔5.ハードウェア構成〕
上述してきた実施形態に係る情報処理装置100は、例えば図9に示すような構成のコンピュータ1000によって実現される。図9は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
〔6.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
1 情報処理システム
100 情報処理装置
121 ユーザ情報記憶部
122 移動体情報記憶部
123 センサ情報記憶部
124 評価情報記憶部
130 制御部
131 取得部
132 解析部
133 決定部
134 提供部
10 スマートスピーカ(端末装置)
N ネットワーク

Claims (19)

  1. ユーザが乗る一の移動体に配置された一の端末装置、及び他の移動体に配置された他の端末装置のうち、いずれか一方の端末装置により検知されたセンサ情報を取得する取得部と、
    前記取得部により取得された前記センサ情報に基づいて、前記移動体の運転に関する前記ユーザの評価を決定する決定部と、
    を備えることを特徴とする情報処理装置。
  2. 前記取得部は、
    一のスマートスピーカである前記一方の端末装置により検知された前記センサ情報を取得する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記取得部は、
    前記一方の端末装置により検知された音声情報を含む前記センサ情報を取得し、
    前記決定部は、
    前記取得部により取得された前記音声情報に基づいて、前記ユーザの前記評価を決定する
    ことを特徴とする請求項1または請求項2に記載の情報処理装置。
  4. 前記取得部は、
    前記他の端末装置により検知された前記センサ情報を取得し、
    前記決定部は、
    前記他の移動体における前記センサ情報に基づいて、前記ユーザの前記評価を決定する
    ことを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記取得部は、
    前記他の移動体に乗る他のユーザの発話情報を含む前記センサ情報を取得し、
    前記決定部は、
    前記他の移動体における前記発話情報に基づいて、前記ユーザの前記評価を決定する
    ことを特徴とする請求項4に記載の情報処理装置。
  6. 前記取得部は、
    前記他の端末装置により撮像された画像情報を含む前記センサ情報を取得し、
    前記決定部は、
    前記画像情報に基づいて、前記ユーザの前記評価を決定する
    ことを特徴とする請求項4または請求項5に記載の情報処理装置。
  7. 前記取得部は、
    前記一の端末装置により検知された前記センサ情報を取得し、
    前記決定部は、
    前記一の移動体における前記センサ情報に基づいて、前記ユーザの前記評価を決定する
    ことを特徴とする請求項1〜6のいずれか1項に記載の情報処理装置。
  8. 前記取得部は、
    前記ユーザの発話情報を含む前記センサ情報を取得し、
    前記決定部は、
    前記一の移動体における前記発話情報に基づいて、前記ユーザの前記評価を決定する
    ことを特徴とする請求項7に記載の情報処理装置。
  9. 前記取得部は、
    前記一の端末装置により撮像された画像情報を含む前記センサ情報を取得し、
    前記決定部は、
    前記画像情報に基づいて、前記ユーザの前記評価を決定する
    ことを特徴とする請求項7または請求項8に記載の情報処理装置。
  10. 前記決定部により決定された前記ユーザの前記評価に基づくサービスを提供する提供部、
    をさらに備えたことを特徴とする請求項1〜9のいずれか1項に記載の情報処理装置。
  11. 前記提供部は、
    前記ユーザの前記評価に基づいて、前記ユーザに情報を通知する
    ことを特徴とする請求項10に記載の情報処理装置。
  12. 前記提供部は、
    前記ユーザの前記評価が安全運転に関する所定の基準を満たす場合、前記ユーザの運転を高評価する情報を通知する
    ことを特徴とする請求項11に記載の情報処理装置。
  13. 前記提供部は、
    前記ユーザの前記評価が他のユーザの配慮に関する所定の基準を満たす場合、前記一の移動体の周囲に位置する移動体に、安全運転を促す情報を通知する
    ことを特徴とする請求項10〜12のいずれか1項に記載の情報処理装置。
  14. 前記提供部は、
    前記ユーザが初心者または高齢者に関する所定の基準を満たす場合、前記一の移動体の周囲に位置する移動体に、安全運転を促す情報を通知する
    ことを特徴とする請求項10〜13のいずれか1項に記載の情報処理装置。
  15. 前記提供部は、
    前記ユーザの前記評価に基づいて、前記ユーザに所定のインセンティブを提供する
    ことを特徴とする請求項10〜14のいずれか1項に記載の情報処理装置。
  16. 前記提供部は、
    前記ユーザの前記評価が所定の基準を満たす場合、前記ユーザに駐車場サービスに関するインセンティブを提供する
    ことを特徴とする請求項15に記載の情報処理装置。
  17. 前記提供部は、
    前記ユーザの前記評価が所定の基準を満たす場合、前記ユーザに前記ユーザの運送サービスに関するインセンティブを提供する
    ことを特徴とする請求項15または請求項16に記載の情報処理装置。
  18. コンピュータが実行する情報処理方法であって、
    ユーザが乗る一の移動体に配置された一の端末装置、及び他の移動体に配置された他の端末装置のうち、いずれか一方の端末装置により検知されたセンサ情報を取得する取得工程と、
    前記取得工程により取得された前記センサ情報に基づいて、前記移動体の運転に関する前記ユーザの評価を決定する決定工程と、
    を含むことを特徴とする情報処理方法。
  19. ユーザが乗る一の移動体に配置された一の端末装置、及び他の移動体に配置された他の端末装置のうち、いずれか一方の端末装置により検知されたセンサ情報を取得する取得手順と、
    前記取得手順により取得された前記センサ情報に基づいて、前記移動体の運転に関する前記ユーザの評価を決定する決定手順と、
    をコンピュータに実行させることを特徴とする情報処理プログラム。
JP2018158393A 2018-08-27 2018-08-27 情報処理装置、情報処理方法、及び情報処理プログラム Active JP7475808B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018158393A JP7475808B2 (ja) 2018-08-27 2018-08-27 情報処理装置、情報処理方法、及び情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018158393A JP7475808B2 (ja) 2018-08-27 2018-08-27 情報処理装置、情報処理方法、及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2020034996A true JP2020034996A (ja) 2020-03-05
JP7475808B2 JP7475808B2 (ja) 2024-04-30

Family

ID=69668125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018158393A Active JP7475808B2 (ja) 2018-08-27 2018-08-27 情報処理装置、情報処理方法、及び情報処理プログラム

Country Status (1)

Country Link
JP (1) JP7475808B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021163343A (ja) * 2020-04-02 2021-10-11 トヨタ自動車株式会社 駐車場提供システム、サーバ装置、及びプログラム
JPWO2022097218A1 (ja) * 2020-11-05 2022-05-12

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004122804A (ja) * 2002-09-30 2004-04-22 Fuji Enterprise Kk 車両用サイン表示方法及びその装置
JP2007310729A (ja) * 2006-05-19 2007-11-29 Fujitsu Ltd 移動体用運転支援装置
JP2010039138A (ja) * 2008-08-04 2010-02-18 Toyota Motor Corp 車両用運転評価装置
JP2010097443A (ja) * 2008-10-17 2010-04-30 Sanyo Electric Co Ltd 車車間通信装置
JP2012150557A (ja) * 2011-01-17 2012-08-09 Toyota Central R&D Labs Inc 運転マナー啓発装置、システム、及びプログラム
JP2012173887A (ja) * 2011-02-18 2012-09-10 Toshiba Corp 情報提供システム、サーバ、車載端末
JP2016177375A (ja) * 2015-03-18 2016-10-06 株式会社リコー 運転特性評価用情報取得システムおよび取得方法
JP2016224477A (ja) * 2015-05-26 2016-12-28 富士通株式会社 車載装置、運転モード制御システム、及び運転モード制御方法
WO2017047176A1 (ja) * 2015-09-18 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2017204071A (ja) * 2016-05-10 2017-11-16 三菱電機株式会社 運転支援装置、運転支援システムおよび運転支援プログラム
JP2017211703A (ja) * 2016-05-23 2017-11-30 三菱電機株式会社 運転評価装置および運転評価プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017187991A (ja) 2016-04-07 2017-10-12 京セラ株式会社 運転情報表示装置及び車両用表示システム

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004122804A (ja) * 2002-09-30 2004-04-22 Fuji Enterprise Kk 車両用サイン表示方法及びその装置
JP2007310729A (ja) * 2006-05-19 2007-11-29 Fujitsu Ltd 移動体用運転支援装置
JP2010039138A (ja) * 2008-08-04 2010-02-18 Toyota Motor Corp 車両用運転評価装置
JP2010097443A (ja) * 2008-10-17 2010-04-30 Sanyo Electric Co Ltd 車車間通信装置
JP2012150557A (ja) * 2011-01-17 2012-08-09 Toyota Central R&D Labs Inc 運転マナー啓発装置、システム、及びプログラム
JP2012173887A (ja) * 2011-02-18 2012-09-10 Toshiba Corp 情報提供システム、サーバ、車載端末
JP2016177375A (ja) * 2015-03-18 2016-10-06 株式会社リコー 運転特性評価用情報取得システムおよび取得方法
JP2016224477A (ja) * 2015-05-26 2016-12-28 富士通株式会社 車載装置、運転モード制御システム、及び運転モード制御方法
WO2017047176A1 (ja) * 2015-09-18 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2017204071A (ja) * 2016-05-10 2017-11-16 三菱電機株式会社 運転支援装置、運転支援システムおよび運転支援プログラム
JP2017211703A (ja) * 2016-05-23 2017-11-30 三菱電機株式会社 運転評価装置および運転評価プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"優良ドライバーはレストランで20%割引!? 知らないと損する「SDカード」とは?", おすすめの自動車保険ランキング・比較|自動車保険関連ニュース, JPN6021037931, 3 September 2016 (2016-09-03), ISSN: 0004952835 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021163343A (ja) * 2020-04-02 2021-10-11 トヨタ自動車株式会社 駐車場提供システム、サーバ装置、及びプログラム
CN113554767A (zh) * 2020-04-02 2021-10-26 丰田自动车株式会社 停车场提供系统、服务器装置和非暂时性存储介质
JPWO2022097218A1 (ja) * 2020-11-05 2022-05-12

Also Published As

Publication number Publication date
JP7475808B2 (ja) 2024-04-30

Similar Documents

Publication Publication Date Title
US10819811B2 (en) Accumulation of real-time crowd sourced data for inferring metadata about entities
US11714832B2 (en) Method, apparatus, and system for combining location data sources
US9904938B2 (en) Methods and systems to determine consumer locations based on navigational voice cues
US11544339B2 (en) Automated sentiment analysis and/or geotagging of social network posts
JP7267696B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
WO2021225085A1 (ja) 情報処理システム、情報処理方法、情報処理プログラム、およびサーバ
CN107683504A (zh) 用于增强型语音目的地输入的运动自适应语音识别
JP7475808B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP2020027397A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP6282839B2 (ja) 情報処理装置、情報提供システム、情報提供方法及びプログラム
KR20190100124A (ko) 감정 인식 방법 및 프로그램과, 감정 인식기 생성 방법 및 프로그램
JP6971205B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
Stephens et al. Development of a smartphone application serving pavement management engineers
JP7027281B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP2018036074A (ja) 提供装置、提供方法、提供プログラム、端末装置、出力方法、及び出力プログラム
JP6216560B2 (ja) 通信端末、プログラム
JP7032265B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7405502B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7093268B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP6971206B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US20230134103A1 (en) Information processing apparatus and information processing method
JP2020027389A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US20230392936A1 (en) Method and apparatus for determining lingering communication indicators
US11763831B2 (en) Output apparatus, output method and non-transitory computer-readable recording medium
Williams Bicycle crash detection: Using a voice-assistant for more accurate reporting

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220613

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221205

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221205

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221212

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221213

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20221228

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20230110

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230904

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240417

R150 Certificate of patent or registration of utility model

Ref document number: 7475808

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150