JP7331850B2 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP7331850B2
JP7331850B2 JP2020527536A JP2020527536A JP7331850B2 JP 7331850 B2 JP7331850 B2 JP 7331850B2 JP 2020527536 A JP2020527536 A JP 2020527536A JP 2020527536 A JP2020527536 A JP 2020527536A JP 7331850 B2 JP7331850 B2 JP 7331850B2
Authority
JP
Japan
Prior art keywords
model
driving
unit
models
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020527536A
Other languages
English (en)
Other versions
JPWO2020004375A1 (ja
Inventor
拓也 成平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020004375A1 publication Critical patent/JPWO2020004375A1/ja
Application granted granted Critical
Publication of JP7331850B2 publication Critical patent/JP7331850B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9035Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本開示は、情報処理装置及び情報処理方法に関する。
従来、例えば下記の非特許文献1には、人間などによるデモンストレーションの基礎となる潜在的構造をよりよく捕捉し、データの意味的に意味のある要因を回復することを想定した技術が記載されている。
Yunzhu Li, Jiaming Song, Stefano Ermon、"InfoGAIL:Interpretable Imitation Learning from Visual Demonstrations"、[平成30年6月29日検索]、インターネット〈URL: https://arxiv.org/abs/1703.08840〉
例えば車両を運転する際に、理想的な軌道をドライバが知ることができれば、最適な軌道で運転を行うことができる。特に、運転時の様々な要因、外乱等を考慮した期待値をドライバが得ることができれば、運転の容易性が格段に向上する。
そこで、運転時の様々な要因、外乱等を考慮した期待値をユーザが得ることが望まれていた。
本開示によれば、収集されたパラメータを取得するパラメータ取得部と、前記パラメータに基づいて抽出された複数のモデルと、複数の前記モデルを選択するための選択モデルに基づいて、状況に応じて推奨される参照モデルを生成又は選択する参照モデル取得部と、前記パラメータに基づいてクラスタリングを行うことで複数の前記モデルを抽出するともに、前記選択モデルを抽出するモデル抽出部と、を備え、前記モデル抽出部は、入力である前記パラメータに対する行動出力を教師データに基づいて学習することで前記モデルを抽出し、前記選択モデルは、前記学習の際に得られる隠れ要素に対応する、情報処理装置が提供される。
また、本開示によれば、収集されたパラメータを取得するパラメータ取得部と、前記パラメータに基づいてクラスタリングを行うことで、複数のモデルを抽出するとともに、複数の前記モデルを端末側で選択する際に使用する選択モデルを抽出するモデル抽出部と、を備え、前記モデル抽出部は、入力である前記パラメータに対する行動出力を教師データに基づいて学習することで前記モデルを抽出し、前記選択モデルは、前記学習の際に得られる隠れ要素に対応する、情報処理装置が提供される。
また、本開示によれば、収集されたパラメータを取得することと、前記パラメータに基づいて抽出された複数のモデルと、複数の前記モデルを選択するための選択モデルに基づいて、状況に応じて推奨される参照モデルを生成又は選択することと、前記パラメータに基づいてクラスタリングを行うことで複数の前記モデルを抽出するともに、前記選択モデルを抽出することと、を含み、前記抽出することは、入力である前記パラメータに対する行動出力を教師データに基づいて学習することで前記モデルを抽出し、前記選択モデルは、前記学習の際に得られる隠れ要素に対応する、情報処理方法が提供される。
本開示によれば、運転時の様々な要因、外乱等を考慮した期待値をユーザが得ることができる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理システム1000の構成を示す模式図である。 走行パラメータ取得部102で行われる処理を示す模式図である。 自動運転モデル抽出部204で行われる処理を示す模式図である。 運転モデル自動選択・生成部106で行われる処理を示す模式図である。 運転モデル選択UI110で行われる処理を示す模式図である。 期待運転挙動表示部114による表示の例を示す模式図である。 フィードバック表示部122による表示の例を示す模式図である。 フィードバック表示部122による表示の例を示す模式図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.本開示の概要
2.システムの構成例
2.1.システムの全体構成
2.2.走行パラメータ取得部102で行われる処理
2.3.自動運転モデル抽出部204で行われる処理
2.4.運転モデル自動選択・生成部106で行われる処理
2.5.運転モデル選択UI110で行われる処理
3.表示の例
3.1.期待運転挙動表示部114による表示の例
3.2.フィードバック表示部122による表示の例
4.コンテキストと運転挙動選択の例
5.機械学習の方法
5.1.基本的原理
5.2.具体例
1.本開示の概要
本開示は、例えば車両を運転する際のログを取得し、取得したログから運転モデルを抽出し、現在の車両の運転状態と運転モデルとの比較によりユーザに情報を提示する技術に関する。なお、モデルは、運転のモデルに限定されるものではなく、再生音楽、他車とのコミュニケーション等に関するモデルであっても良く、この場合もモデルに基づいてユーザに最適な情報を提示することができる。また、以下では、車両の運転を例に挙げて説明を行うが、ログを取得する環境は車両の運転に限られるものではなく、様々な環境に適用が可能である。
2.システムの構成例
2.1.システムの全体構成
図1は、本開示の一実施形態に係る情報処理システム1000の構成を示す模式図である。この情報処理システム1000は、端末100側の構成要素とクラウド200側の構成要素から構成されることができる。なお、図1に示した端末100側の構成要素とクラウド200側の構成要素の役割分担は一例であり、処理をいずれの側で行うかは任意に設定できる。例えば、端末100側で自動運転モデル抽出部204の処理を行っても良い。
図1に示すように、端末100は、走行パラメータ取得部(センシング・モデル選択パラメータ取得部)102、運転モデル自動選択・生成部106、参照運転モデル取得部108、運転モデル選択UI110、期待運転挙動予測部112、期待運転挙動表示部114、運転状態取得部116、情報入力部118、UIフィードバック計算部120、フィードバック表示部122、を有して構成されている。
クラウド200側では、走行履歴取得部202、自動運転モデル抽出部204、運転モデルデータベース(DB)206、が備えられている。なお、図1に示す端末100、クラウド200の構成要素は、回路(ハードウェア)、またはCPUなどの中央演算処理装置とこれを機能させるためのプログラム(ソフトウェア)から構成することができる。
端末100の走行パラメータ取得部102は、各種センサから車両が運転する際の各種パラメータを取得する。走行パラメータ取得部102が取得した各種パラメータは、走行ログとしてクラウド200に送られ、走行履歴取得部202により取得される。走行ログには、後述するコンテキストの情報が含まれていても良い。自動運転モデル抽出部204は、走行ログから運転モデルを抽出する。抽出された運転モデルは、運転モデルデータベース206に蓄積される。
端末100の運転モデル自動選択・生成部106は、走行パラメータ取得部102が取得した各種パラメータに基づき、運転モデルを生成し、または運転モデルを選択する。具体的に、運転モデル自動選択・生成部106は、クラウド200側の運転モデルデータベース206に蓄積された運転モデルを取得し、走行パラメータ取得部102が取得した各種パラメータに基づき、車両の運転状態に応じた最適な運転モデルを選択し、または運転モデルを生成する。選択、または生成された運転モデルは、参照運転モデルとされ、参照運転モデル取得部108にて取得される。なお、運転モデル自動選択・生成部106と参照運転モデル取得部108により、本開示に係る「参照モデル取得部」が構成される。
なお、参照運転モデルとして複数が選択または生成され、運転モデル選択UI110を用いてユーザが複数の参照運転モデルの中から1のモデルを選択することで、最終的な1の参照運転モデルを選択しても良い。
期待運転挙動予測部112は、参照運転モデルにより運転を行った場合に期待される運転挙動を予測する。具体的に、期待運転挙動予測部112は、運転状態取得部116が取得した車両の運転状態に基づき、参照運転モデルにより運転を行った場合に期待される運転挙動を予測する。期待運転挙動表示部114は、期待運転挙動予測部112が予測した運転挙動を、表示装置に表示する処理を行う。
運転状態取得部116は、車両の運転状態を示す各種パラメータを取得する。なお、運転状態取得部116は、走行パラメータ取得部102と共通に構成されていても良い。
UIフィードバック計算部120は、期待運転挙動予測部112が予測した運転挙動と、運転状態取得部116が取得した車両の運転状態との差分をフィードバック量として計算する。フィードバック表示部122は、UIフィードバック計算部120が計算したフィードバック量を表示装置に表示する処理を行う。
2.2.走行パラメータ取得部102で行われる処理
図2は、走行パラメータ取得部102で行われる処理を示す模式図である。走行パラメータ取得部102には、各種センサ等が検出した入力情報が入力される。例えば、入力情報として、車両の操作情報(アクセル、ブレーキ、ハンドル、ワイパー、カーナビゲーション)が挙げられる。また、入力情報として、車両が備えるカメラ、LiDAR(Laser Imaging Detection and Ranging)、測位・IMU(Inertial MeasurementUnit)、RADAR、音声マイク、シート着席センサ、ガソリン残量センサ、などの各種情報が挙げられる。また、入力情報として、ユーザが指定したモードに関する情報、ライフログアプリケーション、カレンダー等の情報、天気に関する情報、ユーザのプロファイル情報が挙げられる。ユーザのプロファイル情報は、例えば自動車保険の等級を含むものであっても良い。入力情報は特に限定されるものではなく、あらゆる情報を入力情報とすることができる。また、これらの入力情報は、スマートフォンなどのユーザが利用する端末から取得されるものであっても良い。
走行パラメータ取得部102は、入力情報を処理し、コンテキスト情報を取得する。コンテキスト情報として、車両の状況を示す各種情報が取得される。例えば、コンテキスト情報として、運転者およびその状態を示す情報(運転者が誰であるか、運転者の感情などを示す情報)、同乗者およびその状態を示す情報(同乗者が誰であるか、同乗者が何人であるか、同乗者の感情などを示す情報)、シチュエーション(デート中、ドライブ中、練習中)などを示す情報、車両内のムードを示す情報などが挙げられる。
また、ユーザが実車両の運転ではなく、ゲーム上で運転を行っている場合は、コンテキスト情報として、ゲームのステージ、ユーザレベル、ゲームのモード(レース、トレーニングなど)を示す情報などが挙げられる。
入力情報からコンテキスト情報を抽出する処理は、所定のアルゴリズムにより行うことができる。
2.3.自動運転モデル抽出部204で行われる処理
図3は、自動運転モデル抽出部204で行われる処理を示す模式図である。自動運転モデル抽出部204は、走行ログ、コンテキスト情報に基づき、運転モデルを抽出する。
自動運転モデル抽出部204は、走行ログ、コンテキスト情報に基づいてクラスタリングを行い、異なる複数の運転モデルを生成する。運転モデルを生成する手法として、機械学習または機械学習以外の他の手法(例えば、コンテキストとif文を用いたルール等)を用いることができる。例えば、運転モデルAは、運転の熟練度、安全性が高い運転モデル(ジェントルモード)であり、運転モデルBは到達時間を優先したアグレッシブな運転モデルであり、運転モデルCはエネルギー効率を優先した運転モデルである。上記以外にも、クラスタリングにより得られる運転モデルとして、様々なモデルを設定することができ、例えば、著名なレーサが運転した場合の運転モデル、悪天候時(降雨時、降雪時、強風時等)に運転した場合の運転モデルなど様々な運転モデルを設定できる。
また、自動運転モデル抽出部204は、運転モデルの他に、運転モデルを端末100側で選択する際に使用する運転モデル選択モデルを抽出する。運転モデル選択モデルは、機械学習における「隠れ要素」に相当するものであり、クラスタリングにより抽出された運転モデルのうち、ユーザに対応する運転モデルを選択するためのモデルである。運転モデル選択モデルについては、後で詳細に説明する。なお、後述するように、本開示における「クラスタリング」とは、運転モデルを抽出する処理とともに、運転モデル選択モデルを抽出する処理を含むものとして定義される。
2.4.運転モデル自動選択・生成部106で行われる処理
図4は、運転モデル自動選択・生成部106で行われる処理を示す模式図である。運転モデル自動選択・生成部106では、クラウド200側の運転モデルデータベース206に蓄積された運転モデル、運転モデル選択モデルを取得し、走行パラメータ取得部102が取得した各種パラメータに基づき、車両の運転状態に応じた最適な運転モデルを選択する。運転モデル選択モデルを用いることで、ユーザの特性に合わせた運転モデルを選択することができる。
また、運転モデル自動選択・生成部106は、クラウド200側の運転モデルデータベース206に蓄積された運転モデル、運転モデル選択モデルを取得し、取得した運転モデルに基づいて、車両の運転状態に応じた最適な運転モデルを生成することもできる。この場合、運転モデル自動選択・生成部106は、クラウド200側の運転モデルデータベース206に蓄積された複数の運転モデルから、車両の運転状態に応じた最適な運転モデルを生成しても良い。この場合においても、運転モデル選択モデルを用いることで、ユーザの特性に合わせた運転モデルを選択することができる。このように、運転モデル自動選択・生成部106は、運転モデルデータベース206に蓄積された運転モデルに対し、離散的、または連続的な特性の運転モデルを選択又は生成する。運転モデル自動選択・生成部106により選択、または生成された運転モデルは、参照運転モデルとして、参照運転モデル取得部108にて取得される。
2.5.運転モデル選択UI110で行われる処理
図5は、運転モデル選択UI110で行われる処理を示す模式図である。運転モデル選択UI110では、運転モデル自動選択・生成部106で選択、または生成された複数の参照運転モデルについて、ユーザの選択に応じてモデル選択を行う。この際、運転モデル選択UI110には、複数の参照運転モデルのそれぞれについて、ユーザが選択する際の判断基準となる特徴が示される。例えば、「安全運転を行う場合は運転モデルAを選択し、エネルギー効率を優先した運転を行う場合は運転モデルCを選択してください」のように運転モデルの判断基準がユーザに提示される。ユーザの選択に応じて運転モデル選択UI110が選択を行うことにより、1の参照運転モデルが選択され、参照運転モデル取得部108にて取得される。
3.表示の例
3.1.期待運転挙動表示部114による表示の例
図6は、期待運転挙動表示部114による表示の例を示す模式図である。上述のように、期待運転挙動表示部114は、期待運転挙動予測部112が予測した運転挙動を表示する処理を行う。図6は、期待運転挙動表示部114による表示処理により、表示装置に表示された画面を示す模式図である。
具体的に、図6では、「運転モデルに従った期待軌道の表示」、「方向指示器の期待を表示」、「音声の再生を提案する表示」、「他の車両とのコミュニケーションを提案する表示」、「ハイライト動画の投稿を提案する表示」、「チャットによるコミュニケーションを提案する表示」の6通りの表示の例を示している。
「運転モデルに従った期待軌道の表示」では、画面上に進行方向前方の環境が表示され、運転モデルに従った期待軌道が画面上に矢印10で示されている。「方向指示器の期待を表示」では、方向指示器を出すべき方向が矢印12で示されている。「音声の再生を提案する表示」では、再生する音楽に関し、推奨する曲、アーティストが示されている。「他の車両とのコミュニケーションを提案する表示」では、他車に対してハザードを出すことを推奨する表示が示されている。「ハイライト動画の投稿を提案する表示」では、運転がゲーム上での場合に、コーナリング時などの動画をハイライトで投稿することを推奨する表示が示されている。「チャットによるコミュニケーションを提案する表示」では、他車両にメッセージを送ることを推奨する表示が示されている。「他の車両とのコミュニケーションを提案する表示」、「チャットによるコミュニケーションを提案する表示」は、いずれも他車に対する思いやりの動作に対応する表示であり、ジェントルモードのモデルに含まれる概念である。
3.2.フィードバック表示部122による表示の例
図7A及び図7Bは、フィードバック表示部122による表示の例を示す模式図である。上述のようにUIフィードバック計算部120は、期待運転挙動予測部112が予測した運転挙動と、運転状態取得部116が取得した車両の運転状態との差分をフィードバック量として計算する。フィードバック表示部122は、過去の実際の軌跡と提案された軌跡の差分(ミスマッチ)を矢印などで表示する。
図7Aに示す例では、過去の軌跡が提案された軌跡よりも右であり、もっと左を走行するべきであったことを矢印14で示している。また、図7Bに示す例では、過去の速度が提案された速度よりも遅く、もっと速い速度で走行するべきであったことを矢印16で示している。
4.コンテキストと運転挙動選択の例
以下では、コンテキストと運転挙動選択について、複数の事例を説明する。
(事例1)
事例1では、車両に子供が乗っているのでゆっくりとした速度で運転していた場合に、子供の具合が悪くなった状況を想定する。この場合、子供の具合が悪くなったことを検知し、病院や休憩所まで急ぐため、アグレッシブな運転モデルが生成され、ユーザに使用される。子供の具合が悪くなったことの検知は、カメラが取得した画像、音声マイクが取得した音声、その他のセンサが取得した情報により検知される。
(事例2)
事例2では、晴れの日に普通に走行していた場合に、急に雨が降ってきた状況を想定する。この場合、雨が降ってきたことをセンサで検知し、雨の日に適した運転モデルに変更される。
(事例3)
事例3では、車内にローテンポの曲が再生されていた場合に、車内の雰囲気が険悪になった状況を想定する。この場合、車内の雰囲気を音声、画像などで検知し、アップテンポの楽しい感じの曲を再生する。
(事例4)
事例4では、ゲームの場合に、プレーヤーがコーナリング練習中だったが、うまくできてきた状況を想定する。この場合、ドリフトのための軌跡を画面上に表示する。表示した軌跡は、他のユーザと共有することができる。
5.機械学習の方法
5.1.基本的原理
以下では、自動運転モデル抽出部204において、機械学習により運転モデルを抽出する場合の処理について説明する。なお、機械学習の方法は特に限定されるものではないが、以下では前述した非特許文献1に記載されたInfoGAILの手法により行う場合について概要を説明する。
環境からの入力をx、行動出力をyとしたとき、InfoGAILのように隠れ状態zを考慮するモデルにおいては、行動ポリシーπ(y|x,z)を学習することができる。更に、その学習過程において、隠れ状態zに関する事後確率p(z|x、y)モデルも獲得することが可能である。
例えば、InfoGAILでは、zは相互情報量の最大化と行動データの模倣を目的関数にして学習する。こうして、大量の行動データから、その行動者の属性、状態などを隠れ状態zとして抽出し、実行時に隠れ状態z(属性、状態)を推定し、隠れ状態zと環境からの入力xを考慮したときの行動出力yの決定が可能である。
入力xから行動出力yが得られる。入力xは、上述した入力情報、入力情報から得られるコンテキスト情報などを含む。行動出力yは、ステアリングの操舵角、アクセルペダルの踏み込み量など、車両運転に関わる情報である。行動出力yと正解y’との差が少なくなるように、機械学習が行われる。なお、正解y’は教師データである。
この際、隠れ状態zに応じて行動出力yが変わる。つまり、行動出力yは、入力xと隠れ状態zによって定まり、入力xから行動出力yを出力する関数fは、隠れ状態zによって振る舞いが変わることになる。
従って、InfoGAILによる機械学習では、入力xと行動出力yとの関係性を示す関数を学習により得るとともに、隠れ要素zを規定する関数を学習により得ることができる。この隠れ要素zを規定する関数は、上述した運転モデル選択モデルに相当する。
例えば、特定のユーザが車両を運転した場合に、自動運転モデル抽出部204が走行ログから運転モデルをクラスタリングすると、同時に、隠れ要素zに対応する運転モデル選択モデルが得られる。端末100側の運転モデル自動選択・生成部106が運転モデルを選択、生成する場合には、運転モデル選択モデルを用いて、ユーザの属性、状態などに基づいて運転モデルの選択、生成が行われる。
本開示において、「クラスタリング」とは、隠れ要素zと行動出力yの獲得に対応する処理をいう。学習過程で獲得される隠れ状態zは、モデルの種類、性質を表しており、前述した潜在的構造に対応する。
5.2.具体例
以下では、上述した「4.コンテキストと運転挙動選択の例」の項目で説明した事例1~3について、入力x、行動出力y、隠れ状態zを当てはめて説明する。
(事例1)
事例1「車両に子供が乗っているのでゆっくりとした速度で運転していた場合に、子供の具合が悪くなり、アグレッシブな運転モデルを生成」における入力xは、図2で説明した入力情報、コンテキスト情報である。特に、事例1の場合は、生体センサ、車内カメラ、車内マイクにより取得された子供の具合に関する情報が入力xに相当する。
また、安全運転の状態から急いでいる状態への変化が隠れ状態zに相当する。また、運転挙動(車両の軌跡、その他の操作コマンド(操舵角、アクセル、ブレーキ等))が行動出力yに相当する。
事例1の場合、安全運転の状態から急いでいる状態への変化が隠れ状態zに基づいて、到達時間を優先した運転モデル、アグレッシブに運転を行う運転モデルが選択又は生成される。従って、このようにして選択又は生成された参照運転モデルに基づいて、上述した期待運転挙動、フィードバック量の表示を行うことができる。
(事例2)
事例2「晴れの日に普通に走行していた場合に、急に雨が降ってきたことをセンサで検知し、雨の日に適した運転モデルに変更する」における入力xは、図2で説明した入力情報、コンテキスト情報である。特に、事例2の場合は、温度センサー、スマートフォン等から得られる天気の情報、路面のスリップの検知情報、カメラが取得した画像(路面状況など)が入力xに相当する。
また、晴れの日に適した運転状態から雨の日に適した運転状態に変更することが隠れ状態zに相当する。また、運転挙動(車両の軌跡、その他の操作コマンド(操舵角、アクセル、ブレーキ等))が行動出力yに相当する。
事例2の場合、晴れの日に適した運転状態から雨の日に適した運転状態に変更することに相当する隠れ状態zに基づいて、悪天候時(降雨時)の運転モデルが選択又は生成される。従って、このようにして選択又は生成された参照運転モデルに基づいて、上述した期待運転挙動、フィードバック量の表示を行うことができる。
(事例3)
事例3「車内にローテンポの曲が再生されていた場合に、車内の雰囲気が険悪になったのでアップテンポの楽しい感じの曲を再生する」における入力xは、図2で説明した入力情報、コンテキスト情報である。特に、事例3の場合は、車内のカメラが取得した画像、音声マイクが取得した音声、生体センサーが取得した生体情報が入力xに相当する。
また、落ち着いた雰囲気にしたい状態から雰囲気を盛り上げたい状態に変更することが隠れ状態zに相当する。また、ある音楽を再生することを提案することが行動出力yに相当する。
事例3の場合、落ち着いた雰囲気にしたい状態から雰囲気を盛り上げたい状態に変更することに相当する隠れ状態zに基づいて、アップテンポの曲を再生するモデルが選択又は生成される。従って、このようにして選択又は生成されたモデルに基づいて、上述した期待運転挙動、フィードバック量の表示を行うことができる。この場合、図6の「音楽の再生を提案する表示」のように、曲の再生を提案することができる。
(事例4)
事例4「ゲームでプレーヤーがコーナリング練習中だったが、うまくできてきたため、ドリフトのための軌跡を画面上に表示する」における入力xは、ゲーム内観測、ユーザーの練習履歴、ゲームのモード等の情報である。
また、コーナリング練習状態からドリフトの練習し始め状態へ変更することが隠れ状態zに相当する。また、また、ある音楽を再生することを提案することが行動出力yに相当する。
事例4の場合、コーナリング練習状態からドリフトの練習し始め状態へ変更することに相当する隠れ状態zに基づいて、ある音楽を再生することを提案するモデルが選択又は生成される。従って、このようにして選択又は生成されたモデルに基づいて、上述した期待運転挙動、フィードバック量の表示を行うことができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
収集されたパラメータを取得するパラメータ取得部と、
前記パラメータに基づいて抽出されたモデルに基づいて、状況に応じて推奨される参照モデルを生成又は選択する参照モデル取得部と、
を備える、情報処理装置。
(2)
前記参照モデル取得部は、前記パラメータに基づいて抽出された複数の前記モデルと、複数の前記モデルを選択するための選択モデルに基づいて、前記参照モデルを生成又は選択する、前記(1)に記載の情報処理装置。
(3)
前記パラメータに基づいてクラスタリングを行うことで複数の前記モデルを抽出するモデル抽出部を備える、前記(2)に記載の情報処理装置。
(4)
前記モデル抽出部は、前記パラメータに基づいて、複数の前記モデルを抽出するとともに、前記選択モデルを抽出する、前記(3)に記載の情報処理装置。
(5)
前記モデル抽出部は、入力である前記パラメータに対する行動出力を教師データに基づいて学習することで前記モデルを抽出し、前記選択モデルは、前記学習の際に得られる隠れ要素に対応する、前記(4)に記載の情報処理装置。
(6)
前記参照モデル取得部は、生成又は選択した複数の前記参照モデルの中から、ユーザの選択により1の前記参照モデルを取得する、前記(1)~(5)のいずれかに記載の情報処理装置。
(7)
前記参照モデルに基づいて、前記状況に応じて期待される挙動を予測する挙動予測部を更に備える、前記(3)に記載の情報処理装置。
(8)
前記挙動予測部が予測した挙動を表示するための処理を行う挙動表示処理部を更に備える、前記(7)に記載の情報処理装置。
(9)
実際の運転状態と予測した前記挙動とを比較する比較部と、
前記比較部による比較の結果を表示するための処理を行う比較結果表示処理部と、
を更に備える、前記(8)に記載の情報処理装置。
(10)
収集されたパラメータを取得するパラメータ取得部と、
前記パラメータに基づいてクラスタリングを行うことで、複数のモデルを抽出するとともに、複数の前記モデルを端末側で選択する際に使用する選択モデルを抽出するモデル抽出部と、
を備える、情報処理装置。
(11)
収集されたパラメータを取得することと、
前記パラメータに基づいて抽出されたモデルに基づいて、状況に応じて推奨される参照モデルを生成又は選択することと、
を含む、情報処理方法。
102 走行パラメータ取得部
106 運転モデル自動生成・選択部
108 参照運転モデル取得部
112 期待運転挙動予測部
114 期待運転挙動表示処理部
120 UIフィードバック計算部
122 フィードバック表示部
202 走行履歴取得部
204 自動運転モデル抽出部

Claims (7)

  1. 収集されたパラメータを取得するパラメータ取得部と、
    前記パラメータに基づいて抽出された複数のモデルと、複数の前記モデルを選択するための選択モデルに基づいて、状況に応じて推奨される参照モデルを生成又は選択する参照モデル取得部と、
    前記パラメータに基づいてクラスタリングを行うことで複数の前記モデルを抽出するともに、前記選択モデルを抽出するモデル抽出部と、
    を備え
    前記モデル抽出部は、
    入力である前記パラメータに対する行動出力を教師データに基づいて学習することで前記モデルを抽出し、前記選択モデルは、前記学習の際に得られる隠れ要素に対応する、
    情報処理装置。
  2. 前記参照モデル取得部は、生成又は選択した複数の前記参照モデルの中から、ユーザの選択により1の前記参照モデルを取得する、請求項1に記載の情報処理装置。
  3. 前記参照モデルに基づいて、前記状況に応じて期待される挙動を予測する挙動予測部を更に備える、請求項に記載の情報処理装置。
  4. 前記挙動予測部が予測した挙動を表示するための処理を行う挙動表示処理部を更に備える、請求項に記載の情報処理装置。
  5. 実際の運転状態と予測した前記挙動とを比較する比較部と、
    前記比較部による比較の結果を表示するための処理を行う比較結果表示処理部と、
    を更に備える、請求項に記載の情報処理装置。
  6. 収集されたパラメータを取得するパラメータ取得部と、
    前記パラメータに基づいてクラスタリングを行うことで、複数のモデルを抽出するとともに、複数の前記モデルを端末側で選択する際に使用する選択モデルを抽出するモデル抽出部と、
    を備え
    前記モデル抽出部は、
    入力である前記パラメータに対する行動出力を教師データに基づいて学習することで前記モデルを抽出し、前記選択モデルは、前記学習の際に得られる隠れ要素に対応する、
    情報処理装置。
  7. 収集されたパラメータを取得することと、
    前記パラメータに基づいて抽出された複数のモデルと、複数の前記モデルを選択するための選択モデルに基づいて、状況に応じて推奨される参照モデルを生成又は選択することと、
    前記パラメータに基づいてクラスタリングを行うことで複数の前記モデルを抽出するともに、前記選択モデルを抽出することと、
    を含み、
    前記抽出することは、
    入力である前記パラメータに対する行動出力を教師データに基づいて学習することで前記モデルを抽出し、前記選択モデルは、前記学習の際に得られる隠れ要素に対応する、
    情報処理方法。
JP2020527536A 2018-06-29 2019-06-25 情報処理装置及び情報処理方法 Active JP7331850B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018124085 2018-06-29
JP2018124085 2018-06-29
PCT/JP2019/025114 WO2020004375A1 (ja) 2018-06-29 2019-06-25 情報処理装置及び情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2020004375A1 JPWO2020004375A1 (ja) 2021-09-02
JP7331850B2 true JP7331850B2 (ja) 2023-08-23

Family

ID=68986668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020527536A Active JP7331850B2 (ja) 2018-06-29 2019-06-25 情報処理装置及び情報処理方法

Country Status (3)

Country Link
US (1) US20210272020A1 (ja)
JP (1) JP7331850B2 (ja)
WO (1) WO2020004375A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3650297B1 (en) * 2018-11-08 2023-06-14 Bayerische Motoren Werke Aktiengesellschaft Method and apparatus for determining information related to a lane change of a target vehicle, and computer program
JP2022054821A (ja) * 2020-09-28 2022-04-07 マツダ株式会社 動画編集装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157606A (ja) 2007-12-26 2009-07-16 Toyota Central R&D Labs Inc ドライバ状態推定装置及びプログラム
JP2014075091A (ja) 2012-10-05 2014-04-24 Toyota Motor Corp 車両の交差点通過時のための運転支援装置
JP2015170126A (ja) 2014-03-06 2015-09-28 株式会社豊田中央研究所 パラメータ学習装置、運転支援装置、及びプログラム
JP2017206152A (ja) 2016-05-19 2017-11-24 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
JP2018097737A (ja) 2016-12-15 2018-06-21 株式会社東芝 運転状態制御装置および運転状態制御方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7839292B2 (en) * 2007-04-11 2010-11-23 Nec Laboratories America, Inc. Real-time driving danger level prediction
JP6895634B2 (ja) * 2016-12-16 2021-06-30 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法、およびプログラム
US10546200B2 (en) * 2018-05-23 2020-01-28 Here Global B.V. Method, apparatus, and system for detecting a physical divider on a road segment
TWI701174B (zh) * 2018-06-06 2020-08-11 緯創資通股份有限公司 駕駛預測方法及其處理裝置與系統

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157606A (ja) 2007-12-26 2009-07-16 Toyota Central R&D Labs Inc ドライバ状態推定装置及びプログラム
JP2014075091A (ja) 2012-10-05 2014-04-24 Toyota Motor Corp 車両の交差点通過時のための運転支援装置
JP2015170126A (ja) 2014-03-06 2015-09-28 株式会社豊田中央研究所 パラメータ学習装置、運転支援装置、及びプログラム
JP2017206152A (ja) 2016-05-19 2017-11-24 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
JP2018097737A (ja) 2016-12-15 2018-06-21 株式会社東芝 運転状態制御装置および運転状態制御方法

Also Published As

Publication number Publication date
JPWO2020004375A1 (ja) 2021-09-02
WO2020004375A1 (ja) 2020-01-02
US20210272020A1 (en) 2021-09-02

Similar Documents

Publication Publication Date Title
US11853645B2 (en) Machine-led mood change
US10785203B2 (en) Methods, systems, and media for presenting information related to an event based on metadata
US9651395B2 (en) Navigation systems and associated methods
JP2013069266A (ja) コンテンツ推薦システム
CN104816687B (zh) 车辆中的自动化驾驶者动作的系统和方法
US20210272569A1 (en) Voice feedback for user interface of media playback device
US20140119563A1 (en) System and method for using biometrics to predict and select music preferences
US20130325482A1 (en) Estimating congnitive-load in human-machine interaction
JP7331850B2 (ja) 情報処理装置及び情報処理方法
DE112018003014T5 (de) Erfahrung-bereitstellungssystem, erfahrung-bereitstellungsverfahren und erfahrung-bereitstellungsprogramm
CN106663260A (zh) 信息提示装置、方法以及程序
CN110100153A (zh) 信息提供系统
WO2021185468A1 (en) Technique for providing a user-adapted service to a user
CN110062937A (zh) 信息提供系统
WO2020240730A1 (ja) 受話者推定装置、受話者推定方法、及び受話者推定プログラム
JP7427177B2 (ja) 提案装置および方法
US20240025416A1 (en) In-vehicle soundscape and melody generation system and method using continuously interpreted spatial contextualized information
CN116168704B (zh) 语音交互的引导方法、装置、设备、介质及车辆
JP7421949B2 (ja) 情報処理システムおよび情報処理方法
CN116665624A (zh) 音乐创作方法、装置、设备及存储介质
CN115631550A (zh) 一种用户反馈的方法和系统
CN117141379A (zh) 基于用户情感选择记录的车辆信息娱乐系统
CN116781955A (zh) 车辆上的虚拟对象控制方法及装置
CN117435704A (zh) 车载对话系统回复语生成方法、装置、车辆及存储介质
CN116030774A (zh) 音乐生成方法、生成装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230724

R151 Written notification of patent or utility model registration

Ref document number: 7331850

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151