JP7079156B2 - 情報処理方法及び情報処理装置 - Google Patents

情報処理方法及び情報処理装置 Download PDF

Info

Publication number
JP7079156B2
JP7079156B2 JP2018118272A JP2018118272A JP7079156B2 JP 7079156 B2 JP7079156 B2 JP 7079156B2 JP 2018118272 A JP2018118272 A JP 2018118272A JP 2018118272 A JP2018118272 A JP 2018118272A JP 7079156 B2 JP7079156 B2 JP 7079156B2
Authority
JP
Japan
Prior art keywords
information
learning
moving body
movement
sensor data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018118272A
Other languages
English (en)
Other versions
JP2019220027A (ja
Inventor
亮太 藤村
弘章 浦部
宗太郎 築澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to JP2018118272A priority Critical patent/JP7079156B2/ja
Priority to EP19177691.3A priority patent/EP3588007B1/en
Priority to US16/442,908 priority patent/US11454977B2/en
Priority to CN201910519634.0A priority patent/CN110626357A/zh
Publication of JP2019220027A publication Critical patent/JP2019220027A/ja
Application granted granted Critical
Publication of JP7079156B2 publication Critical patent/JP7079156B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3484Personalized, e.g. from learned user behaviour or user-defined profiles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle for navigation systems

Description

本開示は、移動体の操作又は移動を学習モデルに学習させる際の情報処理方法等に関する。
従来、車両等の移動体について自動走行を開始するために用いられる地図、目的地及び経路等の情報が与えられていない環境下において、ある経路を手動走行しているときの当該移動体の運転者の手動操作時に得られる操作情報及び当該移動体に設けられたセンサから得られるセンサ情報を用いて、当該経路で自動走行を開始するために用いられる情報を獲得する技術が開示されている(例えば特許文献1)。これにより、自動走行を開始するために用いられる情報が予め与えられていない環境下であっても、自動走行が行われる自動走行経路を学習することができ、自動走行を開始することができる。
特許第6022447号公報
上記特許文献1に開示された技術を用いて、自動走行を開始するために用いられる情報を獲得する場合、ある経路について一度の手動走行により得られる操作情報及びセンサ情報だけで自動走行経路の学習を完了することが難しいことがある。この場合、自動走行経路が妥当な経路であると判定されて学習が完了するまで、ユーザは手動走行を繰り返し行うことになる。しかしながら、ユーザは、当該経路において自動走行を開始するための学習をさせている際に、例えばどの経路がどの程度学習されているのか等の学習状況を知ることが難しい。
そこで、移動体の自動走行のための学習状況を知ることができる情報処理方法等を提供することを目的とする。
本開示の一態様に係る情報処理方法は、移動体の操作情報又は前記移動体の移動経路を示す移動情報、及び前記移動体に備えられるセンサの前記移動経路におけるセンシングにより得られたセンサデータを前記移動体から取得し、前記操作情報又は前記移動情報、及び前記センサデータを入力として用いて、前記移動経路における前記センサデータを用いた前記移動体の操作又は移動を学習モデルに学習させ、前記学習モデルの学習回数に応じて、前記移動経路についての前記学習モデルの学習完了までに要する前記入力を示す提示情報を生成し、前記提示情報を提示装置に提示させる。
なお、これらの包括的または具体的な側面は、システム、装置、方法、記録媒体、または、コンピュータプログラムで実現されてもよく、システム、装置、方法、記録媒体、および、コンピュータプログラムの任意な組み合わせで実現されてもよい。
本開示に係る情報処理方法等によれば、移動体の自動走行のための学習状況を知ることができる。
図1は、実施の形態における情報処理装置の構成の一例を示すブロック図である。 図2は、実施の形態における情報処理装置の動作の一例を示すフローチャートである。 図3は、実施の形態における提示情報を生成する方法の第1例を示すフローチャートである。 図4は、実施の形態における提示情報を生成する方法の第2例を示すフローチャートである。 図5は、実施の形態における提示情報を生成する方法の第3例を示すフローチャートである。 図6は、手動走行した経路の一例を示す図である。 図7は、提示情報の第1例を示す図である。 図8は、提示情報の第2例を示す図である。 図9は、提示情報の第3例を示す図である。
本開示の情報処理方法は、移動体の操作情報又は前記移動体の移動経路を示す移動情報、及び前記移動体に備えられるセンサの前記移動経路におけるセンシングにより得られたセンサデータを前記移動体から取得し、前記操作情報又は前記移動情報、及び前記センサデータを入力として用いて、前記移動経路における前記センサデータを用いた前記移動体の操作又は移動を学習モデルに学習させ、前記学習モデルの学習回数に応じて、前記移動経路についての前記学習モデルの学習完了までに要する前記入力を示す提示情報を生成し、前記提示情報を提示装置に提示させる。
操作情報は、例えば、ハンドル操作及びアクセル操作等の情報である。移動情報は、例えば、GPS(Global Positioning System)等による位置情報等から得られる移動体の移動経路を示す情報である。センサデータは、例えば、移動体に設けられたカメラによる撮影により得られる移動体の周囲の画像若しくはLIDAR(LIght Detection And Ranging)による走査により得られる移動体の周囲に存在する物体を示す点群情報である。これにより、ある移動経路について手動走行が行われることで、センサデータが示す移動体の周囲の状況がどのような状況のときに、移動体に対してどのような操作がされるか、若しくは、移動体がどのような移動経路を走行するかを学習モデルに学習させることができる。そして、このようにして行われたある移動経路についての学習モデルの学習回数(例えば当該移動経路についてユーザが手動走行を行った回数)に応じて、当該移動経路についての学習モデルの学習完了までに要する入力(例えば当該移動経路について要求される手動走行の残りの回数)が提示されるため、移動体の自動走行のための学習状況を知ることができる。その結果、ユーザは学習に効果的な入力を与えることができる。
また、前記学習回数が少ないほど、前記学習完了までに要する前記入力が増加する又は減少せず、前記学習回数が多いほど、前記学習完了までに要する前記入力が減少してもよい。
これによれば、ユーザは、学習回数が少ないほど、学習状況として学習完了までに要する入力が少なくなっていないことを知ることができ、学習回数が多いほど、当該入力が少なくなっていることを知ることができる。
また、本開示の情報処理方法は、移動体の操作情報又は前記移動体の移動経路を示す移動情報、及び前記移動体に備えられるセンサの前記移動経路におけるセンシングにより得られたセンサデータを前記移動体から取得し、前記操作情報又は前記移動情報、及び前記センサデータを入力として用いて、前記移動経路における前記センサデータを用いた前記移動体の操作又は移動を学習モデルに学習させ、前記操作又は前記移動についての学習に用いられた前記操作情報又は前記移動情報、及び前記センサデータのうちの少なくとも1つの分散に応じて、前記移動経路についての前記学習モデルの学習完了までに要する前記入力を示す提示情報を生成し、前記提示情報を提示装置に提示させる。
これによれば、これまでに行ったある移動経路についての分散(例えば当該移動経路についてユーザが手動走行をするごとに得られる移動体の操作、移動経路又は周囲の環境についての情報の散らばり度合い)に応じて、当該移動経路についての学習モデルの学習完了までに要する入力が提示されるため、移動体の自動走行のための学習状況を知ることができる。
また、前記分散が高いほど、前記学習完了までに要する前記入力が増加する又は減少せず、前記分散が低いほど、前記学習完了までに要する前記入力が減少してもよい。
これによれば、ユーザは、分散が高いほど、学習状況として学習完了までに要する入力が少なくなっていないことを知ることができ、分散が低いほど、当該入力が少なくなっていることを知ることができる。
また、前記分散が閾値以上であるエリアがある場合、当該エリアにおける前記操作情報又は前記移動情報と前記センサデータとの関係のモデル化の可否の程度に応じて、前記移動経路についての前記学習モデルの学習完了までに要する前記入力を示す提示情報を生成してもよい。
分散が閾値以上であるエリアがある場合、当該エリアにおいて操作情報又は移動情報、及びセンサデータを用いて行われる自動走行経路の学習の難易度は高いといえる。分散が閾値以上とは、当該エリアにおいて行われる手動走行から得られる操作情報、移動情報又はセンサデータが、手動走行の度に異なっていることが多いことを意味し、つまりは、自動走行経路を確定しにくいことを意味するためである。これに対して、当該エリアにおける操作情報又は移動情報とセンサデータとの関係がモデル化(例えば、線形回帰モデル化、クラスタ解析によるモデル化等)できるか否か、又はモデルの性能によっても、自動走行経路の学習の進捗を測ることができる。本構成によれば、当該モデル化の可否の程度に応じて、当該エリアにおける移動経路についての学習モデルの学習完了までに要する入力が提示されるため、移動体の自動走行のための学習状況を知ることができる。
また、前記モデル化の可否の程度が低いほど、前記学習完了までに要する前記入力が増加する又は減少せず、前記モデル化の可否の程度が高いほど、前記学習完了までに要する前記入力が減少してもよい。
これによれば、ユーザは、モデル化の可否の程度が低いほど、学習状況として学習完了までに要する入力が少なくなっていないことを知ることができ、モデル化の可否の程度が高いほど、当該入力が少なくなっていることを知ることができる。
また、さらに、前記提示情報を前記移動体のユーザ以外の他のユーザに提供してもよい。
これによれば、他の移動体のユーザへ移動体の自動走行のための学習状況を知らせることができる。
また、学習完了していない場合、前記移動体と異なる他の移動体についての前記操作情報又は前記移動情報、及び前記センサデータを入力として用いて、前記移動体の操作又は移動を前記学習モデルに学習させてもよい。例えば、前記移動体についての前記入力と、前記他の移動体についての前記入力と、の類似度に応じて、前記学習モデルの学習に用いる前記他の移動体の前記入力を決定してもよい。
これによれば、他の移動体についての入力すなわち操作情報又は移動情報、及びセンサデータを流用して学習対象の移動体の学習を行うことができる。具体的には、他の移動体についての入力のうち、学習対象の移動体についての入力との類似度の高いものを流用することで、ユーザが与えるべき入力を少なくすることができる。提示される学習完了までに要する入力も少なくなる。
また、本開示の情報処理装置は、移動体の操作情報又は前記移動体の移動経路を示す移動情報、及び前記移動体に備えられるセンサの前記移動経路におけるセンシングにより得られたセンサデータを前記移動体から取得する取得部と、前記操作情報又は前記移動情報、及び前記センサデータを入力として用いて、前記移動経路における前記センサデータを用いた前記移動体の操作又は移動を学習モデルに学習させる学習部と、前記学習モデルの学習回数に応じて、前記移動経路についての前記学習モデルの学習完了までに要する前記入力を示す提示情報を生成する生成部と、前記提示情報を提示装置に提示させる提示部と、を備える。
これによれば、移動体の自動走行のための学習状況を知ることができる情報処理装置を提供できる。
また、本開示の情報処理装置は、移動体の操作情報又は前記移動体の移動経路を示す移動情報、及び前記移動体に備えられるセンサの前記移動経路におけるセンシングにより得られたセンサデータを前記移動体から取得する取得部と、前記操作情報又は前記移動情報、及び前記センサデータを入力として用いて、前記移動経路における前記センサデータを用いた前記移動体の操作又は移動を学習モデルに学習させる学習部と、前記操作又は前記移動についての学習に用いられた前記操作情報又は前記移動情報、及び前記センサデータのうちの少なくとも1つの分散に応じて、前記移動経路についての前記学習モデルの学習完了までに要する前記入力を示す提示情報を生成する生成部と、前記提示情報を提示装置に提示させる提示部と、を備える。
これによれば、移動体の自動走行のための学習状況を知ることができる情報処理装置を提供できる。
以下、実施の形態について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態)
以下、図1から図9を用いて実施の形態について説明する。
[1.情報処理装置の構成]
図1は、実施の形態に係る情報処理装置10の構成の一例を示すブロック図である。なお、図1には、情報処理装置10において生成された情報を提示する提示装置20も記載している。
情報処理装置10は、移動体の操作又は移動を学習モデルに学習させる際に用いられる装置である。情報処理装置10は、移動体に搭載される装置であってもよいし、移動体と無線等により接続されたサーバ装置であってもよい。つまり、当該学習は、移動体において行われてもよいし、移動体から情報が送信されたサーバ装置で行われてもよい。情報処理装置10は、移動体に搭載される装置である場合、例えば、電子制御ユニット(ECU:Electronic Control Unit)又はカーナビゲーションシステム等により実現されてもよい。
提示装置20は、例えば、移動体に搭載される表示装置(例えばディスプレイ等)又は音声出力装置(例えばスピーカ等)等である。また、後述するようにAR(Augmanted Reality)が用いられる場合、提示装置20は、移動体のフロントガラス又はフロントガラスへ画像を投影する装置であってもよい。なお、提示装置20は、移動体を操作する運転手すなわちユーザが有する携帯端末(例えばスマートフォン又はタブレット等)であってもよい。
情報処理装置10は、取得部11、学習部12、生成部13及び提示部14を備える。
情報処理装置10は、例えば、プロセッサ(例えばマイクロプロセッサ)、メモリ等のデジタル回路、アナログ回路、通信回路等を含む装置である。メモリは、ROM、RAM等であり、プロセッサにより実行される制御プログラム言い換えるとコンピュータプログラムを記憶することができる。例えばプロセッサが、制御プログラムに従って動作することにより、情報処理装置10は各種機能すなわち取得部11、学習部12、生成部13及び提示部14を実現することになる。
[2.情報処理装置の動作]
取得部11、学習部12、生成部13及び提示部14の動作について図2を用いて説明する。
図2は、実施の形態における情報処理装置10の動作の一例を示すフローチャートである。
まず、取得部11は、移動体の操作情報又は移動体の移動経路を示す移動情報、及び移動体に備えられるセンサの移動経路におけるセンシングにより得られたセンサデータを移動体から取得する(ステップS11)。操作情報は、例えば、移動体を操作するユーザのハンドル操作言い換えるとステアリング操作及びアクセル及びブレーキ操作等の情報である。具体的には、操作情報は、ハンドルの操舵角及び移動体の発進及び停止を示す情報である。移動情報は、例えば、GPS等による位置情報等から得られる移動体の移動経路を示す情報である。具体的には、移動情報は、時刻に応じて変化する位置情報から導き出される移動体の移動経路を示す情報である。センサデータは、例えば、移動体に設けられたカメラによる撮影により得られる移動体の周囲の画像若しくはLIDARによる走査により得られる移動体の周囲に存在する物体を示す点群情報である。具体的には、センサデータは、移動体の周囲に存在する建物、並木、信号機又は道路標識、他の移動体等を示す情報である。
次に、学習部12は、操作情報又は移動情報、及びセンサデータを入力として用いて、移動経路におけるセンサデータを用いた移動体の操作又は移動を学習モデルに学習させる(ステップS12)。例えば、学習部12は、ある移動経路について手動走行が行われることで、取得された操作情報が示す当該移動経路の手動走行中に移動体に対して行われた操作と、取得されたセンサデータが示すその操作が行われたときの移動体の周囲の景色等とを対応付けて記憶する。具体的には、学習部12は、周囲の景色がある景色のときに、ハンドルが右に回された、つまり右折した、停止していた移動体を動かし始めた、移動していた移動体を停止させたといった情報を記憶する。若しくは、学習部12は、当該移動経路を手動走行中に刻々と変化する移動体の位置と、その各位置における移動体の周囲の景色等とを対応付けて記憶する。これにより、学習部12は、センサデータが示す移動体の周囲の状況がどのような状況のときに、移動体に対してどのような操作がされるか、若しくは、移動体がどのような経路を走行するかを学習モデルに学習させることができる。したがって、学習が完了した移動経路を移動体が走行する際に取得されたセンサデータを、学習が完了した学習モデルに入力することで、当該センサデータに対応する移動体の操作又は移動が出力され、当該操作又は移動に応じて移動体に自動運転をさせることができる。
ここで、自動走行を開始するために用いられる情報を獲得する場合、ある移動経路について一度の手動走行により得られる操作情報又は移動情報、及びセンサデータだけでは、学習を完了することは難しい。このため、当該移動経路についての学習が完了するまで、ユーザは当該移動経路について手動走行を繰り返し行うことが要求される。このとき、ユーザが移動体の自動走行のための学習状況を知ることができれば、効果的に学習を進めることができる。
そこで、生成部13は、学習モデルの学習回数、又は、移動体の操作若しくは移動についての学習に用いられた操作情報若しくは移動情報、及びセンサデータのうちの少なくとも1つの分散に応じて、移動経路についての学習モデルの学習完了までに要する当該入力を示す提示情報を生成する(ステップS13)。学習モデルの学習回数とは、例えば、ある移動経路について操作情報又は移動情報、及びセンサデータが取得された回数であり、具体的には、ユーザが当該移動経路について手動走行を行った回数である。分散とは、例えばある移動経路についてユーザが手動走行を行うごとに得られる移動体の操作、移動経路又は周囲の環境についての情報の散らばり度合いである。また、移動経路とは、例えば、出発地から目的地までの経路である。例えば、出発地は移動体が完全に停止していた状態から移動し始めた地点であり、目的地は移動体が移動していた状態から完全に停止した地点である。なお、移動経路はこれに限らず、例えば、経路を細かく分割して、ある交差点から次の交差点までを移動経路としてもよい。この場合、各交差点が細かく分割された各移動経路の出発地となり、また、目的地となる。また、移動経路についての学習モデルの学習完了までに要する入力は、例えば、当該移動経路について学習完了までに要求される操作情報又は移動情報、及びセンサデータが入力される回数であり、具体的には、ユーザが当該移動経路について要求される手動走行の回数となる。生成部13の動作の詳細については、後述する図3から図5で説明する。
そして、提示部14は、提示情報を提示装置20に提示させる(ステップS14)。提示情報の具体例については、後述する図6から図9を用いて説明する。
[3.提示情報の生成]
次に、生成部13の動作の詳細について説明する。ここでは、提示情報を生成する方法の具体例として、第1例から第3例をあげて説明する。
まず、第1例について説明する。
図3は、実施の形態における提示情報を生成する方法の第1例を示すフローチャートである。
生成部13は、ある移動経路についての学習回数を取得する(ステップS21)。例えば、当該移動経路について手動走行が1回行われていた場合、生成部13は、学習回数として「1回」を取得する。
次に、生成部13は、所定の回数と取得した学習回数との差分を算出する(ステップS22)。所定の回数は、例えば、予め設定された固定値であってもよい。また、例えば、当該移動経路について手動走行が1回行われることで、当該移動経路の長さを算出することができるため、所定の回数は、当該長さに応じて決定されてもよい。また、例えば、当該移動経路について手動走行が1回行われることで、当該移動経路を運転する際の難易度を算出することができるため、所定の回数は、当該難易度に応じて決定されてもよい。当該難易度は、例えば、センサデータから推定できる当該移動経路の交通量又は通行人の多さ等に基づいて算出される。
そして、生成部13は、学習モデルの学習完了までに要する入力として当該差分を示す提示情報を生成する(ステップS23)。例えば、ある移動経路についての所定の回数が5回の場合に、提示情報は、学習モデルの学習完了までに要する入力として、当該移動経路についてのこれまでの学習回数が1回のときには4回、学習回数が2回のときには3回というように示していき、学習回数が所定の回数と同じ5回に達すると学習完了を示す。つまり、学習回数が多いほど、学習完了までに要する入力が減少する。言い換えると、学習回数が少ないほど(例えば学習をしない場合)、学習完了までに要する入力が減少しない。なお、学習回数が少ないほど、学習完了までに要する入力が増加してもよい。
次に、第2例について説明する。
図4は、実施の形態における提示情報を生成する方法の第2例を示すフローチャートである。
生成部13は、ある移動経路についての学習に用いられた操作情報又は移動情報、及びセンサデータのうちの少なくとも1つの分散を取得する(ステップS31)。例えば、生成部13は、当該移動経路についてユーザが手動走行をするごとに得られる操作情報が示す移動体の操作又は移動情報が示す移動経路、及び、センサデータが示す周囲の環境についての情報の散らばり度合いを取得する。例えば、当該移動経路を手動走行するごとに得られる情報が異なっている場合、当該分散が高くなる。具体的には、当該移動経路を手動走行するごとにハンドルの操舵角が異なっている、走行経路が異なっている、又は、周囲の景色が異なっている場合には、当該分散が高くなる。当該分散が高くなる要因としては、当該移動経路において可動障害物が多い(例えば、路上駐車が多い、交通量が多い)ことが挙げられる。当該分散は、例えば、数値又は複数段階のレベル等で表される。
次に、生成部13は、当該分散に応じて学習完了までに要する手動走行数を算出する(ステップS32)。例えば、上述した第1例において、所定の回数が移動経路を運転する際の難易度に応じて決定される場合に、当該分散が当該難易度に対応する。例えば、当該分散が高い場合、難易度が高いため所定の回数が多くなるように決定される。つまり、所定の回数とこれまでの学習回数との差分、つまり、学習完了までに要する手動走行数が多くなる。したがって、当該分散が高い場合、生成部13は、当該高い分散に応じて、当該多くなった手動走行数を算出する。一方で、分散が低い場合、難易度が低いため所定の回数が少なくなるように決定される。つまり、所定の回数とこれまでの学習回数との差分、つまり、学習完了までに要する手動走行数が少なくなる。したがって、当該分散が低い場合、生成部13は、当該低い分散に応じて、当該少なくなった手動走行数を算出する。このように、分散が高いほど、学習完了までに要する入力が増加し、分散が低いほど、学習完了までに要する入力が減少する。なお、分散が高いほど、学習完了までに要する入力が減少しなくてもよい、つまり、所定の回数が少なくならなくてもよい。
そして、生成部13は、学習モデルの学習完了までに要する入力として当該分散に応じて算出された手動走行数を示す提示情報を生成する(ステップS33)。
次に、第3例について説明する。
生成部13は、ある移動経路についての学習に用いられた操作情報又は移動情報、及びセンサデータのうちの少なくとも1つの分散を取得する(ステップS41)。ステップS41での処理は、ステップS31での処理と同じであるため説明を省略する。
次に、生成部13は、分散が閾値以上であるエリアがあるか否かを判定する(ステップS42)。当該閾値は、移動経路を運転する際の難易度が高いときの分散に対応する値となり、例えば予め設定される。
生成部13は、分散が閾値以上であるエリアがないと判定した場合(ステップS42でNo)、例えば、第2例におけるステップS32以降の処理を行う。つまり、生成部13は、閾値未満の分散に応じて学習完了までに要する手動走行数を算出し、当該手動生成数を示す提示情報を生成する。
生成部13は、分散が閾値以上であるエリアがあると判定した場合(ステップS42でYes)、当該エリアにおける操作情報又は移動情報とセンサデータとの関係のモデル化の可否の程度を取得する(ステップS43)。操作情報又は移動情報とセンサデータとの関係とは、例えば、移動体の周囲に路上駐車している車両が存在してことを示すセンサデータと、そのときに行うべきハンドル操作、アクセル・ブレーキ操作(例えば当該車両を避けるための操作)等の操作情報又はそのときにとるべき経路(例えば当該車両を避けるための経路)の情報との関係のことである。つまり、生成部13は、物体検知の結果を説明変数として、どのようにハンドル操作、アクセル・ブレーキ操作、経路選択をするか否かについてのモデル化の可否の程度を取得する。当該モデル化の可否の程度とは、例えば、線形回帰モデル化の程度、または、クラスタ解析によるモデル化のしやすさ等のことである。具体的には、モデル化の可否の程度は、モデルの性能すなわちモデルの出力の正確性又は精度であってよい。例えば、このようなモデリングができている場合は、モデル化の可否の程度が高いといえる。また、例えば、何度か手動操作した際に得られる操作情報又は移動情報を、互いに類似する情報が同じクラスタに属するように複数のクラスタに分けて、各クラスタ内で分散を算出できるような場合は、クラスタ解析によるモデル化がしやすく、モデル化の可否の程度が高いといえる。一方で、ハンドル操作、アクセル・ブレーキ操作、経路選択の変化の要因がわからない場合や、複数のクラスタに分けた際に同じクラスタ内の情報に違いがなく分散を算出できないような場合には、モデル化の可否の程度が低いといえる。当該モデル化の可否の程度は、例えば、数値又は複数段階のレベル等で表される。
次に、生成部13は、当該モデル化の可否の程度に応じて学習完了までに要する手動走行数を算出する(ステップS44)。例えば、分散が閾値以上であるエリアの移動経路を運転する際の難易度は高いため、上述した第1例における所定の回数は多くなる、つまり学習完了までに要する手動走行数が多くなるように決定され得る。しかし、当該モデル化の可否の程度が高い場合には、当該モデルを用いることで、難易度の高い移動経路を正しく運転することができるため、上記所定の回数を少なくすることができる、つまり、学習完了までに要する手動走行数として少ない回数を算出する。一方で、当該モデル化の可否の程度が低い場合、難易度の高い移動経路を正しく運転するためのモデルがないため、上記所定の回数は多くなる、つまり、学習完了までに要する手動走行数として多い回数を算出する。このように、モデル化の可否の程度が低いほど、学習完了までに要する入力が増加し、モデル化の可否の程度が高いほど、学習完了までに要する入力が減少する。なお、モデル化の可否の程度が低いほど、学習完了までに要する入力が減少しなくてもよい、つまり、所定の回数が少なくならなくてもよい。
そして、生成部13は、学習モデルの学習完了までに要する入力として当該モデル化の可否の程度に応じて算出された手動走行数を示す提示情報を生成する(ステップS45)。
このようにして学習モデルの学習完了までに要する入力を示す提示情報が生成される。
なお、当該学習モデルの学習は、移動経路における移動体の操作又は移動の学習であり、例えば、自動走行を主な目的とするものである。このため、当該学習は、自動走行中に移動体の乗員が快適に過ごせることを考慮して行われていないことがある。具体的には、自動走行において振動、右左折等が多く乗員を不快にさせるような経路が選択されることがあり得る。
そこで、自動走行中に乗員が快適に過ごすための学習が行われてもよい。この場合、自動走行中に乗員が快適に過ごすことも考慮して学習が行われるため、学習モデルの学習完了までに要する入力は多くなる。例えば、加速度センサ等のセンシング結果もセンサデータに含めて学習が行われるため、学習の難易度は高まる。
[4.提示情報の具体例]
次に、提示装置20に提示される提示情報の具体例について第1例から第3例をあげて説明する。まず、第1例及び第2例について、図6に示されるような手動走行が行われたときの提示情報について説明する。
図6は、手動走行した経路の一例を示す図である。図6に示されるように、目的地Aに向けて、破線で示される手動走行経路1及び2で手動走行が行われたとする。手動走行経路1は、北上した後、十字路を左折し、次のT字路を左折し、目的地Aへ到達するという経路である。手動走行経路2は、南下した後、十字路を右折し、次のT字路を左折し目的地Aへ到達するという経路である。
図7は、提示情報の第1例を示す図である。第1例では、提示情報は、例えばディスプレイ等の提示装置20に表示された地図上の経路に重畳される色が付けられた線である。なお、当該地図は、二次元地図すなわち平面地図であってもよいし、三次元地図すなわち立体地図であってもよい。例えば、当該色は、学習の状況を示し、例えばオレンジの線が重畳された移動経路の学習完了までに要する手動走行数は3回、青の線が重畳された移動経路は学習完了、といったように色に応じて学習完了までに要する入力が予め決められている。
図7において実線で表された提示情報141は、例えば、地図上に重畳された青の線であり、学習完了を示す。図6に示されるように、十字路から目的地Aまでの移動経路は、手動走行経路1及び2が示すように、重複して手動走行が行われており、新たな手動走行が不要と判断されたためである。図7において破線で表された提示情報142は、例えば地図上に重畳されたオレンジの線であり、学習完了までに要する手動走行数が3回であることを示す。図6に示されるように、南側から十字路までの移動経路及び北側から十字路までの移動経路は、それぞれ1回のみ手動走行が行われており、新たな手動走行が必要と判断されたためである。
このように、提示情報は、地図上の経路に重畳される色が付けられた線であってもよい。なお、当該提示情報は、地図上の経路だけでなく、例えば、建物又は並木等の障害物に重畳されてもよい。
図8は、提示情報の第2例を示す図である。第2例では、提示情報は、例えばディスプレイ等の提示装置20に表示された地図上の経路付近に重畳される文字である。図8に示されるように、提示情報143は、提示情報142に対応する経路に対して、「あと3回走れば自走走行可能です」といった文字によって、学習完了までに要する入力を示している。
このように、提示情報は、地図上の経路付近に重畳される文字であってもよい。なお、第2例では、提示情報に提示情報141及び142が含まれているが、含まれていなくてもよい。つまり、地図上に提示情報143だけが重畳されていてもよい。
第1例及び第2例では、提示情報は、地図上に重畳された情報であったが、これに限らない。例えば、提示情報は、ARによって提示されてもよい。これについて、図9を用いて説明する。
図9は、提示情報の第3例を示す図である。第3例では、提示情報は、例えばARによって、フロントガラス等の提示装置20に表示される画像である。図9に示されるように、フロントガラス越しの景色に含まれる道路が、学習の完了していない移動経路に対応する場合に、提示情報144として、学習が完了していないことを示す画像(例えば学習が完了していないことを示す色の画像)が当該道路に重畳して見えるようにフロントガラスに表示される。これにより、ユーザは、目視で確認できる道路についての学習状況を直感的に知ることができる。
このように、提示情報は、ARによる画像であってもよい。
なお、提示情報のバリエーションとしては、上記第1例から第3例に示すものに限らない。
例えば、提示情報は、提示情報143で示される文字を読み上げる音声であってもよい。この場合、提示装置20には、スピーカ等が含まれる。
また、例えば、提示情報は、記号等であってもよい。例えば、当該記号は、学習の状況を示し、例えばクロス印が重畳された移動経路の学習完了までに要する手動走行数は3回、丸印が重畳された移動経路は学習完了、といったように記号に応じて学習完了までに要する入力が予め決められている。
また、例えば、提示情報は、学習完了までに要する入力に応じて変化するゲージ画像等であってもよい。例えば、学習完了までに要する入力が少ないほどゲージ画像における柱状グラフの長さが長くなり、学習が完了した場合に、ゲージ画像が柱状グラフで埋まる。
また、例えば、自動走行中に乗員が快適に過ごすための学習も行われる場合には、自動走行中に移動体の乗員が快適に過ごすことを考慮しないで行われた学習が完了するまでに要する入力を示す提示情報(第1提示情報と呼ぶ)と、自動走行中に移動体の乗員が快適に過ごすことを考慮して行われた学習が完了するまでに要する入力を示す提示情報(第2提示情報と呼ぶ)とがそれぞれ区別されて提示されてもよい。
例えば、第1提示情報と第2提示情報とで、色が変えられてもよい。具体的には、第1提示情報及び第2提示情報の両方が用いられる場合には、学習状況を示す色のバリエーションが増える。また、例えば、第1提示情報と第2提示情報とで、記号が変えられてもよい。具体的には、第1提示情報及び第2提示情報の両方が用いられる場合には、学習状況を示す記号のバリエーションが増える。また、例えば、第1提示情報と第2提示情報とで、ゲージ画像の幅が変えられてもよい。具体的には、第1提示情報及び第2提示情報の両方が用いられる場合には、学習状況を示すゲージ画像の幅が長くなる。つまり、単に、自動走行のためだけの学習が完了しただけでは、ゲージ画像が柱状グラフで埋まらず、自動走行中に移動体の乗員が快適に過ごすための学習も完了することでゲージ画像が柱状グラフで埋まるようになる。また、例えば、第1提示情報と第2提示情報とで、表示される地図等の画像、又は画像をページ切り替えできる場合にはページ、が切り換えられてもよい。
なお、提示情報は、例えば、ユーザからの指示(例えば情報処理装置10についてのユーザインタフェースへの入力等)を受けて提示されるが、学習の進捗に変化があるごとに自動的に提示されてもよい。
このようにして、ある移動経路についての学習モデルの学習回数又は分散に応じて、当該移動経路についての学習モデルの学習完了までに要する入力が提示されるため、ユーザは移動体の自動走行のための学習状況を知ることができる。
[5.他の移動体との連携]
なお、提示情報が移動体のユーザ以外の他のユーザに提供されてもよい。
これにより、他の移動体のユーザへ移動体の自動走行のための学習状況を知らせることができる。
また、学習が完了していない場合、学習部12は、移動体と異なる他の移動体についての操作情報又は移動情報、及びセンサデータを入力として用いて、移動体の操作又は移動を学習モデルに学習させてもよい。例えば、学習部12は、移動体についての入力と、他の移動体についての入力との類似度に応じて、学習モデルの学習に用いる他の移動体の入力を決定してもよい。具体的には、移動体が取得した操作情報又は移動情報、及びセンサデータの組み合わせと類似している他の移動体のこれらの組み合わせがあれば、当該他の移動体のこれらの組み合わせが学習に用いられる。
これにより、他の移動体についての入力である操作情報又は移動情報、及びセンサデータを流用して学習対象の移動体の学習を行うことができる。具体的には、他の移動体についての入力のうち、学習対象の移動体についての入力との類似度の高いものを流用することで、ユーザが与えるべき入力を少なくすることができる。提示される学習完了までに要する入力も少なくなる。
このように複数の移動体が連携して学習を行ってもよい。
[6.まとめ]
以上説明したように、ある移動経路について手動走行が行われることで、センサデータが示す移動体の周囲の状況がどのような状況のときに、移動体に対してどのような操作がされるか、若しくは、移動体がどのような移動経路を走行するかを学習モデルに学習させることができる。そして、このようにして行ったある移動経路についての学習モデルの学習回数又は分散に応じて、当該移動経路についての学習モデルの学習完了までに要する入力が提示されるため、移動体の自動走行のための学習状況を知ることができる。その結果、ユーザは学習に効果的な入力を与えることができる。
(その他の実施の形態)
以上、本開示の情報処理装置10について、実施の形態に基づいて説明したが、本開示は、上記実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したもの、および、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の範囲内に含まれる。
例えば、情報処理装置10は、サーバ装置等により実現される場合に、情報処理装置10が備える機能構成要素は、複数のサーバ装置に分散して配置されていてもよい。
また、例えば、ある移動経路の学習完了後、移動体が当該移動経路を自動走行している際に、当該移動経路の周囲環境が学習時から変化していることがセンサデータ等を用いて認識された場合、最新のセンサデータ等によって学習モデルを更新してもよい。
また、本開示は、情報処理装置10として実現できるだけでなく、情報処理装置10を構成する各構成要素が行う処理のステップを含む情報処理方法として実現できる。
具体的には、図2に示されるように、情報処理方法は、移動体の操作情報又は移動体の移動経路を示す移動情報、及び移動体に備えられるセンサの移動経路におけるセンシングにより得られたセンサデータを移動体から取得し(ステップS11)、操作情報又は移動情報、及びセンサデータを入力として用いて、移動経路におけるセンサデータを用いた移動体の操作又は移動を学習モデルに学習させ(ステップS12)、学習モデルの学習回数、又は、当該操作若しくは当該移動についての学習に用いられた操作情報若しくは移動情報、及びセンサデータのうちの少なくとも1つの分散に応じて、移動経路についての学習モデルの学習完了までに要する入力を示す提示情報を生成し(ステップS13)、提示情報を提示装置20に提示させる(ステップS14)。
また、例えば、それらのステップは、コンピュータ(コンピュータシステム)によって実行されてもよい。そして、本開示は、それらの方法に含まれるステップを、コンピュータに実行させるためのプログラムとして実現できる。さらに、本開示は、そのプログラムを記録したCD-ROM等である非一時的なコンピュータ読み取り可能な記録媒体として実現できる。
例えば、本開示が、プログラム言い換えるとソフトウェアで実現される場合には、コンピュータのCPU、メモリおよび入出力回路等のハードウェア資源を利用してプログラムが実行されることによって、各ステップが実行される。つまり、CPUがデータをメモリまたは入出力回路等から取得して演算したり、演算結果をメモリまたは入出力回路等に出力したりすることによって、各ステップが実行される。
また、上記実施の形態の情報処理装置10に含まれる複数の構成要素は、それぞれ、専用または汎用の回路として実現されてもよい。これらの構成要素は、1つの回路として実現されてもよいし、複数の回路として実現されてもよい。
また、上記実施の形態の情報処理装置10に含まれる複数の構成要素は、集積回路(IC:Integrated Circuit)であるLSI(Large Scale Integration)として実現されてもよい。これらの構成要素は、個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。LSIは、集積度の違いにより、システムLSI、スーパーLSIまたはウルトラLSIと呼称される場合がある。
また、集積回路はLSIに限られず、専用回路または汎用プロセッサで実現されてもよい。プログラム可能なFPGA(Field Programmable Gate Array)、または、LSI内部の回路セルの接続および設定が再構成可能なリコンフィギュラブル・プロセッサが、利用されてもよい。
さらに、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて、情報処理装置10に含まれる各構成要素の集積回路化が行われてもよい。
その他、実施の形態に対して当業者が思いつく各種変形を施して得られる形態や、本開示の趣旨を逸脱しない範囲で各実施の形態における構成要素および機能を任意に組み合わせることで実現される形態も本開示に含まれる。
本開示の一態様は、例えば、自動運転車両等に利用できる。
10 情報処理装置
11 取得部
12 学習部
13 生成部
14 提示部
141、142、143、144 提示情報

Claims (11)

  1. 移動体の操作情報又は前記移動体の移動経路を示す移動情報、及び前記移動体に備えられるセンサの前記移動経路におけるセンシングにより得られたセンサデータを前記移動体から取得し、
    前記操作情報又は前記移動情報、及び前記センサデータを入力として用いて、前記移動経路における前記センサデータを用いた前記移動体の操作又は移動を学習モデルに学習させ、
    前記学習モデルの学習回数に応じて、前記移動経路についての前記学習モデルの学習完了までに要する前記入力を示す提示情報を生成し、
    前記提示情報を提示装置に提示させ
    前記提示情報を前記移動体のユーザ以外の他のユーザに提供する
    情報処理方法。
  2. 前記学習回数が少ないほど、前記学習完了までに要する前記入力が増加する又は減少せず、
    前記学習回数が多いほど、前記学習完了までに要する前記入力が減少する
    請求項1に記載の情報処理方法。
  3. 移動体の操作情報又は前記移動体の移動経路を示す移動情報、及び前記移動体に備えられるセンサの前記移動経路におけるセンシングにより得られたセンサデータを前記移動体から取得し、
    前記操作情報又は前記移動情報、及び前記センサデータを入力として用いて、前記移動経路における前記センサデータを用いた前記移動体の操作又は移動を学習モデルに学習させ、
    前記操作又は前記移動についての学習に用いられた前記操作情報又は前記移動情報、及び前記センサデータのうちの少なくとも1つの分散に応じて、前記移動経路についての前記学習モデルの学習完了までに要する前記入力を示す提示情報を生成し、
    前記提示情報を提示装置に提示させる
    情報処理方法。
  4. 前記分散が高いほど、前記学習完了までに要する前記入力が増加する又は減少せず、
    前記分散が低いほど、前記学習完了までに要する前記入力が減少する
    請求項3に記載の情報処理方法。
  5. 前記分散が閾値以上であるエリアがある場合、当該エリアにおける前記操作情報又は前記移動情報と前記センサデータとの関係のモデル化の可否の程度に応じて、前記移動経路についての前記学習モデルの学習完了までに要する前記入力を示す提示情報を生成する
    請求項3に記載の情報処理方法。
  6. 前記モデル化の可否の程度が低いほど、前記学習完了までに要する前記入力が増加する又は減少せず、
    前記モデル化の可否の程度が高いほど、前記学習完了までに要する前記入力が減少する
    請求項5に記載の情報処理方法。
  7. さらに、前記提示情報を前記移動体のユーザ以外の他のユーザに提供する
    請求項~6のいずれか1項に記載の情報処理方法。
  8. 学習完了していない場合、前記移動体と異なる他の移動体についての前記操作情報又は前記移動情報、及び前記センサデータを入力として用いて、前記移動体の操作又は移動を前記学習モデルに学習させる
    請求項1~7のいずれか1項に記載の情報処理方法。
  9. 前記移動体についての前記入力と、前記他の移動体についての前記入力と、の類似度に応じて、前記学習モデルの学習に用いる前記他の移動体の前記入力を決定する
    請求項8に記載の情報処理方法。
  10. 移動体の操作情報又は前記移動体の移動経路を示す移動情報、及び前記移動体に備えられるセンサの前記移動経路におけるセンシングにより得られたセンサデータを前記移動体から取得する取得部と、
    前記操作情報又は前記移動情報、及び前記センサデータを入力として用いて、前記移動経路における前記センサデータを用いた前記移動体の操作又は移動を学習モデルに学習させる学習部と、
    前記学習モデルの学習回数に応じて、前記移動経路についての前記学習モデルの学習完了までに要する前記入力を示す提示情報を生成する生成部と、
    前記提示情報を提示装置に提示させる提示部と、を備え
    前記提示情報を前記移動体のユーザ以外の他のユーザに提供する
    情報処理装置。
  11. 移動体の操作情報又は前記移動体の移動経路を示す移動情報、及び前記移動体に備えられるセンサの前記移動経路におけるセンシングにより得られたセンサデータを前記移動体から取得する取得部と、
    前記操作情報又は前記移動情報、及び前記センサデータを入力として用いて、前記移動経路における前記センサデータを用いた前記移動体の操作又は移動を学習モデルに学習させる学習部と、
    前記操作又は前記移動についての学習に用いられた前記操作情報又は前記移動情報、及び前記センサデータのうちの少なくとも1つの分散に応じて、前記移動経路についての前記学習モデルの学習完了までに要する前記入力を示す提示情報を生成する生成部と、
    前記提示情報を提示装置に提示させる提示部と、を備える
    情報処理装置。
JP2018118272A 2018-06-21 2018-06-21 情報処理方法及び情報処理装置 Active JP7079156B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018118272A JP7079156B2 (ja) 2018-06-21 2018-06-21 情報処理方法及び情報処理装置
EP19177691.3A EP3588007B1 (en) 2018-06-21 2019-05-31 Information processing method and information processing device
US16/442,908 US11454977B2 (en) 2018-06-21 2019-06-17 Information processing method and information processing device
CN201910519634.0A CN110626357A (zh) 2018-06-21 2019-06-17 信息处理方法及信息处理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018118272A JP7079156B2 (ja) 2018-06-21 2018-06-21 情報処理方法及び情報処理装置

Publications (2)

Publication Number Publication Date
JP2019220027A JP2019220027A (ja) 2019-12-26
JP7079156B2 true JP7079156B2 (ja) 2022-06-01

Family

ID=67001514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018118272A Active JP7079156B2 (ja) 2018-06-21 2018-06-21 情報処理方法及び情報処理装置

Country Status (4)

Country Link
US (1) US11454977B2 (ja)
EP (1) EP3588007B1 (ja)
JP (1) JP7079156B2 (ja)
CN (1) CN110626357A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102283314B1 (ko) * 2020-07-01 2021-07-28 윤수정 이동형 항바이러스 로봇 및 그 제어방법
JP2022133181A (ja) * 2021-03-01 2022-09-13 パナソニックIpマネジメント株式会社 駐車支援装置および駐車支援方法
JP2022161301A (ja) * 2021-04-08 2022-10-21 日立Astemo株式会社 車両制御装置及び車両制御方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016013574A1 (ja) 2014-07-23 2016-01-28 株式会社発明屋 自動車とコンピューティングシステム
JP2016065819A (ja) 2014-09-25 2016-04-28 トヨタ自動車株式会社 車両の制御装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6022447B2 (ja) 1980-12-10 1985-06-01 松下電器産業株式会社 誘電体材料
JPH0660050A (ja) * 1992-08-11 1994-03-04 Hitachi Ltd ニューラルネットワークの学習支援装置
CN101019358A (zh) * 2004-09-10 2007-08-15 松下电器产业株式会社 无线通信装置和无线通信方法
DE102010023162A1 (de) 2010-06-09 2011-12-15 Valeo Schalter Und Sensoren Gmbh Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Einparken in eine Parklücke, Fahrerassistenzeinrichtung und Kraftfahrzeug
JP5826049B2 (ja) * 2012-01-20 2015-12-02 Kddi株式会社 ユーザが搭乗している移動車両を推定する移動車両推定方法、移動端末及びプログラム
US9633564B2 (en) * 2012-09-27 2017-04-25 Google Inc. Determining changes in a driving environment based on vehicle behavior
JP5900448B2 (ja) * 2013-09-30 2016-04-06 トヨタ自動車株式会社 運転支援装置
JP2015224871A (ja) * 2014-05-26 2015-12-14 株式会社日立製作所 センタ装置、運転支援システム及び運転支援方法
JP6598019B2 (ja) * 2015-04-21 2019-10-30 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム
JP6380422B2 (ja) * 2016-02-05 2018-08-29 トヨタ自動車株式会社 自動運転システム
KR102057532B1 (ko) * 2016-10-12 2019-12-20 한국전자통신연구원 자율주행 차량의 판단 지능 향상을 위한 주행상황 데이터 공유 및 학습 장치 및 그 동작 방법
JP6804934B2 (ja) * 2016-10-26 2020-12-23 株式会社東芝 消費エネルギー予測装置及び消費エネルギー予測方法
US11157006B2 (en) * 2019-01-10 2021-10-26 International Business Machines Corporation Training and testing automated driving models

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016013574A1 (ja) 2014-07-23 2016-01-28 株式会社発明屋 自動車とコンピューティングシステム
JP2016065819A (ja) 2014-09-25 2016-04-28 トヨタ自動車株式会社 車両の制御装置

Also Published As

Publication number Publication date
EP3588007B1 (en) 2022-07-06
JP2019220027A (ja) 2019-12-26
US11454977B2 (en) 2022-09-27
EP3588007A1 (en) 2020-01-01
US20190391588A1 (en) 2019-12-26
CN110626357A (zh) 2019-12-31

Similar Documents

Publication Publication Date Title
KR102070530B1 (ko) 모션 계획에 기초한 자율 주행 차량의 운행 방법 및 시스템
US11328219B2 (en) System and method for training a machine learning model deployed on a simulation platform
KR102211299B1 (ko) 곡선 투영을 가속화하기 위한 시스템 및 방법
US10921134B2 (en) Road geometry matching with componentized junction models
CN108604095B (zh) 确定操作自动驾驶车辆的转向率的方法、介质及处理系统
KR102096726B1 (ko) 자율 주행 차량의 운행을 위한 제어 오류 보정 계획 방법
CN108255170B (zh) 动态地调整自动驾驶车辆的速度控制率的方法
CN110096053B (zh) 用于自动驾驶车辆的驾驶轨迹生成方法、系统和机器可读介质
KR102279078B1 (ko) 자율 주행 차량의 v2x 통신 기반의 차량 차로 시스템
US20180348761A1 (en) Scalable smooth reference path generator for autonomous driving vehicles
CN111380534B (zh) 用于自动驾驶车辆的基于st图学习的方法
CN108974009A (zh) 用于自动驾驶控制的方法、介质和系统
JP7079156B2 (ja) 情報処理方法及び情報処理装置
US11915115B2 (en) Lane selection using machine learning
US9909894B2 (en) Componentized junction models
CN111476079A (zh) 将用于对象检测的地图特征与lidar合并的全面且有效的方法
CN112825127B (zh) 生成用于自动驾驶标记的紧密2d边界框的方法
US11055857B2 (en) Compressive environmental feature representation for vehicle behavior prediction
EP3627110A1 (en) Method for planning trajectory of vehicle
CN111328313A (zh) 用于自动驾驶车辆的控制占主导的三点转弯规划
CN111328385A (zh) 用于自动驾驶车辆的基于螺旋路径的三点转弯规划
CN110567470A (zh) 用于在车辆中表示数据的方法
JP7252253B2 (ja) 経路設定装置、経路設定方法、及びプログラム
US20240094723A1 (en) Systems and methods for controlling a trailer vehicle
JP7444141B2 (ja) 処理システム、処理装置、処理方法、処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220520

R150 Certificate of patent or registration of utility model

Ref document number: 7079156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150