WO2020004375A1 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
WO2020004375A1
WO2020004375A1 PCT/JP2019/025114 JP2019025114W WO2020004375A1 WO 2020004375 A1 WO2020004375 A1 WO 2020004375A1 JP 2019025114 W JP2019025114 W JP 2019025114W WO 2020004375 A1 WO2020004375 A1 WO 2020004375A1
Authority
WO
WIPO (PCT)
Prior art keywords
model
driving
information processing
unit
parameters
Prior art date
Application number
PCT/JP2019/025114
Other languages
English (en)
French (fr)
Inventor
拓也 成平
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US17/254,213 priority Critical patent/US20210272020A1/en
Priority to JP2020527536A priority patent/JP7331850B2/ja
Publication of WO2020004375A1 publication Critical patent/WO2020004375A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9035Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions

Definitions

  • the present disclosure relates to an information processing device and an information processing method.
  • Non-Patent Document 1 described below describes a technique that is intended to better capture a potential structure that is the basis of a demonstration by a human or the like and to recover semantically significant factors of data. I have.
  • the driver when driving a vehicle, if the driver can know the ideal trajectory, the driver can drive on the optimal trajectory. In particular, if the driver can obtain an expected value in consideration of various factors at the time of driving, disturbance, and the like, the easiness of driving is significantly improved.
  • a parameter acquisition unit that acquires a parameter collected from a sensor, and a reference model acquisition that generates or selects a recommended reference model according to a situation based on a model extracted based on the parameter.
  • an information processing apparatus comprising:
  • a parameter acquisition unit that acquires parameters collected from a sensor, and performing clustering based on the parameters to extract a plurality of models and select a plurality of the models on the terminal side
  • An information processing apparatus comprising: a model extraction unit that extracts a selection model used when performing the selection.
  • An information processing method is provided.
  • a user can obtain an expected value in consideration of various factors during driving, disturbance, and the like.
  • the above effects are not necessarily limited, and any of the effects described in the present specification or other effects that can be grasped from the present specification, together with or instead of the above effects. May be played.
  • FIG. 1 is a schematic diagram illustrating a configuration of an information processing system 1000 according to an embodiment of the present disclosure. It is a schematic diagram which shows the process performed by the driving parameter acquisition part 102. It is a schematic diagram which shows the process performed by the automatic driving
  • FIG. 4 is a schematic diagram illustrating a process performed by an operation model automatic selection / generation unit. It is a schematic diagram which shows the process performed in operation model selection UI110. It is a schematic diagram which shows the example of a display by the expected driving
  • FIG. 4 is a schematic diagram showing an example of display by a feedback display unit 122.
  • FIG. 4 is a schematic diagram showing an example of display by a feedback display unit 122.
  • the present disclosure is, for example, a technology for acquiring a log when driving a vehicle, extracting a driving model from the acquired log, and presenting information to a user by comparing the current driving state of the vehicle with the driving model.
  • the model is not limited to a driving model, and may be a model related to reproduction music, communication with another vehicle, or the like. In this case, too, it is possible to present optimal information to the user based on the model. it can.
  • description will be made by taking the driving of a vehicle as an example.
  • the environment for acquiring the log is not limited to the driving of the vehicle, and can be applied to various environments.
  • FIG. 1 is a schematic diagram illustrating a configuration of an information processing system 1000 according to an embodiment of the present disclosure.
  • This information processing system 1000 can be composed of components on the terminal 100 side and components on the cloud 200 side. Note that the sharing of roles between the components on the terminal 100 side and the components on the cloud 200 side shown in FIG. 1 is an example, and it is possible to arbitrarily set which side performs the processing. For example, the process of the automatic driving model extraction unit 204 may be performed on the terminal 100 side.
  • the terminal 100 includes a driving parameter acquisition unit (sensing / model selection parameter acquisition unit) 102, a driving model automatic selection / generation unit 106, a reference driving model acquisition unit 108, a driving model selection UI 110, an expected driving behavior. It is configured to include a prediction unit 112, an expected driving behavior display unit 114, an operation state acquisition unit 116, an information input unit 118, a UI feedback calculation unit 120, and a feedback display unit 122.
  • a driving history acquisition unit 202 On the cloud 200 side, a driving history acquisition unit 202, an automatic driving model extraction unit 204, and a driving model database (DB) 206 are provided.
  • DB driving model database
  • the components of the terminal 100 and the cloud 200 illustrated in FIG. 1 can be configured by a circuit (hardware) or a central processing unit such as a CPU and a program (software) for causing the central processing unit to function.
  • the traveling parameter acquisition unit 102 of the terminal 100 acquires various parameters when the vehicle is driven from various sensors.
  • the various parameters acquired by the traveling parameter acquisition unit 102 are sent to the cloud 200 as a traveling log, and are acquired by the traveling history acquisition unit 202.
  • the travel log may include context information described below.
  • the automatic driving model extraction unit 204 extracts a driving model from the driving log.
  • the extracted driving model is stored in the driving model database 206.
  • the driving model automatic selection / generation unit 106 of the terminal 100 generates a driving model or selects a driving model based on various parameters acquired by the traveling parameter acquisition unit 102. Specifically, the driving model automatic selection / generation unit 106 acquires the driving model stored in the driving model database 206 on the cloud 200 side, and changes the driving state of the vehicle based on the various parameters acquired by the traveling parameter acquisition unit 102. Select an optimal operation model according to the operation or generate an operation model. The selected or generated operation model is set as a reference operation model, and is acquired by the reference operation model acquisition unit 108. Note that the driving model automatic selection / generation unit 106 and the reference driving model acquiring unit 108 constitute a “reference model acquiring unit” according to the present disclosure.
  • a plurality of reference driving models are selected or generated, and the user selects one model from the plurality of reference driving models using the driving model selection UI 110 to select one final reference driving model. May be.
  • the expected driving behavior prediction unit 112 predicts a driving behavior expected when the vehicle is driven by the reference driving model. Specifically, the expected driving behavior prediction unit 112 predicts a driving behavior expected when the vehicle is driven by the reference driving model based on the driving state of the vehicle acquired by the driving state acquisition unit 116.
  • the expected driving behavior display unit 114 performs a process of displaying the driving behavior predicted by the expected driving behavior prediction unit 112 on a display device.
  • the driving state acquisition unit 116 acquires various parameters indicating the driving state of the vehicle.
  • the driving state acquisition unit 116 may be configured in common with the traveling parameter acquisition unit 102.
  • the ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ UI feedback calculation unit 120 calculates a difference between the driving behavior predicted by the expected driving behavior prediction unit 112 and the driving state of the vehicle acquired by the driving state acquisition unit 116 as a feedback amount.
  • the feedback display unit 122 performs a process of displaying the amount of feedback calculated by the UI feedback calculation unit 120 on a display device.
  • FIG. 2 is a schematic diagram illustrating a process performed by the traveling parameter acquisition unit 102.
  • Input information detected by various sensors or the like is input to the traveling parameter acquisition unit 102.
  • the input information includes vehicle operation information (accelerator, brake, steering wheel, wiper, car navigation).
  • the input information includes various information such as a camera included in the vehicle, a laser imaging detection and ranging (LIDAR), a positioning / IMU (Inertial Measurement Unit), a RADAR, a voice microphone, a seat occupancy sensor, and a gasoline remaining amount sensor.
  • the input information includes information on a mode designated by the user, information on a life log application, a calendar and the like, information on weather, and user profile information.
  • the user profile information may include, for example, the grade of the car insurance.
  • the input information is not particularly limited, and any information can be used as the input information. Further, these pieces of input information may be obtained from a terminal used by a user such as a smartphone.
  • the traveling parameter acquisition unit 102 processes the input information and acquires context information.
  • context information various types of information indicating the status of the vehicle are obtained. For example, as context information, information indicating a driver and its state (information indicating who the driver is, emotions of the driver, etc.), information indicating a fellow passenger and its state (who is a fellow passenger, Information indicating the number of passengers, information indicating the emotions of the passengers), information indicating a situation (dating, driving, practicing), information indicating a mood in the vehicle, and the like.
  • the context information includes information indicating the game stage, the user level, and the game mode (race, training, etc.).
  • the process of extracting the context information from the input information can be performed by a predetermined algorithm.
  • FIG. 3 is a schematic diagram illustrating processing performed by the automatic driving model extraction unit 204.
  • the automatic driving model extraction unit 204 extracts a driving model based on the driving log and the context information.
  • the automatic driving model extraction unit 204 performs clustering based on the driving log and the context information, and generates a plurality of different driving models.
  • a method of generating a driving model machine learning or another method other than machine learning (for example, a rule using a context and an if sentence) can be used.
  • the driving model A is a driving model (gentle mode) with high driving skill and safety
  • the driving model B is an aggressive driving model giving priority to the arrival time
  • the driving model C gives priority to energy efficiency.
  • It is a driving model.
  • various models can be set as a driving model obtained by clustering. For example, a driving model when a famous racer is driven, or in bad weather (rain, snow, strong wind, etc.)
  • Various operation models such as an operation model when driving can be set.
  • the automatic driving model extraction unit 204 extracts a driving model selection model used when selecting a driving model on the terminal 100 side, in addition to the driving model.
  • the driving model selection model corresponds to a “hidden element” in machine learning, and is a model for selecting a driving model corresponding to a user from driving models extracted by clustering.
  • the operation model selection model will be described later in detail.
  • clustering in the present disclosure is defined as including a process of extracting a driving model and a process of extracting a driving model selection model, as well as a process of extracting a driving model.
  • FIG. 4 is a schematic diagram illustrating a process performed by the automatic operation model selection / generation unit 106.
  • the driving model automatic selection / generation unit 106 acquires the driving model and the driving model selection model stored in the driving model database 206 on the cloud 200 side, and based on the various parameters acquired by the traveling parameter acquisition unit 102, the driving state of the vehicle. Select the optimal driving model according to By using the driving model selection model, it is possible to select a driving model that matches the characteristics of the user.
  • the driving model automatic selection / generation unit 106 acquires the driving model and the driving model selection model stored in the driving model database 206 on the cloud 200 side, and responds to the driving state of the vehicle based on the acquired driving model. It is also possible to generate an optimal driving model. In this case, the driving model automatic selection / generation unit 106 may generate an optimal driving model according to the driving state of the vehicle from a plurality of driving models stored in the driving model database 206 on the cloud 200 side. Also in this case, by using the driving model selection model, it is possible to select a driving model that matches the characteristics of the user. As described above, the driving model automatic selection / generation unit 106 selects or generates a driving model having discrete or continuous characteristics from the driving models stored in the driving model database 206. The operation model selected or generated by the operation model automatic selection / generation unit 106 is acquired by the reference operation model acquisition unit 108 as a reference operation model.
  • FIG. 5 is a schematic diagram illustrating a process performed by the operation model selection UI 110.
  • the driving model selection UI 110 selects a plurality of reference driving models selected or generated by the driving model automatic selection / generation unit 106 according to the user's selection.
  • the driving model selection UI 110 shows a feature that serves as a criterion when the user selects each of the plurality of reference driving models.
  • the criterion of the driving model is presented to the user such as “Select driving model A when performing safe driving, and select driving model C when performing driving giving priority to energy efficiency”.
  • the driving model selection UI 110 makes a selection according to the user's selection, one reference driving model is selected, and the reference driving model obtaining unit 108 obtains it.
  • FIG. 6 is a schematic diagram showing an example of a display by the expected driving behavior display unit 114. As described above, the expected driving behavior display unit 114 performs a process of displaying the driving behavior predicted by the expected driving behavior prediction unit 112. FIG. 6 is a schematic diagram showing a screen displayed on the display device by the display processing by the expected driving behavior display unit 114.
  • Display of expected trajectory according to driving model the environment ahead in the traveling direction is displayed on the screen, and the expected trajectory according to the driving model is indicated by arrow 10 on the screen.
  • display direction indicator expectation the direction in which the direction indicator should be emitted is indicated by arrow 12.
  • display for suggesting sound reproduction recommended songs and artists are shown for music to be reproduced.
  • display for proposing communication with another vehicle a display for recommending that a hazard be issued to another vehicle is shown.
  • display for suggesting posting of a highlight moving image a display recommending that a moving image such as at the time of cornering is posted with a highlight when the driving is on a game is shown.
  • the “display suggesting communication by chat” a display recommending that a message be sent to another vehicle is shown.
  • the “display for proposing communication with another vehicle” and the “display for proposing communication by chat” are both displays corresponding to a compassionate operation with respect to another vehicle, and are concepts included in the gentle mode model.
  • 3.2. 7A and 7B are schematic diagrams illustrating examples of display by the feedback display unit 122.
  • the UI feedback calculation unit 120 calculates the difference between the driving behavior predicted by the expected driving behavior prediction unit 112 and the driving state of the vehicle acquired by the driving state acquisition unit 116 as a feedback amount.
  • the feedback display unit 122 displays the difference (mismatch) between the past actual trajectory and the proposed trajectory with an arrow or the like.
  • an arrow 14 indicates that the past trajectory was to the right of the proposed trajectory and should have traveled further to the left.
  • an arrow 16 indicates that the past speed is lower than the proposed speed and the vehicle should be driven at a higher speed.
  • Case 1 a situation is assumed in which a child is getting sick when driving at a slow speed because a child is riding in the vehicle.
  • an aggressive driving model is generated and used by the user to detect that the child's condition has deteriorated and to hurry to the hospital or rest area.
  • the detection of the child's illness is detected based on an image obtained by the camera, a voice obtained by the audio microphone, and other information obtained by the sensor.
  • x, z) can be learned. Furthermore, in the learning process, it is also possible to obtain a posterior probability p (z
  • z learns with the objective function of maximizing mutual information and imitating behavior data.
  • the attribute, state, and the like of the actor are extracted as the hidden state z from the large amount of action data
  • the hidden state z (attribute, state) is estimated at the time of execution, and the hidden state z and the input x from the environment are considered.
  • the action output y at the time can be determined.
  • the action output y is obtained from the input x.
  • the input x includes the above-described input information, context information obtained from the input information, and the like.
  • the action output y is information related to vehicle driving, such as the steering angle of the steering wheel and the amount of depression of the accelerator pedal. Machine learning is performed so that the difference between the action output y and the correct answer y 'is reduced. Note that the correct answer y 'is teacher data.
  • the action output y changes according to the hidden state z. That is, the action output y is determined by the input x and the hidden state z, and the function f that outputs the action output y from the input x changes its behavior depending on the hidden state z.
  • a function indicating the relationship between the input x and the action output y can be obtained by learning, and a function defining the hidden element z can be obtained by learning.
  • the function that defines the hidden element z corresponds to the above-described operation model selection model.
  • a driving model selection model corresponding to the hidden element z is obtained at the same time.
  • the driving model automatic selection / generation unit 106 of the terminal 100 selects and generates a driving model, the driving model is selected and generated based on the attributes and states of the user using the driving model selection model. .
  • clustering refers to processing corresponding to acquisition of a hidden element z and an action output y.
  • the hidden state z obtained in the learning process represents the type and properties of the model, and corresponds to the above-described latent structure.
  • the input x in the case 1 “generating an aggressive driving model when the child becomes ill and driving at a slow speed because the child is riding on the vehicle” is the input information described in FIG. This is context information.
  • information about the condition of the child acquired by the biological sensor, the in-vehicle camera, and the in-vehicle microphone corresponds to the input x.
  • the change from the safe driving state to the hurrying state corresponds to the hidden state z.
  • the driving behavior (trajectory of the vehicle, other operation commands (steering angle, accelerator, brake, etc.)) corresponds to the behavior output y.
  • a driving model that prioritizes the arrival time and a driving model that performs aggressive driving are selected or generated based on the hidden state z in which the change from the safe driving state to the hurrying state is performed. Therefore, the expected driving behavior and the feedback amount described above can be displayed based on the selected or generated reference driving model.
  • Case 2 “when running normally on a sunny day, a sudden rainfall is detected by a sensor and the driving model is changed to a driving model suitable for a rainy day” is shown in FIG.
  • the input x corresponds to weather information obtained from a temperature sensor, a smartphone, and the like, road slip detection information, and an image (road surface condition, etc.) obtained by a camera.
  • Changing from an operation state suitable for a sunny day to an operation state suitable for a rainy day corresponds to a hidden state z.
  • the driving behavior (trajectory of the vehicle, other operation commands (steering angle, accelerator, brake, etc.)) corresponds to the behavior output y.
  • a driving model in bad weather is selected or generated based on a hidden state z corresponding to changing from a driving state suitable for a sunny day to a driving state suitable for a rainy day. You. Therefore, the expected driving behavior and the feedback amount described above can be displayed based on the selected or generated reference driving model.
  • the input x corresponds to the image acquired by the camera in the vehicle, the audio acquired by the audio microphone, and the biological information acquired by the biological sensor.
  • a model for playing up-tempo music is selected or generated based on a hidden state z corresponding to changing from a state of wanting a calm atmosphere to a state of wanting to excite the atmosphere. Therefore, the expected driving behavior and the feedback amount described above can be displayed based on the model selected or generated in this manner. In this case, it is possible to propose the reproduction of the music, such as “display suggesting the reproduction of music” in FIG.
  • An information processing device comprising: (2) The reference model acquiring unit generates or selects the reference model based on a plurality of the models extracted based on the parameters and a selection model for selecting the plurality of models, according to (1).
  • An information processing apparatus according to claim 1.
  • the information processing device (4) The information processing device according to (3), wherein the model extraction unit extracts a plurality of the models based on the parameters and extracts the selected model. (5) The model extraction unit extracts the model by learning an action output for the parameter as an input based on teacher data, and the selected model corresponds to a hidden element obtained at the time of the learning. The information processing device according to 4). (6) The information processing apparatus according to any one of (1) to (5), wherein the reference model acquisition unit acquires one reference model by a user's selection from a plurality of generated or selected reference models. . (7) The information processing device according to (3), further including a behavior prediction unit that predicts a behavior expected according to the situation based on the reference model.
  • the information processing device further including a behavior display processing unit that performs a process for displaying the behavior predicted by the behavior prediction unit.
  • a comparison unit for comparing the actual operation state and the predicted behavior A comparison result display processing unit that performs processing for displaying a result of the comparison by the comparison unit.
  • the information processing device further comprising: (10) A parameter acquisition unit for acquiring the collected parameters, By performing clustering based on the parameters, a plurality of models are extracted, and a model extraction unit that extracts a selection model used when selecting the plurality of models on the terminal side,
  • An information processing device comprising: (11) Retrieving the collected parameters; Based on the model extracted based on the parameters, to generate or select a recommended reference model depending on the situation,
  • An information processing method including:
  • Driving parameter acquisition unit 106 Driving model automatic generation / selection unit 108 Reference driving model acquisition unit 112
  • UI feedback calculation unit 122
  • Feedback display unit 202 Travel history acquisition unit 204 Automatic driving model Extraction unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本開示によれば、センサから収集されたパラメータを取得するパラメータ取得部(102)と、前記パラメータに基づいて抽出されたモデルに基づいて、状況に応じて推奨される参照モデルを生成又は選択する参照モデル取得部(108)と、を備える、情報処理装置が提供される。この構成により、運転時の様々な要因、外乱等を考慮した期待値をドライバが得ることが可能となる。

Description

情報処理装置及び情報処理方法
 本開示は、情報処理装置及び情報処理方法に関する。
 従来、例えば下記の非特許文献1には、人間などによるデモンストレーションの基礎となる潜在的構造をよりよく捕捉し、データの意味的に意味のある要因を回復することを想定した技術が記載されている。
Yunzhu Li, Jiaming Song, Stefano Ermon、"InfoGAIL:Interpretable Imitation Learning from Visual Demonstrations"、[平成30年6月29日検索]、インターネット〈URL: https://arxiv.org/abs/1703.08840〉
 例えば車両を運転する際に、理想的な軌道をドライバが知ることができれば、最適な軌道で運転を行うことができる。特に、運転時の様々な要因、外乱等を考慮した期待値をドライバが得ることができれば、運転の容易性が格段に向上する。
 そこで、運転時の様々な要因、外乱等を考慮した期待値をユーザが得ることが望まれていた。
 本開示によれば、センサから収集されたパラメータを取得するパラメータ取得部と、前記パラメータに基づいて抽出されたモデルに基づいて、状況に応じて推奨される参照モデルを生成又は選択する参照モデル取得部と、を備える、情報処理装置が提供される。
 また、本開示によれば、センサから収集されたパラメータを取得するパラメータ取得部と、前記パラメータに基づいてクラスタリングを行うことで、複数のモデルを抽出するとともに、複数の前記モデルを端末側で選択する際に使用する選択モデルを抽出するモデル抽出部と、を備える、情報処理装置が提供される。
 また、本開示によれば、センサから収集されたパラメータを取得することと、前記パラメータに基づいて抽出されたモデルに基づいて、状況に応じて推奨される参照モデルを生成又は選択することと、を含む、情報処理方法が提供される。
 本開示によれば、運転時の様々な要因、外乱等を考慮した期待値をユーザが得ることができる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理システム1000の構成を示す模式図である。 走行パラメータ取得部102で行われる処理を示す模式図である。 自動運転モデル抽出部204で行われる処理を示す模式図である。 運転モデル自動選択・生成部106で行われる処理を示す模式図である。 運転モデル選択UI110で行われる処理を示す模式図である。 期待運転挙動表示部114による表示の例を示す模式図である。 フィードバック表示部122による表示の例を示す模式図である。 フィードバック表示部122による表示の例を示す模式図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.本開示の概要
 2.システムの構成例
  2.1.システムの全体構成
  2.2.走行パラメータ取得部102で行われる処理
  2.3.自動運転モデル抽出部204で行われる処理
  2.4.運転モデル自動選択・生成部106で行われる処理
  2.5.運転モデル選択UI110で行われる処理
 3.表示の例
  3.1.期待運転挙動表示部114による表示の例
  3.2.フィードバック表示部122による表示の例
 4.コンテキストと運転挙動選択の例
 5.機械学習の方法
  5.1.基本的原理
  5.2.具体例
 1.本開示の概要
 本開示は、例えば車両を運転する際のログを取得し、取得したログから運転モデルを抽出し、現在の車両の運転状態と運転モデルとの比較によりユーザに情報を提示する技術に関する。なお、モデルは、運転のモデルに限定されるものではなく、再生音楽、他車とのコミュニケーション等に関するモデルであっても良く、この場合もモデルに基づいてユーザに最適な情報を提示することができる。また、以下では、車両の運転を例に挙げて説明を行うが、ログを取得する環境は車両の運転に限られるものではなく、様々な環境に適用が可能である。
 2.システムの構成例
  2.1.システムの全体構成
 図1は、本開示の一実施形態に係る情報処理システム1000の構成を示す模式図である。この情報処理システム1000は、端末100側の構成要素とクラウド200側の構成要素から構成されることができる。なお、図1に示した端末100側の構成要素とクラウド200側の構成要素の役割分担は一例であり、処理をいずれの側で行うかは任意に設定できる。例えば、端末100側で自動運転モデル抽出部204の処理を行っても良い。
 図1に示すように、端末100は、走行パラメータ取得部(センシング・モデル選択パラメータ取得部)102、運転モデル自動選択・生成部106、参照運転モデル取得部108、運転モデル選択UI110、期待運転挙動予測部112、期待運転挙動表示部114、運転状態取得部116、情報入力部118、UIフィードバック計算部120、フィードバック表示部122、を有して構成されている。
 クラウド200側では、走行履歴取得部202、自動運転モデル抽出部204、運転モデルデータベース(DB)206、が備えられている。なお、図1に示す端末100、クラウド200の構成要素は、回路(ハードウェア)、またはCPUなどの中央演算処理装置とこれを機能させるためのプログラム(ソフトウェア)から構成することができる。
 端末100の走行パラメータ取得部102は、各種センサから車両が運転する際の各種パラメータを取得する。走行パラメータ取得部102が取得した各種パラメータは、走行ログとしてクラウド200に送られ、走行履歴取得部202により取得される。走行ログには、後述するコンテキストの情報が含まれていても良い。自動運転モデル抽出部204は、走行ログから運転モデルを抽出する。抽出された運転モデルは、運転モデルデータベース206に蓄積される。
 端末100の運転モデル自動選択・生成部106は、走行パラメータ取得部102が取得した各種パラメータに基づき、運転モデルを生成し、または運転モデルを選択する。具体的に、運転モデル自動選択・生成部106は、クラウド200側の運転モデルデータベース206に蓄積された運転モデルを取得し、走行パラメータ取得部102が取得した各種パラメータに基づき、車両の運転状態に応じた最適な運転モデルを選択し、または運転モデルを生成する。選択、または生成された運転モデルは、参照運転モデルとされ、参照運転モデル取得部108にて取得される。なお、運転モデル自動選択・生成部106と参照運転モデル取得部108により、本開示に係る「参照モデル取得部」が構成される。
 なお、参照運転モデルとして複数が選択または生成され、運転モデル選択UI110を用いてユーザが複数の参照運転モデルの中から1のモデルを選択することで、最終的な1の参照運転モデルを選択しても良い。
 期待運転挙動予測部112は、参照運転モデルにより運転を行った場合に期待される運転挙動を予測する。具体的に、期待運転挙動予測部112は、運転状態取得部116が取得した車両の運転状態に基づき、参照運転モデルにより運転を行った場合に期待される運転挙動を予測する。期待運転挙動表示部114は、期待運転挙動予測部112が予測した運転挙動を、表示装置に表示する処理を行う。
 運転状態取得部116は、車両の運転状態を示す各種パラメータを取得する。なお、運転状態取得部116は、走行パラメータ取得部102と共通に構成されていても良い。
 UIフィードバック計算部120は、期待運転挙動予測部112が予測した運転挙動と、運転状態取得部116が取得した車両の運転状態との差分をフィードバック量として計算する。フィードバック表示部122は、UIフィードバック計算部120が計算したフィードバック量を表示装置に表示する処理を行う。
  2.2.走行パラメータ取得部102で行われる処理
 図2は、走行パラメータ取得部102で行われる処理を示す模式図である。走行パラメータ取得部102には、各種センサ等が検出した入力情報が入力される。例えば、入力情報として、車両の操作情報(アクセル、ブレーキ、ハンドル、ワイパー、カーナビゲーション)が挙げられる。また、入力情報として、車両が備えるカメラ、LiDAR(Laser Imaging Detection and Ranging)、測位・IMU(Inertial MeasurementUnit)、RADAR、音声マイク、シート着席センサ、ガソリン残量センサ、などの各種情報が挙げられる。また、入力情報として、ユーザが指定したモードに関する情報、ライフログアプリケーション、カレンダー等の情報、天気に関する情報、ユーザのプロファイル情報が挙げられる。ユーザのプロファイル情報は、例えば自動車保険の等級を含むものであっても良い。入力情報は特に限定されるものではなく、あらゆる情報を入力情報とすることができる。また、これらの入力情報は、スマートフォンなどのユーザが利用する端末から取得されるものであっても良い。
 走行パラメータ取得部102は、入力情報を処理し、コンテキスト情報を取得する。コンテキスト情報として、車両の状況を示す各種情報が取得される。例えば、コンテキスト情報として、運転者およびその状態を示す情報(運転者が誰であるか、運転者の感情などを示す情報)、同乗者およびその状態を示す情報(同乗者が誰であるか、同乗者が何人であるか、同乗者の感情などを示す情報)、シチュエーション(デート中、ドライブ中、練習中)などを示す情報、車両内のムードを示す情報などが挙げられる。
 また、ユーザが実車両の運転ではなく、ゲーム上で運転を行っている場合は、コンテキスト情報として、ゲームのステージ、ユーザレベル、ゲームのモード(レース、トレーニングなど)を示す情報などが挙げられる。
 入力情報からコンテキスト情報を抽出する処理は、所定のアルゴリズムにより行うことができる。
  2.3.自動運転モデル抽出部204で行われる処理
 図3は、自動運転モデル抽出部204で行われる処理を示す模式図である。自動運転モデル抽出部204は、走行ログ、コンテキスト情報に基づき、運転モデルを抽出する。
 自動運転モデル抽出部204は、走行ログ、コンテキスト情報に基づいてクラスタリングを行い、異なる複数の運転モデルを生成する。運転モデルを生成する手法として、機械学習または機械学習以外の他の手法(例えば、コンテキストとif文を用いたルール等)を用いることができる。例えば、運転モデルAは、運転の熟練度、安全性が高い運転モデル(ジェントルモード)であり、運転モデルBは到達時間を優先したアグレッシブな運転モデルであり、運転モデルCはエネルギー効率を優先した運転モデルである。上記以外にも、クラスタリングにより得られる運転モデルとして、様々なモデルを設定することができ、例えば、著名なレーサが運転した場合の運転モデル、悪天候時(降雨時、降雪時、強風時等)に運転した場合の運転モデルなど様々な運転モデルを設定できる。
 また、自動運転モデル抽出部204は、運転モデルの他に、運転モデルを端末100側で選択する際に使用する運転モデル選択モデルを抽出する。運転モデル選択モデルは、機械学習における「隠れ要素」に相当するものであり、クラスタリングにより抽出された運転モデルのうち、ユーザに対応する運転モデルを選択するためのモデルである。運転モデル選択モデルについては、後で詳細に説明する。なお、後述するように、本開示における「クラスタリング」とは、運転モデルを抽出する処理とともに、運転モデル選択モデルを抽出する処理を含むものとして定義される。
  2.4.運転モデル自動選択・生成部106で行われる処理
 図4は、運転モデル自動選択・生成部106で行われる処理を示す模式図である。運転モデル自動選択・生成部106では、クラウド200側の運転モデルデータベース206に蓄積された運転モデル、運転モデル選択モデルを取得し、走行パラメータ取得部102が取得した各種パラメータに基づき、車両の運転状態に応じた最適な運転モデルを選択する。運転モデル選択モデルを用いることで、ユーザの特性に合わせた運転モデルを選択することができる。
 また、運転モデル自動選択・生成部106は、クラウド200側の運転モデルデータベース206に蓄積された運転モデル、運転モデル選択モデルを取得し、取得した運転モデルに基づいて、車両の運転状態に応じた最適な運転モデルを生成することもできる。この場合、運転モデル自動選択・生成部106は、クラウド200側の運転モデルデータベース206に蓄積された複数の運転モデルから、車両の運転状態に応じた最適な運転モデルを生成しても良い。この場合においても、運転モデル選択モデルを用いることで、ユーザの特性に合わせた運転モデルを選択することができる。このように、運転モデル自動選択・生成部106は、運転モデルデータベース206に蓄積された運転モデルに対し、離散的、または連続的な特性の運転モデルを選択又は生成する。運転モデル自動選択・生成部106により選択、または生成された運転モデルは、参照運転モデルとして、参照運転モデル取得部108にて取得される。
  2.5.運転モデル選択UI110で行われる処理
 図5は、運転モデル選択UI110で行われる処理を示す模式図である。運転モデル選択UI110では、運転モデル自動選択・生成部106で選択、または生成された複数の参照運転モデルについて、ユーザの選択に応じてモデル選択を行う。この際、運転モデル選択UI110には、複数の参照運転モデルのそれぞれについて、ユーザが選択する際の判断基準となる特徴が示される。例えば、「安全運転を行う場合は運転モデルAを選択し、エネルギー効率を優先した運転を行う場合は運転モデルCを選択してください」のように運転モデルの判断基準がユーザに提示される。ユーザの選択に応じて運転モデル選択UI110が選択を行うことにより、1の参照運転モデルが選択され、参照運転モデル取得部108にて取得される。
 3.表示の例
  3.1.期待運転挙動表示部114による表示の例
 図6は、期待運転挙動表示部114による表示の例を示す模式図である。上述のように、期待運転挙動表示部114は、期待運転挙動予測部112が予測した運転挙動を表示する処理を行う。図6は、期待運転挙動表示部114による表示処理により、表示装置に表示された画面を示す模式図である。
 具体的に、図6では、「運転モデルに従った期待軌道の表示」、「方向指示器の期待を表示」、「音声の再生を提案する表示」、「他の車両とのコミュニケーションを提案する表示」、「ハイライト動画の投稿を提案する表示」、「チャットによるコミュニケーションを提案する表示」の6通りの表示の例を示している。
 「運転モデルに従った期待軌道の表示」では、画面上に進行方向前方の環境が表示され、運転モデルに従った期待軌道が画面上に矢印10で示されている。「方向指示器の期待を表示」では、方向指示器を出すべき方向が矢印12で示されている。「音声の再生を提案する表示」では、再生する音楽に関し、推奨する曲、アーティストが示されている。「他の車両とのコミュニケーションを提案する表示」では、他車に対してハザードを出すことを推奨する表示が示されている。「ハイライト動画の投稿を提案する表示」では、運転がゲーム上での場合に、コーナリング時などの動画をハイライトで投稿することを推奨する表示が示されている。「チャットによるコミュニケーションを提案する表示」では、他車両にメッセージを送ることを推奨する表示が示されている。「他の車両とのコミュニケーションを提案する表示」、「チャットによるコミュニケーションを提案する表示」は、いずれも他車に対する思いやりの動作に対応する表示であり、ジェントルモードのモデルに含まれる概念である。
  3.2.フィードバック表示部122による表示の例
 図7A及び図7Bは、フィードバック表示部122による表示の例を示す模式図である。上述のようにUIフィードバック計算部120は、期待運転挙動予測部112が予測した運転挙動と、運転状態取得部116が取得した車両の運転状態との差分をフィードバック量として計算する。フィードバック表示部122は、過去の実際の軌跡と提案された軌跡の差分(ミスマッチ)を矢印などで表示する。
 図7Aに示す例では、過去の軌跡が提案された軌跡よりも右であり、もっと左を走行するべきであったことを矢印14で示している。また、図7Bに示す例では、過去の速度が提案された速度よりも遅く、もっと速い速度で走行するべきであったことを矢印16で示している。
 4.コンテキストと運転挙動選択の例
 以下では、コンテキストと運転挙動選択について、複数の事例を説明する。
 (事例1)
 事例1では、車両に子供が乗っているのでゆっくりとした速度で運転していた場合に、子供の具合が悪くなった状況を想定する。この場合、子供の具合が悪くなったことを検知し、病院や休憩所まで急ぐため、アグレッシブな運転モデルが生成され、ユーザに使用される。子供の具合が悪くなったことの検知は、カメラが取得した画像、音声マイクが取得した音声、その他のセンサが取得した情報により検知される。
 (事例2)
 事例2では、晴れの日に普通に走行していた場合に、急に雨が降ってきた状況を想定する。この場合、雨が降ってきたことをセンサで検知し、雨の日に適した運転モデルに変更される。
 (事例3)
 事例3では、車内にローテンポの曲が再生されていた場合に、車内の雰囲気が険悪になった状況を想定する。この場合、車内の雰囲気を音声、画像などで検知し、アップテンポの楽しい感じの曲を再生する。
 (事例4)
 事例4では、ゲームの場合に、プレーヤーがコーナリング練習中だったが、うまくできてきた状況を想定する。この場合、ドリフトのための軌跡を画面上に表示する。表示した軌跡は、他のユーザと共有することができる。
 5.機械学習の方法
  5.1.基本的原理
 以下では、自動運転モデル抽出部204において、機械学習により運転モデルを抽出する場合の処理について説明する。なお、機械学習の方法は特に限定されるものではないが、以下では前述した非特許文献1に記載されたInfoGAILの手法により行う場合について概要を説明する。
 環境からの入力をx、行動出力をyとしたとき、InfoGAILのように隠れ状態zを考慮するモデルにおいては、行動ポリシーπ(y|x,z)を学習することができる。更に、その学習過程において、隠れ状態zに関する事後確率p(z|x、y)モデルも獲得することが可能である。
 例えば、InfoGAILでは、zは相互情報量の最大化と行動データの模倣を目的関数にして学習する。こうして、大量の行動データから、その行動者の属性、状態などを隠れ状態zとして抽出し、実行時に隠れ状態z(属性、状態)を推定し、隠れ状態zと環境からの入力xを考慮したときの行動出力yの決定が可能である。
 入力xから行動出力yが得られる。入力xは、上述した入力情報、入力情報から得られるコンテキスト情報などを含む。行動出力yは、ステアリングの操舵角、アクセルペダルの踏み込み量など、車両運転に関わる情報である。行動出力yと正解y’との差が少なくなるように、機械学習が行われる。なお、正解y’は教師データである。
 この際、隠れ状態zに応じて行動出力yが変わる。つまり、行動出力yは、入力xと隠れ状態zによって定まり、入力xから行動出力yを出力する関数fは、隠れ状態zによって振る舞いが変わることになる。
 従って、InfoGAILによる機械学習では、入力xと行動出力yとの関係性を示す関数を学習により得るとともに、隠れ要素zを規定する関数を学習により得ることができる。この隠れ要素zを規定する関数は、上述した運転モデル選択モデルに相当する。
 例えば、特定のユーザが車両を運転した場合に、自動運転モデル抽出部204が走行ログから運転モデルをクラスタリングすると、同時に、隠れ要素zに対応する運転モデル選択モデルが得られる。端末100側の運転モデル自動選択・生成部106が運転モデルを選択、生成する場合には、運転モデル選択モデルを用いて、ユーザの属性、状態などに基づいて運転モデルの選択、生成が行われる。
 本開示において、「クラスタリング」とは、隠れ要素zと行動出力yの獲得に対応する処理をいう。学習過程で獲得される隠れ状態zは、モデルの種類、性質を表しており、前述した潜在的構造に対応する。
  5.2.具体例
 以下では、上述した「4.コンテキストと運転挙動選択の例」の項目で説明した事例1~3について、入力x、行動出力y、隠れ状態zを当てはめて説明する。
 (事例1)
 事例1「車両に子供が乗っているのでゆっくりとした速度で運転していた場合に、子供の具合が悪くなり、アグレッシブな運転モデルを生成」における入力xは、図2で説明した入力情報、コンテキスト情報である。特に、事例1の場合は、生体センサ、車内カメラ、車内マイクにより取得された子供の具合に関する情報が入力xに相当する。
 また、安全運転の状態から急いでいる状態への変化が隠れ状態zに相当する。また、運転挙動(車両の軌跡、その他の操作コマンド(操舵角、アクセル、ブレーキ等))が行動出力yに相当する。
 事例1の場合、安全運転の状態から急いでいる状態への変化が隠れ状態zに基づいて、到達時間を優先した運転モデル、アグレッシブに運転を行う運転モデルが選択又は生成される。従って、このようにして選択又は生成された参照運転モデルに基づいて、上述した期待運転挙動、フィードバック量の表示を行うことができる。
 (事例2)
 事例2「晴れの日に普通に走行していた場合に、急に雨が降ってきたことをセンサで検知し、雨の日に適した運転モデルに変更する」における入力xは、図2で説明した入力情報、コンテキスト情報である。特に、事例2の場合は、温度センサー、スマートフォン等から得られる天気の情報、路面のスリップの検知情報、カメラが取得した画像(路面状況など)が入力xに相当する。
 また、晴れの日に適した運転状態から雨の日に適した運転状態に変更することが隠れ状態zに相当する。また、運転挙動(車両の軌跡、その他の操作コマンド(操舵角、アクセル、ブレーキ等))が行動出力yに相当する。
 事例2の場合、晴れの日に適した運転状態から雨の日に適した運転状態に変更することに相当する隠れ状態zに基づいて、悪天候時(降雨時)の運転モデルが選択又は生成される。従って、このようにして選択又は生成された参照運転モデルに基づいて、上述した期待運転挙動、フィードバック量の表示を行うことができる。
 (事例3)
 事例3「車内にローテンポの曲が再生されていた場合に、車内の雰囲気が険悪になったのでアップテンポの楽しい感じの曲を再生する」における入力xは、図2で説明した入力情報、コンテキスト情報である。特に、事例3の場合は、車内のカメラが取得した画像、音声マイクが取得した音声、生体センサーが取得した生体情報が入力xに相当する。
 また、落ち着いた雰囲気にしたい状態から雰囲気を盛り上げたい状態に変更することが隠れ状態zに相当する。また、ある音楽を再生することを提案することが行動出力yに相当する。
 事例3の場合、落ち着いた雰囲気にしたい状態から雰囲気を盛り上げたい状態に変更することに相当する隠れ状態zに基づいて、アップテンポの曲を再生するモデルが選択又は生成される。従って、このようにして選択又は生成されたモデルに基づいて、上述した期待運転挙動、フィードバック量の表示を行うことができる。この場合、図6の「音楽の再生を提案する表示」のように、曲の再生を提案することができる。
 (事例4)
 事例4「ゲームでプレーヤーがコーナリング練習中だったが、うまくできてきたため、ドリフトのための軌跡を画面上に表示する」における入力xは、ゲーム内観測、ユーザーの練習履歴、ゲームのモード等の情報である。
 また、コーナリング練習状態からドリフトの練習し始め状態へ変更することが隠れ状態zに相当する。また、また、ある音楽を再生することを提案することが行動出力yに相当する。
 事例4の場合、コーナリング練習状態からドリフトの練習し始め状態へ変更することに相当する隠れ状態zに基づいて、ある音楽を再生することを提案するモデルが選択又は生成される。従って、このようにして選択又は生成されたモデルに基づいて、上述した期待運転挙動、フィードバック量の表示を行うことができる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 収集されたパラメータを取得するパラメータ取得部と、
 前記パラメータに基づいて抽出されたモデルに基づいて、状況に応じて推奨される参照モデルを生成又は選択する参照モデル取得部と、
 を備える、情報処理装置。
(2)
 前記参照モデル取得部は、前記パラメータに基づいて抽出された複数の前記モデルと、複数の前記モデルを選択するための選択モデルに基づいて、前記参照モデルを生成又は選択する、前記(1)に記載の情報処理装置。
(3)
 前記パラメータに基づいてクラスタリングを行うことで複数の前記モデルを抽出するモデル抽出部を備える、前記(2)に記載の情報処理装置。
(4)
 前記モデル抽出部は、前記パラメータに基づいて、複数の前記モデルを抽出するとともに、前記選択モデルを抽出する、前記(3)に記載の情報処理装置。
(5)
 前記モデル抽出部は、入力である前記パラメータに対する行動出力を教師データに基づいて学習することで前記モデルを抽出し、前記選択モデルは、前記学習の際に得られる隠れ要素に対応する、前記(4)に記載の情報処理装置。
(6)
 前記参照モデル取得部は、生成又は選択した複数の前記参照モデルの中から、ユーザの選択により1の前記参照モデルを取得する、前記(1)~(5)のいずれかに記載の情報処理装置。
(7)
 前記参照モデルに基づいて、前記状況に応じて期待される挙動を予測する挙動予測部を更に備える、前記(3)に記載の情報処理装置。
(8)
 前記挙動予測部が予測した挙動を表示するための処理を行う挙動表示処理部を更に備える、前記(7)に記載の情報処理装置。
(9)
 実際の運転状態と予測した前記挙動とを比較する比較部と、
 前記比較部による比較の結果を表示するための処理を行う比較結果表示処理部と、
 を更に備える、前記(8)に記載の情報処理装置。
(10)
 収集されたパラメータを取得するパラメータ取得部と、
 前記パラメータに基づいてクラスタリングを行うことで、複数のモデルを抽出するとともに、複数の前記モデルを端末側で選択する際に使用する選択モデルを抽出するモデル抽出部と、
 を備える、情報処理装置。
(11)
 収集されたパラメータを取得することと、
 前記パラメータに基づいて抽出されたモデルに基づいて、状況に応じて推奨される参照モデルを生成又は選択することと、
 を含む、情報処理方法。
 102  走行パラメータ取得部
 106  運転モデル自動生成・選択部
 108  参照運転モデル取得部
 112  期待運転挙動予測部
 114  期待運転挙動表示処理部
 120  UIフィードバック計算部
 122  フィードバック表示部
 202  走行履歴取得部
 204  自動運転モデル抽出部
 

Claims (11)

  1.  収集されたパラメータを取得するパラメータ取得部と、
     前記パラメータに基づいて抽出されたモデルに基づいて、状況に応じて推奨される参照モデルを生成又は選択する参照モデル取得部と、
     を備える、情報処理装置。
  2.  前記参照モデル取得部は、前記パラメータに基づいて抽出された複数の前記モデルと、複数の前記モデルを選択するための選択モデルに基づいて、前記参照モデルを生成又は選択する、請求項1に記載の情報処理装置。
  3.  前記パラメータに基づいてクラスタリングを行うことで複数の前記モデルを抽出するモデル抽出部を備える、請求項2に記載の情報処理装置。
  4.  前記モデル抽出部は、前記パラメータに基づいて、複数の前記モデルを抽出するとともに、前記選択モデルを抽出する、請求項3に記載の情報処理装置。
  5.  前記モデル抽出部は、入力である前記パラメータに対する行動出力を教師データに基づいて学習することで前記モデルを抽出し、前記選択モデルは、前記学習の際に得られる隠れ要素に対応する、請求項4に記載の情報処理装置。
  6.  前記参照モデル取得部は、生成又は選択した複数の前記参照モデルの中から、ユーザの選択により1の前記参照モデルを取得する、請求項1に記載の情報処理装置。
  7.  前記参照モデルに基づいて、前記状況に応じて期待される挙動を予測する挙動予測部を更に備える、請求項3に記載の情報処理装置。
  8.  前記挙動予測部が予測した挙動を表示するための処理を行う挙動表示処理部を更に備える、請求項7に記載の情報処理装置。
  9.  実際の運転状態と予測した前記挙動とを比較する比較部と、
     前記比較部による比較の結果を表示するための処理を行う比較結果表示処理部と、
     を更に備える、請求項8に記載の情報処理装置。
  10.  収集されたパラメータを取得するパラメータ取得部と、
     前記パラメータに基づいてクラスタリングを行うことで、複数のモデルを抽出するとともに、複数の前記モデルを端末側で選択する際に使用する選択モデルを抽出するモデル抽出部と、
     を備える、情報処理装置。
  11.  収集されたパラメータを取得することと、
     前記パラメータに基づいて抽出されたモデルに基づいて、状況に応じて推奨される参照モデルを生成又は選択することと、
     を含む、情報処理方法。
     
PCT/JP2019/025114 2018-06-29 2019-06-25 情報処理装置及び情報処理方法 WO2020004375A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/254,213 US20210272020A1 (en) 2018-06-29 2019-06-25 Information processing apparatus and information processing method
JP2020527536A JP7331850B2 (ja) 2018-06-29 2019-06-25 情報処理装置及び情報処理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-124085 2018-06-29
JP2018124085 2018-06-29

Publications (1)

Publication Number Publication Date
WO2020004375A1 true WO2020004375A1 (ja) 2020-01-02

Family

ID=68986668

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/025114 WO2020004375A1 (ja) 2018-06-29 2019-06-25 情報処理装置及び情報処理方法

Country Status (3)

Country Link
US (1) US20210272020A1 (ja)
JP (1) JP7331850B2 (ja)
WO (1) WO2020004375A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114286151A (zh) * 2020-09-28 2022-04-05 马自达汽车株式会社 视频编辑装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3650297B1 (en) * 2018-11-08 2023-06-14 Bayerische Motoren Werke Aktiengesellschaft Method and apparatus for determining information related to a lane change of a target vehicle, and computer program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014075091A (ja) * 2012-10-05 2014-04-24 Toyota Motor Corp 車両の交差点通過時のための運転支援装置
JP2015170126A (ja) * 2014-03-06 2015-09-28 株式会社豊田中央研究所 パラメータ学習装置、運転支援装置、及びプログラム
JP2017206152A (ja) * 2016-05-19 2017-11-24 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
JP2018097737A (ja) * 2016-12-15 2018-06-21 株式会社東芝 運転状態制御装置および運転状態制御方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7839292B2 (en) * 2007-04-11 2010-11-23 Nec Laboratories America, Inc. Real-time driving danger level prediction
JP2009157606A (ja) * 2007-12-26 2009-07-16 Toyota Central R&D Labs Inc ドライバ状態推定装置及びプログラム
JP6895634B2 (ja) * 2016-12-16 2021-06-30 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法、およびプログラム
US10546200B2 (en) * 2018-05-23 2020-01-28 Here Global B.V. Method, apparatus, and system for detecting a physical divider on a road segment
TWI701174B (zh) * 2018-06-06 2020-08-11 緯創資通股份有限公司 駕駛預測方法及其處理裝置與系統

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014075091A (ja) * 2012-10-05 2014-04-24 Toyota Motor Corp 車両の交差点通過時のための運転支援装置
JP2015170126A (ja) * 2014-03-06 2015-09-28 株式会社豊田中央研究所 パラメータ学習装置、運転支援装置、及びプログラム
JP2017206152A (ja) * 2016-05-19 2017-11-24 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
JP2018097737A (ja) * 2016-12-15 2018-06-21 株式会社東芝 運転状態制御装置および運転状態制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LI, YUNZHU ET AL.: "InfoGAIL: Interpretable Imitation Learning from Visual Demonstrations", 31ST CONFERENCE ON NEURAL INFORMATION PROCESSING SYSTEMS, 14 November 2017 (2017-11-14), XP055644289, Retrieved from the Internet <URL:https://arxiv.org/abs/1703.08840> [retrieved on 20190902] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114286151A (zh) * 2020-09-28 2022-04-05 马自达汽车株式会社 视频编辑装置

Also Published As

Publication number Publication date
US20210272020A1 (en) 2021-09-02
JPWO2020004375A1 (ja) 2021-09-02
JP7331850B2 (ja) 2023-08-23

Similar Documents

Publication Publication Date Title
US10222227B2 (en) Navigation systems and associated methods
Jordan Robots
CN108688676A (zh) 车辆驾驶支援系统以及车辆驾驶支援方法
US10937334B2 (en) Information providing system
JP2018027776A (ja) 運転者行動予測モデルの個人適合
CN103445793B (zh) 通过人机接口来估计认知负荷的方法和对话系统
JP7275058B2 (ja) エクスペリエンス提供システム、エクスペリエンス提供方法およびエクスペリエンス提供プログラム
DE102014203724A1 (de) Verfahren und System zum Auswählen von Navigationsrouten und Bereitstellen von Werbung auf der Route
JP2013069266A (ja) コンテンツ推薦システム
JP2007176396A (ja) 運転行動推定装置、運転支援装置、及び車両評価システム
CN105749548A (zh) 信息处理装置、信息处理方法以及程序
WO2020004375A1 (ja) 情報処理装置及び情報処理方法
JP2018049477A (ja) 運転支援装置、センタ装置
US20220204020A1 (en) Toward simulation of driver behavior in driving automation
CN106663260B (zh) 信息提示装置、方法以及程序
JP5152063B2 (ja) 運転行動推定装置
CN108688675A (zh) 车辆驾驶支援系统
WO2021185468A1 (en) Technique for providing a user-adapted service to a user
JP2009205645A (ja) ドライバモデル作成装置
WO2021075107A1 (ja) 情報処理装置及び情報処理方法
US20230256343A1 (en) Systems and methods for presenting shared in-game objectives in virtual games
Rodzina et al. Context-dependent car Navigation as kind of human-machine collaborative interaction
JP2022002101A (ja) 運転評価モデル生成装置、運転評価モデル生成方法及びプログラム
EP4121968A1 (en) Technique for providing a user-adapted service to a user
US11969653B2 (en) Systems and methods for generating virtual characters for a virtual game

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19826824

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020527536

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19826824

Country of ref document: EP

Kind code of ref document: A1