JP7443908B2 - Control device, information processing system, and control method - Google Patents

Control device, information processing system, and control method Download PDF

Info

Publication number
JP7443908B2
JP7443908B2 JP2020074795A JP2020074795A JP7443908B2 JP 7443908 B2 JP7443908 B2 JP 7443908B2 JP 2020074795 A JP2020074795 A JP 2020074795A JP 2020074795 A JP2020074795 A JP 2020074795A JP 7443908 B2 JP7443908 B2 JP 7443908B2
Authority
JP
Japan
Prior art keywords
evaluation
user
evaluation value
training
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020074795A
Other languages
Japanese (ja)
Other versions
JP2021174058A (en
Inventor
正博 杁江
惣一朗 宝角
恵里奈 外山
港人 片岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Boshoku Corp
Original Assignee
Toyota Boshoku Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Boshoku Corp filed Critical Toyota Boshoku Corp
Priority to JP2020074795A priority Critical patent/JP7443908B2/en
Publication of JP2021174058A publication Critical patent/JP2021174058A/en
Application granted granted Critical
Publication of JP7443908B2 publication Critical patent/JP7443908B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本開示は制御装置、情報処理システム、および制御方法に関する。 The present disclosure relates to a control device, an information processing system, and a control method.

センサ等の車載装置からの情報に基づいて車内空間の状態を検知し、検知結果を提示する技術が知られている。例えば、特許文献1には、予め記憶されている比較用データと、カメラで車内を撮影した現在映像データとを比較して違いが検知された場合に、車内に所定のメッセージを送出する車内点検装置が開示されている。 2. Description of the Related Art There is a known technology that detects the state of a vehicle interior space based on information from an in-vehicle device such as a sensor, and presents the detection results. For example, Patent Document 1 discloses an in-vehicle inspection that sends a predetermined message to the inside of the car when a difference is detected by comparing pre-stored comparison data and current video data captured by a camera inside the car. An apparatus is disclosed.

また、車載装置からの情報に基づいて、車内空間に滞在しているユーザの状態を判定する技術も種々開発されている。例えば、車載センサからの情報に基づいて、ユーザの眠気の強さを判定する技術等が存在する。 Furthermore, various technologies have been developed for determining the state of a user staying in a vehicle interior space based on information from an in-vehicle device. For example, there are techniques that determine the level of drowsiness of a user based on information from an on-vehicle sensor.

特開2013-191053号公報Japanese Patent Application Publication No. 2013-191053

ところで、昨今、車内空間で有意義に過ごしたいというニーズが発生している。しかしながら、前述した従来技術はそれぞれ、特定の状態の場合に特定の出力を行うものであり、ユーザの車内空間での滞在の質を向上させるものではない。 By the way, in recent years, there has been a need to spend meaningful time in the interior of a car. However, each of the above-mentioned conventional technologies performs a specific output in a specific state, and does not improve the quality of the user's stay in the vehicle interior space.

本開示の一態様は、ユーザが車内空間で有意義に過ごすことを可能にすることを目的とする。 One aspect of the present disclosure aims to enable a user to spend meaningful time in a vehicle interior space.

前記の課題を解決するために、本開示の一態様に係る制御装置は、車載センサから、車内空間に滞在しているユーザに関するセンサ情報を取得するセンサ情報取得部と、複数の評価軸それぞれについての前記ユーザの評価値を、前記センサ情報の少なくとも一部に基づいて算出する評価値算出部と、前記評価値を、表示装置を介して前記ユーザに提示する提示部と、入力装置を介して前記ユーザによって入力された目標に基づいて、前記複数の評価軸それぞれにおける前記ユーザの目標値を算出する目標値算出部と、を備え、前記提示部はさらに、各評価軸についての前記ユーザの前記評価値と、各評価軸についての前記目標値とを前記ユーザに提示することを特徴とする。 In order to solve the above problems, a control device according to one aspect of the present disclosure includes a sensor information acquisition unit that acquires sensor information regarding a user staying in a vehicle interior space from an in-vehicle sensor, and a sensor information acquisition unit that acquires sensor information regarding a user staying in a vehicle interior space, and a an evaluation value calculation unit that calculates an evaluation value of the user based on at least a part of the sensor information; a presentation unit that presents the evaluation value to the user via a display device; a target value calculation unit that calculates the user's target value for each of the plurality of evaluation axes based on the goal input by the user, and the presentation unit further includes the user's target value for each evaluation axis. The method is characterized in that an evaluation value and the target value for each evaluation axis are presented to the user.

前記の構成によれば、ユーザに対し、ユーザの目標を数値化した目標値と、センサ情報という客観的情報に基づく評価を数値化した評価値と、を提示することができる。したがって、ユーザは車内空間に滞在している間に、自身の目標の具体化と、自身の客観的評価を得ることができる。したがって、ユーザは車内空間で有意義に過ごすことができる。 According to the above configuration, it is possible to present to the user a target value that is a numerical value of the user's goal, and an evaluation value that is a numerical value that is an evaluation based on objective information such as sensor information. Therefore, the user can materialize his or her goals and obtain an objective evaluation of himself or herself while staying in the vehicle interior space. Therefore, the user can spend meaningful time in the space inside the car.

前記制御装置において、前記提示部は、前記評価値および前記目標値を、グラフで提示してもよい。前記の構成によれば、ユーザが一見して分かるように評価値および目標値を提示することができる。 In the control device, the presentation unit may present the evaluation value and the target value in a graph. According to the above configuration, the evaluation value and the target value can be presented so that the user can understand them at a glance.

前記制御装置は、前記複数の評価軸それぞれについての前記評価値と前記目標値との差に基づき、トレーニングを1つ以上決定するトレーニング決定部を備えていてもよく、前記トレーニングは、前記評価値を前記目標値に近づけるためのトレーニングであって、前記車内空間で行うトレーニングであってもよく、前記制御装置の前記提示部は、前記表示装置を介して、前記トレーニング決定部によって決定された前記トレーニングを前記ユーザに提示してもよい。 The control device may include a training determining unit that determines one or more types of training based on a difference between the evaluation value and the target value for each of the plurality of evaluation axes, and the training is determined based on the evaluation value. The training may be performed in the interior of the vehicle, and the presentation unit of the control device may display the training determined by the training determination unit via the display device. Training may be presented to the user.

前記の構成によれば、ユーザが入力した目標に近づくために車内空間で出来るトレーニングを、該ユーザに提示する。したがって、ユーザは提示されたトレーニングを実行することで、車内空間での滞在時間を有意義に使うことができる。 According to the above configuration, training that can be done in the interior of the car in order to approach the goal input by the user is presented to the user. Therefore, by performing the presented training, the user can make meaningful use of the time spent in the vehicle interior.

前記制御装置は、前記評価値算出部が算出した前記評価値と、前記評価値の算出日時とを少なくとも含む評価値ログデータを作成するログデータ作成部を備えていてもよく、前記制御装置の前記トレーニング決定部は、前記ユーザの前記評価値ログデータと、前記評価値と前記目標値との差と、に基づいて、前記トレーニングを決定してもよい。 The control device may include a log data creation unit that creates evaluation value log data that includes at least the evaluation value calculated by the evaluation value calculation unit and the calculation date and time of the evaluation value, and the control device The training determining unit may determine the training based on the evaluation value log data of the user and a difference between the evaluation value and the target value.

前記の構成によれば、過去に算出した評価値を考慮してトレーニングを決定することができる。したがって、前記の構成によれば、ユーザに、目標達成のためにより有効なトレーニングを提示することができる。 According to the above configuration, training can be determined in consideration of evaluation values calculated in the past. Therefore, according to the above configuration, it is possible to present training that is more effective for achieving a goal to the user.

前記制御装置において、前記トレーニングは、前記車内空間を有する車両の、運転に関する動作を含んでいてもよい。 In the control device, the training may include operations related to driving a vehicle having the interior space.

前記の構成によれば、ユーザは車両を運転することで、自分の目標を達成するためのトレーニングを行うことができる。したがって、ユーザは車両の運転時間を有効に使って、トレーニングを行うことができる。 According to the above configuration, the user can train to achieve his or her goals by driving the vehicle. Therefore, the user can effectively utilize the time spent driving the vehicle to perform training.

前記制御装置において、前記トレーニングは、前記車内空間を有する車両に搭載された各種装置を使用して行われるものであってよく、前記制御装置は、前記各種装置の使用状況から前記トレーニングの実行を検知する実行検知部を備えていてもよい。そして、前記制御装置の前記センサ情報取得部は、前記実行検知部が前記トレーニングの実行を検知した場合、前記センサ情報を再取得してもよく、前記評価値算出部は、再取得されたセンサ情報に基づいて、前記複数の評価軸それぞれについての前記ユーザの評価値を再算出してもよく、前記提示部は、再算出された評価値、および、再算出された評価値と前回算出した評価値との差分の、少なくとも一方を、前記表示装置を介して前記ユーザに提示してもよい。 In the control device, the training may be performed using various devices mounted on a vehicle having the interior space, and the control device may be configured to perform the training based on the usage status of the various devices. It may also include an execution detection unit that performs detection. The sensor information acquisition unit of the control device may reacquire the sensor information when the execution detection unit detects execution of the training, and the evaluation value calculation unit may acquire the sensor information again from the reacquired sensor information. The user's evaluation value for each of the plurality of evaluation axes may be recalculated based on the information, and the presentation unit may calculate the recalculated evaluation value and the previously calculated evaluation value. At least one of the differences from the evaluation value may be presented to the user via the display device.

前記の構成によれば、トレーニングの実行による評価値の変化をユーザに提示することができる。これにより、トレーニングより実際に得られた効果をユーザに示すことができる。 According to the above configuration, changes in evaluation values due to execution of training can be presented to the user. This makes it possible to show the user the effects actually obtained from the training.

前記制御装置は、各評価軸について、再算出された評価値が前記目標値以上になったか否かを判定する達成判定部を備えていてもよく、前記制御装置の前記提示部は、前記達成判定部が、少なくとも1つの評価軸について、再算出された評価値が前記目標値以上になったと判定した場合、前記ユーザに目標値に達したことを示す通知を提示してもよい。 The control device may include an achievement determination unit that determines whether the recalculated evaluation value is equal to or greater than the target value for each evaluation axis, and the presentation unit of the control device may include an achievement determination unit that determines whether the recalculated evaluation value is equal to or greater than the target value. When the determination unit determines that the recalculated evaluation value for at least one evaluation axis is equal to or greater than the target value, a notification indicating that the target value has been reached may be presented to the user.

前記の構成によれば、評価値が目標値以上になった、ユーザの現在の評価が、ユーザの入力した目標に係る目標値に達したことを通知することができる。 According to the above configuration, it is possible to notify that the user's current evaluation, in which the evaluation value is equal to or greater than the target value, has reached the target value related to the goal input by the user.

前記制御装置において、前記車載センサには、少なくとも1つのカメラが含まれていてもよく、前記センサ情報には、前記カメラが撮影した前記ユーザの姿を含む画像データが含まれていてもよく、前記評価軸には、外見に関する評価軸が含まれていてもよい。そして、前記制御装置の前記評価値算出部は、前記外見に関する評価軸における前記ユーザの評価値を、前記画像データに基づいて算出してもよい。 In the control device, the in-vehicle sensor may include at least one camera, and the sensor information may include image data including an image of the user captured by the camera; The evaluation axes may include an evaluation axis related to appearance. The evaluation value calculation unit of the control device may calculate the user's evaluation value on the evaluation axis regarding the appearance based on the image data.

前記の構成によれば、ユーザは、車内空間に滞在している間に、カメラの撮影画像から診断された、自分の外見についての客観的評価を得ることができる。 According to the above configuration, the user can obtain an objective evaluation of his or her appearance diagnosed from images taken by the camera while staying in the vehicle interior space.

前記制御装置において、前記車載センサには、少なくとも1つの生体センサが含まれていてもよく、前記センサ情報には、前記生体センサが測定または取得したユーザの生体情報が含まれていてもよく、前記評価軸には、健康状態に関する評価軸が含まれていてもよい。そして、前記制御装置の前記評価値算出部は、前記健康状態に関する評価軸における前記ユーザの評価値を、前記生体情報に基づいて算出してもよい。 In the control device, the in-vehicle sensor may include at least one biosensor, and the sensor information may include biometric information of the user measured or acquired by the biosensor. The evaluation axes may include an evaluation axis related to health status. The evaluation value calculation unit of the control device may calculate the evaluation value of the user on the evaluation axis related to the health condition based on the biological information.

前記の構成によれば、ユーザは、車内空間に滞在している間に、生体情報から診断された、自分の健康状態についての客観的評価を得ることができる。 According to the above configuration, the user can obtain an objective evaluation of his or her health condition diagnosed from biological information while staying in the vehicle interior space.

前記制御装置において、前記車載センサには、少なくともマイクが含まれていてもよく、前記センサ情報には、前記ユーザの発話を含む音声データが含まれていてもよい。そして、前記評価軸には、人間の性格傾向または思考傾向に関する評価軸が含まれていてもよく、前記評価値算出部は、前記人間の性格傾向または思考傾向に関する評価軸における前記ユーザの評価値を、前記音声データの音声認識の結果に基づいて算出してもよい。 In the control device, the in-vehicle sensor may include at least a microphone, and the sensor information may include audio data including utterances of the user. The evaluation axis may include an evaluation axis related to human personality tendency or thinking tendency, and the evaluation value calculation unit calculates the evaluation value of the user on the evaluation axis related to human personality tendency or thinking tendency. may be calculated based on the result of voice recognition of the voice data.

前記の構成によれば、ユーザは、車内空間に滞在している間に、音声データから診断された、自分の内面についての客観的評価を得ることができる。 According to the above configuration, the user can obtain an objective evaluation of his or her inner state diagnosed from the audio data while staying in the vehicle interior space.

前記の課題を解決するために、本開示の一態様に係る情報処理システムは、前記制御装置と、前記車載センサと、前記入力装置と、前記表示装置と、を含む。前記の構成によれば、前記制御装置と同様の効果を奏する。 In order to solve the above problems, an information processing system according to one aspect of the present disclosure includes the control device, the on-vehicle sensor, the input device, and the display device. According to the above configuration, the same effects as those of the control device can be achieved.

前記の課題を解決するために、本開示の一態様に係る制御方法は、制御装置の制御方法であって、車載センサから、車内空間に滞在しているユーザに関するセンサ情報を取得するセンサ情報取得ステップと、複数の評価軸それぞれについての前記ユーザの評価値を、前記センサ情報の少なくとも一部に基づいて算出する評価値算出ステップと、前記評価値を、表示装置を介して前記ユーザに提示する第1提示ステップと、入力装置を介して前記ユーザによって入力された目標に基づいて、前記複数の評価軸それぞれにおける前記ユーザの目標値を算出する目標値算出ステップと、各評価軸についての前記ユーザの前記評価値と、各評価軸についての前記目標値とを前記ユーザに提示する第2提示ステップと、を含む。前記の構成によれば、前記制御装置と同様の効果を奏する。 In order to solve the above problems, a control method according to an aspect of the present disclosure is a control method for a control device, and includes sensor information acquisition for acquiring sensor information regarding a user staying in a vehicle interior space from a vehicle-mounted sensor. an evaluation value calculation step of calculating the user's evaluation value for each of the plurality of evaluation axes based on at least a portion of the sensor information; and presenting the evaluation value to the user via a display device. a first presentation step; a target value calculation step of calculating the user's target value for each of the plurality of evaluation axes based on the goal input by the user via an input device; and the user regarding each evaluation axis. and a second presenting step of presenting the evaluation value of and the target value for each evaluation axis to the user. According to the above configuration, the same effects as those of the control device can be achieved.

本開示の一態様によれば、ユーザが車内空間で有意義に過ごすことができる。 According to one aspect of the present disclosure, a user can spend meaningful time in a vehicle interior space.

実施形態1に係る情報処理システムの要部構成を示すブロック図である。1 is a block diagram showing a main part configuration of an information processing system according to a first embodiment; FIG. 車載センサ、表示装置、入力装置、および音声出力装置の配置例を示す図である。FIG. 2 is a diagram illustrating an example arrangement of an on-vehicle sensor, a display device, an input device, and an audio output device. 評価値および目標値の提示に係る処理の流れを示すフローチャートである。It is a flow chart which shows the flow of processing concerning presentation of evaluation value and target value. 表示装置に表示させる画像の一例を示す図である。FIG. 2 is a diagram showing an example of an image displayed on a display device. 表示装置に表示させる画像の一例を示す図である。FIG. 2 is a diagram showing an example of an image displayed on a display device. 表示装置に表示させる画像の一例を示す図である。FIG. 2 is a diagram showing an example of an image displayed on a display device. 表示装置に表示させる画像の一例を示す図である。FIG. 2 is a diagram showing an example of an image displayed on a display device. トレーニングを決定しユーザに提示する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which determines training and presents it to a user. 表示装置に表示させる画像の一例を示す図である。FIG. 2 is a diagram showing an example of an image displayed on a display device. 表示装置に表示させる画像の一例を示す図である。FIG. 2 is a diagram showing an example of an image displayed on a display device. 実施形態2に係る情報処理システムの要部構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of main parts of an information processing system according to a second embodiment.

〔実施形態1〕
≪要部構成≫
以下、本発明の第1の実施形態について説明する。図1は、実施形態1に係る情報処理システム100の要部構成を示すブロック図である。情報処理システム100は、少なくとも、情報処理装置1と、車載センサ2と、表示装置3と、入力装置4と、を含む。また、情報処理システム100は、音声出力装置5と、車載装置6と、を含んでいてもよい。本実施形態では、情報処理装置1、車載センサ2、表示装置3、入力装置4、音声出力装置5、および車載装置6は、車両9の車内空間に配置されている。車両9の具体的な種類は特に限定しない。車両9の一例としては、乗用車が挙げられる。また、情報処理装置1と、車載センサ2、表示装置3、入力装置4、音声出力装置5、および車載装置6とは、それぞれ有線または無線で接続されている。情報処理装置1と各装置間の具体的な接続方法は特に限定されない。
[Embodiment 1]
≪Main part configuration≫
A first embodiment of the present invention will be described below. FIG. 1 is a block diagram showing the configuration of main parts of an information processing system 100 according to the first embodiment. Information processing system 100 includes at least information processing device 1 , in-vehicle sensor 2 , display device 3 , and input device 4 . Further, the information processing system 100 may include an audio output device 5 and an in-vehicle device 6. In this embodiment, the information processing device 1, the on-board sensor 2, the display device 3, the input device 4, the audio output device 5, and the on-board device 6 are arranged in the interior space of the vehicle 9. The specific type of vehicle 9 is not particularly limited. An example of the vehicle 9 is a passenger car. Further, the information processing device 1, the in-vehicle sensor 2, the display device 3, the input device 4, the audio output device 5, and the in-vehicle device 6 are each connected by wire or wirelessly. The specific connection method between the information processing device 1 and each device is not particularly limited.

(車載センサ2)
車載センサ2は、車両9に搭載された1つ以上のセンサから成る。車載センサ2は、車両9の車内空間に滞在している人間に関する種々の情報を測定または取得する。車載センサ2は、測定または取得した種々の情報を、情報処理装置1に送信する。
(In-vehicle sensor 2)
The on-vehicle sensor 2 consists of one or more sensors mounted on the vehicle 9. The on-vehicle sensor 2 measures or acquires various information regarding a person staying in the interior space of the vehicle 9. The in-vehicle sensor 2 transmits various measured or acquired information to the information processing device 1 .

以降、車両9の車内空間に滞在している人間、すなわち車両9のユーザのことを、単に「ユーザ」と称する。また、車載センサ2が測定または取得する、ユーザに関する情報のことを「センサ情報」と称する。センサ情報とは、例えば、ユーザの姿が写った静止画および動画のデータ、ユーザの脈拍、呼吸回数、体温、および血圧等の種々のバイタルデータ、ならびに、ユーザの発話が含まれた音声データの、少なくともいずれかであってよい。本実施形態に係る情報処理システム100は、車載センサ2の一例として、カメラ21と、生体センサ22と、マイク23と、を含む。 Hereinafter, a person staying in the interior space of the vehicle 9, that is, a user of the vehicle 9, will be simply referred to as a "user." Furthermore, information regarding the user that is measured or acquired by the on-vehicle sensor 2 is referred to as "sensor information." Sensor information includes, for example, still image and video data of the user, various vital data such as the user's pulse, breathing rate, body temperature, and blood pressure, and audio data including the user's utterances. , or at least one of them. The information processing system 100 according to the present embodiment includes a camera 21 , a biological sensor 22 , and a microphone 23 as an example of the in-vehicle sensor 2 .

カメラ21は、ユーザの姿の少なくとも一部を含む画像を撮影し、画像データを情報処理装置1へ送信する。なお、カメラ21の撮影画像は、静止画であっても、動画であってもよい。生体センサ22は、ユーザのバイタルデータを測定または取得する。生体センサ22は、例えば、ユーザの筋肉率または体脂肪率を測定するセンサであってもよい。また、生体センサ22は、例えば、ユーザの脈拍を測定するセンサであってもよい。マイク23は、周囲、すなわち車内空間内の音を取得し、音声データに変換して情報処理装置1に送信する。ユーザが発話した場合、マイク23はユーザの発話を含む音を取得し、音声データに変換することとなる。 The camera 21 photographs an image including at least a portion of the user's appearance, and transmits the image data to the information processing device 1. Note that the image taken by the camera 21 may be a still image or a moving image. The biosensor 22 measures or acquires the user's vital data. The biosensor 22 may be, for example, a sensor that measures the user's muscle percentage or body fat percentage. Furthermore, the biosensor 22 may be, for example, a sensor that measures the user's pulse. The microphone 23 acquires sounds from the surroundings, that is, inside the vehicle, converts them into audio data, and transmits the audio data to the information processing device 1 . When the user speaks, the microphone 23 acquires the sound including the user's speech and converts it into audio data.

なお、車載センサ2はこの他にも、ユーザが座席シートに座った際の、座席シートにかかる圧力を測定する圧力センサ等を含んでいてもよい。また、車載センサ2の個数、配置、および車載センサ2が取得するセンサ情報の種類は特に限定されない。 In addition, the vehicle-mounted sensor 2 may also include a pressure sensor that measures the pressure applied to the seat when a user sits on the seat. Further, the number and arrangement of the on-vehicle sensors 2, and the type of sensor information acquired by the on-vehicle sensors 2 are not particularly limited.

(表示装置3および入力装置4)
表示装置3は、情報処理装置1の制御にしたがって画像を表示する。入力装置4は、ユーザの入力操作を受け付けて、該入力操作の内容を示す入力情報を情報処理装置1に送信する。入力装置4は例えば、ユーザの目標を入力する入力操作を受け付けると、入力情報、すなわち、ユーザの目標を示す情報を情報処理装置1に送信する。
(Display device 3 and input device 4)
The display device 3 displays images under the control of the information processing device 1. The input device 4 receives a user's input operation, and transmits input information indicating the content of the input operation to the information processing device 1. For example, upon receiving an input operation for inputting a user's goal, the input device 4 transmits input information, that is, information indicating the user's goal to the information processing device 1 .

表示装置3は、例えば車両9に取り付けられた液晶ディスプレイ等で実現される。入力装置4は、例えばダッシュボードまたは液晶ディスプレイに配置された物理ボタン、ならびに、タッチスクリーン等で実現される。なお、表示装置3と入力装置4とは一体に構成されていてもよい。本実施形態では、車両9は、表示装置3としてのディスプレイと、入力装置4としてのタッチパネルが一体に構成された、タッチパネルディスプレイであることとする。 The display device 3 is realized by, for example, a liquid crystal display attached to the vehicle 9. The input device 4 is realized by, for example, a physical button arranged on a dashboard or a liquid crystal display, a touch screen, or the like. Note that the display device 3 and the input device 4 may be configured integrally. In this embodiment, the vehicle 9 is assumed to be a touch panel display in which a display as the display device 3 and a touch panel as the input device 4 are integrated.

(情報処理装置1)
情報処理装置1は、ユーザに提供する種々の情報を作成する装置である。情報処理装置1は、制御部(制御装置)10と、記憶部11と、を備える。制御部10は、情報処理装置1を統括的に制御する。記憶部11は、情報処理装置1の動作に必要な各種データを記憶する。
(Information processing device 1)
The information processing device 1 is a device that creates various information to be provided to users. The information processing device 1 includes a control section (control device) 10 and a storage section 11. The control unit 10 controls the information processing device 1 in an integrated manner. The storage unit 11 stores various data necessary for the operation of the information processing device 1.

(制御部10)
制御部10は、センサ情報取得部101と、評価値算出部102と、提示部103と、入力情報取得部104と、目標値算出部105と、トレーニング決定部106と、を含む。また、制御部10は、音声制御部107と、ログデータ作成部108とを含んでいてもよい。
(Control unit 10)
The control unit 10 includes a sensor information acquisition unit 101, an evaluation value calculation unit 102, a presentation unit 103, an input information acquisition unit 104, a target value calculation unit 105, and a training determination unit 106. Further, the control unit 10 may include a voice control unit 107 and a log data creation unit 108.

センサ情報取得部101は、車載センサ2からセンサ情報を取得する。センサ情報取得部101は、取得したセンサ情報を、評価値算出部102へ出力する。 The sensor information acquisition unit 101 acquires sensor information from the in-vehicle sensor 2. The sensor information acquisition unit 101 outputs the acquired sensor information to the evaluation value calculation unit 102.

評価値算出部102は、センサ情報に基づいて、複数の評価軸それぞれについてのユーザの評価値を算出する。評価値算出部102はまず始めに、評価対象となるユーザの評価軸を決定する。ここで、「評価軸」とは、評価の方針を意味する。評価値算出部102は例えば、制御部12に記憶されている評価軸設定データベース(DB)113にて設定されている評価軸から複数の評価軸を選択し、ユーザの評価軸としてよい。 The evaluation value calculation unit 102 calculates the user's evaluation value for each of the plurality of evaluation axes based on the sensor information. The evaluation value calculation unit 102 first determines the evaluation axis of the user to be evaluated. Here, "evaluation axis" means an evaluation policy. For example, the evaluation value calculation unit 102 may select a plurality of evaluation axes from the evaluation axes set in the evaluation axis setting database (DB) 113 stored in the control unit 12, and use them as the user's evaluation axes.

評価軸設定DB113は、少なくとも複数の評価軸を示す情報を含むデータベースである。評価軸設定DB113は、例えば、評価軸に、該評価軸の選択条件を対応付けたデータを1レコードとして保持するデータテーブルであってもよい。「評価軸の選択条件」は、例えば、センサ情報の種類であってもよい。すなわち、評価軸設定DBの1レコードは、ある評価軸と、該評価軸に沿って評価値を算出可能なセンサ情報とを対応付けた情報であってもよい。この場合、評価値算出部102は、評価軸設定DB113から、センサ情報取得部101から入力されたセンサ情報の種類に対応している評価軸を選択し、評価対象のユーザの評価軸としてよい。 The evaluation axis setting DB 113 is a database containing information indicating at least a plurality of evaluation axes. The evaluation axis setting DB 113 may be, for example, a data table that holds data in which evaluation axes are associated with selection conditions for the evaluation axes as one record. The "evaluation axis selection condition" may be, for example, the type of sensor information. That is, one record of the evaluation axis setting DB may be information that associates a certain evaluation axis with sensor information that allows calculation of evaluation values along the evaluation axis. In this case, the evaluation value calculation unit 102 may select an evaluation axis corresponding to the type of sensor information input from the sensor information acquisition unit 101 from the evaluation axis setting DB 113 as the evaluation axis of the user to be evaluated.

なお、評価軸設定DB113は必須の構成ではない。また、評価値算出部102の評価軸の選択方法は、前述の方法に限定されない。評価値算出部102は、例えば、評価値算出部102に入力されたセンサ情報の種類に応じて評価軸を決定してもよい。また例えば、評価値算出部102は、入力装置4を介して入力されたユーザの指示に基づいて、評価軸を決定してもよい。また例えば、評価軸は、予め定められているものとしてもよい。 Note that the evaluation axis setting DB 113 is not an essential configuration. Furthermore, the evaluation axis selection method of the evaluation value calculation unit 102 is not limited to the above-mentioned method. The evaluation value calculation unit 102 may determine the evaluation axis according to the type of sensor information input to the evaluation value calculation unit 102, for example. For example, the evaluation value calculation unit 102 may determine the evaluation axis based on a user's instruction input via the input device 4. Further, for example, the evaluation axis may be determined in advance.

評価軸の具体的な内容は、特に限定されない。例えば、評価軸は、ユーザの外見に関する評価軸であってもよい。評価値算出部102は、カメラ21の撮影画像からユーザの外見を評価することで、該評価軸における評価値を算出することができる。 The specific content of the evaluation axis is not particularly limited. For example, the evaluation axis may be an evaluation axis regarding the user's appearance. The evaluation value calculation unit 102 can calculate the evaluation value on the evaluation axis by evaluating the user's appearance from the image taken by the camera 21.

また例えば、評価軸は、ユーザの健康状態に関する評価軸であってもよい。評価値算出部102は、カメラ21の撮影画像、または生体センサ22の生体情報からユーザの健康状態を評価することで、該評価軸における評価値を算出することができる。 Further, for example, the evaluation axis may be an evaluation axis related to the user's health condition. The evaluation value calculation unit 102 can calculate the evaluation value on the evaluation axis by evaluating the user's health condition from the image taken by the camera 21 or the biological information from the biological sensor 22.

また例えば、評価軸は、ユーザの性格傾向または思考傾向に関する評価軸であってもよい。また例えば、評価軸は、ユーザの価値観の傾向に関する評価軸であってもよい。評価値算出部102は、マイク23の音声データに含まれる、ユーザの音声そのもの、または音声データが示す発話内容から、ユーザの性格傾向、思考傾向、および価値観の傾向を評価することで、それぞれの評価軸における評価値を算出することができる。例えば、ユーザの声の高さや発話のスピードに応じて、ユーザの性格の明るさを評価してもよい。また、ユーザの発話内容に含まれる語句の傾向から、ユーザの特定の思考または特定の価値観への傾向の強さを特定してもよい。 Further, for example, the evaluation axis may be an evaluation axis related to the user's personality tendency or thinking tendency. Furthermore, for example, the evaluation axis may be an evaluation axis related to the tendency of the user's sense of values. The evaluation value calculation unit 102 evaluates the user's personality tendency, thinking tendency, and value tendency from the user's voice itself or the utterance content indicated by the voice data included in the voice data of the microphone 23, and It is possible to calculate the evaluation value on the evaluation axis. For example, the brightness of the user's personality may be evaluated according to the pitch of the user's voice and the speed of speech. Furthermore, the strength of the user's tendency toward a specific thought or specific value may be identified from the tendency of words included in the user's utterance content.

評価軸を決定すると、評価値算出部102は次に、各評価軸についてのユーザの評価値を算出する。「評価値」とは、ある評価軸に沿って、センサ情報の少なくとも一部に基づいてユーザを評価した場合の、指標値である。換言すると、評価値とは、センサ情報という客観的情報に基づいて、ある評価軸についてのユーザの評価を数値化したものである。 After determining the evaluation axes, the evaluation value calculation unit 102 next calculates the user's evaluation value for each evaluation axis. The "evaluation value" is an index value when a user is evaluated along a certain evaluation axis based on at least part of the sensor information. In other words, the evaluation value is a numerical value of the user's evaluation regarding a certain evaluation axis based on objective information such as sensor information.

なお、評価値の具体的な算出方法は特に限定されない。評価軸がユーザの外見に関する評価軸である場合、評価値算出部102は、例えば、カメラ21の撮影画像のデータに基づいて評価値を算出してもよい。また、評価軸がユーザの健康状態に関する評価軸である場合、評価値算出部102は、生体センサ22が測定または取得した生体情報に基づいて評価値を算出してもよい。また、評価軸がユーザの性格傾向または思考傾向に関する評価軸である場合、評価値算出部102は、マイク23が取得した音声データの音声認識の結果に基づいて、評価値を算出してもよい。例えば、制御部10は、センサ情報取得部101が取得した音声データを学習済モデル111に入力することで、学習済モデル111に該音声データを音声認識させてもよい。そして、制御部10は音声認識の結果を学習済モデル111から取得して、該音声認識の結果を評価値算出部102における評価値の算出に用いてもよい。 Note that the specific method of calculating the evaluation value is not particularly limited. If the evaluation axis is an evaluation axis related to the user's appearance, the evaluation value calculation unit 102 may calculate the evaluation value based on the data of the image taken by the camera 21, for example. Further, when the evaluation axis is an evaluation axis related to the user's health condition, the evaluation value calculation unit 102 may calculate the evaluation value based on biological information measured or acquired by the biological sensor 22. Further, when the evaluation axis is an evaluation axis related to the user's personality tendency or thinking tendency, the evaluation value calculation unit 102 may calculate the evaluation value based on the result of voice recognition of the voice data acquired by the microphone 23. . For example, the control unit 10 may input the voice data acquired by the sensor information acquisition unit 101 to the learned model 111, thereby causing the learned model 111 to recognize the voice data. Then, the control unit 10 may acquire the voice recognition result from the trained model 111 and use the voice recognition result to calculate the evaluation value in the evaluation value calculation unit 102.

評価値算出部102は、選択した複数の評価軸を示す情報と、各評価軸について算出した評価値とを対応付けた情報を、提示部103およびトレーニング決定部106に出力する。以降、選択した複数の評価軸を示す情報と、各評価軸について算出した評価値とを対応付けた情報を「評価情報」と称する。制御部10がログデータ作成部108を含む場合、評価値算出部102は、ログデータ作成部108にも、評価情報を出力する。また、評価値算出部102は、選択した複数の評価軸を示す情報、または評価情報を目標値算出部105に出力する。 The evaluation value calculation unit 102 outputs to the presentation unit 103 and the training determination unit 106 information in which information indicating the selected plurality of evaluation axes is associated with the evaluation value calculated for each evaluation axis. Hereinafter, information in which information indicating a plurality of selected evaluation axes is associated with evaluation values calculated for each evaluation axis will be referred to as "evaluation information." When the control unit 10 includes the log data creation unit 108, the evaluation value calculation unit 102 also outputs evaluation information to the log data creation unit 108. Furthermore, the evaluation value calculation unit 102 outputs information indicating the selected plurality of evaluation axes or evaluation information to the target value calculation unit 105.

入力情報取得部104は、入力装置4から入力情報を取得する。入力情報取得部104は、ユーザの目標を示す入力情報を取得した場合、当該入力情報を目標値算出部105に出力する。なお、入力情報取得部104はユーザの目標を示す入力情報の他にも、種々の入力情報を取得してよい。例えば、入力情報取得部104は、表示装置3の表示を変更するためのユーザの指示を示す入力情報を取得してもよい。また、入力情報取得部104は、ユーザの、トレーニングの希望方針を示す情報を入力情報として取得してもよい。 The input information acquisition unit 104 acquires input information from the input device 4. When the input information acquisition unit 104 acquires input information indicating the user's goal, the input information acquisition unit 104 outputs the input information to the target value calculation unit 105. Note that the input information acquisition unit 104 may acquire various input information in addition to the input information indicating the user's goal. For example, the input information acquisition unit 104 may acquire input information indicating a user's instruction to change the display on the display device 3. Further, the input information acquisition unit 104 may acquire information indicating the user's desired training policy as input information.

目標値算出部105は、ユーザの目標に基づいて、複数の評価軸それぞれにおけるユーザの目標値を算出する。「目標値」とは、ある評価軸の観点から、ユーザの目標を数値化した指標値である。 The target value calculation unit 105 calculates the user's target value for each of the plurality of evaluation axes based on the user's target. "Target value" is an index value that quantifies the user's goal from the viewpoint of a certain evaluation axis.

目標値算出部105は、評価値算出部102から、選択した複数の評価軸を示す情報、または評価情報を取得する。この状態で、目標値算出部105がユーザの目標を示す入力情報を取得すると、目標値算出部105は、取得した評価情報(または、複数の評価軸を示す情報)が示す評価軸それぞれにおける、ユーザの目標値を算出する。すなわち、目標値算出部105における「複数の評価軸」とは、評価値算出部102において選択された「複数の評価軸」と同じである。なお、目標値の具体的な算出方法は特に限定されない。 The target value calculation unit 105 acquires information indicating a plurality of selected evaluation axes or evaluation information from the evaluation value calculation unit 102. In this state, when the target value calculation unit 105 acquires input information indicating the user's goal, the target value calculation unit 105 calculates the following values for each evaluation axis indicated by the acquired evaluation information (or information indicating a plurality of evaluation axes). Calculate the user's target value. That is, the “multiple evaluation axes” in the target value calculation unit 105 are the same as the “multiple evaluation axes” selected in the evaluation value calculation unit 102. Note that the specific method for calculating the target value is not particularly limited.

目標値算出部105は、算出した目標値を提示部103およびトレーニング決定部106に出力する。制御部10がログデータ作成部108を含む場合、目標値算出部105は、ログデータ作成部108に目標値を出力してもよい。 Target value calculation section 105 outputs the calculated target value to presentation section 103 and training determination section 106. When the control unit 10 includes the log data creation unit 108, the target value calculation unit 105 may output the target value to the log data creation unit 108.

トレーニング決定部106は、評価情報と目標値とを取得すると、評価情報が示す複数の評価軸それぞれについての評価値と目標値との差に基づき、トレーニングを1つ以上決定する。ここで、「トレーニング」とは、いずれかの評価軸における評価値を、同評価軸における目標値に近づけるためのトレーニングであって、車両9の車内空間で行うトレーニングである。トレーニング決定部106は決定したトレーニングを示す情報を、提示部103に出力する。 Upon acquiring the evaluation information and the target value, the training determining unit 106 determines one or more types of training based on the difference between the evaluation value and the target value for each of the plurality of evaluation axes indicated by the evaluation information. Here, "training" is training for bringing the evaluation value on any evaluation axis closer to the target value on the same evaluation axis, and is training performed in the interior space of the vehicle 9. The training determining unit 106 outputs information indicating the determined training to the presenting unit 103.

トレーニングの具体的な内容は特に限定されない。例えば、トレーニングは、肉体的なトレーニングでなくてもよい。例えば、トレーニングは、ユーザのコミュニケーションスキルを鍛えるトレーニングであってもよいし、ユーザの性格または思考の傾向を改善するトレーニングであってもよい。 The specific content of the training is not particularly limited. For example, training does not have to be physical training. For example, the training may be training to improve the user's communication skills, or training to improve the user's personality or thinking tendencies.

また例えば、トレーニングはユーザが能動的に行うものでなく、車両9に滞在することによって、受動的に行われるものであってもよい。具体的には、例えば、少なくとも一部の形状が可変である座席シートを、ユーザが着座することで、特定の筋肉が鍛えられるような形状に変更してもよい。これにより、ユーザは座席シートに着座するだけで、特定の筋肉を鍛えることができる。したがって、該トレーニングによって、例えば「筋肉量」または「筋肉率」等の評価軸における評価値を増加する効果が見込める。 For example, the training may not be performed actively by the user, but may be performed passively by staying in the vehicle 9. Specifically, for example, a seat whose shape is at least partially variable may be changed to a shape that allows a user to train specific muscles by sitting on the seat. This allows the user to train specific muscles simply by sitting on the seat. Therefore, the training can be expected to have the effect of increasing evaluation values on evaluation axes such as "muscle mass" or "muscle percentage".

もしくは、例えば、少なくとも一部の形状が可変である座席シートを、ユーザが着座することで、ユーザの身体の特定部位の結構が良くなるような形状に変更してもよい。これにより、ユーザは座席シートに着座するだけで、自身の血行を良くする、すなわち健康状態を良くすることができる。したがって、該トレーニングによって、例えば「顔色の良さ」または「肌の状態」等の評価軸における評価値を増加する効果が見込める。 Alternatively, for example, a seat whose shape is variable at least in part may be changed to a shape that improves the position of a specific part of the user's body when the user sits on the seat. Thereby, the user can improve his or her blood circulation, that is, improve his/her health condition, simply by sitting on the seat. Therefore, the training can be expected to have the effect of increasing evaluation values on evaluation axes such as "good complexion" or "skin condition".

なお、トレーニングは、車載装置6を使用して行われるものであってもよい。例えば、トレーニングは、車両9の運転に関する動作を含んでいてもよい。ここで、「運転に関する動作」とは、例えば車両9のハンドル、アクセル、およびブレーキに対する操作が含まれていてもよい。このように、運転に関する動作をトレーニングに含めることで、ユーザは車両9を運転すると、自分の目標を達成するためのトレーニングを行うことができる。したがって、ユーザは車両の運転時間を有効に使って、トレーニングを行うことができる。より具体的には、例えば、急ブレーキを踏まない等、同乗者に負担をかけない運転方法をトレーニングとしてもよい。そして、該トレーニングの効果としては、ユーザの優しさを示す評価値を増加させる効果があるとしてもよい。 Note that the training may be performed using the in-vehicle device 6. For example, the training may include actions related to driving the vehicle 9. Here, the "operations related to driving" may include, for example, operations on the steering wheel, accelerator, and brake of the vehicle 9. In this way, by including driving-related actions in the training, the user can train to achieve his or her goals by driving the vehicle 9. Therefore, the user can effectively utilize the time spent driving the vehicle to perform training. More specifically, the training may include driving methods that do not put a burden on the passenger, such as not slamming on the brakes. The training may have an effect of increasing the evaluation value indicating the user's kindness.

また、トレーニングの決定方法も特に限定されない。本実施形態では一例として、記憶部11にトレーニングDB112が記憶されており、トレーニング決定部106は該トレーニングDB112を参照することで、ユーザに提示するトレーニングを決定することとする。 Furthermore, the method for determining training is not particularly limited. In this embodiment, as an example, a training DB 112 is stored in the storage unit 11, and the training determining unit 106 refers to the training DB 112 to determine the training to be presented to the user.

トレーニングDB112とは、トレーニングとその効果を定めたデータベースである。トレーニングDB112の1レコードは、ある1つのトレーニングについてのデータを示す。トレーニングDB112の各レコードは、トレーニングの識別情報と、該トレーニングが効果を及ぼす評価軸と、該評価軸における評価値の変動量と、を対応付けたものである。トレーニングの識別情報とは、トレーニングの名称等、トレーニングを一意に識別するための情報である。評価値の変動量とは、単位時間またはトレーニングの単位量あたりの評価値の増加または減少量である。 The training DB 112 is a database that defines training and its effects. One record of the training DB 112 indicates data regarding one training. Each record in the training DB 112 associates training identification information, an evaluation axis on which the training has an effect, and an amount of variation in the evaluation value on the evaluation axis. The training identification information is information for uniquely identifying the training, such as the name of the training. The amount of variation in evaluation value is the amount of increase or decrease in evaluation value per unit time or unit amount of training.

トレーニング決定部106は、例えば、以下のような方法でトレーニングを決定してもよい。すなわち、トレーニング決定部106はまず、評価情報と目標値から、評価値が目標値未満である評価軸を特定する。以降、ここで特定した評価軸を「目標未達評価軸」と称する。トレーニング決定部106は、トレーニングDB112を参照して、目標未達評価軸について、評価値を増加させることが可能なトレーニングを1つ以上抽出する。トレーニング決定部106は、抽出したトレーニングから、ユーザに提示するトレーニングを決定する。前述の通り、ユーザに提示するトレーニングの個数には上限が設けられていてもよい。 The training determining unit 106 may determine training using the following method, for example. That is, the training determining unit 106 first identifies an evaluation axis whose evaluation value is less than the target value from the evaluation information and the target value. Hereinafter, the evaluation axis specified here will be referred to as the "goal unattainment evaluation axis." The training determining unit 106 refers to the training DB 112 and extracts one or more trainings that can increase the evaluation value for the target unachievement evaluation axis. The training determining unit 106 determines the training to be presented to the user from the extracted training. As described above, an upper limit may be set on the number of trainings presented to the user.

なお、前述のように、評価軸は複数あるため、目標未達評価軸も複数存在し得る。目標未達評価軸が複数存在する場合、トレーニング決定部106は、トレーニングDB112を参照して、複数の目標未達評価軸それぞれについて、効果がある(すなわち、評価値を上げることができる)トレーニングを抽出する。続いて、トレーニング決定部106は、1つ以上のトレーニングを組み合わせることで、可能な限り多くの目標未達評価軸について効果を得られるよう、抽出したトレーニングの中からユーザに提示するトレーニングを決定する。これにより、トレーニング決定部106が決定したトレーニングをユーザが実行した場合、ユーザが入力した、すなわちユーザが望んだ目標に係る目標値を、より多く達成させることができる。 Note that, as described above, since there are multiple evaluation axes, there may also be multiple target unachievement evaluation axes. When there are multiple goal unattainment evaluation axes, the training determining unit 106 refers to the training DB 112 and selects training that is effective (that is, can increase the evaluation value) for each of the multiple goal unattainment evaluation axes. Extract. Next, the training determining unit 106 determines the training to be presented to the user from among the extracted trainings so as to obtain effects on as many target non-attainment evaluation axes as possible by combining one or more trainings. . As a result, when the user executes the training determined by the training determining unit 106, it is possible to achieve more of the target value input by the user, that is, the target desired by the user.

また、トレーニング決定部106は、評価値と目標値との差が大きい評価軸について効果があるトレーニングを、ユーザに提示するトレーニングとして、優先的に採用することが望ましい。これにより、ユーザはトレーニングを実行した場合、効率的に目標を達成することができる。 Further, it is desirable that the training determining unit 106 preferentially adopt training that is effective for evaluation axes in which the difference between the evaluation value and the target value is large as the training to be presented to the user. This allows the user to efficiently achieve his or her goals when performing training.

また、トレーニング決定部106は、入力情報取得部104からトレーニングの希望方針を示す入力情報を取得してもよい。そして、トレーニング決定部106は、評価値算出部102から取得した評価情報が示す評価値と、目標値算出部105から取得した目標値との差、および、希望方針に基づいて、トレーニングを1つ以上決定してもよい。 Further, the training determining unit 106 may acquire input information indicating a desired training policy from the input information acquiring unit 104. Then, the training determining unit 106 performs one training based on the difference between the evaluation value indicated by the evaluation information acquired from the evaluation value calculation unit 102 and the target value acquired from the target value calculation unit 105, and the desired policy. The above may be determined.

トレーニング決定部106はさらに、決定した1つ以上のトレーニングを含むトレーニングスケジュールを作成してもよい。トレーニングスケジュールとは、目標値を達成するためのトレーニングの実施タイミングを規定するものである。なお、トレーニングスケジュールには、各トレーニングの、単位期間あたりの実施量を規定する情報が含まれていてもよい。本実施形態では、トレーニング決定部106は、トレーニングスケジュールとして、複数のトレーニングについて、各トレーニングを実施すべき日を規定することとする。 The training determining unit 106 may further create a training schedule including the determined one or more trainings. The training schedule defines the timing of training to achieve the target value. Note that the training schedule may include information that defines the amount of training to be performed per unit period. In this embodiment, the training determining unit 106 defines the days on which each training should be performed for a plurality of trainings as a training schedule.

なお、制御部10がログデータ作成部108を含んでおり、ログデータ作成部108によって評価値ログデータが作成され評価値ログDB114として蓄積されている場合、トレーニング決定部106は、トレーニングの決定の際に、該評価値ログデータを考慮してもよい。すなわち、トレーニング決定部106は、評価値ログDB114からユーザの評価値ログデータを読み出し、該評価値ログデータと、各評価軸における評価値と目標値との差と、に基づいてトレーニングを決定してもよい。 Note that when the control unit 10 includes a log data creation unit 108 and the evaluation value log data is created by the log data creation unit 108 and stored as the evaluation value log DB 114, the training determination unit 106 determines the training. At this time, the evaluation value log data may be taken into consideration. That is, the training determining unit 106 reads the user's evaluation value log data from the evaluation value log DB 114, and determines training based on the evaluation value log data and the difference between the evaluation value and the target value in each evaluation axis. It's okay.

これにより、トレーニング決定部106は、過去に算出した評価値を考慮してトレーニングを決定することができる。したがって、情報処理装置1は、目標達成のためにより有効なトレーニングをユーザに提示するトレーニングとして決定することができる。 Thereby, the training determining unit 106 can determine training taking into consideration the evaluation values calculated in the past. Therefore, the information processing device 1 can determine training that is more effective for achieving the goal as the training to be presented to the user.

提示部103は、表示装置3に各種画像を表示させることで、表示装置3を介してユーザに種々の情報を提示する。例えば、提示部103は、評価値算出部102から評価情報を取得すると、各評価軸と、各評価軸に対応する評価値を示す画像を、表示装置3に表示させる。また例えば、提示部103は、評価情報に続いて目標値を取得すると、各評価軸についての評価値と、該各評価軸についての目標値とを示す画像を表示装置3に表示させる。また例えば、提示部103は、トレーニング決定部106によって決定されたトレーニング、およびトレーニングスケジュールの少なくとも一方を表示装置3に表示させてもよい。この他にも、提示部103は、制御部10が作成する種々の画像を表示装置3に表示させてよい。 The presentation unit 103 presents various information to the user via the display device 3 by displaying various images on the display device 3. For example, when the presentation unit 103 acquires the evaluation information from the evaluation value calculation unit 102, the presentation unit 103 causes the display device 3 to display an image showing each evaluation axis and the evaluation value corresponding to each evaluation axis. For example, when the presentation unit 103 acquires the target value following the evaluation information, the presentation unit 103 causes the display device 3 to display an image showing the evaluation value for each evaluation axis and the target value for each evaluation axis. For example, the presenting unit 103 may display at least one of the training determined by the training determining unit 106 and the training schedule on the display device 3. In addition to this, the presentation unit 103 may display various images created by the control unit 10 on the display device 3.

なお、評価値および目標値は、グラフで示されることが望ましい。これにより、提示部103は、ユーザが一見して分かるように評価値および目標値を提示することができる。 Note that the evaluation value and target value are preferably shown in a graph. Thereby, the presentation unit 103 can present the evaluation value and the target value so that the user can understand them at a glance.

音声制御部107は、音声出力装置5を制御する。音声制御部107は、例えば、提示部103が表示装置3に表示させた画像の説明を音声出力装置5に出力させてよい。また、音声制御部107は、ユーザに対し入力装置4を用いた入力を促す音声を、音声出力装置5に出力させてもよい。また、音声制御部107は、記憶部11に記憶された学習済モデル111の出力結果を、音声として音声出力装置5に出力させてもよい。 The audio control unit 107 controls the audio output device 5. For example, the audio control unit 107 may cause the audio output device 5 to output an explanation of the image displayed on the display device 3 by the presentation unit 103. Furthermore, the voice control unit 107 may cause the voice output device 5 to output a voice prompting the user to input using the input device 4 . Further, the audio control unit 107 may cause the audio output device 5 to output the output result of the learned model 111 stored in the storage unit 11 as audio.

ログデータ作成部108は、評価情報に基づいて、評価値ログデータを作成する。評価値ログデータとは、あるユーザについて算出した評価値の履歴を示すデータである。評価値ログデータは、評価値算出部102が算出した、各評価軸における評価値と、該評価値の算出日時とを少なくとも含む。なお、評価値の算出日時は、例えば、情報処理装置1に内蔵されているタイマーから、または情報処理装置1の外部装置であるタイマーから制御部10が時刻情報を取得することで特定してよい。また、評価値ログデータは、各評価値の評価軸を示す情報、各評価値に対応する目標値を示す情報、および、ユーザの識別情報の少なくともいずれかを含んでいてもよい。 The log data creation unit 108 creates evaluation value log data based on the evaluation information. The evaluation value log data is data indicating the history of evaluation values calculated for a certain user. The evaluation value log data includes at least the evaluation value for each evaluation axis calculated by the evaluation value calculation unit 102 and the calculation date and time of the evaluation value. Note that the calculation date and time of the evaluation value may be specified, for example, by the control unit 10 acquiring time information from a timer built into the information processing device 1 or from a timer that is an external device of the information processing device 1. . Furthermore, the evaluation value log data may include at least one of information indicating an evaluation axis of each evaluation value, information indicating a target value corresponding to each evaluation value, and user identification information.

ログデータ作成部108は、作成した評価値ログデータを、評価値ログDB114の1レコードとして記憶部11に記憶させる。これにより、評価値ログDB114に、評価値ログデータが蓄積されていく。 The log data creation unit 108 stores the created evaluation value log data in the storage unit 11 as one record of the evaluation value log DB 114. As a result, evaluation value log data is accumulated in the evaluation value log DB 114.

評価値ログDB114は、評価値ログデータのデータベースである。評価値ログDB114は、ユーザ毎に作成されてもよいし、複数のユーザに関する評価値ログデータをまとめて1つの評価値ログDB114で管理してもよい。なお、評価値ログDB114が複数ユーザの評価値ログデータを含む場合、評価値ログDB114の各レコード(すなわち、各評価値ログデータ)には、ユーザの識別情報が含まれる。 The evaluation value log DB 114 is a database of evaluation value log data. The evaluation value log DB 114 may be created for each user, or evaluation value log data regarding a plurality of users may be collectively managed in one evaluation value log DB 114. Note that when the evaluation value log DB 114 includes evaluation value log data of a plurality of users, each record (that is, each evaluation value log data) of the evaluation value log DB 114 includes user identification information.

(記憶部11)
記憶部11は、例えば、学習済モデル111と、トレーニングDB112と、評価軸設定DB113と、を記憶する。また、制御部10がログデータ作成部108を備える場合、記憶部11は、評価値ログDB114を記憶する。トレーニングDB112、評価軸設定DB113、および評価値ログDB114のデータ構造については、前述の通りである。
(Storage unit 11)
The storage unit 11 stores, for example, a trained model 111, a training DB 112, and an evaluation axis setting DB 113. Further, when the control unit 10 includes the log data creation unit 108, the storage unit 11 stores the evaluation value log DB 114. The data structures of the training DB 112, evaluation axis setting DB 113, and evaluation value log DB 114 are as described above.

学習済モデル111は、ユーザに対する発話内容を決定したり、ユーザの発話内容を認識して、認識結果に応じた返答を決定したりするAI(人口知能)モデルである。制御部10のセンサ情報取得部101は、学習済モデル111にマイク23から取得した音声データを入力する。学習済モデル111は、該入力に対応する出力を制御部10に返す。制御部10の音声制御部107は、該出力結果に応じた音声を音声出力装置5から出力させる。 The trained model 111 is an AI (artificial intelligence) model that determines the content of speech to the user, recognizes the content of the user's speech, and determines a response according to the recognition result. The sensor information acquisition unit 101 of the control unit 10 inputs audio data acquired from the microphone 23 to the learned model 111. The trained model 111 returns an output corresponding to the input to the control unit 10. The audio control unit 107 of the control unit 10 causes the audio output device 5 to output audio according to the output result.

(音声出力装置5)
音声出力装置5は、情報処理装置1の音声制御部107の制御にしたがって音声を出力する。音声出力装置5は表示装置3および入力装置4と一体に構成されていてもよい。例えば、音声出力装置5はタッチパネルディスプレイと一体に構成されたスピーカであってもよい。
(Audio output device 5)
The audio output device 5 outputs audio under the control of the audio control unit 107 of the information processing device 1 . The audio output device 5 may be configured integrally with the display device 3 and the input device 4. For example, the audio output device 5 may be a speaker integrated with a touch panel display.

(車載装置6)
車載装置6は、車両9に搭載された各種装置である。なお、ここで言う「各種装置」には、車両9の部品またはユニット等も含まれる。車載装置6は、車内空間で行うトレーニングに利用可能な装置、部品、またはユニットである。例えば、車載装置6は、車両9のハンドル、アクセル、ブレーキ、および座席シートのリクライニング機構等であってもよい。なお、車載センサ2、表示装置3、入力装置4、および音声出力装置5は車載装置6を兼ねていてもよい。
(In-vehicle device 6)
The on-vehicle devices 6 are various devices mounted on the vehicle 9. Note that the "various devices" mentioned here also include parts or units of the vehicle 9. The in-vehicle device 6 is a device, part, or unit that can be used for training performed in a space inside a vehicle. For example, the in-vehicle device 6 may be a steering wheel, an accelerator, a brake, a seat reclining mechanism, etc. of the vehicle 9. Note that the in-vehicle sensor 2, display device 3, input device 4, and audio output device 5 may also serve as the in-vehicle device 6.

(車載センサと各種入出力装置の配置例)
図2は、車載センサ2、表示装置3、入力装置4、および音声出力装置5の配置例を示す図である。カメラ21は、ユーザが車内で着座したときに、ユーザを正面から撮影可能な位置に配置されることが望ましい。これにより、ユーザの表情および動作等を撮影することができる。マイク23は、ユーザの発話音声を録音可能な位置に配置されることが望ましい。例えば、運転席に座る人間を対象とする情報処理システム100の場合、カメラ21およびマイク23は、ユーザと略対向するように、車両9のダッシュボードに取り付けられていることが望ましい。
(Example of placement of in-vehicle sensors and various input/output devices)
FIG. 2 is a diagram showing an example of the arrangement of the in-vehicle sensor 2, display device 3, input device 4, and audio output device 5. It is desirable that the camera 21 be placed at a position where it can photograph the user from the front when the user is seated in the vehicle. With this, it is possible to photograph the user's facial expressions, movements, and the like. It is desirable that the microphone 23 be placed at a position where the user's voice can be recorded. For example, in the case of the information processing system 100 intended for a person sitting in a driver's seat, the camera 21 and the microphone 23 are preferably attached to the dashboard of the vehicle 9 so as to substantially face the user.

また、生体センサ22は、生体センサ22で測定する生体情報の種類に応じた位置に配置される。例えば、生体センサ22がユーザの筋肉率を測定するセンサである場合、該センサは車両9の座席シートに内蔵されていてもよい。これにより、ユーザが座席シートに着座したときに、生体センサ22はユーザの身体における筋肉率を測定することができる。 Further, the biosensor 22 is arranged at a position depending on the type of biometric information measured by the biosensor 22. For example, if the biosensor 22 is a sensor that measures the user's muscle mass, the sensor may be built into the seat of the vehicle 9. Thereby, when the user is seated on the seat, the biosensor 22 can measure the muscle percentage of the user's body.

図2に示すように各種の車載センサ2を配置することで、カメラ21でユーザの姿を映し、生体センサ22でユーザの生体情報(例えば、筋肉率)を測定し、マイク23でユーザの発話音声を取得することができる。このように、複数種類のセンサ情報を取得してセンサ情報取得部101に送信することで、情報処理装置1の評価値算出部102において、より多岐にわたる評価軸でユーザを評価することができる。また、評価値算出部102において、複数種類のセンサ情報を組み合わせて評価値を算出することで、より精密に評価値を算出することができる。 By arranging various in-vehicle sensors 2 as shown in FIG. 2, the camera 21 images the user's appearance, the biosensor 22 measures the user's biometric information (for example, muscle percentage), and the microphone 23 measures the user's utterances. Audio can be obtained. In this manner, by acquiring multiple types of sensor information and transmitting them to the sensor information acquisition unit 101, the evaluation value calculation unit 102 of the information processing device 1 can evaluate the user based on a wider variety of evaluation axes. Furthermore, by calculating the evaluation value by combining multiple types of sensor information in the evaluation value calculation unit 102, it is possible to calculate the evaluation value more precisely.

表示装置3はユーザが表示装置3を閲覧可能な位置に配置される。また、入力装置4は、ユーザが該入力装置4を操作可能な位置に配置される。また、音声出力装置5は、ユーザが音声を視聴可能な位置に配置される。例えば、運転席に座る人間を対象とする情報処理システム100の場合、表示装置3、入力装置4、および音声出力装置5は、ユーザと略対向するように、車両9のダッシュボードに取り付けられていることが望ましい。 The display device 3 is arranged at a position where the user can view the display device 3. Further, the input device 4 is arranged at a position where the user can operate the input device 4. Furthermore, the audio output device 5 is arranged at a position where the user can listen to the audio. For example, in the case of the information processing system 100 intended for a person sitting in a driver's seat, the display device 3, input device 4, and audio output device 5 are mounted on the dashboard of the vehicle 9 so as to substantially face the user. It is desirable to be present.

なお、情報処理装置1は、表示装置3の表示画面および音声出力装置5の出力音声によって、情報処理システム100における入力操作の案内等を行ってもよい。また、情報処理装置1は、表示装置3の表示画面および音声出力装置5の出力音声によって、ユーザに情報処理システム100との会話を促してもよい。そして、該会話をマイク23が取得することで得られた音声データを、学習済モデル111を用いて音声認識することで、ユーザの発話内容を特定してもよい。そして、該発話内容に応じた返答を、音声出力装置5を介して出力してもよい。すなわち、情報処理装置1は、学習済モデル111を用いてユーザと対話してもよい。 Note that the information processing device 1 may guide input operations in the information processing system 100 using the display screen of the display device 3 and the output audio of the audio output device 5. Further, the information processing device 1 may prompt the user to have a conversation with the information processing system 100 using the display screen of the display device 3 and the output audio of the audio output device 5. Then, the content of the user's utterance may be identified by performing voice recognition using the learned model 111 on voice data obtained by acquiring the conversation with the microphone 23. Then, a reply corresponding to the content of the utterance may be outputted via the audio output device 5. That is, the information processing device 1 may interact with the user using the learned model 111.

(要部構成の変形例)
記憶部11は、情報処理装置1の外部装置であってもよい。記憶部11が情報処理装置1の外部装置である場合、記憶部11と情報処理装置1とは、有線または無線で接続され、各種データの送受信が行われる。
(Modified example of main part configuration)
The storage unit 11 may be an external device of the information processing device 1. When the storage unit 11 is an external device of the information processing device 1, the storage unit 11 and the information processing device 1 are connected by wire or wirelessly, and various data are transmitted and received.

また、車載センサ2のマイク23、またはマイク23以外に車両9に配置されたマイクを、入力装置4として使用してもよい。すなわち、ユーザの各種入力操作は、音声入力により行われてもよい。この場合、制御部10は、センサ情報取得部101が取得したマイク23の音声データを、学習済モデル111に入力する。これにより、学習済モデル111において、音声データが音声認識され、該音声データに含まれるユーザの発話内容が特定され。制御部10の入力情報取得部104は、学習済モデル111の出力結果(すなわち、音声認識結果)を、入力情報として取得し、各部に出力する。 Further, the microphone 23 of the on-vehicle sensor 2 or a microphone placed in the vehicle 9 other than the microphone 23 may be used as the input device 4. That is, various input operations by the user may be performed by voice input. In this case, the control unit 10 inputs the audio data of the microphone 23 acquired by the sensor information acquisition unit 101 to the learned model 111. As a result, the learned model 111 performs voice recognition on the voice data, and specifies the content of the user's utterance included in the voice data. The input information acquisition unit 104 of the control unit 10 acquires the output result of the trained model 111 (that is, the speech recognition result) as input information, and outputs it to each unit.

≪評価値および目標値の提示≫
次に、情報処理システム100において、評価値および目標値をユーザに提示する場合の処理の流れを、図3~図7を用いて詳細に説明する。図3は、情報処理装置1における、評価値および目標値の提示に係る処理の流れを示すフローチャートである。また、図4~図7はそれぞれ、提示部103が表示装置3に表示させる画像の一例を示す図である。なお、図3のフローチャートでは、情報処理装置1はログデータ作成部108を含んでいることとする。また、図3のフローチャートでは、評価値算出部102は、目標値算出部105に評価情報を出力することとする。また、図4~図7に示す画面例では、同じ機能を有するオブジェクト画像については、同じ部材番号を付与し、説明を繰り返さない。
≪Presentation of evaluation values and target values≫
Next, the flow of processing when presenting evaluation values and target values to the user in the information processing system 100 will be described in detail using FIGS. 3 to 7. FIG. 3 is a flowchart showing the flow of processing related to presentation of evaluation values and target values in the information processing device 1. Further, FIGS. 4 to 7 are diagrams each showing an example of an image displayed on the display device 3 by the presentation unit 103. Note that in the flowchart of FIG. 3, it is assumed that the information processing device 1 includes the log data creation unit 108. Furthermore, in the flowchart of FIG. 3, the evaluation value calculation unit 102 outputs evaluation information to the target value calculation unit 105. Furthermore, in the screen examples shown in FIGS. 4 to 7, object images having the same function are assigned the same member number and the description will not be repeated.

情報処理装置1は、例えば、入力情報取得部104がユーザの第1入力操作を示す入力情報を取得した場合に、図3に示す一連の処理を開始する。「第1入力操作」とは、例えば、ユーザが情報処理システム100に評価を指示する入力操作である。 The information processing device 1 starts a series of processes shown in FIG. 3, for example, when the input information acquisition unit 104 acquires input information indicating the user's first input operation. The “first input operation” is, for example, an input operation in which the user instructs the information processing system 100 to perform an evaluation.

制御部10のセンサ情報取得部101は、車載センサ2の少なくとも1つのセンサから、センサ情報を取得する(図3のS11、センサ情報取得ステップ)。センサ情報取得部101は取得したセンサ情報を、評価値算出部102に出力する。 The sensor information acquisition unit 101 of the control unit 10 acquires sensor information from at least one sensor of the in-vehicle sensor 2 (S11 in FIG. 3, sensor information acquisition step). The sensor information acquisition unit 101 outputs the acquired sensor information to the evaluation value calculation unit 102.

評価値算出部102は、センサ情報に基づいて評価軸を複数個定める。続いて、評価値算出部102は該複数の評価軸それぞれについての、ユーザの評価値を算出する(図3のS12、評価値算出ステップ)。評価値算出部102は提示部103、目標値算出部105、トレーニング決定部106、およびログデータ作成部108に評価情報を出力する。なお、評価軸が固定である場合、評価値算出部102は評価軸の決定を行わず、規定の評価軸についての評価値を算出すればよい。 The evaluation value calculation unit 102 determines a plurality of evaluation axes based on sensor information. Subsequently, the evaluation value calculation unit 102 calculates the user's evaluation value for each of the plurality of evaluation axes (S12 in FIG. 3, evaluation value calculation step). The evaluation value calculation unit 102 outputs evaluation information to the presentation unit 103 , target value calculation unit 105 , training determination unit 106 , and log data creation unit 108 . Note that when the evaluation axis is fixed, the evaluation value calculation unit 102 does not determine the evaluation axis, but only needs to calculate the evaluation value for the specified evaluation axis.

ログデータ作成部108は、評価情報に基づいて評価値ログデータを作成する(図3のS13)。ログデータ作成部108は作成した評価値ログデータを、評価値ログDB114の1レコードとして記憶部11に記憶させる。 The log data creation unit 108 creates evaluation value log data based on the evaluation information (S13 in FIG. 3). The log data creation unit 108 stores the created evaluation value log data in the storage unit 11 as one record of the evaluation value log DB 114.

一方、評価情報を取得した提示部103は、該評価情報が示すユーザの評価値を、表示装置3に表示させる(図3のS14、第1提示ステップ)。例えば、提示部103は、各評価軸に対するユーザの評価値を示す棒グラフ、円グラフ、またはレーダーチャート等のグラフを作成して、該グラフを含む画像を表示装置3に表示させる。これにより、ユーザに、該ユーザの現在の評価値が提示される。 On the other hand, the presentation unit 103 that has acquired the evaluation information causes the display device 3 to display the user's evaluation value indicated by the evaluation information (S14 in FIG. 3, first presentation step). For example, the presentation unit 103 creates a graph such as a bar graph, a pie chart, or a radar chart showing the user's evaluation value for each evaluation axis, and causes the display device 3 to display an image including the graph. Thereby, the user is presented with the user's current evaluation value.

図4に示す画像51は、S14の処理によって、提示部103が表示装置3に表示させる画像の一例である。図4の例では、画像51には、表情、髪型、優しさ、トークレベル、知識量、肌年齢、筋肉量、および、ファッションレベルの8つの評価軸についての評価値をレーダーチャートG1の形式で一覧可能に示した画像オブジェクトが含まれている。このように、レーダーチャートで評価値を示すことで、ユーザに、自分の長所(すなわち、強み)と、短所(すなわち、弱み)を分かり易く知らせることができる。また、画像51には、図示のように、前の画面への遷移を指示するためのボタンB1と、次の画面への遷移を指示するためのボタンB2とが、UIオブジェクトとして含まれていてもよい。 An image 51 shown in FIG. 4 is an example of an image displayed on the display device 3 by the presentation unit 103 through the process of S14. In the example of FIG. 4, the image 51 includes evaluation values for eight evaluation axes: facial expression, hairstyle, kindness, talk level, amount of knowledge, skin age, muscle mass, and fashion level, in the form of a radar chart G1. Contains image objects that can be viewed at a glance. In this way, by showing the evaluation values on the radar chart, it is possible to inform the user of his or her strengths (that is, strengths) and weaknesses (that is, weaknesses) in an easy-to-understand manner. Further, as shown in the figure, the image 51 includes, as UI objects, a button B1 for instructing a transition to the previous screen, and a button B2 for instructing a transition to the next screen. Good too.

なお、提示部103は、評価値を数値だけでなくテキストでユーザに提示してもよい。また、提示部103は、評価値の高低に応じたコメントをユーザに提示してもよい。例えば、提示部103は、図4に示すように、8つの評価軸のうち、評価値が第1の値(例えば、最大値の半分)以上である評価軸の内容に応じたコメントT1を、画像51に含めてもよい。また、提示部103は、評価値が第1の値未満の第2の値(例えば、最大値の4割)以下である評価軸の内容に応じたコメントT2を、画像51に含めてもよい。評価値の高い評価軸は、ユーザの強みであり、評価値の低い評価軸は、ユーザの弱みであると言える。したがって、コメントT1およびT2をユーザに提示することによって、ユーザは自分の弱みと強みをより明確に知ることができる。 Note that the presentation unit 103 may present the evaluation value to the user not only in numerical value but also in text. Furthermore, the presentation unit 103 may present comments to the user depending on the level of the evaluation value. For example, as shown in FIG. 4, the presentation unit 103 sends a comment T1 according to the content of the evaluation axis whose evaluation value is the first value (for example, half of the maximum value) or more among the eight evaluation axes. It may be included in the image 51. Further, the presentation unit 103 may include in the image 51 a comment T2 corresponding to the content of the evaluation axis whose evaluation value is less than or equal to a second value (for example, 40% of the maximum value). . It can be said that evaluation axes with high evaluation values are the user's strengths, and evaluation axes with low evaluation values are the user's weaknesses. Therefore, by presenting the comments T1 and T2 to the user, the user can more clearly know his/her weaknesses and strengths.

表示装置3に表示された画像51を確認することで、自分の現在の評価値を認識したユーザは、次に、入力装置4を介して、自分の目標を入力する。提示部103は、ユーザの所定の入力操作に応じて、該ユーザが目標を入力(指定)するためのUI画像を表示装置3に表示させる。具体的には、提示部103は、入力情報取得部104が、図4のボタンB2を選択する操作を示す入力情報を取得した場合に、図5に示すような画像を表示装置3に表示させる。 The user who has recognized his or her current evaluation value by checking the image 51 displayed on the display device 3 then inputs his or her goal via the input device 4 . The presentation unit 103 causes the display device 3 to display a UI image for the user to input (designate) a goal in response to a predetermined input operation by the user. Specifically, the presentation unit 103 causes the display device 3 to display an image as shown in FIG. 5 when the input information acquisition unit 104 acquires input information indicating an operation to select button B2 in FIG. .

図5に示す画像52は、提示部103が表示装置3に表示させるUI画像の一例である。例えば、提示部103はユーザの目標を示すボタン群B3を含む画像52を表示装置3に表示させる。ボタン群B3に含まれる各種ボタンをユーザが選択すると、選択されたボタンに対応する目標が、ユーザによって指定されたこととなる。図5の例では、ユーザは、「筋肉質」で、「美肌」で、「おしゃれ」で、「優しそう」で、「博識」で、「話し上手」な人間になる、という目標を指定したといえる。すなわち、ボタン群B3は、ユーザの目標の選択肢であるともいえる。 An image 52 shown in FIG. 5 is an example of a UI image that the presentation unit 103 displays on the display device 3. For example, the presentation unit 103 causes the display device 3 to display an image 52 including a button group B3 indicating the user's goal. When the user selects various buttons included in the button group B3, it means that the user has specified the target corresponding to the selected button. In the example in Figure 5, the user specifies the goals of becoming a person who is "muscular," "beautiful," "fashionable," "kind-looking," "knowledgeable," and "good at talking." I can say that. In other words, the button group B3 can be said to be the user's target options.

ユーザがボタン群B3のうち、所望のボタンを選択状態にした状態で、次の画面へ遷移するボタンB2を選択すると、ボタン群B3のうち、選択状態にされたボタンを特定する情報が、入力情報として入力装置4から入力情報取得部104に送信される。入力情報取得部104は、該入力情報、すなわち、ユーザの目標を示す情報を、目標値算出部105に出力する。 When the user selects the button B2 that transitions to the next screen with a desired button selected from the button group B3, information specifying the selected button from the button group B3 is input. The information is transmitted from the input device 4 to the input information acquisition unit 104 as information. The input information acquisition unit 104 outputs the input information, that is, information indicating the user's goal, to the target value calculation unit 105.

再び図3のフローチャートに戻り説明する。情報処理装置1の入力情報取得部104は、ユーザが入力した、該ユーザの目標を示す入力情報を取得する(図3のS15)。入力情報取得部104は取得した入力情報を目標値算出部105に出力する。 The explanation will be given again by returning to the flowchart of FIG. The input information acquisition unit 104 of the information processing device 1 acquires input information input by the user and indicating the user's goal (S15 in FIG. 3). The input information acquisition unit 104 outputs the acquired input information to the target value calculation unit 105.

目標値算出部105は、評価値算出部102から取得した評価情報が示す各評価軸における目標値を算出する(図3のS16、目標値算出ステップ)。目標値算出部105は算出した目標値を、提示部103およびトレーニング決定部106に出力する。 The target value calculation unit 105 calculates target values for each evaluation axis indicated by the evaluation information acquired from the evaluation value calculation unit 102 (S16 in FIG. 3, target value calculation step). Target value calculation unit 105 outputs the calculated target value to presentation unit 103 and training determination unit 106.

提示部103は、目標値算出部105から目標値を取得すると、評価値算出部102から取得した評価値と、目標値算出部105から取得した目標値とを含む画像を作成し、表示装置3に表示させる(図3のS17、第2提示ステップ)。例えば、提示部103は、各評価軸に対するユーザの評価値および目標値を示す棒グラフ、円グラフ、またはレーダーチャート等のグラフを作成し、該グラフを表示装置3に表示させる。なお、評価値と目標値とは、1つのグラフの中に重ねて示されてもよいし、2つのグラフに分けて、並べて示されてもよい。これにより、ユーザに、該ユーザの現在の評価値と、ユーザの目標を数値化した目標値とが比較可能に提示される。 Upon acquiring the target value from the target value calculation unit 105, the presentation unit 103 creates an image including the evaluation value acquired from the evaluation value calculation unit 102 and the target value acquired from the target value calculation unit 105, and displays the image on the display device 3. (S17 in FIG. 3, second presentation step). For example, the presentation unit 103 creates a graph such as a bar graph, a pie chart, or a radar chart showing the user's evaluation value and target value for each evaluation axis, and causes the display device 3 to display the graph. Note that the evaluation value and the target value may be shown overlappingly in one graph, or may be divided into two graphs and shown side by side. Thereby, the user's current evaluation value and the target value, which is a numerical value of the user's goal, are presented to the user so that they can be compared.

例えば、提示部103は、評価値と目標値とを1つのグラフの中に重ねて表示させてもよい。図6に示す画像53は、S17の処理によって、提示部103が表示装置3に表示させる画像の一例である。図6の例では、画像53には、画像51と同じ8つの評価軸についての評価値および目標値を、レーダーチャートG2の形式で示した画像オブジェクトが含まれている。このように、レーダーチャートで評価値および目標値を重畳させて示すことで、ユーザに、自分の現在の評価値と、目標を達成した場合に満たされる目標値との差異を、分かり易く知らせることができる。なお、画像53には、図示のように、ユーザが目標を達成した場合のイメージ画像P1が含まれていてもよい。 For example, the presentation unit 103 may display the evaluation value and the target value in one graph in an overlapping manner. The image 53 shown in FIG. 6 is an example of an image that the presentation unit 103 displays on the display device 3 through the process of S17. In the example of FIG. 6, the image 53 includes an image object that shows evaluation values and target values for the same eight evaluation axes as the image 51 in the form of a radar chart G2. In this way, by superimposing and showing the evaluation value and target value on the radar chart, the user can easily understand the difference between his or her current evaluation value and the target value that will be met if the goal is achieved. I can do it. Note that the image 53 may include an image P1 when the user achieves the goal, as shown in the figure.

また、提示部103は、評価値と目標値とを2つのグラフに分けて、並べて表示させてもよい。図7に示す画像54は、S17の処理によって、提示部103が表示装置3に表示させる画像の他の一例である。図7の例では、画像53には、画像51と同じ8つの評価軸についての評価値を示したレーダーチャートG1と、同じ8つの評価軸についての目標値を示したレーダーチャートG3とが含まれている。このように、レーダーチャートで評価値および目標値を並べて示すことで、ユーザに、自分の現在の評価値と、目標を達成した場合に満たされる目標値との差異を、分かり易く知らせることができる。 Further, the presentation unit 103 may divide the evaluation value and the target value into two graphs and display them side by side. The image 54 shown in FIG. 7 is another example of an image displayed by the presentation unit 103 on the display device 3 through the process of S17. In the example of FIG. 7, the image 53 includes a radar chart G1 showing evaluation values for the same eight evaluation axes as the image 51, and a radar chart G3 showing target values for the same eight evaluation axes. ing. In this way, by showing the evaluation value and target value side by side on the radar chart, it is possible to clearly inform the user of the difference between his or her current evaluation value and the target value that will be met if the goal is achieved. .

なお、情報処理装置1においてログデータ作成部108は必須構成ではない。そのため、S13の処理も必須ではない。また、S13の処理のタイミングは、S12の処理とS14の処理との間に限られない。すなわち、S13の処理は、S12の処理の後であれば、どのタイミングで実行されてもよい。 Note that the log data creation unit 108 is not an essential component in the information processing device 1. Therefore, the processing in S13 is also not essential. Further, the timing of the process in S13 is not limited to between the process in S12 and the process in S14. That is, the process in S13 may be executed at any timing after the process in S12.

前記の処理によれば、ユーザに対し、ユーザの目標を数値化した目標値と、センサ情報という客観的情報に基づく評価を数値化した評価値と、を提示することができる。したがって、ユーザは車内空間に滞在している間に、自身の目標の具体化と、自身の客観的評価を得ることができる。したがって、ユーザは車内空間で有意義に過ごすことができる。 According to the above process, it is possible to present to the user a target value that is a numerical representation of the user's goal, and an evaluation value that is a numerical representation of an evaluation based on objective information such as sensor information. Therefore, the user can materialize his or her goals and obtain an objective evaluation of himself or herself while staying in the vehicle interior space. Therefore, the user can spend meaningful time in the space inside the car.

≪トレーニング提示処理≫
最後に、情報処理システム100において、ユーザに提示するトレーニングを決定し、ユーザに提示する場合の処理の流れを、図8~図10を用いて詳細に説明する。図8は、情報処理装置1において、トレーニングを決定しユーザに提示する処理の流れを示すフローチャートである。図9~図10は、提示部103が表示装置3に表示させる画像の一例を示す図である。なお、図8の例では、トレーニング決定部106は、ユーザのトレーニングの希望方針に基づいてトレーニングを決定することとする。また、図8の例では、トレーニング決定部106は、トレーニングのスケジュールも決定することとする。
≪Training presentation processing≫
Finally, the flow of processing when the information processing system 100 determines training to be presented to the user and presents it to the user will be described in detail using FIGS. 8 to 10. FIG. 8 is a flowchart showing the flow of processing in which training is determined and presented to the user in the information processing device 1. 9 to 10 are diagrams showing examples of images displayed on the display device 3 by the presentation unit 103. In the example of FIG. 8, the training determining unit 106 determines training based on the user's desired training policy. In the example of FIG. 8, the training determining unit 106 also determines the training schedule.

情報処理装置1は、例えば、入力情報取得部104がユーザの第2入力操作を示す入力情報を取得した場合に、図2に示す一連の処理を開始する。「第2入力操作」とは、例えば、図7においてボタンB2を選択する入力操作である。入力情報取得部104が第2入力操作を示す入力情報を取得すると、提示部103は、表示装置3に、ユーザがトレーニングの希望方針を入力するためのUI画像を表示させる。 The information processing apparatus 1 starts a series of processes shown in FIG. 2, for example, when the input information acquisition unit 104 acquires input information indicating the user's second input operation. The "second input operation" is, for example, the input operation of selecting button B2 in FIG. When the input information acquisition unit 104 acquires the input information indicating the second input operation, the presentation unit 103 causes the display device 3 to display a UI image for the user to input a desired training policy.

図9に示す画像55は、提示部103が表示装置3に表示させるUI画像の一例である。例えば、提示部103は、希望方針を示すボタン群B4を含む画像52を表示装置3に表示させる。ボタン群B4に含まれる各種ボタンをユーザが選択すると、選択されたボタンに対応するトレーニングの方針が、ユーザによって希望されたこととなる。図9の例では、ユーザは、「弱みを強化する」というトレーニング方針を希望したといえる。すなわち、ボタン群B4は、ユーザの希望方針の選択肢であるともいえる。 An image 55 shown in FIG. 9 is an example of a UI image that the presentation unit 103 displays on the display device 3. For example, the presentation unit 103 causes the display device 3 to display an image 52 including a button group B4 indicating the desired policy. When the user selects various buttons included in the button group B4, it means that the user desires the training policy corresponding to the selected button. In the example of FIG. 9, it can be said that the user desired a training policy of "strengthening weaknesses." In other words, the button group B4 can be said to be options for the user's desired policy.

ユーザがボタン群B4のうち、所望のボタンを選択状態にした状態で、次の画面へ遷移するボタンB2を選択すると、ボタン群B4のうち、選択状態にされたボタンを特定する情報が、入力情報として入力装置4から入力情報取得部104に送信される。入力情報取得部104は、該入力情報、すなわち、ユーザの希望方針を示す情報を、目標値算出部105に出力する。 When the user selects the button B2 for transitioning to the next screen with a desired button selected from the button group B4, information specifying the selected button from the button group B4 is input. The information is transmitted from the input device 4 to the input information acquisition unit 104 as information. The input information acquisition unit 104 outputs the input information, that is, information indicating the user's desired policy to the target value calculation unit 105.

再び図8に戻り説明する。トレーニング決定部106は、入力情報取得部104からトレーニングの希望方針を示す入力情報を取得すると(図8のS21)、トレーニングを1つ以上決定する。すなわち、トレーニング決定部106は、評価値算出部102から取得した評価情報が示す評価値と、目標値算出部105から取得した目標値との差、および、希望方針に基づいて、トレーニングを1つ以上決定する(図8のS22)。トレーニング決定部106は続いて、トレーニングのスケジュールを決定する(図8のS23)。トレーニング決定部106は決定したトレーニングおよびスケジュールを示す情報を、提示部103に出力する。 The explanation will be given by returning to FIG. 8 again. When the training determining unit 106 acquires input information indicating a desired training policy from the input information acquiring unit 104 (S21 in FIG. 8), the training determining unit 106 determines one or more trainings. That is, the training determining unit 106 selects one training based on the difference between the evaluation value indicated by the evaluation information acquired from the evaluation value calculation unit 102 and the target value acquired from the target value calculation unit 105, and the desired policy. The above determination is made (S22 in FIG. 8). The training determining unit 106 then determines a training schedule (S23 in FIG. 8). The training determining unit 106 outputs information indicating the determined training and schedule to the presenting unit 103.

トレーニング決定部106からトレーニングおよびスケジュールを示す情報を取得した提示部103は、表示装置3に、該トレーニングおよびスケジュールを含む画像を表示させることで、トレーニングおよびスケジュールをユーザに提示する(図8のS24)。 The presenting unit 103 that has acquired the information indicating the training and schedule from the training determining unit 106 presents the training and schedule to the user by displaying an image including the training and schedule on the display device 3 (S24 in FIG. 8). ).

図10に示す画像56は、S24の処理によって、提示部103が表示装置3に表示させる画像の一例である。図10の例では、画像56には、トレーニング決定部106が決定したトレーニングの内容を示すテキストT3と、各トレーニングの実施スケジュールを示す画像P2とが含まれている。 An image 56 shown in FIG. 10 is an example of an image that the presentation unit 103 displays on the display device 3 through the process of S24. In the example of FIG. 10, the image 56 includes a text T3 indicating the content of the training determined by the training determining unit 106, and an image P2 indicating the implementation schedule of each training.

前記の処理によれば、情報処理装置1は、ユーザが入力した目標に近づくために車内空間で出来るトレーニングを、該ユーザに提示する。したがって、ユーザは提示されたトレーニングを実行することで、車内空間での滞在時間を有意義に使うことができる。 According to the above process, the information processing device 1 presents the user with training that can be done in the interior of the car in order to get closer to the goal input by the user. Therefore, by performing the presented training, the user can make meaningful use of the time spent in the vehicle interior.

〔実施形態2〕
本開示に係る情報処理システムにおいて、制御装置は、車載装置6の使用状況からトレーニングの実行を検知する実行検知部を備えていてもよい。また、センサ情報取得部101は、実行検知部がトレーニングの実行を検知した場合にセンサ情報を再取得してもよい。また、評価値算出部102は、センサ情報取得部101により再取得されたセンサ情報に基づいて、前回に選択した複数の評価軸それぞれについての、ユーザの評価値を再算出してもよい。また、提示部103は、再算出された評価値、および、再算出された評価値と前回算出した評価値との差分の、少なくとも一方を、表示装置3を介してユーザに提示してもよい。
[Embodiment 2]
In the information processing system according to the present disclosure, the control device may include an execution detection unit that detects execution of training from the usage status of the in-vehicle device 6. Further, the sensor information acquisition unit 101 may acquire sensor information again when the execution detection unit detects execution of training. Furthermore, the evaluation value calculation unit 102 may recalculate the user's evaluation value for each of the plurality of evaluation axes selected last time based on the sensor information reacquired by the sensor information acquisition unit 101. Further, the presentation unit 103 may present at least one of the recalculated evaluation value and the difference between the recalculated evaluation value and the previously calculated evaluation value to the user via the display device 3. .

また、本開示に係る情報処理システムにおいて、制御装置は、各評価軸について、再算出された評価値が目標値以上になったか否かを判定する達成判定部を備えていてもよい。そして、提示部103は、達成判定部が、少なくとも1つの評価軸について、再算出された評価値が前記目標値以上になったと判定した場合、ユーザに目標値に達したことを示す通知を提示してもよい。 Furthermore, in the information processing system according to the present disclosure, the control device may include an achievement determination unit that determines whether the recalculated evaluation value is equal to or greater than the target value for each evaluation axis. Then, when the achievement determination unit determines that the recalculated evaluation value is equal to or higher than the target value for at least one evaluation axis, the presentation unit 103 presents a notification to the user indicating that the target value has been reached. You may.

以下、本開示の第2の実施形態について説明する。なお、本実施形態以降の実施形態においては、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。 A second embodiment of the present disclosure will be described below. In addition, in the embodiments after this embodiment, for convenience of explanation, members having the same functions as the members described in the previous embodiment are denoted by the same reference numerals, and the description thereof will not be repeated.

≪要部構成≫
図11は、本実施形態に係る情報処理システム200の要部構成を示すブロック図である。情報処理システム200は、情報処理装置1に換えて情報処理装置7を含む点で、実施形態1に係る情報処理システム100と異なる。情報処理装置7は、制御部10に換えて制御部(制御装置)12を含む。
≪Main part configuration≫
FIG. 11 is a block diagram showing the main configuration of the information processing system 200 according to this embodiment. The information processing system 200 differs from the information processing system 100 according to the first embodiment in that it includes an information processing device 7 instead of the information processing device 1. The information processing device 7 includes a control section (control device) 12 instead of the control section 10 .

(制御部12)
制御部12は、制御部10の有する各部材に加え、実行検知部121と、達成判定部122とを含む。なお、本実施形態では、トレーニング決定部106が決定するトレーニングは、車載装置6を使用して行われるトレーニングである。また、本実施形態では、評価値算出部102は、評価情報を達成判定部122にも出力する。また、本実施形態では、目標値算出部105は、目標値を達成判定部122にも出力する。
(Control unit 12)
The control unit 12 includes an execution detection unit 121 and an achievement determination unit 122 in addition to each member included in the control unit 10 . Note that in this embodiment, the training determined by the training determining unit 106 is training performed using the in-vehicle device 6. Further, in this embodiment, the evaluation value calculation unit 102 also outputs evaluation information to the achievement determination unit 122. Further, in this embodiment, the target value calculation unit 105 also outputs the target value to the achievement determination unit 122.

また、車載装置6は、自装置の使用状況を示す情報を制御部12に送信する。ここで、「使用状況を示す情報」とは、例えば、車載装置6に付属するセンサ等を用いて測定可能な情報である。例えば、車載装置6が車両9のブレーキである場合、使用状況を示す情報とは、ユーザがブレーキを踏んだ回数および踏み込みの強さを示す情報である。また例えば、車載装置6がマイク23である場合、使用状況を示す情報とは、マイク23が取得する音声データ自体である。 Further, the in-vehicle device 6 transmits information indicating the usage status of the in-vehicle device to the control unit 12. Here, "information indicating usage status" is information that can be measured using a sensor attached to the on-vehicle device 6, for example. For example, when the in-vehicle device 6 is the brake of the vehicle 9, the information indicating the usage status is information indicating the number of times the user has stepped on the brake and the strength of the depression. Further, for example, when the in-vehicle device 6 is the microphone 23, the information indicating the usage status is the audio data itself acquired by the microphone 23.

実行検知部121は、車載装置6の使用状況から、トレーニング決定部106が決定したトレーニングが実行されたことを検知する。実行検知部121におけるトレーニング実行の検知方法は、特に限定されない。例えば、トレーニング決定部106が決定したトレーニングが「情報処理システム100と対話を行う」というトレーニングである場合、実行検知部121は、マイク23が取得する音声データにユーザの発話が含まれているか否かを判定する。発話が含まれている場合、実行検知部121は、ユーザが、「情報処理システム100と対話を行う」というトレーニングを実行した、と判定する。実行検知部121は、トレーニングの実行を検知すると、センサ情報取得部101および達成判定部122にその旨を通知する。 The execution detection unit 121 detects that the training determined by the training determination unit 106 has been executed based on the usage status of the in-vehicle device 6. The method of detecting training execution by the execution detection unit 121 is not particularly limited. For example, if the training determined by the training determining unit 106 is training for “conducting a dialogue with the information processing system 100,” the execution detecting unit 121 determines whether or not the audio data acquired by the microphone 23 includes user utterances. Determine whether If the utterance is included, the execution detection unit 121 determines that the user has executed the training of "interacting with the information processing system 100." When the execution detection unit 121 detects the execution of training, it notifies the sensor information acquisition unit 101 and the achievement determination unit 122 to that effect.

本実施形態に係るセンサ情報取得部101は、実行検知部121から通知を受けると、車載センサ2からセンサ情報を再取得し、該センサ情報を評価値算出部102に出力する。本実施形態に係る評価値算出部102は、センサ情報取得部101が再取得したセンサ情報に基づいて、前回選択した複数の評価軸それぞれについての、ユーザの評価値を再算出する。再算出された評価値は、初回に評価値を算出した場合と同様に、評価情報に含まれて各部に出力される。 Upon receiving the notification from the execution detection unit 121 , the sensor information acquisition unit 101 according to the present embodiment reacquires sensor information from the on-vehicle sensor 2 and outputs the sensor information to the evaluation value calculation unit 102 . The evaluation value calculation unit 102 according to the present embodiment recalculates the user's evaluation value for each of the plurality of evaluation axes selected last time, based on the sensor information reacquired by the sensor information acquisition unit 101. The recalculated evaluation value is included in the evaluation information and output to each section in the same way as when the evaluation value is calculated for the first time.

本実施形態に係る提示部103は、再算出された評価値、および、再算出された評価値と前回算出した評価値との差分の、少なくとも一方を、表示装置3を介してユーザに提示する。例えば、提示部103は、再算出された評価値をレーダーチャートで示した画像を表示装置3に表示させてもよい。また例えば、提示部103は、再算出された評価値と、前回算出された評価値とを、1つのレーダーチャートで重畳させて示した画像を、表示装置3に表示させてもよい。また例えば、提示部103は、再算出された評価値と、前回算出された評価値との2つのレーダーチャートとを並べた画像を表示装置3に表示させてもよい。 The presentation unit 103 according to the present embodiment presents at least one of the recalculated evaluation value and the difference between the recalculated evaluation value and the previously calculated evaluation value to the user via the display device 3. . For example, the presentation unit 103 may cause the display device 3 to display an image showing the recalculated evaluation value as a radar chart. For example, the presentation unit 103 may cause the display device 3 to display an image in which the recalculated evaluation value and the previously calculated evaluation value are superimposed on one radar chart. For example, the presentation unit 103 may cause the display device 3 to display an image in which two radar charts of the recalculated evaluation value and the previously calculated evaluation value are arranged side by side.

達成判定部122は、評価値算出部102が選択した複数の評価軸について、再算出された評価値が、目標値算出部105が算出した目標値以上になったか否かを判定する。再算出された評価値が目標値以上になった場合、達成判定部122は、表示装置3に、ユーザが目標値に達したことを示す通知を表示させる。なお、該通知は、提示部103ではなく、音声制御部107が、音声出力装置5を介して音声で通知してもよい。 The achievement determination unit 122 determines whether the recalculated evaluation values for the plurality of evaluation axes selected by the evaluation value calculation unit 102 are equal to or greater than the target values calculated by the target value calculation unit 105. When the recalculated evaluation value is equal to or greater than the target value, the achievement determination unit 122 causes the display device 3 to display a notification indicating that the user has reached the target value. Note that the notification may be made by the audio control unit 107 instead of the presentation unit 103 in the form of audio via the audio output device 5.

本実施形態に係る構成によれば、情報処理装置7は、ユーザがトレーニングを実行した場合、トレーニングの実行による評価値の変化を該ユーザに提示することができる。すなわち、情報処理装置7は、トレーニングにより実際に得られた効果をユーザに示すことができる。また、本実施形態に係る構成によれば、評価値が目標値以上になった、すなわち、ユーザの現在の評価が、ユーザの入力した目標に係る目標値に達したことを通知することができる。 According to the configuration according to the present embodiment, when the user executes training, the information processing device 7 can present to the user a change in the evaluation value due to the execution of the training. That is, the information processing device 7 can show the user the effects actually obtained through training. Further, according to the configuration according to the present embodiment, it is possible to notify that the evaluation value has become equal to or higher than the target value, that is, that the user's current evaluation has reached the target value related to the goal input by the user. .

〔変形例〕
情報処理装置1および情報処理装置7は、ユーザの所持するスマートフォン等の端末装置と連携して動作してもよい。この場合、情報処理装置1および情報処理装置7は、外部装置と通信する通信部を備えている。また、この場合、情報処理装置1または情報処理装置7と端末装置とは、予めペアリングされていることが好ましい。
[Modified example]
The information processing device 1 and the information processing device 7 may operate in cooperation with a terminal device such as a smartphone owned by the user. In this case, the information processing device 1 and the information processing device 7 are provided with a communication unit that communicates with an external device. Further, in this case, it is preferable that the information processing device 1 or the information processing device 7 and the terminal device be paired in advance.

例えば、情報処理装置1または情報処理装置7の入力情報取得部104は、通信部を介して、端末装置に対する入力操作を示す情報を、入力情報として取得してもよい。これにより、ユーザは、入力装置4の代わりに自分の所持する端末装置を用いて、各種入力操作を行うことができる。 For example, the input information acquisition unit 104 of the information processing device 1 or the information processing device 7 may acquire information indicating an input operation on the terminal device as input information via the communication unit. Thereby, the user can perform various input operations using his or her own terminal device instead of the input device 4.

また、情報処理装置1の制御部10、および情報処理装置7の制御部12は、ユーザの端末装置から、該ユーザの身長、体重等、該ユーザの個人情報を取得してもよい。また、評価値算出部102は、前記個人情報を加味して、評価軸の選択および評価値の算出を行ってもよい。これにより、より適切な評価軸で、より精密に評価値を算出することができる。また、トレーニング決定部106は、前記個人情報を加味して、トレーニングの決定、およびトレーニングのスケジュールの決定を行ってもよい。これにより、より有効なトレーニングまたはトレーニングの実施スケジュールをユーザに提示することができる。 Further, the control unit 10 of the information processing device 1 and the control unit 12 of the information processing device 7 may acquire personal information of the user, such as the user's height and weight, from the user's terminal device. Furthermore, the evaluation value calculation unit 102 may select the evaluation axis and calculate the evaluation value, taking the personal information into account. Thereby, evaluation values can be calculated more precisely using more appropriate evaluation axes. Further, the training determining unit 106 may decide on training and the training schedule, taking the personal information into consideration. Thereby, a more effective training or training implementation schedule can be presented to the user.

情報処理装置1および情報処理装置7は、ユーザの指示に応じて、ユーザの強みを強調する、または、ユーザの弱みを目立たなくするように、車載装置6を制御してもよい。ユーザの強みおよび弱みは、前述の通り、評価値の高さで特定することができる。すなわち、評価値が高いほど、ユーザは該評価値に対応する評価軸を強みにしているといえる。逆に、評価値が低いほど、ユーザは該評価値に対応する評価軸が弱みであるといえる。 The information processing device 1 and the information processing device 7 may control the in-vehicle device 6 to emphasize the user's strengths or make the user's weaknesses less noticeable in accordance with the user's instructions. As described above, a user's strengths and weaknesses can be identified by the height of the evaluation value. In other words, it can be said that the higher the evaluation value, the more the user considers the evaluation axis corresponding to the evaluation value to be a strength. Conversely, the lower the evaluation value, the weaker the user is in the evaluation axis corresponding to the evaluation value.

例えば、「筋肉質」という評価軸を強みにしているユーザ、すなわち、筋肉質のユーザである場合、情報処理装置1の制御部10、または情報処理装置7の制御部12は、座席シートのリクライニング機構を、ユーザの体格が同乗者から見て最も大きく見えるような角度に調整してもよい。これにより、ユーザの車内体験をより向上させることができる。 For example, in the case of a user who has an evaluation axis of "muscularity" as a strength, that is, a muscular user, the control unit 10 of the information processing device 1 or the control unit 12 of the information processing device 7 adjusts the reclining mechanism of the seat. , the user's physique may be adjusted to an angle that makes the user's physique appear largest to the passenger. Thereby, the user's in-vehicle experience can be further improved.

また、車載装置6としての車内照明の明るさおよび色調を、ユーザの外見に関する評価軸および評価値に応じて変更することで、該評価軸についてのユーザの強みを強調する、または、ユーザの弱みを目立たなくしてもよい。例えば、
(評価値の他の利用方法)
情報処理装置1および情報処理装置7は、外部装置と通信する通信部を備えていてもよい。そして、情報処理装置1の制御部10、または情報処理装置7の制御部12は、ユーザの現在の評価値を示す情報を含んだ、ユーザを紹介するための画像である紹介画像を作成してもよい。例えば、制御部10および制御部12は、図4のレーダーチャートG1を含んだ紹介画像を作成してもよい。
In addition, by changing the brightness and color tone of the in-vehicle lighting as the in-vehicle device 6 according to the evaluation axis and evaluation value regarding the user's appearance, the user's strengths regarding the evaluation axis can be emphasized or the user's weaknesses can be emphasized. may be made inconspicuous. for example,
(Other ways to use evaluation values)
The information processing device 1 and the information processing device 7 may include a communication unit that communicates with an external device. Then, the control unit 10 of the information processing device 1 or the control unit 12 of the information processing device 7 creates an introduction image that is an image for introducing the user and includes information indicating the user's current evaluation value. Good too. For example, the control unit 10 and the control unit 12 may create an introduction image including the radar chart G1 of FIG. 4.

そして、情報処理装置1および情報処理装置7は、通信部を介して、紹介画像を外部装置に送信してもよい。例えば、情報処理装置1および情報処理装置7は、ユーザの所持する端末装置に紹介画像を送信してもよい。 Then, the information processing device 1 and the information processing device 7 may transmit the introduction image to an external device via the communication unit. For example, the information processing device 1 and the information processing device 7 may transmit the introduction image to a terminal device owned by the user.

また、情報処理装置1および情報処理装置7は、インターネット上のソーシャルネットワークサービス(SNS)等に、紹介画像を投稿してもよい。なお、該画像を投稿する場合のアカウントは、予め情報処理装置1および情報処理装置7に登録されていることが望ましい。 Further, the information processing device 1 and the information processing device 7 may post the introduction image to a social network service (SNS) or the like on the Internet. Note that it is desirable that the account used to post the image be registered in the information processing device 1 and the information processing device 7 in advance.

また、情報処理装置1および情報処理装置7は、自装置が搭載された車両9の近傍に存在する、他の車両に対して、紹介画像を送信してもよい。また、情報処理装置1および情報処理装置7と同様の構成を持つ情報処理装置を搭載した他の車両から、該他の車両のユーザの紹介画像を受信し、表示装置3に表示させてもよい。 Further, the information processing device 1 and the information processing device 7 may transmit the introduction image to other vehicles that exist near the vehicle 9 in which the information processing device 1 and the information processing device 7 are mounted. Further, an introduction image of a user of another vehicle may be received from another vehicle equipped with an information processing device having a configuration similar to that of the information processing device 1 and the information processing device 7, and may be displayed on the display device 3. .

このように、評価値算出部102が算出した評価値に係る情報を、ユーザを紹介するために利用することで、ユーザは、車両9に滞在していないときでも、情報処理装置1または情報処理装置7により算出された評価値を有効活用できる。 In this way, by using the information related to the evaluation value calculated by the evaluation value calculation unit 102 to introduce the user, the user can use the information processing device 1 or the information processing device even when not staying in the vehicle 9. The evaluation value calculated by the device 7 can be effectively utilized.

〔ソフトウェアによる実現例〕
制御部10および制御部12の制御ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of implementation using software]
The control blocks of the control unit 10 and the control unit 12 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by software.

後者の場合、制御部10および制御部12は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、前記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、前記コンピュータにおいて、前記プロセッサが前記プログラムを前記記録媒体から読み取って実行することにより、本開示の目的が達成される。前記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。前記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、前記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、前記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して前記コンピュータに供給されてもよい。なお、本開示の一態様は、前記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the control unit 10 and the control unit 12 are equipped with a computer that executes instructions of a program that is software that implements each function. This computer includes, for example, one or more processors and a computer-readable recording medium storing the program. Then, in the computer, the processor reads the program from the recording medium and executes it, thereby achieving the object of the present disclosure. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, in addition to "non-temporary tangible media" such as ROM (Read Only Memory), tapes, disks, cards, semiconductor memories, programmable logic circuits, etc. can be used. Further, the computer may further include a RAM (Random Access Memory) for expanding the program. Further, the program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) that can transmit the program. Note that one aspect of the present disclosure may also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.

本開示は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本開示の技術的範囲に含まれる。 The present disclosure is not limited to the embodiments described above, and various changes can be made within the scope of the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. are also included within the technical scope of the present disclosure.

100、200 情報処理システム
1、7 情報処理装置
2 車載センサ
3 表示装置
4 入力装置
5 音声出力装置
6 車載装置
9 車両
10、12 制御部
11 記憶部
21 カメラ
22 生体センサ
23 マイク
101 センサ情報取得部
102 評価値算出部
103 提示部
104 入力情報取得部
105 目標値算出部
106 トレーニング決定部
107 音声制御部
108 ログデータ作成部
111 学習済モデル
112 トレーニングDB
113 評価軸設定DB
114 評価値ログDB
121 実行検知部
122 達成判定部
100, 200 Information processing system 1, 7 Information processing device 2 Vehicle-mounted sensor 3 Display device 4 Input device 5 Audio output device 6 Vehicle-mounted device 9 Vehicles 10, 12 Control section 11 Storage section 21 Camera 22 Biological sensor 23 Microphone 101 Sensor information acquisition section 102 Evaluation value calculation unit 103 Presentation unit 104 Input information acquisition unit 105 Target value calculation unit 106 Training determination unit 107 Voice control unit 108 Log data creation unit 111 Learned model 112 Training DB
113 Evaluation axis setting DB
114 Evaluation value log DB
121 Execution detection unit 122 Achievement determination unit

Claims (11)

車載センサから、車内空間に滞在しているユーザに関するセンサ情報を取得するセンサ情報取得部と、
複数の評価軸それぞれについての前記ユーザの評価値を、前記センサ情報の少なくとも一部に基づいて算出する評価値算出部と、
前記評価値を、表示装置を介して前記ユーザに提示する提示部と、
入力装置を介して前記ユーザによって入力された目標に基づいて、前記複数の評価軸それぞれにおける前記ユーザの目標値を算出する目標値算出部と、を備え、
前記提示部はさらに、各評価軸についての前記ユーザの前記評価値と、各評価軸についての前記目標値とを前記ユーザに提示し、
前記車載センサには、少なくともマイクが含まれており、
前記センサ情報には、前記ユーザの発話を含む音声データが含まれており、
前記評価軸には、人間の性格傾向または思考傾向に関する評価軸が含まれており、
前記評価値算出部は、前記人間の性格傾向または思考傾向に関する評価軸における前記ユーザの評価値を、前記音声データの音声認識の結果に基づいて算出することを特徴とする、制御装置。
a sensor information acquisition unit that acquires sensor information regarding a user staying in the vehicle interior space from an in-vehicle sensor;
an evaluation value calculation unit that calculates the user's evaluation value for each of the plurality of evaluation axes based on at least a part of the sensor information;
a presentation unit that presents the evaluation value to the user via a display device;
a target value calculation unit that calculates the user's target value for each of the plurality of evaluation axes based on the target input by the user via an input device,
The presentation unit further presents the user with the user's evaluation value for each evaluation axis and the target value for each evaluation axis,
The in-vehicle sensor includes at least a microphone,
The sensor information includes audio data including utterances of the user,
The evaluation axes include evaluation axes related to human personality tendencies or thinking tendencies,
The control device is characterized in that the evaluation value calculation unit calculates the evaluation value of the user on an evaluation axis related to the human personality tendency or thinking tendency based on the result of voice recognition of the voice data.
前記提示部は、前記評価値および前記目標値を、グラフで提示することを特徴とする、請求項1に記載の制御装置。 The control device according to claim 1, wherein the presentation unit presents the evaluation value and the target value in a graph. 前記複数の評価軸それぞれについての前記評価値と前記目標値との差に基づき、トレーニングを1つ以上決定するトレーニング決定部を備え、
前記トレーニングは、前記評価値を前記目標値に近づけるためのトレーニングであって、前記車内空間で行うトレーニングであり、
前記提示部は、前記表示装置を介して、前記トレーニング決定部によって決定された前記トレーニングを前記ユーザに提示することを特徴とする、請求項1または2に記載の制御装置。
comprising a training determining unit that determines one or more trainings based on the difference between the evaluation value and the target value for each of the plurality of evaluation axes,
The training is training for bringing the evaluation value closer to the target value, and is training performed in the interior space of the vehicle,
The control device according to claim 1 or 2, wherein the presentation unit presents the training determined by the training determination unit to the user via the display device.
前記評価値算出部が算出した前記評価値と、前記評価値の算出日時とを少なくとも含む評価値ログデータを作成するログデータ作成部を備え、
前記トレーニング決定部は、前記ユーザの前記評価値ログデータと、前記評価値と前記目標値との差と、に基づいて、前記トレーニングを決定することを特徴とする、請求項3に記載の制御装置。
comprising a log data creation unit that creates evaluation value log data that includes at least the evaluation value calculated by the evaluation value calculation unit and the calculation date and time of the evaluation value,
The control according to claim 3, wherein the training determining unit determines the training based on the evaluation value log data of the user and a difference between the evaluation value and the target value. Device.
前記トレーニングは、前記車内空間を有する車両の、運転に関する動作を含むことを特徴とする、請求項3または4に記載の制御装置。 5. The control device according to claim 3, wherein the training includes an operation related to driving a vehicle having the interior space. 前記トレーニングは、前記車内空間を有する車両に搭載された各種装置を使用して行われるものであり、
前記各種装置の使用状況から前記トレーニングの実行を検知する実行検知部を備え、
前記センサ情報取得部は、前記実行検知部が前記トレーニングの実行を検知した場合、前記センサ情報を再取得し、
前記評価値算出部は、再取得されたセンサ情報に基づいて、前記複数の評価軸それぞれについての前記ユーザの評価値を再算出し、
前記提示部は、再算出された評価値、および、再算出された評価値と前回算出した評価値との差分の、少なくとも一方を、前記表示装置を介して前記ユーザに提示することを特徴とする、請求項3~5のいずれか1項に記載の制御装置。
The training is performed using various devices installed in a vehicle having the interior space,
comprising an execution detection unit that detects execution of the training from the usage status of the various devices,
The sensor information acquisition unit reacquires the sensor information when the execution detection unit detects execution of the training,
The evaluation value calculation unit recalculates the user's evaluation value for each of the plurality of evaluation axes based on the reacquired sensor information,
The presentation unit is characterized by presenting at least one of the recalculated evaluation value and the difference between the recalculated evaluation value and the previously calculated evaluation value to the user via the display device. The control device according to any one of claims 3 to 5.
各評価軸について、再算出された評価値が前記目標値以上になったか否かを判定する達成判定部を備え、
前記提示部は、前記達成判定部が、少なくとも1つの評価軸について、再算出された評価値が前記目標値以上になったと判定した場合、前記ユーザに目標値に達したことを示す通知を提示することを特徴とする、請求項6に記載の制御装置。
For each evaluation axis, an achievement determination unit is provided that determines whether the recalculated evaluation value is equal to or higher than the target value,
The presenting unit presents a notification to the user indicating that the target value has been reached, when the achievement determining unit determines that the recalculated evaluation value is equal to or higher than the target value for at least one evaluation axis. The control device according to claim 6, characterized in that:
前記車載センサには、少なくとも1つのカメラが含まれており、
前記センサ情報には、前記カメラが撮影した前記ユーザの姿を含む画像データが含まれており、
前記評価軸には、外見に関する評価軸が含まれており、
前記評価値算出部は、前記外見に関する評価軸における前記ユーザの評価値を、前記画像データに基づいて算出することを特徴とする、請求項1~7のいずれか1項に記載の制御装置。
The on-vehicle sensor includes at least one camera,
The sensor information includes image data including the user's appearance taken by the camera,
The evaluation axis includes an evaluation axis regarding appearance,
The control device according to any one of claims 1 to 7, wherein the evaluation value calculation unit calculates the evaluation value of the user on the evaluation axis related to appearance based on the image data.
前記車載センサには、少なくとも1つの生体センサが含まれており、
前記センサ情報には、前記生体センサが測定または取得した前記ユーザの生体情報が含まれており、
前記評価軸には、健康状態に関する評価軸が含まれており、
前記評価値算出部は、前記健康状態に関する評価軸における前記ユーザの評価値を、前記生体情報に基づいて算出することを特徴とする、請求項1~8のいずれか1項に記載の制御装置。
The in-vehicle sensor includes at least one biological sensor,
The sensor information includes biological information of the user measured or acquired by the biological sensor,
The evaluation axis includes an evaluation axis related to health status,
The control device according to any one of claims 1 to 8, wherein the evaluation value calculation unit calculates the evaluation value of the user on the evaluation axis related to the health condition based on the biological information. .
請求項1~9のいずれか1項に記載の制御装置と、
前記車載センサと、
前記入力装置と、
前記表示装置と、を含むことを特徴とする、情報処理システム。
A control device according to any one of claims 1 to 9,
The in-vehicle sensor;
the input device;
An information processing system comprising: the display device.
制御装置の制御方法であって、
車載センサから、車内空間に滞在しているユーザに関するセンサ情報を取得するセンサ情報取得ステップと、
複数の評価軸それぞれについての前記ユーザの評価値を、前記センサ情報の少なくとも一部に基づいて算出する評価値算出ステップと、
前記評価値を、表示装置を介して前記ユーザに提示する第1提示ステップと、
入力装置を介して前記ユーザによって入力された目標に基づいて、前記複数の評価軸それぞれにおける前記ユーザの目標値を算出する目標値算出ステップと、
各評価軸についての前記ユーザの前記評価値と、各評価軸についての前記目標値とを前記ユーザに提示する第2提示ステップと、を含み、
前記車載センサには、少なくともマイクが含まれており、
前記センサ情報には、前記ユーザの発話を含む音声データが含まれており、
前記評価軸には、人間の性格傾向または思考傾向に関する評価軸が含まれており、
前記評価値算出ステップにおいて、前記人間の性格傾向または思考傾向に関する評価軸における前記ユーザの評価値を、前記音声データの音声認識の結果に基づいて算出することを特徴とする、制御方法。
A control method for a control device, the method comprising:
a sensor information acquisition step of acquiring sensor information regarding a user staying in the vehicle interior space from an in-vehicle sensor;
an evaluation value calculation step of calculating the user's evaluation value for each of a plurality of evaluation axes based on at least a part of the sensor information;
a first presentation step of presenting the evaluation value to the user via a display device;
a target value calculation step of calculating the user's target value for each of the plurality of evaluation axes based on the target input by the user via an input device;
a second presenting step of presenting the user's evaluation value for each evaluation axis and the target value for each evaluation axis,
The in-vehicle sensor includes at least a microphone,
The sensor information includes audio data including utterances of the user,
The evaluation axes include evaluation axes related to human personality tendencies or thinking tendencies,
A control method characterized in that, in the evaluation value calculation step, an evaluation value of the user on an evaluation axis related to the human personality tendency or thinking tendency is calculated based on a result of voice recognition of the voice data.
JP2020074795A 2020-04-20 2020-04-20 Control device, information processing system, and control method Active JP7443908B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020074795A JP7443908B2 (en) 2020-04-20 2020-04-20 Control device, information processing system, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020074795A JP7443908B2 (en) 2020-04-20 2020-04-20 Control device, information processing system, and control method

Publications (2)

Publication Number Publication Date
JP2021174058A JP2021174058A (en) 2021-11-01
JP7443908B2 true JP7443908B2 (en) 2024-03-06

Family

ID=78281796

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020074795A Active JP7443908B2 (en) 2020-04-20 2020-04-20 Control device, information processing system, and control method

Country Status (1)

Country Link
JP (1) JP7443908B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7408103B2 (en) 2022-06-08 2024-01-05 ソフトバンク株式会社 Information processing device, information processing method, and information processing program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032538A (en) 2000-07-19 2002-01-31 Nippon Telegraph & Telephone West Corp Skill management system and computer readable recording medium
WO2009078182A1 (en) 2007-12-19 2009-06-25 Icon Corp. Server device, information providing method and information succession system
JP2012024481A (en) 2010-07-27 2012-02-09 Denso Corp Health management supporting system
JP2013238903A (en) 2012-05-11 2013-11-28 Ningensei Fukkatsu Undo Hombu Evaluation system
JP2018503208A (en) 2014-12-23 2018-02-01 エジェンタ, インコーポレイテッド Intelligent personal agent platform and system and method for using the same
JP2019028691A (en) 2017-07-28 2019-02-21 ポーラ化成工業株式会社 Information output system, information output program, and information output method, relating to care for skin conditions
JP2019174862A (en) 2018-03-26 2019-10-10 本田技研工業株式会社 Driving evaluation device, driving evaluation system and program
JP2019174861A (en) 2018-03-26 2019-10-10 本田技研工業株式会社 Driving evaluation system and program
JP2020052625A (en) 2018-09-26 2020-04-02 アルパイン株式会社 Driving management device
WO2020157992A1 (en) 2019-02-01 2020-08-06 本田技研工業株式会社 Information processing system, health management system, program, and information processing method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032538A (en) 2000-07-19 2002-01-31 Nippon Telegraph & Telephone West Corp Skill management system and computer readable recording medium
WO2009078182A1 (en) 2007-12-19 2009-06-25 Icon Corp. Server device, information providing method and information succession system
JP2012024481A (en) 2010-07-27 2012-02-09 Denso Corp Health management supporting system
JP2013238903A (en) 2012-05-11 2013-11-28 Ningensei Fukkatsu Undo Hombu Evaluation system
JP2018503208A (en) 2014-12-23 2018-02-01 エジェンタ, インコーポレイテッド Intelligent personal agent platform and system and method for using the same
JP2019028691A (en) 2017-07-28 2019-02-21 ポーラ化成工業株式会社 Information output system, information output program, and information output method, relating to care for skin conditions
JP2019174862A (en) 2018-03-26 2019-10-10 本田技研工業株式会社 Driving evaluation device, driving evaluation system and program
JP2019174861A (en) 2018-03-26 2019-10-10 本田技研工業株式会社 Driving evaluation system and program
JP2020052625A (en) 2018-09-26 2020-04-02 アルパイン株式会社 Driving management device
WO2020157992A1 (en) 2019-02-01 2020-08-06 本田技研工業株式会社 Information processing system, health management system, program, and information processing method

Also Published As

Publication number Publication date
JP2021174058A (en) 2021-11-01

Similar Documents

Publication Publication Date Title
CN103561652B (en) Method and system for assisting patients
JP4481682B2 (en) Information processing apparatus and control method thereof
US7766828B2 (en) Estimation apparatus and its control method
JP2004310034A (en) Interactive agent system
US9934426B2 (en) System and method for inspecting emotion recognition capability using multisensory information, and system and method for training emotion recognition using multisensory information
JP2006071936A (en) Dialogue agent
EP3477433A1 (en) Information processing device, information processing method, and computer program
CN111452747A (en) Vehicle-mounted health monitoring method and monitoring system
CN110035358A (en) Vehicle-mounted sound output device, sound output control method, recording medium
JP7443908B2 (en) Control device, information processing system, and control method
JP5298923B2 (en) Dozing prevention device and dozing prevention method
CN116661607A (en) Emotion adjustment method and system based on multi-modal emotion interaction
JP7120060B2 (en) VOICE DIALOGUE DEVICE, CONTROL DEVICE AND CONTROL PROGRAM FOR VOICE DIALOGUE DEVICE
JP2019101472A (en) Emotion estimation device
JP7204283B2 (en) Atmosphere guessing device and content presentation method
US20190231211A1 (en) Information processing apparatus, information processing system, and non-transitory computer readable medium
WO2020039994A1 (en) Car sharing system, driving control adjustment device, and vehicle preference matching method
WO2019198299A1 (en) Information processing device and information processing method
WO2016202450A1 (en) A method for controlling an interface device of a motor vehicle
JP7469467B2 (en) Digital human-based vehicle interior interaction method, device, and vehicle
WO2021014738A1 (en) Comfortable driving data collection system, driving control device, method, and program
KR20220000654A (en) Vehicle and control method for the same
JP7024136B1 (en) Analytical system
US20230012769A1 (en) Interactive system and associated interaction method
DK178288B1 (en) Attention feedback loop for sustaining conscious breathing inside a vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240205

R151 Written notification of patent or utility model registration

Ref document number: 7443908

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151