JP6924629B2 - Automatic control device and its control method - Google Patents

Automatic control device and its control method Download PDF

Info

Publication number
JP6924629B2
JP6924629B2 JP2017128910A JP2017128910A JP6924629B2 JP 6924629 B2 JP6924629 B2 JP 6924629B2 JP 2017128910 A JP2017128910 A JP 2017128910A JP 2017128910 A JP2017128910 A JP 2017128910A JP 6924629 B2 JP6924629 B2 JP 6924629B2
Authority
JP
Japan
Prior art keywords
scene
individual
learning
learning progress
manual operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017128910A
Other languages
Japanese (ja)
Other versions
JP2019010967A (en
Inventor
尚子 高田
尚子 高田
村上 隆
隆 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2017128910A priority Critical patent/JP6924629B2/en
Publication of JP2019010967A publication Critical patent/JP2019010967A/en
Application granted granted Critical
Publication of JP6924629B2 publication Critical patent/JP6924629B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、自動制御装置およびその制御方法に関する。 The present invention relates to an automatic control device and a control method thereof.

近年、運転者(個体)の手動操作によらず、車両などの移動体のECU(Electronic Control Unit)が、自車両が置かれたシーンや環境条件などを自動で判断して自律的に運転する自動運転技術の開発が進められている。
この種の自動運転技術では、移動体のECUが、様々なシーンにおける運転者の個体特性を学習し、運転者の個体特性に近い自動運転を行うことで、運転者に違和感を与えないようにしている。
In recent years, the ECU (Electronic Control Unit) of a moving body such as a vehicle automatically determines the scene in which the vehicle is placed and the environmental conditions, and drives autonomously, regardless of the manual operation of the driver (individual). Development of automatic driving technology is in progress.
In this kind of automatic driving technology, the ECU of the moving body learns the individual characteristics of the driver in various scenes and performs automatic driving close to the individual characteristics of the driver so as not to give the driver a sense of discomfort. ing.

特許文献1には、移動体の自動制御装置が開示されている。 Patent Document 1 discloses an automatic control device for a moving body.

特開2007−176396号公報JP-A-2007-176396

特許文献1に開示されている移動体の自動制御装置では、様々なシーンにおける運転者の個体特性(操作特性)を学習することで、運転者の個体特性に適応したモデルを構築している。これにより、この自動制御装置では、運転者の個体特性を自動運転に反映させることで、運転者の違和感を減らすことができる。 In the automatic control device for a moving body disclosed in Patent Document 1, a model adapted to the individual characteristics of the driver is constructed by learning the individual characteristics (operation characteristics) of the driver in various scenes. As a result, in this automatic control device, the driver's individual characteristics are reflected in the automatic driving, so that the driver's discomfort can be reduced.

しかしながら、特許文献1の移動体の自動制御装置では、運転者の個体特性の学習が完了したか否かの判断基準がない。
よって、この自動制御装置では、運転者の個体特性の学習完了の判断が遅れる結果、個体特性の自動運転への反映が遅れてしまう。また、この自動制御装置では、運転者の個体特性の学習が不十分な状態で、当該個体特性を自動運転に反映させてしまう恐れがあり、この場合、運転者に違和感を与えてしまうという問題がある。
However, in the automatic control device for a moving body of Patent Document 1, there is no criterion for determining whether or not the learning of the individual characteristics of the driver is completed.
Therefore, in this automatic control device, as a result of delaying the determination of the completion of learning of the individual characteristics of the driver, the reflection of the individual characteristics in the automatic operation is delayed. Further, in this automatic control device, there is a possibility that the individual characteristics of the driver are reflected in the automatic driving in a state where the learning of the individual characteristics of the driver is insufficient, and in this case, there is a problem that the driver feels uncomfortable. There is.

したがって本発明は、上記課題に鑑みてなされたもので、自動制御装置において、シーンごとに運転者の個体特性の学習完了の判断を適切に行うことで、個体特性の自動運転への反映を迅速に行うことを目的とする。また、運転者の個体特性の学習が完了したと判断されたシーンごとに自動運転を行うことで、運転者に与える違和感を少なくすることを目的とする。 Therefore, the present invention has been made in view of the above problems, and the automatic control device can quickly reflect the individual characteristics in the automatic driving by appropriately determining the completion of learning the individual characteristics of the driver for each scene. The purpose is to do. In addition, it is intended to reduce the sense of discomfort given to the driver by performing automatic driving for each scene where it is determined that the learning of the individual characteristics of the driver is completed.

上記課題を解決するため、機器の操作を行う個体を認証する個体認証部と、機器が置かれているシーンを判定するシーン判定部と、個体の個体特性を学習する個体特性学習部と、個体の個体特性に基づいて、個体による機器の手動操作を推定する手動操作推定部と、シーン判定部で判定された所定のシーンにおいて、個体の個体特性に基づいて手動操作推定部で推定した推定手動操作と、当該個体による機器の実際の手動操作とを比較して、所定のシーンにおける学習進捗度を判定する学習進捗度判定部と、シーン判定部で判定された所定のシーンごとの学習進捗度の判定結果に基づいて、個体の個体特性に適応した自動制御の実施または不実施を、シーンごとに決定する制御部と、を有する自動制御装置とした。 In order to solve the above problems, an individual authentication unit that authenticates an individual who operates the device, a scene determination unit that determines the scene in which the device is placed, an individual characteristic learning unit that learns the individual characteristics of an individual, and an individual In a predetermined scene determined by the manual operation estimation unit that estimates the manual operation of the device by the individual based on the individual characteristics of the individual and the scene determination unit, the estimation manual estimation by the manual operation estimation unit based on the individual characteristics of the individual The learning progress determination unit that determines the learning progress in a predetermined scene by comparing the operation with the actual manual operation of the device by the individual, and the learning progress for each predetermined scene determined by the scene determination unit. Based on the determination result of the above, the automatic control device is provided with a control unit for determining the execution or non-execution of the automatic control adapted to the individual characteristics of the individual for each scene.

本発明によれば、自動制御装置において、シーンごとに運転者の個体特性の学習完了の判断を適切に行うことで、個体特性の自動運転への反映を迅速に行うことができる。また、運転者の個体特性の学習が完了したと判断されたシーンごとに自動運転を行うことで、運転者に与える違和感を少なくすることができる。 According to the present invention, in the automatic control device, the individual characteristics can be quickly reflected in the automatic driving by appropriately determining the completion of learning the individual characteristics of the driver for each scene. Further, by performing automatic driving for each scene where it is determined that the learning of the individual characteristics of the driver is completed, it is possible to reduce the discomfort given to the driver.

実施の形態にかかる自動制御装置を説明するブロック図である。It is a block diagram explaining the automatic control device which concerns on embodiment. 個体適応制御のフローチャートである。It is a flowchart of individual adaptation control. 過去情報データベースの更新処理のフローチャートである。It is a flowchart of the update process of the past information database. シーン判定基準データベースの更新処理のフローチャートである。It is a flowchart of the update process of the scene judgment standard database. シーン判定基準の再学習の処理のフローチャートである。It is a flowchart of the process of relearning of a scene judgment standard. シーン判定基準の再学習の方法を説明する概念図である。It is a conceptual diagram explaining the method of re-learning of a scene judgment standard. 個体特性学習処理のフローチャートである。It is a flowchart of an individual characteristic learning process. 学習進捗度判定部における個体特性の学習完了の判断処理のフローチャートである。It is a flowchart of the judgment process of the learning completion of an individual characteristic in a learning progress degree determination part. 学習進捗度に基づいて、学習完了状態への移行許可を判断する一例を説明する図である。It is a figure explaining an example which determines the transition permission to a learning completion state based on a learning progress degree. 安全判定部を説明するブロック図である。It is a block diagram explaining a safety determination part. 危険事象判定部による危険事象発生の判断の一例を説明する図である。It is a figure explaining an example of the judgment of the occurrence of a dangerous event by a dangerous event determination part. シーン一致度検証部を説明するブロック図である。It is a block diagram explaining the scene match degree verification part. 第2の実施の形態にかかる自動制御装置を説明するブロック図である。It is a block diagram explaining the automatic control apparatus which concerns on 2nd Embodiment. 第2の実施の形態にかかる個体適応制御のフローチャートである。It is a flowchart of individual adaptation control which concerns on 2nd Embodiment. 第2の実施の形態にかかる過去情報データベースの更新処理のフローチャートである。It is a flowchart of the update process of the past information database which concerns on 2nd Embodiment. 第2の実施の形態にかかる重み決定処理のフローチャートである。It is a flowchart of the weight determination process which concerns on 2nd Embodiment.

以下、本発明の実施の形態にかかる自動制御装置1を説明する。
以下の説明では、自動制御装置1を、車両などの移動体(図示せず)の自動運転に適用した場合を例示して説明する。
図1は、実施の形態にかかる自動制御装置1を説明するブロック図である。
Hereinafter, the automatic control device 1 according to the embodiment of the present invention will be described.
In the following description, a case where the automatic control device 1 is applied to automatic driving of a moving body (not shown) such as a vehicle will be described as an example.
FIG. 1 is a block diagram illustrating an automatic control device 1 according to an embodiment.

[自動制御装置]
図1に示すように、自動制御装置1は、シーン判定基準データベース10と、シーン判定部11と、個体認証部12と、過去情報データベース13と、個体特性学習部14と、手動操作推定部15と、学習進捗度判定部16と、制御部17と、を有している。
[Automatic control device]
As shown in FIG. 1, the automatic control device 1 includes a scene judgment reference database 10, a scene judgment unit 11, an individual authentication unit 12, a past information database 13, an individual characteristic learning unit 14, and a manual operation estimation unit 15. And a learning progress determination unit 16 and a control unit 17.

シーン判定基準データベース10は、自動運転におけるシーンの分類に使用されるパラメータが、分類されるシーンに対応して記憶されている。よって、シーン判定基準データベースから所定のパラメータを取得することで、このパラメータに対応するシーンを抽出することができる。 In the scene determination standard database 10, parameters used for classifying scenes in automatic driving are stored corresponding to the scenes to be classified. Therefore, by acquiring a predetermined parameter from the scene determination standard database, it is possible to extract the scene corresponding to this parameter.

ここで、シーンとは、車両などの移動体が走行する道路形状を意味し、一定の距離的又は時間的長さを含む概念である。例えば、シーンの一例として、短い直線シーン、長い直線シーン、緩やかなカーブシーン、急なカーブシーン,上り坂シーン、下り坂シーン、交差点シーンなどが挙げられる。そして、各々のシーンは、一場面だけではなく、ある一定の距離的又は時間的長さを含んでいる。 Here, the scene means a road shape on which a moving body such as a vehicle travels, and is a concept including a certain distance or time length. For example, examples of scenes include short straight line scenes, long straight line scenes, gentle curve scenes, sharp curve scenes, uphill scenes, downhill scenes, and intersection scenes. And each scene includes not only one scene but also a certain distance or time length.

前述したシーン判定基準データベース10は、移動体(車両)側の制御装置などに設けられていてもよいが、シーン判定基準データベース10を移動体とは異なる場所にある外部サーバ(図示せず)に設けることがより好ましい。 The scene judgment standard database 10 described above may be provided in a control device or the like on the moving body (vehicle) side, but the scene judgment standard database 10 may be installed in an external server (not shown) located at a location different from the moving body. It is more preferable to provide.

シーン判定基準データベース10を外部サーバ(図示せず)に設け、この外部サーバと移動体のECU(図示せず)とを情報ネットワークを介して接続することで、移動体のECUが、必要に応じて、外部サーバ内のシーン判定基準データベース10に記憶されているパラメータ(シーン)を読み出すことができる。 By providing the scene judgment reference database 10 on an external server (not shown) and connecting the external server and the ECU of the mobile body (not shown) via the information network, the ECU of the mobile body can be used as needed. Therefore, the parameters (scenes) stored in the scene determination reference database 10 in the external server can be read out.

このようにすると、移動体側の制御装置などのメモリ容量を小さくすることができ、移動体側の制御装置の製造コストや、維持・管理コストの増加を抑えることができる。また、移動体側の制御装置の計算リソースを、危険回避処理などの緊急性の高い処理に重点的に使用することができる。さらに、運転者が、別の移動体(車両)に乗車した場合でも、情報ネットワークを介して外部サーバから必要な情報を読み出して個体適応制御を行うことができる。 By doing so, the memory capacity of the control device on the moving body side can be reduced, and the increase in the manufacturing cost and the maintenance / management cost of the control device on the moving body side can be suppressed. In addition, the computational resources of the control device on the moving body side can be used intensively for highly urgent processing such as danger avoidance processing. Further, even when the driver gets on another moving body (vehicle), it is possible to read necessary information from an external server via the information network and perform individual adaptation control.

このシーン判定基準データベース10には、シーン判定部11が接続されており、このシーン判定部11には、シーン判定基準データベース10に記憶されたシーンの分類に使用されるパラメータと、環境情報50と、が入力される。 A scene determination unit 11 is connected to the scene determination standard database 10, and the scene determination unit 11 includes parameters used for classifying scenes stored in the scene determination standard database 10 and environmental information 50. , Is entered.

シーン判定部11は、シーン判定基準データベース10から入力されたパラメータと、環境情報50とに基づいて、移動体(車両)の置かれているシーンを判定する。 The scene determination unit 11 determines the scene in which the moving object (vehicle) is placed, based on the parameters input from the scene determination reference database 10 and the environment information 50.

ここで、環境情報50は、例えば、道路形状(直線、カーブ、傾斜勾配、交差点の有無等)、周囲の他の移動体(他車両)の密度、周囲の他の移動体の移動速度(車速)、周囲の障害物との距離、道路の車線内における自車両の幅方向の位置、気温、季節、明るさ、などの外部環境情報をいう。また、環境情報50は、例えば、自車両の車速、加速度、ステア角、ピッチ、ロール、などの内部環境情報も含む。 Here, the environmental information 50 includes, for example, a road shape (straight line, curve, slope, presence / absence of an intersection, etc.), density of other moving objects (other vehicles) in the vicinity, and moving speed (vehicle speed) of other moving objects in the vicinity. ), Distance to surrounding obstacles, position in the width direction of the vehicle in the lane of the road, temperature, season, brightness, and other external environmental information. The environmental information 50 also includes internal environmental information such as the vehicle speed, acceleration, steering angle, pitch, and roll of the own vehicle.

個体認証部12は、運転者(個体)の個体認証情報52を取得し、この取得した個体認証情報52と、後述する過去情報データベース13にすでに登録されている個体認証情報と、を照合して、運転者の認証を行う。 The individual authentication unit 12 acquires the individual authentication information 52 of the driver (individual), and collates the acquired individual authentication information 52 with the individual authentication information already registered in the past information database 13 described later. , Authenticate the driver.

個体認証情報52は、運転者を特定可能な情報であれば特に限定されるものではなく、例えば、個人IDと暗証番号(パスワード)、運転免許証などの身分証の情報であってもよい。この個体認証情報52は、イグニッションキーやスタート/ストップボタンがOFFにされるまで、ECUのメモリ(図示せず)に記憶されている。 The individual authentication information 52 is not particularly limited as long as it is information that can identify the driver, and may be, for example, identification information such as a personal ID, a personal identification number (password), and a driver's license. The individual authentication information 52 is stored in the memory (not shown) of the ECU until the ignition key and the start / stop button are turned off.

この個体認証部12は、過去情報データベース13に接続されており、個体認証部12は、過去情報データベース13にすでに登録されている個体認証情報を読み出すようになっている。 The individual authentication unit 12 is connected to the past information database 13, and the individual authentication unit 12 reads out the individual authentication information already registered in the past information database 13.

過去情報データベース13には、運転者の個体認証情報52のほか、シーン判定部11で判定されたシーン(判定結果)と、環境情報50と、手動操作情報51とが入力されて記憶されている。 In addition to the driver's individual authentication information 52, the scene (judgment result) determined by the scene determination unit 11, the environment information 50, and the manual operation information 51 are input and stored in the past information database 13. ..

過去情報データベース13は、個体認証部12で認証された運転者の個体認証情報52に基づいて、過去情報データベース13内での当該個体認証情報52に対応するメモリアドレス(メモリ領域)を特定する。そして、過去情報データベース13は、この特定したメモリアドレスに、シーン判定部11で判定されたシーン(判定結果)と、その際の環境情報50及び運転者の手動操作情報51とを関連付けて記憶する。 The past information database 13 specifies a memory address (memory area) corresponding to the individual authentication information 52 in the past information database 13 based on the individual authentication information 52 of the driver authenticated by the individual authentication unit 12. Then, the past information database 13 stores the scene (determination result) determined by the scene determination unit 11 in association with the specified memory address, the environment information 50 at that time, and the manual operation information 51 of the driver. ..

一方、過去情報データベース13は、個体認証部12で認証された運転者の個体認証情報52が、過去に登録がない(未登録)と判定した場合、当該未登録の運転者の個体認証情報52に対応する新たなメモリアドレス(メモリ領域)を作製すると共に、そのメモリアドレスに、シーン判定部11で判定されたシーン(判定結果)と、その際の環境情報50及び運転者の手動操作情報51と、を関連付けて記憶する。 On the other hand, when the past information database 13 determines that the individual authentication information 52 of the driver authenticated by the individual authentication unit 12 has not been registered (unregistered) in the past, the individual authentication information 52 of the unregistered driver A new memory address (memory area) corresponding to the above is created, and the scene (judgment result) determined by the scene determination unit 11, the environment information 50 at that time, and the driver's manual operation information 51 are added to the memory address. And are associated and memorized.

ここで、手動操作情報51には、例えば、ステアリングの操舵角、車速、各ライト及び各ランプのON/OFF操作、空調の設定温度、車内オーディオの楽曲選定及びその音量、カーナビゲーションの操作情報、ウィンドウの開閉量、ウィンドウの遮光性が電圧を印加するなどで任意に設定できる場合には、その電圧値(遮光度)などが一例として挙げられる。 Here, the manual operation information 51 includes, for example, steering angle of steering, vehicle speed, ON / OFF operation of each light and each lamp, set temperature of air conditioning, music selection and volume of in-vehicle audio, car navigation operation information, and the like. When the opening / closing amount of the window and the light-shielding property of the window can be arbitrarily set by applying a voltage, the voltage value (light-shielding degree) and the like can be given as an example.

過去情報データベース13は、個体特性学習部14に接続されており、過去情報データベース13に記憶された各情報は、個体特性学習部14に入力される。 The past information database 13 is connected to the individual characteristic learning unit 14, and each information stored in the past information database 13 is input to the individual characteristic learning unit 14.

個体特性学習部14は、過去情報データベース13に記憶されたシーン(判定結果)と、環境情報50と、手動操作情報51と、個体認証情報52とに基づいて、当該個体認証情報52で特定される運転者の個体特性モデルを生成する。 The individual characteristic learning unit 14 is specified by the individual authentication information 52 based on the scene (determination result) stored in the past information database 13, the environment information 50, the manual operation information 51, and the individual authentication information 52. Generate an individual characteristic model of the driver.

具体的には、個体特性学習部14は、各々のシーンにおいて、運転者がどのような手動操作を行ったのかを機械学習などの手法で学習して、個体特性モデルを生成する。
なお、個体特性(操作特性)の学習は周知の機械学習、ディープラーニングなどの手法を用いることができる。
Specifically, the individual characteristic learning unit 14 learns what kind of manual operation the driver has performed in each scene by a method such as machine learning, and generates an individual characteristic model.
For learning individual characteristics (operation characteristics), well-known methods such as machine learning and deep learning can be used.

個体特性学習部14は、手動操作推定部15に接続されており、個体特性学習部14で生成された個体特性モデルは、手動操作推定部15に入力される。 The individual characteristic learning unit 14 is connected to the manual operation estimation unit 15, and the individual characteristic model generated by the individual characteristic learning unit 14 is input to the manual operation estimation unit 15.

手動操作推定部15には、個体特性学習部14で生成された個体特性モデルのほか、現在の環境情報50が入力されており、この個体特性モデルと環境情報50とに基づいて、運転者の手動操作を推定する。 In addition to the individual characteristic model generated by the individual characteristic learning unit 14, the current environmental information 50 is input to the manual operation estimation unit 15, and the driver's operation is based on the individual characteristic model and the environmental information 50. Estimate manual operation.

ここで、運転者の手動操作には、例えば、ステアリング操作、アクセルペダル操作、各ライト及び各ランプのON/OFF操作、空調の操作、車内オーディオの操作、カーナビゲーションの操作、ウィンドウの開閉操作などが一例として挙げられる。 Here, the driver's manual operation includes, for example, steering operation, accelerator pedal operation, ON / OFF operation of each light and each lamp, air conditioning operation, in-vehicle audio operation, car navigation operation, window opening / closing operation, and the like. Is given as an example.

この手動操作推定部15は、学習進捗度判定部16に接続されており、手動操作推定部15で推定された運転者の手動操作情報(以下、推定手動操作情報ともいう)は、学習進捗度判定部16に入力される。 The manual operation estimation unit 15 is connected to the learning progress determination unit 16, and the driver's manual operation information (hereinafter, also referred to as estimated manual operation information) estimated by the manual operation estimation unit 15 is the learning progress. It is input to the determination unit 16.

学習進捗度判定部16には、手動操作推定部15で推測された推測手動操作情報のほかに、現在の運転者による手動操作情報51と、シーン判定部11で判定されたシーン(判定結果)と、が入力されている。 In the learning progress determination unit 16, in addition to the estimated manual operation information estimated by the manual operation estimation unit 15, the manual operation information 51 by the current driver and the scene determined by the scene determination unit 11 (determination result) And are entered.

学習進捗度判定部16は、手動操作推定部15で推測された推定手動操作情報と、現在の運転者の手動操作情報51との差分R(推定手動操作情報―手動操作情報51)を、シーンごとに算出することで、シーンごとの学習進捗度を判定する。
例えば、学習進捗度判定部16は、前述した比較結果の差分Rが所定の閾値Rth以下の場合(R≦Rth)、学習進捗度が高い(学習完了)と判定し、差分Rが閾値Rthよりも大きい場合(R>Rth)、学習進捗度が低い(学習未完了)と判定し、この学習進捗度の判定結果を制御部17に出力する。
The learning progress determination unit 16 sets the difference R (estimated manual operation information-manual operation information 51) between the estimated manual operation information estimated by the manual operation estimation unit 15 and the current driver's manual operation information 51 as a scene. By calculating for each, the learning progress for each scene is determined.
For example, when the difference R of the above-mentioned comparison result is equal to or less than a predetermined threshold value Rth (R ≦ Rth), the learning progress determination unit 16 determines that the learning progress is high (learning completed), and the difference R is greater than the threshold value Rth. When is also large (R> Rth), it is determined that the learning progress is low (learning is not completed), and the determination result of the learning progress is output to the control unit 17.

制御部17は、学習進捗度判定部16で判定された学習進捗度の判定結果に基づいて、シーンごとに、個体適応制御の実施または不実施を決定する。 The control unit 17 determines whether or not to implement the individual adaptation control for each scene based on the determination result of the learning progress degree determined by the learning progress degree determination unit 16.

制御部17は、学習進捗度判定部16により学習進捗度が高い(差分R≦閾値Rth)と判定された場合には、個体適応制御を実施する。 When the learning progress determination unit 16 determines that the learning progress is high (difference R ≦ threshold value Rth), the control unit 17 executes individual adaptation control.

ここで、制御部17による個体適応制御の実施条件の一例を説明する。
初めに、シーン判定部11は、所定のシーン(例えば、カーブシーン)に含まれる少なくとも2以上の不連続な第1シーン(例えば、緩やかなカーブシーン)と、第2シーン(例えば、交差点シーン)とを判定する。
Here, an example of the execution conditions of the individual adaptation control by the control unit 17 will be described.
First, the scene determination unit 11 includes at least two or more discontinuous first scenes (for example, gentle curve scenes) and second scenes (for example, intersection scenes) included in a predetermined scene (for example, a curve scene). Is determined.

そして、学習進捗度判定部16は、第1シーン(例えば、緩やかなカーブシーン)と、第2シーン(例えば、交差点シーン)における、運転者の個体特性の学習進捗度を判定する。 Then, the learning progress determination unit 16 determines the learning progress of the individual characteristics of the driver in the first scene (for example, a gentle curve scene) and the second scene (for example, an intersection scene).

その結果、制御部17は、第1シーンでの学習進捗度の判定結果と、第2シーンでの学習進捗度の判定結果の何れも学習完了状態(学習進捗度が高い状態)であると、学習進捗度判定部16により判定された場合、個体適応制御を実施する。 As a result, the control unit 17 determines that both the learning progress determination result in the first scene and the learning progress determination result in the second scene are in the learning completed state (learning progress is high). When it is determined by the learning progress determination unit 16, individual adaptation control is performed.

このように、制御部17は、全くシーンの異なる不連続な2以上のシーンにおける学習進捗度が完了状態か否かに基づいて、個体適応制御を実施するか否かの判定を行うことにより、2以上の不連続なシーンを含む所定のシーンの学習が完了していると精度よく判定することができる。 In this way, the control unit 17 determines whether or not to implement the individual adaptive control based on whether or not the learning progress in two or more discontinuous scenes with completely different scenes is in the completed state. It can be accurately determined that the learning of a predetermined scene including two or more discontinuous scenes has been completed.

また、シーン判定部11は、所定のシーン(例えば、直線シーン)に含まれる互いに離れた位置の第3シーン(例えば、第1の直線シーン)と、第4シーン(例えば、第2の直線シーン)とを判定する。 Further, the scene determination unit 11 includes a third scene (for example, a first straight line scene) and a fourth scene (for example, a second straight line scene) included in a predetermined scene (for example, a straight line scene) at positions separated from each other. ).

そして、学習進捗度判定部16は、第3シーン(例えば、第1の直線シーン)と、第4シーン(例えば、第2の直線シーン)における、運転者の個体特性の学習進捗度を判定する。 Then, the learning progress determination unit 16 determines the learning progress of the individual characteristics of the driver in the third scene (for example, the first straight line scene) and the fourth scene (for example, the second straight line scene). ..

その結果、制御部17は、第3シーンでの学習進捗度の判定結果と、第4シーンでの学習進捗度の判定結果の何れも学習完了状態(学習進捗度が高い状態)であると、学習進捗度判定部16により判定された場合、個体適応制御を実施する。 As a result, the control unit 17 determines that both the learning progress determination result in the third scene and the learning progress determination result in the fourth scene are in the learning completed state (learning progress is high). When it is determined by the learning progress determination unit 16, individual adaptation control is performed.

このように、制御部17は、離れた距離にある2以上のシーンにおける学習進捗度が完了状態か否かに基づいて、個体適応制御を実施するか否かの判定を行うことにより、2以上の離れた距離にある不連続なシーンを含む所定のシーンの学習が完了していると精度よく判定することができる。 In this way, the control unit 17 determines whether or not to implement the individual adaptation control based on whether or not the learning progress in the two or more scenes at a distance is completed. It can be accurately determined that the learning of a predetermined scene including the discontinuous scenes at a distance of is completed.

なお、学習進捗度判定部16は、時間的に離れた2つのシーン(第5シーン、第6シーン)での学習進捗度を判定し、制御部17は、2つのシーン(第5シーン、第6シーン)における学習進捗度がいずれも学習完了状態である場合に、個体適応制御を実施するようにしてもよい。 The learning progress determination unit 16 determines the learning progress in two scenes (fifth scene, sixth scene) separated in time, and the control unit 17 determines the learning progress in two scenes (fifth scene, fifth scene). Individual adaptation control may be performed when the learning progress in (6 scenes) is in the learning completion state.

一方、制御部17は、学習進捗度が低い(差分R>閾値Rth)と判定された場合には、個体適応制御を実施せず、予め初期設定(デフォルト)されている自動運転制御を実施する。 On the other hand, when it is determined that the learning progress is low (difference R> threshold value Rth), the control unit 17 does not perform individual adaptation control, but executes automatic operation control that is initially set (default) in advance. ..

ここで、個体適応制御とは、運転者(個体)の個体特性(操作特性)を学習して生成した個体特性モデルに基づいて、運転者の個体特性(操作特性)に適応した自動運転制御を行うことを意味する。 Here, the individual adaptive control is an automatic driving control adapted to the individual characteristics (operation characteristics) of the driver based on the individual characteristics model generated by learning the individual characteristics (operation characteristics) of the driver (individual). Means to do.

なお、制御部17は、学習進捗度から学習効率Kを算出し、学習効率Kが所定の閾値Kth以上の場合(K≧Kth)、学習進捗が高いと判定し、学習効率Kが所定の閾値Kthよりも小さい場合(K<Kth)、学習進捗度が低いと判定してもよい。 The control unit 17 calculates the learning efficiency K from the learning progress, and when the learning efficiency K is equal to or higher than a predetermined threshold value Kth (K ≧ Kth), determines that the learning progress is high, and the learning efficiency K is a predetermined threshold value. If it is smaller than Kth (K <Kth), it may be determined that the learning progress is low.

前述した過去情報データベース13、個体特性学習部14、手動操作推定部15、学習進捗度判定部16は、移動体(車両)側の制御装置などに設けられていても良いが、これらを移動体とは異なる場所にある外部サーバ(図示せず)に設け、この外部サーバと移動体のECU(図示せず)とを情報ネットワークを介して接続し、必要に応じて、移動体のECUが、これらの情報を読み出すようにすることが好ましい。 The above-mentioned past information database 13, individual characteristic learning unit 14, manual operation estimation unit 15, and learning progress determination unit 16 may be provided in a control device on the moving body (vehicle) side, but these are used as moving bodies. It is provided on an external server (not shown) located at a different location from the above, and the external server and the ECU of the mobile body (not shown) are connected via an information network, and if necessary, the ECU of the mobile body can be used. It is preferable to read out this information.

このようにすると、移動体側の制御装置のメモリ容量を小さくすることができ、移動体側の制御装置の製造コストや、維持・管理コストの増加を抑えることができる。また、移動体側の制御装置の計算リソースを、危険回避処理などの緊急性の高い処理に重点的に使用することができる。さらに、運転者が、別の移動体(車両)に乗車した場合でも、情報ネットワークを介して外部サーバから必要な情報を読み出して個体適応制御を行うことができる。 By doing so, the memory capacity of the control device on the moving body side can be reduced, and the increase in the manufacturing cost and the maintenance / management cost of the control device on the moving body side can be suppressed. In addition, the computational resources of the control device on the moving body side can be used intensively for highly urgent processing such as danger avoidance processing. Further, even when the driver gets on another moving body (vehicle), it is possible to read necessary information from an external server via the information network and perform individual adaptation control.

[個体適応制御]
次に、自動制御装置1における個体適応制御の処理を説明する。
図2は、個体適応制御のフローチャートである。
[Individual adaptation control]
Next, the processing of individual adaptation control in the automatic control device 1 will be described.
FIG. 2 is a flowchart of individual adaptation control.

初めに、ステップS101において、移動体のECU(図示せず)は、移動体の自動運転が許可されているか否かを判定する。ECUは、自動運転が許可されていると判定した場合(ステップS101:Yes)、ステップS102に進む。
ここで、自動運転の許可は、種々の方法が考えられるが、運転者が、自動運転モードを設定するスイッチをON操作することで設定される。
First, in step S101, the ECU (not shown) of the moving body determines whether or not the automatic operation of the moving body is permitted. When the ECU determines that the automatic operation is permitted (step S101: Yes), the ECU proceeds to step S102.
Here, although various methods can be considered, the permission for automatic driving is set by the driver turning on the switch for setting the automatic driving mode.

ステップS102において、移動体のECUは、個体適応制御が許可されているか否かを判定する。ECUは、個体適応制御が許可されていると判定した場合(ステップS102:Yes)、ステップS103に進む。 In step S102, the mobile ECU determines whether or not individual adaptive control is permitted. When the ECU determines that the individual adaptive control is permitted (step S102: Yes), the ECU proceeds to step S103.

ステップS102において、移動体のECUは、個体適応制御が許可されていないと判定した場合(ステップS102:No)、ステップS106に進む。ステップS106において、自動制御装置1は、予め初期設定(デフォルト)されている自動運転制御により、移動体の自動運転を実施する。 If the mobile ECU determines in step S102 that individual adaptation control is not permitted (step S102: No), the process proceeds to step S106. In step S106, the automatic control device 1 executes the automatic operation of the moving body by the automatic operation control that is initially set (default) in advance.

ステップS103において、学習進捗度判定部16は、シーン判定部により判定されたシーン(判定結果)、環境情報50、手動操作情報51、個体認証情報52に基づいて、現在走行しているシーンにおいて、当該運転者の個体特性の学習が完了したか否かを判定する。 In step S103, the learning progress determination unit 16 determines in the currently traveling scene based on the scene (determination result) determined by the scene determination unit, the environment information 50, the manual operation information 51, and the individual authentication information 52. It is determined whether or not the learning of the individual characteristics of the driver is completed.

ステップS103において、学習進捗度判定部16は、運転者の個体特性の学習が完了したと判定した場合(ステップS103:Yes)、ステップS104に進む。ステップS104において、制御部17は、学習進捗度判定部16による学習完了の判定に基づいて、当該シーンにおける当該運転者の個体特性に応じた個体適応制御を実施する。 In step S103, when the learning progress determination unit 16 determines that the learning of the individual characteristics of the driver is completed (step S103: Yes), the learning progress determination unit 16 proceeds to step S104. In step S104, the control unit 17 executes individual adaptation control according to the individual characteristics of the driver in the scene based on the determination of the learning completion by the learning progress determination unit 16.

ステップS103において、学習進捗度判定部16は、運転者の個体特性の学習が完了していないと判定した場合(ステップS103:No)、ステップS106に進む。ステップS106において、制御部17は、学習進捗度判定部16による学習未完了の判定結果に基づいて、個体適応制御の実施を行わず、初期設定(デフォルト)されている自動運転制御により移動体の自動運転を実施する。 In step S103, when the learning progress determination unit 16 determines that the learning of the individual characteristics of the driver has not been completed (step S103: No), the learning progress determination unit 16 proceeds to step S106. In step S106, the control unit 17 does not perform the individual adaptation control based on the determination result of the learning incompleteness by the learning progress determination unit 16, but the initial setting (default) of the automatic operation control of the moving body. Carry out automatic operation.

なお、前述したステップS101において、移動体のECU(図示せず)は、運転者が手動で自動運転モードを設定するスイッチをOFFに設定したり、環境情報50に応じて移動体が自動運転を継続できないと判定した場合にOFFに設定される。この場合、移動体のECUは、自動運転が許可されていないと判定し(ステップS101:NO)、ステップS105に進む。 In step S101 described above, the ECU (not shown) of the moving body sets the switch for manually setting the automatic operation mode to OFF by the driver, or the moving body automatically operates according to the environmental information 50. It is set to OFF when it is determined that the continuation cannot be continued. In this case, the ECU of the moving body determines that automatic operation is not permitted (step S101: NO), and proceeds to step S105.

ステップS105において、移動体のECUは、現在の環境情報50と、現在の運転者の手動操作情報51を取得し、過去情報データベース13に送信して処理を終了する。 In step S105, the mobile ECU acquires the current environment information 50 and the current driver's manual operation information 51, transmits the information to the past information database 13, and ends the process.

[過去情報データベースの更新]
次に、過去情報データベース13の更新処理を説明する。
図3は、過去情報データベース13の更新処理のフローチャートである。
[Update past information database]
Next, the update process of the past information database 13 will be described.
FIG. 3 is a flowchart of the update process of the past information database 13.

ステップS201において、個体認証部12は、現在の運転者の個体認証情報52を取得する。 In step S201, the individual authentication unit 12 acquires the individual authentication information 52 of the current driver.

ステップS202において、個体認証部12は、ステップS201で取得した現在の運転者の個体認証情報52が、過去情報データベース13にすでに記憶されているか否かを判定する。個体認証部12は、個体認証情報52が、過去情報データベース13にすでに記憶されていると判定した場合(ステップS202:Yes)、ステップS203に進む。 In step S202, the individual authentication unit 12 determines whether or not the individual authentication information 52 of the current driver acquired in step S201 is already stored in the past information database 13. When the individual authentication unit 12 determines that the individual authentication information 52 is already stored in the past information database 13 (step S202: Yes), the individual authentication unit 12 proceeds to step S203.

ステップS203において、個体認証部12は、当該運転者の個体認証情報52が記憶されている過去情報データベース13上のメモリアドレスを取得し、ステップS204に進む。 In step S203, the individual authentication unit 12 acquires the memory address on the past information database 13 in which the individual authentication information 52 of the driver is stored, and proceeds to step S204.

一方、個体認証部12は、個体認証情報52が、過去情報データベース13に記憶されていないと判定した場合(ステップS202:No)、ステップS209に進む。 On the other hand, when the individual authentication unit 12 determines that the individual authentication information 52 is not stored in the past information database 13 (step S202: No), the individual authentication unit 12 proceeds to step S209.

ステップS209において、個体認証部12は、過去情報データベース13上に、現在の運転者の個体認証情報52を記憶する新たなメモリアドレスを設定し、ステップS204に進む。 In step S209, the individual authentication unit 12 sets a new memory address for storing the individual authentication information 52 of the current driver on the past information database 13, and proceeds to step S204.

ステップS204において、シーン判定部11は、環境情報50を取得して、ステップS205に進む。 In step S204, the scene determination unit 11 acquires the environment information 50 and proceeds to step S205.

ステップS205において、シーン判定部11は、シーン判定基準データベース10から取得したシーンの判定に必要なパラメータと、ステップS204で取得した環境情報50とに基づいて、当該シーンを判定する。 In step S205, the scene determination unit 11 determines the scene based on the parameters necessary for determining the scene acquired from the scene determination reference database 10 and the environment information 50 acquired in step S204.

ステップS206において、移動体のECU(図示せず)は、移動体が運転者による手動操作(手動運転)中か否かを判定する。移動体のECUは、手動操作中と判定した場合(ステップS206:Yes)、ステップS207に進み、ステップS207において、現在の、運転者の手動操作による運転情報(手動操作情報51)を取得する。 In step S206, the ECU (not shown) of the moving body determines whether or not the moving body is undergoing manual operation (manual operation) by the driver. When the ECU of the moving body determines that the manual operation is in progress (step S206: Yes), the process proceeds to step S207, and in step S207, the current operation information (manual operation information 51) by the driver's manual operation is acquired.

そして、ステップS208において、移動体のECU(図示せず)は、取得した環境情報50、手動操作情報51、及びシーン判定部11で判定されたシーン(判定結果)を、ステップS203、S209で取得した過去情報データベース13上のメモリアドレスに記憶して処理を終了する。 Then, in step S208, the moving unit ECU (not shown) acquires the acquired environment information 50, the manual operation information 51, and the scene (determination result) determined by the scene determination unit 11 in steps S203 and S209. It is stored in the memory address on the past information database 13 and the process is terminated.

これにより、運転者が手動操作による運転を行うことで、過去情報データベース13に記憶される環境情報50や手動操作情報51、及びシーン判定部11で判定されたシーン(判定結果)が取得され、この取得された各情報は、過去情報データベース13に蓄積される。よって、過去情報データベース13では、運転者が煩わしさを感じることなく、これらの各情報が蓄積(更新)される。 As a result, when the driver manually operates, the environment information 50 and the manual operation information 51 stored in the past information database 13 and the scene (judgment result) determined by the scene determination unit 11 are acquired. Each of the acquired information is stored in the past information database 13. Therefore, in the past information database 13, each of these pieces of information is accumulated (updated) without the driver feeling annoyed.

なお、ステップS206において、移動体のECU(図示せず)は、当該移動体が手動操作中でない(自動運転中である)と判定した場合(ステップS206:No)、ステップS210に進み、環境情報50及びシーン判定部11で判定されたシーン(判定結果)を、制御部17に送信して処理を終了する。 If the ECU of the moving body (not shown) determines in step S206 that the moving body is not in manual operation (automatic operation is in progress) (step S206: No), the process proceeds to step S210 to obtain environmental information. The scene (determination result) determined by the 50 and the scene determination unit 11 is transmitted to the control unit 17 to end the process.

[シーン判定基準データベースの更新処理]
次に、シーン判定基準データベース10の更新処理を説明する。
自動制御装置1では、運転者の個体特性の学習効率Kが著しく低いシーンがある場合、シーン判定基準データベース10に記憶された当該シーンを他のシーンに変更して、シーン判定基準データベース10の更新を行う。
図4は、シーン判定基準データベース10の更新処理のフローチャートである。
[Scene judgment criteria database update process]
Next, the update process of the scene determination standard database 10 will be described.
In the automatic control device 1, when there is a scene in which the learning efficiency K of the individual characteristics of the driver is extremely low, the scene stored in the scene judgment reference database 10 is changed to another scene, and the scene judgment reference database 10 is updated. I do.
FIG. 4 is a flowchart of the update process of the scene determination reference database 10.

ステップS301において、学習進捗度判定部16は、過去情報データベース13に記憶されている全ての運転者(個体)について、シーンごとの学習効率Kを算出する。 In step S301, the learning progress determination unit 16 calculates the learning efficiency K for each scene for all the drivers (individuals) stored in the past information database 13.

ここで、学習進捗度判定部16は、学習時間Tが十分長いのに学習進捗度が低い場合、又は学習時間Tは短いが学習進捗度の向上率が低い場合に、何れかより小さい値を学習効率Kとして算出する。 Here, the learning progress determination unit 16 sets a smaller value when the learning progress T is sufficiently long but the learning progress is low, or when the learning time T is short but the improvement rate of the learning progress is low. Calculated as learning efficiency K.

ステップS302では、学習進捗度判定部16は、何れかの運転者(個体)において、学習時間Tが、所定の閾値Tth以上(T≧Tth)であって、学習効率Kが、所定の閾値Kth未満(K<Kth)となるシーンがあるか否かを判定する。 In step S302, in any driver (individual), the learning progress determination unit 16 has a learning time T of a predetermined threshold value Tth or more (T ≧ Tth) and a learning efficiency K of a predetermined threshold value Kth. It is determined whether or not there is a scene where the value is less than (K <Kth).

学習進捗度判定部16は、ステップS302の条件を満たすシーンがあると判定した場合(ステップS302:Yes)、ステップS303に進む。一方、学習進捗度判定部16は、前述した条件を満たすシーンがないと判定した場合(ステップS302:No)、学習効率Kが著しく低いシーンがないと判定し、本処理を終了する。 When the learning progress determination unit 16 determines that there is a scene satisfying the condition of step S302 (step S302: Yes), the learning progress determination unit 16 proceeds to step S303. On the other hand, when the learning progress determination unit 16 determines that there is no scene satisfying the above-mentioned conditions (step S302: No), it determines that there is no scene with extremely low learning efficiency K, and ends this process.

ステップS303では、学習進捗度判定部16は、所定の同一シーンにおいて、学習時間Tが所定の閾値Tth以上であって、学習効率Kが所定の閾値Kth未満となる条件を満たすシーンを有する運転者(個体)の数Nが、過去情報データベース13に記憶されている全ての運転者(個体)の数Mの過半数以上(N≧M/2)となるか否かを判定する。 In step S303, the learning progress determination unit 16 has a driver having a scene in which the learning time T is equal to or greater than the predetermined threshold value Tth and the learning efficiency K is less than the predetermined threshold value Kth in the same predetermined scene. It is determined whether or not the number N of (individuals) is a majority (N ≧ M / 2) of the number M of all the drivers (individuals) stored in the past information database 13.

ステップS303において、学習進捗度判定部16は、前述した条件を満たす個体の数Nが、全体の過半数以上であると判定した場合(ステップS303:Yes)、ステップS304に進む。 In step S303, when the learning progress determination unit 16 determines that the number N of individuals satisfying the above-mentioned conditions is a majority or more of the whole (step S303: Yes), the process proceeds to step S304.

ステップS304において、移動体のECU(図示せず)は、全ての個体の環境情報50及び手動操作情報51に基づいて、シーン判定基準の再学習を行う。なお、このシーン判定基準の再学習の処理(方法)は後述する。 In step S304, the moving unit ECU (not shown) relearns the scene determination criteria based on the environmental information 50 and the manual operation information 51 of all the individuals. The re-learning process (method) of this scene determination criterion will be described later.

そして、ステップS305において、移動体のECUは、ステップS304での再学習の結果に基づいて、シーン判定基準データベース10のシーンを更新(他のシーンに変更、又は当該シーンを削除など)して処理を終了する。
これにより、自動制御装置1では、学習効率Kの著しく低いシーンを見直し、又は削除することで、シーン判定基準データベース10内のシーンを、より適切なものに更新することができる。
Then, in step S305, the moving ECU updates the scene of the scene determination reference database 10 (changes to another scene, deletes the scene, etc.) based on the result of relearning in step S304, and processes the scene. To finish.
As a result, the automatic control device 1 can update the scenes in the scene determination reference database 10 to more appropriate ones by reviewing or deleting the scenes having a remarkably low learning efficiency K.

なお、ステップS303において、学習効率Kが所定の閾値Kth未満となる運転者(個体)の数Nが、全ての運転者(個体)の数Mの過半数とならなかったシーンがある場合(ステップS303:No)、ステップS306に進み、当該学習効率Kの著しく低いシーンを有する運転者(個体)で収集された環境情報50と手動操作情報51とに基づいて、当該運転者(個体)におけるシーン判定基準の再学習を行う。
ここで、個別の運転者(個体)におけるシーン判定基準の再学習は、ステップS304のシーン判定基準の再学習と同じ処理(方法)で行われる。
In step S303, there is a scene in which the number N of drivers (individuals) whose learning efficiency K is less than the predetermined threshold value Kth is not a majority of the number M of all drivers (individuals) (step S303). : No), the scene is determined by the driver (individual) based on the environmental information 50 and the manual operation information 51 collected by the driver (individual) having the scene having the learning efficiency K remarkably low in step S306. Relearn the criteria.
Here, the re-learning of the scene determination criteria in the individual driver (individual) is performed by the same process (method) as the re-learning of the scene determination criteria in step S304.

そして、ステップS305に進み、移動体のECU(図示せず)は、ステップS306でのシーン判定基準の再学習の結果に基づいて、シーン判定基準データベース10の個別のシーンを更新して処理を終了する。 Then, the process proceeds to step S305, and the moving unit ECU (not shown) updates the individual scenes in the scene judgment criteria database 10 based on the result of re-learning of the scene judgment criteria in step S306, and ends the process. do.

[シーン判定基準の再学習]
次に、ステップS304(ステップS306)で説明した、シーン判定基準の再学習の処理を説明する。
図5は、シーン判定基準の再学習の処理のフローチャートである。
図6は、シーン判定基準の再学習の方法を説明する概念図である。
[Re-learning of scene judgment criteria]
Next, the process of re-learning the scene determination criteria described in step S304 (step S306) will be described.
FIG. 5 is a flowchart of the process of re-learning the scene determination criteria.
FIG. 6 is a conceptual diagram illustrating a method of re-learning the scene determination criteria.

図5に示すように、ステップS401において、移動体のECU(図示せず)は、学習効率Kの著しく低いと判定された所定のシーン(過去シーン)で適用した個体特性モデルを、外部ネットワークに接続されたメモリ(図示せず)に一時的に保存する。 As shown in FIG. 5, in step S401, the mobile ECU (not shown) applies an individual characteristic model applied in a predetermined scene (past scene) determined to have a significantly low learning efficiency K to the external network. Temporarily save to the connected memory (not shown).

ステップS402において、移動体のECU(図示せず)は、学習効率Kの著しく低い所定のシーンの再分類を行う。 In step S402, the moving ECU (not shown) reclassifies a predetermined scene with a significantly low learning efficiency K.

具体的には、図6に示すように、移動体のECUは、例えば、カーブシーンAと交差点シーンCにおいて、運転者の学習効率Kが著しく低いと判定した場合、カーブシーンAを、緩やかなカーブシーンA1と、急なカーブシーンA2とに再分類すると共に、交差点シーンCを、三差路(T字)交差点シーンC1と、五差路交差点シーンC2とに再分類する。
なお、実施の形態では、学習進捗度判定部16において、直線シーンBの学習効率Kは高いと判定したので、移動体のECUにおいて直線シーンBの再分類は実施されない。
Specifically, as shown in FIG. 6, when the moving body ECU determines, for example, in the curve scene A and the intersection scene C that the learning efficiency K of the driver is extremely low, the curve scene A is gently changed. The curve scene A1 and the sharp curve scene A2 are reclassified, and the intersection scene C is reclassified into the three-way intersection scene C1 and the five-way intersection scene C2.
In the embodiment, since the learning progress determination unit 16 determines that the learning efficiency K of the straight line scene B is high, the mobile ECU does not reclassify the straight line scene B.

図5に戻って、学習進捗度判定部16は、ステップS403において、ステップS401でメモリ(図示せず)に保存した個体特性モデルを読み出して、再分類後のシーンに適用する。 Returning to FIG. 5, in step S403, the learning progress determination unit 16 reads out the individual characteristic model saved in the memory (not shown) in step S401 and applies it to the reclassified scene.

ステップS404において、学習進捗度判定部16は、再分類後のシーンにおいて、再分類前のシーンで適用した個体特性モデルによる学習効率Kが所定の閾値Kth以上か否かを判定し、学習効率Kが所定の閾値Kth以上であると判定した場合(K≧Kth)、ステップS405に進む(図6参照)。 In step S404, the learning progress determination unit 16 determines whether or not the learning efficiency K based on the individual characteristic model applied in the scene before reclassification is equal to or higher than a predetermined threshold value Kth in the scene after reclassification, and the learning efficiency K When it is determined that is equal to or greater than a predetermined threshold value Kth (K ≧ Kth), the process proceeds to step S405 (see FIG. 6).

ステップS405において、移動体のECU(図示せず)は、再分類後のシーンを、新たに分類されたシーンに置き換えて、シーン判定基準データベース10を更新して処理を終了する(図6参照)。 In step S405, the moving unit ECU (not shown) replaces the reclassified scene with the newly classified scene, updates the scene determination criterion database 10, and ends the process (see FIG. 6). ..

なお、ステップS404において、学習進捗度判定部16は、再分類後のシーンにおいて、再分類前のシーンで適用した個体特性モデルによる学習効率Kが所定の閾値Kth未満であると判定した場合(K<Kth)、ステップS406に進み、予め初期設定(デフォルト)された自動運転制御を行う(図6参照)。 In step S404, when the learning progress determination unit 16 determines in the scene after reclassification that the learning efficiency K by the individual characteristic model applied in the scene before reclassification is less than the predetermined threshold value Kth (K). <Kth), the process proceeds to step S406, and the automatic operation control that has been initially set (default) is performed (see FIG. 6).

[個体特性モデルの生成]
次に、個体特性学習部14において、運転者の個体特性を学習(個体特性モデルの生成)する処理を説明する。
図7は、個体特性学習処理のフローチャートである。
[Generation of individual characteristic model]
Next, in the individual characteristic learning unit 14, a process of learning the individual characteristics of the driver (generation of an individual characteristic model) will be described.
FIG. 7 is a flowchart of the individual characteristic learning process.

ステップS501において、個体特性学習部14は、移動体(車両)の置かれているシーンの切り換わりがあるか否かを判定し、シーンの切り換わりがあると判定した場合、ステップS502に進む。 In step S501, the individual characteristic learning unit 14 determines whether or not the scene in which the moving body (vehicle) is placed is switched, and if it is determined that the scene is switched, the process proceeds to step S502.

個体特性学習部14において、シーンの切り換わりがあるか否かを判定する具体的な方法の一例として、同一種類のシーンが連続して出現しない場合(例えば、緩やかなカーブシーンの後に、交差点シーンが出現した場合)には、シーンの切り換わりがあると判定し(ステップS501:Yes)、同一種類のシーンが連続して出現した場合(例えば、直線シーンの後に、同様の直線シーンが出現した場合)には、シーンの切り換わりがないと判定する(ステップS501:No) As an example of a specific method for determining whether or not there is a scene change in the individual characteristic learning unit 14, when scenes of the same type do not appear consecutively (for example, after a gentle curve scene, an intersection scene). (When) is determined that there is a scene switch (step S501: Yes), and when the same type of scenes appear consecutively (for example, a similar straight line scene appears after the straight line scene). In the case), it is determined that there is no scene switching (step S501: No).

ステップS502において、個体特性学習部14は、過去情報データベース13から当該シーンにおいて収集された環境情報50と、運転者の手動操作情報51とを取得して、ステップS503に進む。 In step S502, the individual characteristic learning unit 14 acquires the environmental information 50 collected in the scene from the past information database 13 and the driver's manual operation information 51, and proceeds to step S503.

ステップS503において、個体特性学習部14は、個体特性の学習(個体特性モデルの生成)を実行する。これにより、個体特性学習部14により、シーンや環境情報50に対する運転者(個体)の手動操作を推測するための個体特性モデルが生成される。 In step S503, the individual characteristic learning unit 14 executes learning of individual characteristics (generation of an individual characteristic model). As a result, the individual characteristic learning unit 14 generates an individual characteristic model for estimating the manual operation of the driver (individual) with respect to the scene and the environmental information 50.

なお、ステップS501において、個体特性学習部14は、シーンの切り換わりがないと判定した場合(ステップS501:No)、ステップS504に進む。 If the individual characteristic learning unit 14 determines in step S501 that there is no scene switching (step S501: No), the individual characteristic learning unit 14 proceeds to step S504.

ステップS504において、個体特性学習部14は、この個体特性学習処理(ステップS501〜ステップS504)の実行時を起点として、移動体(車両)の走行距離Lが、所定の閾値Lthよりも増えているか(L≧Lth)、又は走行時間Hが、所定の閾値Hthよりも増えているか否かを判定する。 In step S504, the individual characteristic learning unit 14 starts from the time when the individual characteristic learning process (steps S501 to S504) is executed, and whether the mileage L of the moving body (vehicle) is increased from the predetermined threshold value Lth. It is determined whether (L ≧ Lth) or the traveling time H is greater than the predetermined threshold value Hth.

個体特性学習部14は、移動体の走行距離Lが、所定の閾値Lthよりも増えている(L≧Lth)と判定した場合、又は走行時間Hが、所定の閾値Hthよりも増えている(H≧Hth)と判定した場合、(ステップS504:Yes)、ステップS502に進み、当該シーンにおける環境情報50と、運転者の手動操作情報51とを取得し、何れも増えていないと判定した場合(ステップS504:No)、処理を終了する。
これにより、個体特性学習部14は、シーンの切り換わりがないと判定して場合でも、移動体が所定走行距離(又は所定走行時間)経っていると判断した場合には、シーンの切り換わり判断と同様に、個体特性モデルの生成を行う。
When the individual characteristic learning unit 14 determines that the mileage L of the moving body is greater than the predetermined threshold value Lth (L ≧ Lth), or the travel time H is greater than the predetermined threshold value Hth ( When it is determined that H ≧ Hth) (step S504: Yes), the process proceeds to step S502, the environment information 50 in the scene and the driver's manual operation information 51 are acquired, and it is determined that neither of them has increased. (Step S504: No), the process ends.
As a result, even if the individual characteristic learning unit 14 determines that there is no scene switching, if it is determined that the moving body has passed a predetermined mileage (or a predetermined mileage), the scene switching determination is made. In the same manner as above, an individual characteristic model is generated.

前述したように、個体特性学習部14では、運転者の個体特性の学習を、シーンの切り換わりや所定の走行距離を走った場合や所定の走行時間を走った場合など、比較的長い周期で行うことで、短い周期で無駄に個体特性モデルを生成(更新)してしまうことを防止することができる。 As described above, the individual characteristic learning unit 14 learns the individual characteristics of the driver in a relatively long cycle, such as when the scene is switched, a predetermined mileage is ran, or a predetermined mileage is ran. By doing so, it is possible to prevent the individual characteristic model from being unnecessarily generated (updated) in a short cycle.

[個体特性学習の完了判断]
次に、学習進捗度判定部16において、個体特性の学習が完了したか否かの判断の一例を説明する。
図8は、学習進捗度判定部16における個体特性の学習完了の判断処理のフローチャートである。
[Judgment of completion of individual characteristic learning]
Next, an example of determining whether or not the learning of individual characteristics has been completed will be described in the learning progress determination unit 16.
FIG. 8 is a flowchart of the learning completion determination process of the individual characteristic in the learning progress determination unit 16.

ステップS601において、学習進捗度判定部16は、移動体(車両)が置かれている現在のシーンの判定を行う。この学習進捗度判定部16によるシーンの判定は、前述した図3におけるステップS201〜S205と同様の処理により行われるので、ここでの説明は省略する。 In step S601, the learning progress determination unit 16 determines the current scene in which the moving body (vehicle) is placed. The determination of the scene by the learning progress determination unit 16 is performed by the same process as in steps S201 to S205 in FIG. 3 described above, and thus the description thereof will be omitted here.

ステップS602において、学習進捗度判定部16は、過去情報データベース13から運転者(個体)の個体認証情報と現在のシーンとを取得し、現在のシーンにおける個体特性の学習結果を呼び出す。 In step S602, the learning progress determination unit 16 acquires the individual authentication information of the driver (individual) and the current scene from the past information database 13, and calls the learning result of the individual characteristics in the current scene.

ステップS603において、学習進捗度判定部16は、個体特性の学習結果(個体特性モデル)が存在するか否かを判定し、個体特性の学習結果が存在すると判定した場合(ステップS603:Yes)、ステップS604に進む。学習進捗度判定部16は、個体特性の学習結果が存在しないと判定した場合(ステップS603:No)、ステップS611に進み、学習進捗度を「学習未完」に設定して処理を終了する。 In step S603, the learning progress determination unit 16 determines whether or not the learning result of the individual characteristic (individual characteristic model) exists, and when it is determined that the learning result of the individual characteristic exists (step S603: Yes), The process proceeds to step S604. When the learning progress determination unit 16 determines that the learning result of the individual characteristic does not exist (step S603: No), the process proceeds to step S611, sets the learning progress to "learning incomplete", and ends the process.

ステップS604において、学習進捗度判定部16は、移動体が、運転者による手動操作中であるか否かを判定し、手動操作中であると判定した場合(ステップS604:Yes)、ステップS605に進む。学習進捗度判定部16は、移動体が、運転者による手動操作中でないと判定した場合(ステップS604:No)、ステップS611に進み、学習進捗度を「学習未完」に設定して処理を終了する。 In step S604, the learning progress determination unit 16 determines whether or not the moving body is being manually operated by the driver, and if it is determined that the moving body is being manually operated (step S604: Yes), the step S605 is performed. move on. When the learning progress determination unit 16 determines that the moving body is not being manually operated by the driver (step S604: No), the process proceeds to step S611, sets the learning progress to "learning incomplete", and ends the process. do.

ステップS605において、学習進捗度判定部16は、予め取得している環境情報50を、個体特性学習部14で生成された個体特性モデルに当て嵌め、個体適応制御の走行シミュレーションを実施して、ステップS606に進む。 In step S605, the learning progress determination unit 16 applies the environmental information 50 acquired in advance to the individual characteristic model generated by the individual characteristic learning unit 14, carries out a running simulation of individual adaptive control, and steps. Proceed to S606.

ステップS606において、学習進捗度判定部16は、ステップS605で実施した走行シミュレーション結果(推定手動操作情報)と、運転者(個体)の実際の手動操作の操作量(手動操作情報51)とを比較し、その差分Rを算出すると共に、算出した差分Rを、過去情報データベース13に記憶する。 In step S606, the learning progress determination unit 16 compares the running simulation result (estimated manual operation information) performed in step S605 with the actual manual operation amount (manual operation information 51) of the driver (individual). Then, the difference R is calculated, and the calculated difference R is stored in the past information database 13.

前述した差分Rは、ステア角(舵角量)、アクセル開度、移動チアの加速度、移動体の速度、ヨーレート(ヨー角)、障害物との位置関係や相対速度などの走行シミュレーション結果と、実際の測定値との差分である。 The above-mentioned difference R is a running simulation result such as a steering angle (steering angle amount), an accelerator opening, an acceleration of a moving cheer, a moving body speed, a yaw rate (yaw angle), a positional relationship with an obstacle, and a relative speed. It is the difference from the actual measured value.

また、過去情報データベース13への差分Rの記憶は、単に差分Rの累積を記憶してもよく、移動距離に対する比として記憶してもよい。 Further, the storage of the difference R in the past information database 13 may simply store the accumulation of the difference R, or may store it as a ratio to the travel distance.

ステップS607において、学習進捗度判定部16は、ステップS606で算出した差分Rと、シーン(パラメータ)ごとに設定された所定の閾値Rthとを比較し、差分Rが所定の閾値Rth以下であるか否かを判定する。 In step S607, the learning progress determination unit 16 compares the difference R calculated in step S606 with the predetermined threshold value Rth set for each scene (parameter), and determines whether the difference R is equal to or less than the predetermined threshold value Rth. Judge whether or not.

ステップS607において、学習進捗度判定部16は、差分Rが閾値Rth以下であると判定した場合(ステップS607:Yes)、ステップS608に進み、差分Rが閾値Rth以下であると判定した場合(ステップS607:No)、ステップS611に進み、学習進捗度を「学習未完」に設定して処理を終了する。 In step S607, when the learning progress determination unit 16 determines that the difference R is equal to or less than the threshold value Rth (step S607: Yes), the process proceeds to step S608 and determines that the difference R is equal to or less than the threshold value Rth (step S607). S607: No), the process proceeds to step S611, the learning progress is set to "learning incomplete", and the process ends.

なお、ステップS607において、所定の閾値Rthの設定方法の一例として、許容範囲と考えられる数値を予め算出して設定しておいてもよく、仮の数値を設定した後、個体適応制御中に個体(運転者)のオーバーライドの有無や個体の生体情報から運転者の心拍数の増加などを取得し、オーバーライドや心拍数増加の発生頻度が所定の閾値Rth以上である場合に修正するようにしてもよい。 In step S607, as an example of the method of setting the predetermined threshold value Rth, a numerical value considered to be an allowable range may be calculated and set in advance. Even if the driver's heart rate increase is obtained from the presence / absence of the (driver) override and the individual's biometric information, and the frequency of the override or heart rate increase occurs is equal to or higher than the predetermined threshold value Rth. good.

ステップS608において、学習進捗度判定部16は、過去の学習進捗度が「学習未完」状態であったか否かを判定し、「学習未完」状態であると判定した場合(ステップS608:Yes)、ステップS609に進み、「学習未完」状態ではないと判定した場合(ステップS608:No)、ステップS610に進んで、学習進捗度を「学習完了」に設定して処理を終了する。 In step S608, the learning progress determination unit 16 determines whether or not the past learning progress was in the "learning incomplete" state, and if it is determined that the learning progress is in the "learning incomplete" state (step S608: Yes), the step. If the process proceeds to S609 and it is determined that the state is not in the "learning incomplete" state (step S608: No), the process proceeds to step S610, the learning progress is set to "learning completed", and the process ends.

ステップS609において、学習進捗度判定部16は、学習完了状態への移行が許可されているか否かを判定する。学習進捗度判定部16は、学習完了状態への移行が許可されていると判定した場合(ステップS609:Yes)、ステップS610に進んで、学習進捗度を「学習完了」に設定して処理を終了する。
一方、学習進捗度判定部16は、学習完了状態への移行が許可されていない判定した場合(ステップS609:No)、ステップS611に進んで、学習進捗度を「学習未完」に設定して処理を終了する。
In step S609, the learning progress determination unit 16 determines whether or not the transition to the learning completion state is permitted. When the learning progress determination unit 16 determines that the transition to the learning completion state is permitted (step S609: Yes), the process proceeds to step S610, sets the learning progress to "learning completed", and performs processing. finish.
On the other hand, when the learning progress determination unit 16 determines that the transition to the learning completed state is not permitted (step S609: No), the process proceeds to step S611, sets the learning progress to "learning incomplete", and processes. To finish.

学習進捗度判定部16が、学習完了状態への移行が許可されていると判定する場合の一例として、シーンの切り換わり時とするほか、より望ましくは、少なくとも同一シーンにおいて、シーン的に不連続な2か所以上のデータ収集機会におけるシミュレーション結果(推定手動操作情報)と、運転者(個体)の実際の手動操作情報51との差分が所定の閾値以下となることを条件とするのがよい。 As an example of the case where the learning progress determination unit 16 determines that the transition to the learning completion state is permitted, it is at the time of switching scenes, and more preferably, at least in the same scene, the scenes are discontinuous. It is preferable that the difference between the simulation result (estimated manual operation information) at two or more data collection opportunities and the actual manual operation information 51 of the driver (individual) is equal to or less than a predetermined threshold value. ..

ここで、学習進捗度判定部16により判定された学習進捗度に基づいて、学習完了状態に移行する許可を判断する一例を説明する。
図9は、学習進捗度に基づいて、学習完了状態への移行許可を判断する一例を説明する図である。
Here, an example of determining permission to shift to the learning completion state will be described based on the learning progress determined by the learning progress determination unit 16.
FIG. 9 is a diagram illustrating an example of determining permission to shift to the learning completion state based on the learning progress.

図9において、上段には、シーン分類結果が示されている。このシーン分類結果は、シーン判定部11によるシーンの判断結果(分類結果)である。 In FIG. 9, the scene classification result is shown in the upper part. This scene classification result is a scene determination result (classification result) by the scene determination unit 11.

実施の形態では、シーン分類結果として、カーブシーンと直線シーンの2つのシーンが分類されており、カーブシーン(曲がり道路)と直線シーン(直線道路)とが交互に出現する経路となっている。 In the embodiment, two scenes, a curved scene and a straight scene, are classified as the scene classification result, and the curved scene (curved road) and the straight scene (straight road) appear alternately.

シーン分類結果の下段には、差分Rが示されている。この差分Rは、手動操作推定部15で推定された運転者の個体特性のシミュレーション結果(推定手動操作情報)と、実際の運転者の手動操作情報51との差分Rの絶対値である。
なお、差分Rではなく、差分Rを累積した値(累積差分)、又はこの差分R又は累積差分を走行距離で割った値を用いてもよく、また、これらの平均値を用いてもよい。
The difference R is shown in the lower part of the scene classification result. This difference R is an absolute value of the difference R between the simulation result (estimated manual operation information) of the individual characteristics of the driver estimated by the manual operation estimation unit 15 and the actual manual operation information 51 of the driver.
Instead of the difference R, a value obtained by accumulating the difference R (cumulative difference), or a value obtained by dividing the difference R or the cumulative difference by the mileage may be used, or an average value thereof may be used.

実施の形態では、シミュレーション結果と実際の個体の手動操作情報51との差分Rの累積は、時刻t1〜t3では所定の閾値Rth(図中の破線)未満となっており、時刻t4の時に閾値Rth以上となる。 In the embodiment, the accumulation of the difference R between the simulation result and the actual manual operation information 51 of the individual is less than the predetermined threshold value Rth (broken line in the figure) at times t1 to t3, and the threshold value at time t4. It becomes Rth or more.

差分Rの下段には、シーンごと(実施の形態では、カーブシーンと直線シーン)の学習進捗度の判定結果が示されている。 In the lower part of the difference R, the determination result of the learning progress for each scene (in the embodiment, the curve scene and the straight line scene) is shown.

実施の形態では、同じシーン(例えば、カーブシーン)が2度あり、何れのシーンでも差分Rの値が所定の閾値Rthを超えない場合、学習進捗度の判定結果を学習完了と判定するようにしている。
具体的には、カーブシーンの学習進捗度は、1度目のカーブシーンが終了する時刻t1において一段階上昇するが、学習完了移行許可の閾値(図中の破線)は超えない。そして、カーブシーンの学習進捗度は、2度目のカーブシーンが終了する時刻t3において、さらに一段階上昇し、学習完了移行許可の閾値(図中の破線)を超える。
In the embodiment, when the same scene (for example, a curve scene) occurs twice and the value of the difference R does not exceed a predetermined threshold value Rth in any of the scenes, the determination result of the learning progress is determined to be the completion of learning. ing.
Specifically, the learning progress of the curve scene increases by one step at the time t1 when the first curve scene ends, but does not exceed the threshold value (broken line in the figure) of the learning completion transition permission. Then, the learning progress of the curve scene is further increased by one step at the time t3 when the second curve scene ends, and exceeds the threshold value (broken line in the figure) of the learning completion transition permission.

この結果、図9の学習進捗度の下段に示すように、学習進捗度判定部16は、時刻t3で、カーブシーンでの個体特性の学習が完了したと判定し、次のカーブシーンが時刻t4以降で出現した場合、当該カーブシーンにおいて個体適応制御を実施する。 As a result, as shown in the lower part of the learning progress of FIG. 9, the learning progress determination unit 16 determines that the learning of the individual characteristics in the curve scene is completed at the time t3, and the next curve scene is at the time t4. If it appears after that, individual adaptation control is performed in the curve scene.

一方、直線シーンの学習進捗度は、1度目の直線シーンが終了する時刻t2において一段階上昇するが、学習完了移行許可の閾値(図中の破線)は超えない。そして、2度目の直線シーンが終了する時刻t4において、前述した差分Rが、所定の閾値Rthを超えるため、直線シーンの学習進捗度は、時刻t2以降は上昇せず、学習完了移行許可の閾値(図中の破線)は超えない。 On the other hand, the learning progress of the straight line scene increases by one step at the time t2 when the first straight line scene ends, but does not exceed the threshold value (broken line in the figure) of the learning completion transition permission. Then, at the time t4 when the second straight line scene ends, the above-mentioned difference R exceeds the predetermined threshold value Rth, so that the learning progress of the straight line scene does not increase after the time t2, and the learning completion transition permission threshold value. (Dashed line in the figure) does not exceed.

この結果、図9の学習進捗度の下段に示すように、学習進捗度判定部16は、次の直線シーンが時刻t4以降で出現した場合でも、当該直線シーンにおいて個体適応制御を実施せず、予め初期設定されている自動運転制御を実施する。 As a result, as shown in the lower part of the learning progress of FIG. 9, the learning progress determination unit 16 does not perform the individual adaptation control in the straight scene even if the next straight scene appears after the time t4. Implement the preset automatic operation control.

なお、差分Rが、所定の閾値を超えた時刻t3〜t4の走行後、直線シーンの学習進捗度を据え置かず、引き下げてもよい。また、学習進捗度の判定は、必ずしも段階的(実施の形態では、2段階)である必要はなく、差分Rと所定の閾値Rthとの差の大きさによって連続的に変化するものとしてもよい。この結果、ある特定のシーン(場所)のみでしか実際の個体特性に適合しないような、いわゆる過学習などの不適切な学習状態において、個体適応制御を実施してしまうことを防ぐことができる。 After traveling at times t3 to t4 when the difference R exceeds a predetermined threshold value, the learning progress of the straight line scene may be lowered without being left unchanged. Further, the determination of the learning progress does not necessarily have to be stepwise (two steps in the embodiment), and may be continuously changed depending on the magnitude of the difference between the difference R and the predetermined threshold value Rth. .. As a result, it is possible to prevent individual adaptation control from being carried out in an inappropriate learning state such as so-called overfitting, in which the actual individual characteristics are adapted only to a specific scene (place).

[安全判定部]
なお、実施の形態では、自動制御装置1は、個体特性学習部14での学習結果(生成された個体特性モデル)に基づく個体適応制御が、移動体(車両)の自動運転において安全か否かを判定する安全判定部20を、さらに有している。
図10は、安全判定部20を説明するブロック図である。
[Safety judgment unit]
In the embodiment, in the automatic control device 1, whether or not the individual adaptive control based on the learning result (generated individual characteristic model) in the individual characteristic learning unit 14 is safe in the automatic driving of the moving body (vehicle). Further has a safety determination unit 20 for determining the above.
FIG. 10 is a block diagram illustrating the safety determination unit 20.

図10に示すように、安全判定部20は、安全検証用シナリオデータベース(DB)21と、走行模擬部22と、危険事象判定部23とを有している。 As shown in FIG. 10, the safety determination unit 20 includes a safety verification scenario database (DB) 21, a driving simulation unit 22, and a danger event determination unit 23.

安全検証用シナリオデータベース21には、様々な走行状態、走行環境について、事故に繋がる可能性のある事象、例えば、車両の挙動を不安定にさせるような事象や、他車の動作が異常なため衝突などの危険が起こる可能性がある事象など、走行中に発生する可能性のある危険事象の様々なシナリオデータが記憶されている。 The safety verification scenario database 21 contains events that may lead to an accident in various driving conditions and driving environments, such as events that destabilize the behavior of the vehicle and abnormal behavior of other vehicles. Various scenario data of dangerous events that may occur during driving, such as events that may cause a danger such as a collision, are stored.

前述した車両の挙動を不安定にさせるような事象は、例えば、環境情報50を取得するための各種センサの出力が不安定である場合、横風や路面の凹凸が大きくハンドルを取られやすい場合などが挙げられる。 The above-mentioned events that destabilize the behavior of the vehicle include, for example, when the outputs of various sensors for acquiring the environmental information 50 are unstable, when crosswinds and unevenness of the road surface are large and the steering wheel is easily taken. Can be mentioned.

安全検証用シナリオデータベース21に記憶されているシナリオデータは、所定の危険事象に基づいて予め作成されている。また、このシナリオデータは、他の移動体(他車両)などから収集された環境情報50に基づいて、実際に事故が発生したり、移動体(他車両)に大きな加速度が加わったり、運転者(個体)の生体情報として心拍数が急に増加した時のシーンを参照して更新される。 The scenario data stored in the safety verification scenario database 21 is created in advance based on a predetermined dangerous event. Further, this scenario data is based on the environmental information 50 collected from another moving body (other vehicle) or the like, and an accident actually occurs, a large acceleration is applied to the moving body (other vehicle), or the driver. It is updated by referring to the scene when the heart rate suddenly increases as the biological information of the (individual).

このように、安全検証用シナリオデータベース21では、実際に危険事象が発生した際の状況に基づいてシナリオデータが更新されることで、より多くの危険事象におけるシナリオデータが記憶され、様々な危険事象に対応できるようになっている。 In this way, in the safety verification scenario database 21, the scenario data is updated based on the situation when the dangerous event actually occurs, so that the scenario data in more dangerous events is stored, and various dangerous events are stored. It is possible to correspond to.

走行模擬部22は、安全検証用シナリオデータベース21から、検証を行う個体特性モデル(運転者)の対象となるシーンシナリオを抽出する。そして、走行模擬部22は、個体特性学習部14で生成した運転者の個体特性モデルと、安全検証用シナリオデータベース21から抽出したシーンシナリオと、シーン判定部11で判定されたシーン(判定結果)とに基づいて、走行シミュレーション(模擬走行)を実施する。
これにより、走行模擬部22では、所定のシーンにおいて危険事象が発生した場合、当該運転者の個体特性モデルがどのような運転を行うのかという走行シミュレーションが実施される。
The driving simulation unit 22 extracts a scene scenario to be verified by the individual characteristic model (driver) from the safety verification scenario database 21. Then, the driving simulation unit 22 includes the driver's individual characteristic model generated by the individual characteristic learning unit 14, the scene scenario extracted from the safety verification scenario database 21, and the scene determined by the scene determination unit 11 (determination result). Based on the above, a running simulation (simulated running) is carried out.
As a result, the traveling simulation unit 22 carries out a traveling simulation of what kind of driving the individual characteristic model of the driver will perform when a dangerous event occurs in a predetermined scene.

危険事象判定部23は、走行模擬部22から走行シミュレーションの結果を取得し、危険事象の発生の有無又は危険の程度を判定すると共に、当該判定結果を、安全度評価結果として、自動制御装置1の制御部17(図1参照)に出力する。 The dangerous event determination unit 23 acquires the result of the driving simulation from the driving simulation unit 22, determines whether or not a dangerous event has occurred or the degree of danger, and uses the determination result as a safety evaluation result in the automatic control device 1. Is output to the control unit 17 (see FIG. 1).

制御部17では、危険事象判定部23での安全度評価結果に基づいて、個体適応制御を実施するか否かの判定が行われる。このように、制御部17が、安全度評価結果に基づいて個体適応制御を行うか否かの判断を行うことで、例えば、運転者の個体特性の学習に基づいて作成された個体特性モデルが危険事象に対応できなかったり、危険な運転を行う傾向がある運転者の個体特性を学習してしまった場合でも、個体適応制御を実行しないことで、実際に危険運転を行うことを阻止することができる。 The control unit 17 determines whether or not to implement the individual adaptation control based on the safety evaluation result of the danger event determination unit 23. In this way, the control unit 17 determines whether or not to perform individual adaptive control based on the safety evaluation result, so that, for example, an individual characteristic model created based on learning of the individual characteristics of the driver can be obtained. Even if you have learned the individual characteristics of a driver who cannot respond to dangerous events or who tends to drive dangerously, you can prevent the actual dangerous driving by not executing individual adaptive control. Can be done.

次に、危険事象判定部23による危険事象発生の判断の一例を説明する。
図11は、危険事象判定部による危険事象発生の判断の一例を説明する図であり、同図の上段は、時刻と先行車両の速度との関係を示す図であり、同図の下段は、時刻と先行車両との車間距離を示す図である。
なお、図11の下段において、危険事象を適切に回避した場合を実践で示し、危険事象を回避できない場合を破線で示す。
Next, an example of determining the occurrence of a dangerous event by the dangerous event determination unit 23 will be described.
FIG. 11 is a diagram for explaining an example of determining the occurrence of a dangerous event by the dangerous event determination unit, the upper part of the figure is a diagram showing the relationship between the time and the speed of the preceding vehicle, and the lower part of the figure is a diagram showing the relationship between the time and the speed of the preceding vehicle. It is a figure which shows the inter-vehicle distance between a time and a preceding vehicle.
In the lower part of FIG. 11, the case where the dangerous event is appropriately avoided is shown in practice, and the case where the dangerous event cannot be avoided is shown by the broken line.

図11の上段に示すように、例えば、先行車両は、所定の時刻t1までは、直線道路などを一定の車速で走行しており、時刻t1を過ぎた後、急に減速を開始した場合を示している。
これは安全検証用シナリオデータベース21に記憶されているシナリオデータであり、この場合の危険事象は、自車両が先行車両に衝突する可能性がるほど接近(許容最短車間距離Lthよりも近くに接近)することである。
As shown in the upper part of FIG. 11, for example, the preceding vehicle is traveling on a straight road or the like at a constant vehicle speed until a predetermined time t1, and after the time t1, suddenly starts decelerating. Shown.
This is the scenario data stored in the safety verification scenario database 21, and the dangerous event in this case is so close that the own vehicle may collide with the preceding vehicle (closer than the allowable shortest inter-vehicle distance Lth). )It is to be.

走行模擬部22では、個体特性学習部14で生成された個体特性モデルと、シーン判定部11で判定されたシーン(判定結果)と、安全検証用シナリオデータベース21から抽出したシナリオデータと、に基づいて走行シミュレーション(模擬走行)を行う。 The driving simulation unit 22 is based on the individual characteristic model generated by the individual characteristic learning unit 14, the scene determined by the scene determination unit 11 (determination result), and the scenario data extracted from the safety verification scenario database 21. Perform a running simulation (simulated running).

その結果、図11の下段に示すように、先行車両の急減速に自車両が対応できず所定の車間距離(許容最短車間距離Lth)より近くに接近してしまう場合(図11の下段の破線)、危険事象判定部23は、危険事象が発生したと判定し、当該個体特性モデルを安全不十分のモデルと判定する。 As a result, as shown in the lower part of FIG. 11, when the own vehicle cannot cope with the sudden deceleration of the preceding vehicle and approaches closer than the predetermined inter-vehicle distance (allowable shortest inter-vehicle distance Lth) (broken line in the lower part of FIG. 11). ), The dangerous event determination unit 23 determines that a dangerous event has occurred, and determines that the individual characteristic model is a model with insufficient safety.

一方、自車両の車速制御や操舵制御などで、自車両と先行車両との車間距離が、所定の許容最短車間距離Lthよりも近づかないように運転することができれば(図11の下段の実線)、危険事象判定部23は、危険事象が発生しないと判定し、当該個体特性モデルを安全なモデルと判定する。 On the other hand, if it is possible to drive the vehicle so that the inter-vehicle distance between the own vehicle and the preceding vehicle does not come closer than the predetermined allowable shortest inter-vehicle distance Lth by vehicle speed control or steering control of the own vehicle (solid line in the lower part of FIG. 11). , The dangerous event determination unit 23 determines that a dangerous event does not occur, and determines that the individual characteristic model is a safe model.

安全判定部20は、前述した安全検証を、安全検証用シナリオデータベース21に記憶されている全てのシナリオデータ(危険事象)に対して行い、各々のシーンでの個体特性モデルの安全性の検証を行う。 The safety judgment unit 20 performs the above-mentioned safety verification on all scenario data (dangerous events) stored in the safety verification scenario database 21, and verifies the safety of the individual characteristic model in each scene. conduct.

なお、前述した実施の形態では、自動制御装置1を、車両の個体適応制御に適用した場合を例示して説明したが、車両の個体適応制御に限定されるものではなく、その他の機器の個体適応制御にも適用することができる。
例えば、ドローンの飛行を地形や気象条件、飛行目的といったシーンに合わせて効率的に自動運転させるために、操作者の手動操作を学習する個体適応制御にも適用できる。
In the above-described embodiment, the case where the automatic control device 1 is applied to the individual adaptive control of the vehicle has been described as an example, but the present invention is not limited to the individual adaptive control of the vehicle, and is not limited to the individual adaptive control of the vehicle. It can also be applied to adaptive control.
For example, it can be applied to individual adaptive control that learns the manual operation of the operator in order to efficiently and automatically drive the drone flight according to the scene such as terrain, weather conditions, and flight purpose.

また、工場などの製造現場や建設現場、採掘現場などで使用される機器を自動化するにあたって、熟練者の手動操作を学習する個体適応制御にも活用できる。 It can also be used for individual adaptive control to learn manual operations by skilled workers when automating equipment used at manufacturing sites such as factories, construction sites, mining sites, and the like.

以上の通り、実施の形態では、
(1)車両などの移動体(機器)の操作を行う運転者(個体)を認証する個体認証部12と、移動体が置かれているシーンを判定するシーン判定部11と、運転者の個体特性を学習する個体特性学習部14と、運転者の個体特性に基づいて、運転者による移動体の手動操作を推定する手動操作推定部15と、シーン判定部11で判定された所定のシーンにおいて、運転者の個体特性に基づいて手動操作推定部15で推定した推定手動操作情報(推定手動操作)と、当該運転者による移動体の実際の手動操作情報51(手動操作)とを比較して、所定のシーンにおける学習進捗度を判定する学習進捗度判定部16と、シーン判定部11で判定された所定のシーンごとの学習進捗度の判定結果に基づいて、運転者の個体特性に適応した自動制御の実施または不実施を、シーンごとに決定する制御部17と、を有する構成とした。
As described above, in the embodiment,
(1) An individual authentication unit 12 that authenticates a driver (individual) who operates a moving body (equipment) such as a vehicle, a scene determination unit 11 that determines a scene in which the moving body is placed, and an individual driver. In the individual characteristic learning unit 14 that learns the characteristics, the manual operation estimation unit 15 that estimates the manual operation of the moving body by the driver based on the individual characteristics of the driver, and the predetermined scene determined by the scene determination unit 11. , The estimated manual operation information (estimated manual operation) estimated by the manual operation estimation unit 15 based on the individual characteristics of the driver is compared with the actual manual operation information 51 (manual operation) of the moving body by the driver. , Adapted to the individual characteristics of the driver based on the learning progress determination unit 16 for determining the learning progress in a predetermined scene and the learning progress determination result for each predetermined scene determined by the scene determination unit 11. The configuration includes a control unit 17 that determines whether or not automatic control is performed for each scene.

このように構成すると、自動制御装置1では、シーン判定部11で判定されたシーンごとに運転者の個体特性の学習進捗度を判定する学習進捗度判定部16を有しているので、制御部17では、このシーンごとに判定した学習進捗度に基づいて、個体適応制御の実施/または不実施を決定することができる。 With this configuration, the automatic control device 1 has a learning progress determination unit 16 that determines the learning progress of the individual characteristics of the driver for each scene determined by the scene determination unit 11. Therefore, the control unit 1 has a learning progress determination unit 16. In 17, it is possible to decide whether or not to implement the individual adaptation control based on the learning progress determined for each scene.

また、学習進捗度判定部16は、シーン判定部11で判定されたシーンごとに学習進捗度を判定するようにしたので、制御部17は、シーンごとに個体適応制御を行うか否かの判定を行うことができ、学習進捗度の高いシーンから迅速に個体適応制御の実施を行うことができる。よって、運転者に違和感を与えることを防止することができる。 Further, since the learning progress determination unit 16 determines the learning progress for each scene determined by the scene determination unit 11, the control unit 17 determines whether or not to perform individual adaptation control for each scene. It is possible to quickly implement individual adaptation control from a scene with a high degree of learning progress. Therefore, it is possible to prevent the driver from feeling uncomfortable.

(2)運転者の個体特性に適応した自動制御により移動体を操作した場合に、移動体が安全な状態を保てるか否かを判定する安全判定部20を、さらに有し、制御部17は、安全判定部20により、移動体が安全な状態を保てると判定された場合にのみ、運転者の個体特性に適応した自動制御を実施する構成とした。 (2) The control unit 17 further has a safety determination unit 20 that determines whether or not the moving body can maintain a safe state when the moving body is operated by automatic control adapted to the individual characteristics of the driver. The safety determination unit 20 is configured to perform automatic control adapted to the individual characteristics of the driver only when it is determined that the moving body can maintain a safe state.

このように構成すると、制御部17は、安全判定部20により、個体適応制御を行った結果、移動体が安全な状態を保てると判定された場合のみ個体適応制御を行うようにしたので、安全判定部20により、学習進捗度が高い場合であっても、移動体の安全が保てないと判定された場合には個体適応制御を行わない。
よって日常的に危険操作を行うような運転者の個体特性を学習してしまった場合でも、個体適応制御を実施しないことにより、移動体が危険な状態になることを防止できる。
With this configuration, the control unit 17 performs individual adaptation control only when it is determined by the safety determination unit 20 that the moving body can maintain a safe state as a result of performing individual adaptation control. Therefore, it is safe. Even if the learning progress is high, the determination unit 20 does not perform individual adaptation control when it is determined that the safety of the moving body cannot be maintained.
Therefore, even if the individual characteristics of the driver who performs dangerous operations on a daily basis are learned, it is possible to prevent the moving body from becoming in a dangerous state by not performing the individual adaptation control.

(3)シーン判定部11は、所定のシーンに含まれる少なくとも2以上の不連続な第1シーン(例えば、緩やかなカーブシーン)と、第2シーン(例えば、交差点シーン)とを判定し、制御部17は、学習進捗度判定部16により、少なくとも2以上の不連続な第1シーンと、第2シーンにおける学習進捗度の判定結果が何れも学習完了状態であると判定された場合に、運転者の個体特性に適応した自動制御を実施する構成とした。 (3) The scene determination unit 11 determines and controls at least two or more discontinuous first scenes (for example, gentle curve scenes) and second scenes (for example, intersection scenes) included in a predetermined scene. When the learning progress determination unit 16 determines that at least two or more discontinuous first scenes and the learning progress determination results in the second scene are both in the learning completion state, the unit 17 operates. The configuration is such that automatic control is performed according to the individual characteristics of the person.

このように構成すると、学習進捗度判定部16は、所定の同一シーンに含まれる異なる2か所以上のシーンで学習進捗度を判定するので、所定の同一シーンのほとんど変わらない複数のシーンで学習進捗度を無駄に判定してしまうことを防ぐことができ、より確実に当該所定のシーンの学習進捗度を判定することができる。 With this configuration, the learning progress determination unit 16 determines the learning progress in two or more different scenes included in the same predetermined scene, and therefore learns in a plurality of scenes that are almost unchanged in the same predetermined scene. It is possible to prevent the progress from being unnecessarily determined, and it is possible to more reliably determine the learning progress of the predetermined scene.

(4)シーン判定部11は、所定のシーンに含まれる互いに所定距離離れた第3シーン(例えば、第1の直線シーン)と、第4シーン(例えば、第2の直線シーン)とを判定し、制御部17は、学習進捗度判定部16により、所定のシーンにおいて、互いに所定距離離れた第3シーンと、第4シーンにおける学習進捗度の判定結果がいずれも学習完了状態であると判定された場合に、運転者の個体特性に適応した自動制御を実施する構成とした。 (4) The scene determination unit 11 determines a third scene (for example, a first straight line scene) and a fourth scene (for example, a second straight line scene) included in a predetermined scene and separated from each other by a predetermined distance. , The control unit 17 is determined by the learning progress determination unit 16 that in a predetermined scene, the determination results of the learning progress in the third scene and the fourth scene, which are separated from each other by a predetermined distance, are both in the learning completed state. In this case, the configuration is such that automatic control is performed according to the individual characteristics of the driver.

このように構成すると、学習進捗度判定部16は、所定の同一シーンに含まれる互いに所定距離離れた2か所以上のシーンで学習進捗度を判定するので、所定の同一シーンのほとんど変わらない位置の複数のシーンで学習進捗度を無駄に判定してしまうことを防ぐことができ、より確実に当該所定のシーンの学習進捗度を判定することができる。 With this configuration, the learning progress determination unit 16 determines the learning progress in two or more scenes included in the same predetermined scene and separated from each other by a predetermined distance, so that the positions of the same predetermined scene are almost unchanged. It is possible to prevent the learning progress from being unnecessarily determined in the plurality of scenes of the above, and it is possible to more reliably determine the learning progress of the predetermined scene.

(5)移動体が置かれているシーンを複数記憶するシーン判定基準データベース10を、さらに有し、シーン判定基準データベース10は、学習進捗度判定部16で判定された所定のシーンの学習進捗度の判定結果(差分R)が、所定の閾値Rthよりも低い場合、または学習進捗度判定部16で算出された所定のシーンの学習効率Kが、所定の閾値Kthよりも低い場合に、所定のシーン(例えば、カーブシーン)を、当該所定のシーン(カーブシーン)とは異なる他のシーン(例えば、緩やかなカーブシーンと急なカーブシーン)に変更する構成とした。 (5) Further has a scene judgment standard database 10 for storing a plurality of scenes in which a moving object is placed, and the scene judgment standard database 10 has a learning progress of a predetermined scene determined by a learning progress judgment unit 16. When the determination result (difference R) of is lower than the predetermined threshold Rth, or when the learning efficiency K of the predetermined scene calculated by the learning progress determination unit 16 is lower than the predetermined threshold Kth, the predetermined The scene (for example, a curve scene) is changed to another scene (for example, a gentle curve scene and a sharp curve scene) different from the predetermined scene (curve scene).

どの運転者にとっても学習進捗度の著しく低いシーンは、シーンの分類に問題がある可能性が高く、このような学習進捗度の著しく低いシーンをいつまでも記憶していても、当該シーンにおいて適切な学習を行うことができない。また、このようなシーンの記憶を継続することは、データベースのメモリ容量を無駄に使うことになり、維持・管理コストも増加してしまう。
このように構成すると、学習進捗度の低いシーンを見直して、新たなシーンに再分類することで、再分類した新たなシーンでの学習を効率的に行うことができる。また、学習進捗度の著しく低いシーンを再分類して更新することで、データベースのメモリ容量の無駄をなくし、維持・管理コストの最適化を行うことができる。
A scene with extremely low learning progress for any driver is likely to have a problem in classifying the scene, and even if such a scene with extremely low learning progress is memorized forever, appropriate learning is performed in the scene. Can't do. In addition, continuing to store such scenes wastes the memory capacity of the database and increases maintenance and management costs.
With this configuration, by reviewing the scenes with low learning progress and reclassifying them into new scenes, it is possible to efficiently perform learning in the reclassified new scenes. In addition, by reclassifying and updating scenes with extremely low learning progress, it is possible to eliminate waste of database memory capacity and optimize maintenance and management costs.

(6)学習進捗度判定部16は、変更された後の他のシーン(例えば、緩やかなカーブシーンと急なカーブシーン)の学習進捗度の判定を、変更される前の所定のシーン(例えば、カーブシーン)の学習進捗度の判定に用いた推定手動操作情報(個体特性モデル)と、移動体の実際の手動操作情報51とを比較することで行い、
シーン判定基準データベース10は、他のシーン(例えば、緩やかなカーブシーンと急なカーブシーン)における、学習進捗度の判定結果が所定の閾値以上である場合、他のシーン(例えば、緩やかなカーブシーンと急なカーブシーン)を所定のシーン(例えば、カーブシーン)に置き換えて記憶する構成とした。
(6) The learning progress determination unit 16 determines the learning progress of other scenes (for example, a gentle curve scene and a steep curve scene) after the change, and determines the learning progress of the predetermined scene (for example, the scene before the change). , Curve scene) The estimated manual operation information (individual characteristic model) used to judge the learning progress is compared with the actual manual operation information 51 of the moving body.
When the learning progress determination result in another scene (for example, a gentle curve scene and a steep curve scene) is equal to or higher than a predetermined threshold, the scene determination criterion database 10 determines the other scene (for example, a gentle curve scene). And a sharp curve scene) is replaced with a predetermined scene (for example, a curve scene) and stored.

このように構成すると、変更される前のシーンの推定手動操作情報(個体特性モデル)を有効に活用することがき、シーン判定基準データベース10の更新処理を迅速に行うことができる。 With this configuration, it is possible to effectively utilize the estimated manual operation information (individual characteristic model) of the scene before the change, and it is possible to quickly update the scene determination reference database 10.

[シーン一致度検証部]
なお、前述した実施の形態では、学習効率Kの著しく低い所定のシーンを細分化して、新たなシーンに再分類する場合を例示して説明したが、これに限定されるものではない。例えば、細分化された2以上のシーンを纏めて大分類のシーンに再分類してもよい。
また、シーンの学習効率Kに関わらず、一のシーンと他のシーンが一致すると判定された場合には、一つのシーンに再分類しても良い。
[Scene match verification unit]
In the above-described embodiment, a case where a predetermined scene having a remarkably low learning efficiency K is subdivided and reclassified into a new scene has been described as an example, but the present invention is not limited to this. For example, two or more subdivided scenes may be grouped together and reclassified into major scenes.
Further, regardless of the learning efficiency K of the scene, if it is determined that one scene and another scene match, the scene may be reclassified into one scene.

次に、他の実施の形態にかかる自動制御装置1のシーン一致度検証部30を説明する。
図12は、シーン一致度検証部30を説明するブロック図である。
Next, the scene matching degree verification unit 30 of the automatic control device 1 according to another embodiment will be described.
FIG. 12 is a block diagram illustrating a scene matching degree verification unit 30.

図12に示すように、シーン一致度検証部30は、走行シーンシナリオデータベース31と、再分類判定部32とを有している。 As shown in FIG. 12, the scene matching degree verification unit 30 has a driving scene scenario database 31 and a reclassification determination unit 32.

走行シーンシナリオデータベース31は、シーン判定基準データベース10に記憶されている各々のシーンを含む走行シーンシナリオが複数保存されている。
ここで、走行シーンシナリオは、車両などの移動体が走行する道路の所定のシーンと、移動体が当該所定のシーンを走行する際の環境情報を含んだ情報(シナリオ)である。
The driving scene scenario database 31 stores a plurality of driving scene scenarios including each scene stored in the scene determination standard database 10.
Here, the traveling scene scenario is information (scenario) including a predetermined scene of a road on which a moving body such as a vehicle travels and environmental information when the moving body travels in the predetermined scene.

走行模擬部22は、走行シーンシナリオデータベース31から、全ての走行シーンシナリオを読み出すと共に、個体特性学習部14で生成された、走行シーンシナリオに含まれる各シーンに対応する個体特性モデルを読み出す。 The driving simulation unit 22 reads all the driving scene scenarios from the driving scene scenario database 31, and also reads the individual characteristic model corresponding to each scene included in the driving scene scenario generated by the individual characteristic learning unit 14.

走行模擬部22では、例えば、読み出した全ての走行シーンシナリオの内の一つに対して、読み出した全ての個体特性モデルを一つ一つ当て嵌めて走行シミュレーション(模擬走行)を実行する。そして、走行模擬部22では、読み出した全ての走行シーンシナリオについて、同じ処理を実行する。 In the running simulation unit 22, for example, a running simulation (simulated running) is executed by fitting all the read individual characteristic models one by one to one of all the read running scene scenarios. Then, the running simulation unit 22 executes the same processing for all the read running scene scenarios.

再分類判定部32では、走行模擬部22での走行シミュレーション(模擬走行)の結果、走行シミュレーションが一致(または類似)する複数の走行シーンシナリオ(例えば、勾配の緩やかな直線シーンシナリオと勾配の急な直線シーンシナリオ)を、一つに纏めて新たな走行シーンシナリオ(例えば、直線シーンシナリオ)を作成する。 In the reclassification determination unit 32, as a result of the running simulation (simulated running) in the running simulation unit 22, a plurality of running scene scenarios (for example, a straight scene scenario with a gentle slope and a steep slope) in which the running simulations match (or are similar) Straight-line scene scenarios) are combined into one to create a new driving scene scenario (for example, straight-line scene scenario).

これにより、走行シーンシナリオデータベース31に記憶される走行シーンシナリオ(シーン判定基準データベース10に記憶されるシーン)の数を減らすことができる。よって、シーンを記憶するシーン判定基準データベース10のメモリ領域を少なくすることができ、メモリ領域が膨大になることによる自動制御装置1の製造、管理コストの増加を防止することができる。 As a result, the number of driving scene scenarios (scenes stored in the scene determination reference database 10) stored in the driving scene scenario database 31 can be reduced. Therefore, the memory area of the scene determination reference database 10 for storing the scene can be reduced, and it is possible to prevent an increase in manufacturing and management costs of the automatic control device 1 due to the enormous memory area.

<第2の実施の形態>
次に、第2の実施の形態にかかる自動制御装置1Aを説明する。
第2の実施の形態にかかる自動制御装置1Aを、介護を必要としている者(以下、要介護者又は見守り対象者という)の見守り介護システムにおいて、当該介護システムの個体特性の学習に適用した場合を例示して説明する。
図13は、第2の実施の形態にかかる自動制御装置1Aを説明するブロック図である。なお、前述した実施の形態と同様の構成については、同一の番号を付し、必要に応じて説明する。
<Second Embodiment>
Next, the automatic control device 1A according to the second embodiment will be described.
When the automatic control device 1A according to the second embodiment is applied to learning the individual characteristics of the long-term care system in the long-term care system of a person in need of long-term care (hereinafter referred to as a long-term care recipient or a long-term care target person). Will be illustrated and described.
FIG. 13 is a block diagram illustrating the automatic control device 1A according to the second embodiment. The same configuration as that of the above-described embodiment will be assigned the same number and will be described as necessary.

[自動制御装置]
図13に示すように、自動制御装置1Aでは、要介護者環境情報53が、シーン判定部11に入力されるようになっている。
要介護者環境情報53は、要介護者(見守り対象者)の周囲の情報(気象、位置、要介護者が興味を示している物体情報など)の外部環境情報と、要介護者の生体情報や移動速度などの内部環境情報が含まれる。
[Automatic control device]
As shown in FIG. 13, in the automatic control device 1A, the care-requiring person environment information 53 is input to the scene determination unit 11.
The care-requiring person environmental information 53 includes external environmental information (weather, position, object information that the care-requiring person is interested in, etc.) around the care-requiring person (watching target person), and biological information of the care-requiring person. Includes internal environment information such as and movement speed.

要介護者環境情報53は、要介護者が入所する施設内やインフラ側に取り付けられたカメラなどで収集してもよく、要介護者が身につけるウェアラブル端末で収集してもよい。 The care-requiring person environmental information 53 may be collected by a camera installed in the facility where the care-requiring person enters or on the infrastructure side, or may be collected by a wearable terminal worn by the care-requiring person.

過去情報データベース13には、介護者判断情報54が入力されるようになっている。介護者判断情報54は、介護者(要介護者を介護する者)が周囲の状況を確認し、判断した危険度の情報であり、過去情報データベース13の所定のメモリアドレスに記憶されている。介護者判断情報54は、介護者による入力(危険度の判断結果)がない場合、危険度が0(ゼロ)の判断が行われたとする。 Caregiver determination information 54 is input to the past information database 13. The caregiver judgment information 54 is information on the degree of risk determined by the caregiver (the person who cares for the care recipient) by checking the surrounding situation, and is stored in a predetermined memory address of the past information database 13. It is assumed that the caregiver judgment information 54 determines that the risk level is 0 (zero) when there is no input by the caregiver (judgment result of the risk level).

また、自動制御装置1Aでは、危険事象判定部18を有している。
危険事象判定部18は、現在の要介護者環境情報53と、個体特性学習部14で生成された個体特性モデルと、が入力されている。危険事象判定部18は、これらの入力された要介護者環境情報53と、個体特性モデルとから危険事象の有無の判断や、危険事象の発生確率の推定を行う。
Further, the automatic control device 1A has a dangerous event determination unit 18.
The danger event determination unit 18 is input with the current environment information 53 for the person requiring long-term care and the individual characteristic model generated by the individual characteristic learning unit 14. The dangerous event determination unit 18 determines the presence or absence of a dangerous event and estimates the probability of occurrence of the dangerous event from the input care-requiring person environmental information 53 and the individual characteristic model.

ここで、危険事象とは、一例として、要介護者が交通量の多い道に近づいたり、怪我や落下の危険性のある対象物に興味を持っている状況を意味する。 Here, the dangerous event means, for example, a situation in which a person requiring long-term care approaches a road with heavy traffic or is interested in an object at risk of injury or falling.

学習進捗度判定部16は、危険事象判定部18での危険事象の判定結果と、介護者判断情報54(介護者の危険度の判断結果)とを比較し、この差分Rが小さいほど、当該シーンにおける個体特性の学習進捗度が高いと判定する。 The learning progress determination unit 16 compares the determination result of the danger event in the danger event determination unit 18 with the caregiver determination information 54 (determination result of the caregiver's risk degree), and the smaller the difference R, the more the said. It is judged that the learning progress of individual characteristics in the scene is high.

そして、制御部17では、学習進捗度が高いと判定されたシーンから、個体適応学制御を実施し、学習進捗度が低いと判定されたシーンについては、学習進捗度が高いと判定されるまで個体適応制御を実施しない。 Then, the control unit 17 executes individual adaptation science control from the scene determined to have a high learning progress, and the scene determined to have a low learning progress is determined to have a high learning progress. No individual adaptation control is performed.

[個体適応制御]
次に、第2の実施の形態にかかる自動制御装置1Aにおける個体適応制御の流れを説明する。
図14は、個体適応制御の流れを説明するフローチャートである。
[Individual adaptation control]
Next, the flow of individual adaptive control in the automatic control device 1A according to the second embodiment will be described.
FIG. 14 is a flowchart illustrating the flow of individual adaptation control.

ステップS701において、見守り介護システムの全体制御部(図示せず)では、各データ収集及び個体特性の学習のトリガとして、見守り介護システムの制御が許可されているか否かを判定する。 In step S701, the overall control unit (not shown) of the watching care system determines whether or not control of the watching care system is permitted as a trigger for collecting data and learning individual characteristics.

全体制御部(図示せず)は、制御が許可されていると判定した場合(ステップS701:Yes)、ステップS702に進み、制御が許可されていないと判定した場合(ステップS701:No)、本処理を終了する。
制御許可の判定は、介護者の見守り介護システムの起動スイッチのON/OFFを基準に行ってもよく、見守り介護システムの電源のON/OFFを基準に行ってもよい。
When the overall control unit (not shown) determines that control is permitted (step S701: Yes), proceeds to step S702, and determines that control is not permitted (step S701: No). End the process.
The determination of the control permission may be made based on the ON / OFF of the activation switch of the caregiver's watching care system, or may be made based on the ON / OFF of the power supply of the watching care system.

ステップS702において、見守り介護システムの全体制御部(図示せず)は、要介護者の周囲の環境情報(要介護者環境情報53)を取得し、過去情報データベース13に送信する。 In step S702, the overall control unit (not shown) of the watching care system acquires the environmental information around the care recipient (care recipient environmental information 53) and transmits it to the past information database 13.

ステップS703において、制御部17は、個体適応判断が許可されているか否かを判定する。制御部17は、個体適応判断が許可されていると判定した場合(ステップS703:Yes)、ステップS704に進み、個体適応判断が許可されていないと判定された場合(ステップS703:No)、ステップS706に進み、予め初期設定(デフォルト)された制御を実施する。 In step S703, the control unit 17 determines whether or not the individual adaptation determination is permitted. When the control unit 17 determines that the individual adaptation determination is permitted (step S703: Yes), the process proceeds to step S704, and when it is determined that the individual adaptation determination is not permitted (step S703: No), the step Proceed to S706, and perform the preset initial setting (default) control.

ステップS704において、学習進捗度判定部16は、現在のシーンにおいて、個体特性の学習が完了しているか否かを判定する。学習進捗度判定部16は、現在のシーンにおいて、学習進捗度が所定の閾値よりも高いと判定した場合(ステップS704:Yes)、ステップS705に進み、学習進捗度が所定の閾値よりも低いと判定した場合(ステップS704:No)、ステップS706に進み、予め初期設定(デフォルト)された制御を実施する。 In step S704, the learning progress determination unit 16 determines whether or not the learning of the individual characteristics is completed in the current scene. When the learning progress determination unit 16 determines that the learning progress is higher than the predetermined threshold value in the current scene (step S704: Yes), the learning progress determination unit 16 proceeds to step S705 and determines that the learning progress is lower than the predetermined threshold value. If it is determined (step S704: No), the process proceeds to step S706, and the control that has been initialized (default) in advance is executed.

そして、ステップS705において、制御部17は、個体適応制御を実施して処理を終了する。 Then, in step S705, the control unit 17 executes individual adaptation control and ends the process.

[過去情報データベースの更新処理]
次に、過去情報データベース13の更新処理を説明する。
図15は、過去情報データベース13の更新処理のフローチャートである。
[Past information database update process]
Next, the update process of the past information database 13 will be described.
FIG. 15 is a flowchart of the update process of the past information database 13.

ステップS801において、個体認証部12は、現在の要介護者の個体認証情報52を取得する。 In step S801, the individual authentication unit 12 acquires the individual authentication information 52 of the current care recipient.

ステップS802において、個体認証部12は、ステップS801で取得した現在の要介護者の個体認証情報52が、過去情報データベース13にすでに記憶されているか否かを判定する。個体認証部12は、個体認証情報52が、過去情報データベース13にすでに記憶されていると判定した場合(ステップS802:Yes)、ステップS803に進む。 In step S802, the individual authentication unit 12 determines whether or not the current individual authentication information 52 of the person requiring long-term care acquired in step S801 is already stored in the past information database 13. When the individual authentication unit 12 determines that the individual authentication information 52 is already stored in the past information database 13 (step S802: Yes), the individual authentication unit 12 proceeds to step S803.

ステップS803において、個体認証部12は、当該要介護者の個体認証情報52が記憶されている過去情報データベース13上のメモリアドレスを取得し、ステップS804に進む。 In step S803, the individual authentication unit 12 acquires the memory address on the past information database 13 in which the individual authentication information 52 of the person requiring long-term care is stored, and proceeds to step S804.

一方、個体認証部12は、当該要介護者の個体認証情報52が、過去情報データベース13に記憶されていないと判定した場合(ステップS802:No)、ステップS808に進む。 On the other hand, when the individual authentication unit 12 determines that the individual authentication information 52 of the person requiring long-term care is not stored in the past information database 13 (step S802: No), the individual authentication unit 12 proceeds to step S808.

ステップS808において、個体認証部12は、過去情報データベース13上に、現在の要介護者の個体認証情報52を記憶する新たなメモリアドレスを設定し、ステップS804に進む。 In step S808, the individual authentication unit 12 sets a new memory address for storing the current individual authentication information 52 of the person requiring long-term care on the past information database 13, and proceeds to step S804.

ステップS804において、シーン判定部11は、要介護者環境情報53を取得して、ステップS805に進む。 In step S804, the scene determination unit 11 acquires the care-requiring person environment information 53 and proceeds to step S805.

ステップS805において、シーン判定部11は、シーン判定基準データベース10から取得したシーンの判定に必要なパラメータと、ステップS804で取得した要介護者環境情報53とに基づいて、当該シーンを判定する。 In step S805, the scene determination unit 11 determines the scene based on the parameters necessary for determining the scene acquired from the scene determination reference database 10 and the care-requiring person environment information 53 acquired in step S804.

ステップS806において、自動制御装置1Aの全体制御部(図示せず)は、介護者の危険度判断情報(介護者判断情報54)を取得する。 In step S806, the overall control unit (not shown) of the automatic control device 1A acquires the caregiver risk determination information (caregiver determination information 54).

ステップS807において、自動制御装置1Aの全体制御部(図示せず)は、取得した要介護者環境情報53と介護者判断情報54とを、過去情報データベース13と危険事象判定部18とにそれぞれ送信して処理を終了する。 In step S807, the overall control unit (not shown) of the automatic control device 1A transmits the acquired care-requiring environment information 53 and the caregiver judgment information 54 to the past information database 13 and the danger event judgment unit 18, respectively. And end the process.

[重み付け処理]
なお、前述した要介護者の危険事象の学習において、学習進捗度判定部16で危険事象を判断した結果の差分の算出にあたり、介護者が近くにいるか、見守り介護システムにより介護者にアラートを出したときの介護者の判断との差分に基づいて重みを付けるようにしてもよい。
これにより、介護者が危険事象を認知できなかった際に、見守り介護システムが、危険ではなかったと誤って学習してしまうことを防ぐことができる。
[Weighting]
In the above-mentioned learning of the long-term care-requiring person's dangerous event, when calculating the difference between the results of determining the dangerous event by the learning progress determination unit 16, an alert is issued to the long-term care person by the watching care system to see if the caregiver is nearby. The weight may be weighted based on the difference from the caregiver's judgment at the time of the event.
As a result, when the caregiver cannot recognize the dangerous event, it is possible to prevent the watching care system from mistakenly learning that it was not dangerous.

次に、介護者の危険度判断と、見守り介護システムによる危険度判断との差分に重みをつける処理を説明する。
図16は、重み決定処理のフローチャートである。
Next, a process of weighting the difference between the caregiver's risk judgment and the risk judgment by the watching care system will be described.
FIG. 16 is a flowchart of the weight determination process.

初めに、ステップS901において、見守り介護システムの全体制御部(図示せず)は、介護者による危険事象の判断の入力があったか否かを判定する。危険事象の入力があったと判定した場合(ステップS901:Yes)、ステップS902に進み重みW1が選択される。 First, in step S901, the overall control unit (not shown) of the watching care system determines whether or not the caregiver has input the judgment of the dangerous event. When it is determined that the dangerous event has been input (step S901: Yes), the process proceeds to step S902 and the weight W1 is selected.

このステップS901で選択された重みW1は、0〜1の範囲で設定され、例えば、介護者が指定した危険事象の発生から危険事象の判断の入力までの経過時間に応じて小さくするようにしてもよい。また、危険度判定を行う介護者ごとに個別に設定してもよい。 The weight W1 selected in step S901 is set in the range of 0 to 1, and is reduced according to the elapsed time from the occurrence of the dangerous event specified by the caregiver to the input of the judgment of the dangerous event, for example. May be good. In addition, it may be set individually for each caregiver who determines the degree of risk.

ステップS901において、見守り介護システムの全体制御部(図示せず)は、危険事象の入力がないと判定した場合(ステップS901:No)、ステップS904に進んで、介護者が要介護者(見守り対象者)に意識を向けているか否かを判定する。 In step S901, when the overall control unit (not shown) of the watching care system determines that there is no input of a dangerous event (step S901: No), the caregiver proceeds to step S904 and the caregiver is a care recipient (watching target). Determine whether or not the person is conscious of the person).

ステップS904において、見守り介護システムの全体制御部(図示せず)は、介護者が要介護者(見守り対象者)に意識を向けていると判定した場合(ステップS904:Yes)、ステップS905に進み重みW2が選択される。 In step S904, when the overall control unit (not shown) of the watching care system determines that the caregiver is conscious of the person requiring long-term care (watching target person) (step S904: Yes), the process proceeds to step S905. The weight W2 is selected.

ここで、ステップS905で選択された重みW2は、ステップS902で選択された重みW1よりも小さい値に設定されている。この重みW2は、例えば、重みW1に0〜1の範囲の係数を掛けることで算出できる。 Here, the weight W2 selected in step S905 is set to a value smaller than the weight W1 selected in step S902. The weight W2 can be calculated, for example, by multiplying the weight W1 by a coefficient in the range of 0 to 1.

また、ステップS904において、介護者が意識を向けているか否かの判断は、要介護者環境情報53を取得するための各種センサを用い、例えば、介護者の目線や顔、体が要介護者(見守り対象者)の方向に向けられていれば、意識が向けられていると判定することができる。 Further, in step S904, various sensors for acquiring the care-requiring person environmental information 53 are used to determine whether or not the caregiver is conscious, and for example, the care-requiring person's eyes, face, and body are the care-requiring person. If it is directed in the direction of (the person to be watched over), it can be determined that the consciousness is directed.

ステップS904において、見守り介護システムの全体制御部(図示せず)は、介護者が要介護者(見守り対象者)に意識を向けていないと判定した場合(ステップS904:No)、ステップS906に進んで、介護者が要介護者(見守り対象者)を見通せる場所にいるか否かを判定する。 In step S904, when the overall control unit (not shown) of the watching care system determines that the caregiver is not paying attention to the care recipient (watching target person) (step S904: No), the process proceeds to step S906. Then, it is determined whether or not the caregiver is in a place where the care recipient (person to be watched over) can be seen.

ステップS906において、見守り介護システムの全体制御部(図示せず)は、介護者が要介護者(見守り対象者)を視認可能であると判定した場合(ステップS906:Yes)、ステップS907に進み重みW3が選択される。 In step S906, when the overall control unit (not shown) of the watching care system determines that the care recipient (the person to be watched) can be visually recognized (step S906: Yes), the care proceeds to step S907 and the weight is increased. W3 is selected.

ここで、ステップS907で選択された重みW3は、ステップS905で選択した重みW2よりも小さい値に設定されている。例えば、重みW3は、介護者と要介護者(見守り対象者)との距離に応じて小さくなる、0〜1の範囲の係数を重みW2にかけることで算出できる。 Here, the weight W3 selected in step S907 is set to a value smaller than the weight W2 selected in step S905. For example, the weight W3 can be calculated by multiplying the weight W2 by a coefficient in the range of 0 to 1, which decreases according to the distance between the caregiver and the care recipient (the person to be watched over).

ステップS906において、見守り介護システムの全体制御部(図示せず)は、介護者が要介護者(見守り対象者)を見通せない位置にいると判定した場合(ステップS906:No)、ステップS908に進み重みW4が選択される。 In step S906, when the overall control unit (not shown) of the watching care system determines that the caregiver is in a position where the care recipient (watching target person) cannot be seen (step S906: No), the process proceeds to step S908. The weight W4 is selected.

ここで、ステップS908で選択された重みW4は、ステップS902で選択された重みW1よりも小さい値に設定されている。この重みW4は、重みW1に0〜1の範囲の係数を掛けることで算出できる。 Here, the weight W4 selected in step S908 is set to a value smaller than the weight W1 selected in step S902. The weight W4 can be calculated by multiplying the weight W1 by a coefficient in the range of 0 to 1.

重みW1〜W4が設定された後、ステップS903において、介護者による危険度の判断結果と、見守り介護システムによる危険度の判断結果との差分に、ステップS902、ステップS905、ステップS907、ステップS908で選択した重みW1、W2、W3、W4を掛け合わせる。 After the weights W1 to W4 are set, in step S903, in step S902, step S905, step S907, and step S908, the difference between the risk judgment result by the caregiver and the risk judgment result by the watching care system is calculated. Multiply the selected weights W1, W2, W3, W4.

ステップS909において、重み付け後の差分の累積値(例えば、各シーンの平均値)を算出して処理を終了する。 In step S909, the cumulative value of the weighted difference (for example, the average value of each scene) is calculated, and the process ends.

前述した見守り介護システムにおける危険事象の判断結果は、人間が参照して適宜、要介護者(見守り対象者)の様子を確認するのに用いるだけでなく、要介護者に付き添い、危険事象が発生すると予測される場合にそれを回避するように働くロボットに対して、本危険事象の推定結果を出力するようにしてもよい。 The judgment result of the dangerous event in the above-mentioned watching care system is not only used by human beings to appropriately confirm the state of the person requiring long-term care (person to be watched over), but also accompanies the person requiring long-term care and a dangerous event occurs. Then, when it is predicted, the estimation result of this dangerous event may be output to the robot that works to avoid it.

以上説明した通り、実施の形態では、
要介護者(見守り対象者)に対して、これまで介護者が付き添えない場合には、危険事象の発生を防止するために要介護者の行動を制限する必要があった。しかし、前述した見守り介護システムは、介護者の代わりに要介護者の個々の能力に合った安全な範囲での行動か否かを判定することができる。
この結果、介護者の負担を軽減しつつ、要介護者の行動範囲、可能性を増加させて、要介護者の生活の質向上を図ることができる。
As described above, in the embodiment,
In the past, when the care recipient was not accompanied by the care recipient (person to be watched over), it was necessary to restrict the behavior of the care recipient in order to prevent the occurrence of dangerous events. However, the above-mentioned watching care system can determine whether or not the behavior is within a safe range suitable for the individual ability of the care recipient on behalf of the caregiver.
As a result, it is possible to improve the quality of life of the long-term care recipient by increasing the range of action and possibility of the long-term care recipient while reducing the burden on the long-term care recipient.

なお、前述した第1の実施の形態にかかる自動制御装置1と、第2の実施の形態にかかる自動制御装置1Aとを組み合わせてもよく、他の実施の形態と組み合わせてもよい。 The automatic control device 1 according to the first embodiment described above may be combined with the automatic control device 1A according to the second embodiment, or may be combined with other embodiments.

1、1A:自動制御装置、10:シーン判定基準データベース、11:シーン判定部、12:個体認証部、13:過去情報データベース、14:個体特性学習部、15:手動操作推定部、16:学習進捗度判定部、17:制御部、20:安全判定部、21:安全検証用シナリオデータベース、22:走行模擬部、23:危険事象判定部、30:シーン一致度検証部、31:走行シーンシナリオデータベース、32:再分類判定部、50:環境情報、51:手動操作情報、52:個体認証情報 1, 1A: Automatic control device, 10: Scene judgment standard database, 11: Scene judgment unit, 12: Individual authentication unit, 13: Past information database, 14: Individual characteristic learning unit, 15: Manual operation estimation unit, 16: Learning Progress judgment unit, 17: Control unit, 20: Safety judgment unit, 21: Safety verification scenario database, 22: Driving simulation unit, 23: Dangerous event judgment unit, 30: Scene matching degree verification unit, 31: Driving scene scenario Database, 32: Reclassification judgment unit, 50: Environmental information, 51: Manual operation information, 52: Individual authentication information

Claims (8)

機器の操作を行う個体を認証する個体認証部と、
前記機器が置かれているシーンを判定するシーン判定部と、
前記個体の個体特性を学習する個体特性学習部と、
前記個体の個体特性に基づいて、前記個体による前記機器の手動操作を推定する手動操作推定部と、
前記シーン判定部で判定された所定のシーンにおいて、前記個体の個体特性に基づいて前記手動操作推定部で推定した推定手動操作と、当該個体による前記機器の実際の手動操作とを比較して、前記所定のシーンにおける学習進捗度を判定する学習進捗度判定部と、
前記シーン判定部で判定された前記所定のシーンごとの前記学習進捗度の判定結果に基づいて、前記個体の個体特性に適応した自動制御の実施または不実施を、前記シーンごとに決定する制御部と、
前記機器が置かれているシーンを複数記憶するシーン判定基準データベースと、を有し、
前記シーン判定基準データベースは、
前記学習進捗度判定部で判定された前記所定のシーンの学習進捗度の判定結果が、所定の閾値よりも低い場合、または前記学習進捗度判定部で算出された前記所定のシーンの学習効率が、所定の閾値よりも低い場合に、前記所定のシーンを、当該所定のシーンとは異なる他のシーンに変更し、
前記学習進捗度判定部は、前記変更された後の他のシーンの学習進捗度の判定を、前記変更される前の所定のシーンの学習進捗度の判定に用いた推定手動操作と、前記機器の実際の手動操作とを比較することで行い、
前記シーン判定基準データベースは、前記他のシーンにおける、前記学習進捗度の判定結果が所定の閾値以上である場合、当該他のシーンを一のシーンに置き換えて記憶する自動制御装置。
An individual authentication unit that authenticates an individual who operates a device,
A scene determination unit that determines the scene in which the device is placed, and
The individual characteristic learning unit that learns the individual characteristics of the individual,
A manual operation estimation unit that estimates the manual operation of the device by the individual based on the individual characteristics of the individual, and a manual operation estimation unit.
In a predetermined scene determined by the scene determination unit, the estimated manual operation estimated by the manual operation estimation unit based on the individual characteristics of the individual is compared with the actual manual operation of the device by the individual. A learning progress determination unit that determines the learning progress in the predetermined scene,
Based on the determination result of the learning progress for each of the predetermined scenes determined by the scene determination unit, the control unit determines the execution or non-execution of the automatic control adapted to the individual characteristics of the individual for each scene. When,
Have a, a scene determination criteria database for storing a plurality of scenes in which the device is located,
The scene judgment criteria database is
When the learning progress determination result of the predetermined scene determined by the learning progress determination unit is lower than the predetermined threshold value, or the learning efficiency of the predetermined scene calculated by the learning progress determination unit is high. When the threshold value is lower than the predetermined threshold value, the predetermined scene is changed to another scene different from the predetermined scene.
The learning progress determination unit uses the determination of the learning progress of the other scene after the change to determine the learning progress of the predetermined scene before the change, and the device. Performed by comparing with the actual manual operation of
The scene determination reference database is an automatic control device that replaces the other scene with one scene and stores the other scene when the determination result of the learning progress in the other scene is equal to or more than a predetermined threshold value.
機器の操作を行う個体を認証する個体認証部と、An individual authentication unit that authenticates an individual who operates a device,
前記機器が置かれているシーンを判定するシーン判定部と、A scene determination unit that determines the scene in which the device is placed, and
前記個体の個体特性を学習する個体特性学習部と、The individual characteristic learning unit that learns the individual characteristics of the individual,
前記個体の個体特性に基づいて、前記個体による前記機器の手動操作を推定する手動操作推定部と、A manual operation estimation unit that estimates the manual operation of the device by the individual based on the individual characteristics of the individual, and a manual operation estimation unit.
前記シーン判定部で判定された所定のシーンにおいて、前記個体の個体特性に基づいて前記手動操作推定部で推定した推定手動操作と、当該個体による前記機器の実際の手動操作とを比較して、前記所定のシーンにおける学習進捗度を判定する学習進捗度判定部と、In a predetermined scene determined by the scene determination unit, the estimated manual operation estimated by the manual operation estimation unit based on the individual characteristics of the individual is compared with the actual manual operation of the device by the individual. A learning progress determination unit that determines the learning progress in the predetermined scene,
前記シーン判定部で判定された前記所定のシーンごとの前記学習進捗度の判定結果に基づいて、前記個体の個体特性に適応した自動制御の実施または不実施を、前記シーンごとに決定する制御部と、Based on the determination result of the learning progress for each of the predetermined scenes determined by the scene determination unit, the control unit determines the execution or non-execution of the automatic control adapted to the individual characteristics of the individual for each scene. When,
前記機器が置かれているシーンを複数記憶するシーン判定基準データベースと、A scene judgment standard database that stores multiple scenes in which the device is placed, and
前記シーン判定基準データベースに含まれる複数のシーンのうち、一のシーンと他のシーンの一致度を検証するシーン一致度検証部と、を有し、It has a scene matching degree verification unit for verifying the matching degree between one scene and another scene among a plurality of scenes included in the scene determination standard database.
前記シーン一致度検証部は、The scene matching degree verification unit
前記一のシーンにおける前記個体の個体特性から前記手動操作推定部により推定された一の推定手動操作を前記他のシーンに当て嵌めて、前記学習進捗度判定部により判定された学習進捗度の判定結果と、Judgment of the learning progress degree determined by the learning progress determination unit by applying one estimated manual operation estimated by the manual operation estimation unit from the individual characteristics of the individual in the one scene to the other scene. Results and
前記他のシーンにおける前記個体の個体特性から前記手動操作推定部により推定された他の推定手動操作を前記一のシーンに当て嵌めて、前記学習進捗度判定部により判定された学習進捗度の判定結果と、を比較して、Judgment of the learning progress degree determined by the learning progress determination unit by applying another estimated manual operation estimated by the manual operation estimation unit from the individual characteristics of the individual in the other scene to the one scene. Compare the result with
前記比較の結果が、所定の閾値よりも小さい場合、前記一のシーンと前記他のシーンとを共通のシーンに纏めて前記シーン判定基準データベースを更新する自動制御装置。An automatic control device that updates the scene determination reference database by collecting the one scene and the other scene into a common scene when the result of the comparison is smaller than a predetermined threshold value.
前記個体の個体特性に適応した自動制御により前記機器を操作した場合に、前記機器が安全な状態を保てるか否かを判定する安全判定部を、さらに有し、
前記制御部は、
前記安全判定部により、前記機器が安全な状態を保てると判定された場合にのみ、前記個体の個体特性に適応した自動制御を実施する請求項1又は2に記載の自動制御装置。
Further, it has a safety determination unit for determining whether or not the device can maintain a safe state when the device is operated by automatic control adapted to the individual characteristics of the individual.
The control unit
The automatic control device according to claim 1 or 2 , wherein automatic control adapted to the individual characteristics of the individual is performed only when the safety determination unit determines that the device can maintain a safe state.
前記シーン判定部は、前記所定のシーンに含まれる少なくとも2以上の不連続な第1シーンと、第2シーンとを判定し、
前記制御部は、
前記学習進捗度判定部により、前記少なくとも2以上の不連続な前記第1シーンと、前記第2シーンにおける学習進捗度の判定結果が何れも学習完了状態であると判定された場合に、前記個体の個体特性に適応した自動制御を実施する請求項に記載の自動制御装置。
The scene determination unit determines at least two or more discontinuous first scenes and second scenes included in the predetermined scene, and determines the second scene.
The control unit
When the learning progress determination unit determines that at least two or more discontinuous first scenes and the learning progress determination results in the second scene are both in the learning completion state, the individual The automatic control device according to claim 3 , wherein automatic control adapted to the individual characteristics of the above is performed.
前記シーン判定部は、前記所定のシーンに含まれる互いに所定距離離れた第3シーンと、第4シーンとを判定し、
前記制御部は、
前記学習進捗度判定部により、前記所定のシーンにおいて、互いに所定距離離れた前記第3シーンと、前記第4シーンにおける学習進捗度の判定結果がいずれも学習完了状態であると判定された場合に、前記個体の個体特性に適応した自動制御を実施する請求項に記載の自動制御装置。
制御装置。
The scene determination unit determines the third scene and the fourth scene included in the predetermined scene and separated from each other by a predetermined distance.
The control unit
When the learning progress determination unit determines that in the predetermined scene, the determination results of the learning progress in the third scene and the fourth scene, which are separated from each other by a predetermined distance, are both in the learning completed state. The automatic control device according to claim 3 , wherein automatic control adapted to the individual characteristics of the individual is performed.
Control device.
機器の操作を行う個体を認証する個体認証工程と、
前記機器が置かれているシーンを判定するシーン判定工程と、
前記個体の個体特性を学習する個体特性学習工程と、
前記個体の個体特性に基づいて、前記個体による前記機器の手動操作を推定する手動操作推定工程と、
前記シーン判定工程で判定された所定のシーンにおいて、前記個体の個体特性に基づいて前記手動操作推定工程で推定した推定手動操作と、当該個体による前記機器の実際の手動操作とを比較して、前記所定のシーンにおける学習進捗度を判定する学習進捗度判定工程と、
前記シーン判定工程で判定された前記所定のシーンごとの前記学習進捗度の判定結果に基づいて、前記個体の個体特性に適応した自動制御の実施または不実施を、前記シーンごとに決定する制御工程と、
前記機器が置かれているシーンを複数記憶するシーン判定基準データベースに含まれる複数のシーンのうち、一のシーンと他のシーンの一致度を検証するシーン一致度検証工程と、を有し、
前記シーン一致度検証工程は、
前記一のシーンにおける前記個体の個体特性から前記手動操作推定工程により推定された一の推定手動操作を前記他のシーンに当て嵌めて、前記学習進捗度判定工程により判定された学習進捗度の判定結果と、
前記他のシーンにおける前記個体の個体特性から前記手動操作推定工程により推定された他の推定手動操作を前記一のシーンに当て嵌めて、前記学習進捗度判定工程により判定された学習進捗度の判定結果と、を比較する比較工程と、
前記比較の結果が、所定の閾値よりも小さい場合、前記一のシーンと前記他のシーンとを共通のシーンに纏めて前記シーン判定基準データベースを更新する更新工程と、を有する自動制御装置の制御方法。
An individual authentication process that authenticates an individual who operates a device,
A scene determination process for determining the scene in which the device is placed, and
An individual characteristic learning process for learning the individual characteristics of the individual, and
A manual operation estimation step for estimating the manual operation of the device by the individual based on the individual characteristics of the individual, and a manual operation estimation step.
In a predetermined scene determined in the scene determination step, the estimated manual operation estimated in the manual operation estimation step based on the individual characteristics of the individual is compared with the actual manual operation of the device by the individual. A learning progress determination step for determining the learning progress in the predetermined scene, and
Based on the determination result of the learning progress for each of the predetermined scenes determined in the scene determination step, the control step of determining the execution or non-execution of the automatic control adapted to the individual characteristics of the individual for each scene. When,
Among the plurality of scenes included in the scene determination reference database for storing a plurality of scenes in which the equipment is located, possess a scene matching degree verification step of verifying the coincidence of the first scene and another scene, a,
The scene matching degree verification step is
Judgment of the learning progress degree determined by the learning progress determination step by applying one estimated manual operation estimated by the manual operation estimation step from the individual characteristics of the individual in the one scene to the other scenes. Results and
Judgment of the learning progress degree determined by the learning progress determination step by applying another estimated manual operation estimated by the manual operation estimation step from the individual characteristics of the individual in the other scene to the one scene. A comparison process that compares the results,
Result of the comparison is smaller than a predetermined threshold, the automatic control system for chromatic and a updating step of updating the scene determination reference database together said as one of the scene and the other scenes common scenes Control method.
前記シーン判定工程は、前記所定のシーンに含まれる少なくとも2以上の不連続な第1シーンと、第2シーンとを判定し、
前記制御工程は、
前記学習進捗度判定工程により、前記少なくとも2以上の不連続な前記第1シーンと、前記第2シーンにおける学習進捗度の判定結果が何れも学習完了状態であると判定された場合に、前記個体の個体特性に適応した自動制御を実施する請求項に記載の自動制御装置の制御方法。
The scene determination step determines at least two or more discontinuous first scenes and second scenes included in the predetermined scene, and determines the second scene.
The control step is
When the learning progress determination step determines that at least two or more discontinuous first scenes and the learning progress determination results in the second scene are both in the learning completion state, the individual The control method of the automatic control device according to claim 6 , wherein automatic control adapted to the individual characteristics of the above is performed.
前記シーン判定工程は、前記所定のシーンに含まれる互いに所定距離離れた第3シーンと、第4シーンとを判定し、
前記制御工程は、
前記学習進捗度判定工程により、前記所定のシーンにおいて、互いに所定距離離れた前記第3シーンと、前記第4シーンにおける学習進捗度の判定結果がいずれも学習完了状態であると判定された場合に、前記個体の個体特性に適応した自動制御を実施する請求項に記載の自動制御装置の制御方法。
In the scene determination step, the third scene and the fourth scene included in the predetermined scene and separated from each other by a predetermined distance are determined.
The control step is
When it is determined by the learning progress determination step that in the predetermined scene, the determination results of the learning progress in the third scene and the fourth scene, which are separated from each other by a predetermined distance, are both in the learning completed state. The control method of the automatic control device according to claim 6 , wherein automatic control adapted to the individual characteristics of the individual is carried out.
JP2017128910A 2017-06-30 2017-06-30 Automatic control device and its control method Active JP6924629B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017128910A JP6924629B2 (en) 2017-06-30 2017-06-30 Automatic control device and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017128910A JP6924629B2 (en) 2017-06-30 2017-06-30 Automatic control device and its control method

Publications (2)

Publication Number Publication Date
JP2019010967A JP2019010967A (en) 2019-01-24
JP6924629B2 true JP6924629B2 (en) 2021-08-25

Family

ID=65226268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017128910A Active JP6924629B2 (en) 2017-06-30 2017-06-30 Automatic control device and its control method

Country Status (1)

Country Link
JP (1) JP6924629B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020246075A1 (en) * 2019-06-04 2020-12-10 ソニー株式会社 Action control device, action control method, and program
JP7260450B2 (en) * 2019-10-02 2023-04-18 株式会社クボタ Work vehicle and work management system
DE112020007044T5 (en) 2020-04-09 2023-08-17 Mitsubishi Electric Corporation Teaching data generating device and teaching data generating method
CN113859246B (en) * 2020-06-30 2023-09-08 广州汽车集团股份有限公司 Vehicle control method and device
US20220227397A1 (en) * 2021-01-19 2022-07-21 Baidu Usa Llc Dynamic model evaluation package for autonomous driving vehicles

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2742928B2 (en) * 1990-12-17 1998-04-22 日本電信電話株式会社 Semi-autonomous robot remote control method
CN103718221B (en) * 2011-08-04 2016-08-17 丰田自动车株式会社 Vehicular information processing device and Vehicular information processing method

Also Published As

Publication number Publication date
JP2019010967A (en) 2019-01-24

Similar Documents

Publication Publication Date Title
JP6924629B2 (en) Automatic control device and its control method
CN110834644B (en) Vehicle control method and device, vehicle to be controlled and storage medium
CN112389427B (en) Vehicle track optimization method and device, electronic equipment and storage medium
RU2705480C1 (en) Control method and vehicle control device with automatic driving function
Noh et al. Decision-making framework for automated driving in highway environments
US10642268B2 (en) Method and apparatus for generating automatic driving strategy
US11940790B2 (en) Safe hand-off between human driver and autonomous driving system
KR102461831B1 (en) System and Method for Improving of Advanced Deep Reinforcement Learning Based Traffic in Non signalalized Intersections for the Multiple Self driving Vehicles
US11565716B2 (en) Method and system for dynamically curating autonomous vehicle policies
Butakov et al. Driving autopilot with personalization feature for improved safety and comfort
Nilsson et al. Safe transitions from automated to manual driving using driver controllability estimation
CN108349494B (en) Method for operating a distance and speed adjustment function of a vehicle and driver assistance system for carrying out the method
JP2018206036A (en) Vehicle control system, method thereof and travel support server
JP2019510677A (en) Control data creation method for driver&#39;s rule-based assistance
CN113370996B (en) Automatic driving lane change following decision method and system and automatic driving vehicle
JP2019043495A (en) Device, system and method for adjusting automatic operation
WO2021129156A1 (en) Control method, device and system of intelligent car
CN113085873B (en) Method and device for acquiring driving strategy, computer equipment and storage medium
CN113173170B (en) Personalized algorithm based on personnel portrait
CN112805199A (en) Self-learning method, device and equipment of automatic driving system and storage medium
CN115179959A (en) Intelligent driving vehicle behavior prediction method based on self-adaptive updating threshold of driving road
CN111967163B (en) Vehicle simulation control method and device, computer equipment and storage medium
CN111873975A (en) Control method, device, system, equipment and medium for electronic parking brake
Jeong Self-adaptive motion prediction-based proactive motion planning for autonomous driving in urban environments
WO2022044210A1 (en) Driving assistance device, learning device, driving assistance method, driving assistance program, learned model generation method, and learned model generation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210802

R150 Certificate of patent or registration of utility model

Ref document number: 6924629

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150