JP6924629B2 - Automatic control device and its control method - Google Patents
Automatic control device and its control method Download PDFInfo
- Publication number
- JP6924629B2 JP6924629B2 JP2017128910A JP2017128910A JP6924629B2 JP 6924629 B2 JP6924629 B2 JP 6924629B2 JP 2017128910 A JP2017128910 A JP 2017128910A JP 2017128910 A JP2017128910 A JP 2017128910A JP 6924629 B2 JP6924629 B2 JP 6924629B2
- Authority
- JP
- Japan
- Prior art keywords
- scene
- individual
- learning
- learning progress
- manual operation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、自動制御装置およびその制御方法に関する。 The present invention relates to an automatic control device and a control method thereof.
近年、運転者(個体)の手動操作によらず、車両などの移動体のECU(Electronic Control Unit)が、自車両が置かれたシーンや環境条件などを自動で判断して自律的に運転する自動運転技術の開発が進められている。
この種の自動運転技術では、移動体のECUが、様々なシーンにおける運転者の個体特性を学習し、運転者の個体特性に近い自動運転を行うことで、運転者に違和感を与えないようにしている。
In recent years, the ECU (Electronic Control Unit) of a moving body such as a vehicle automatically determines the scene in which the vehicle is placed and the environmental conditions, and drives autonomously, regardless of the manual operation of the driver (individual). Development of automatic driving technology is in progress.
In this kind of automatic driving technology, the ECU of the moving body learns the individual characteristics of the driver in various scenes and performs automatic driving close to the individual characteristics of the driver so as not to give the driver a sense of discomfort. ing.
特許文献1には、移動体の自動制御装置が開示されている。 Patent Document 1 discloses an automatic control device for a moving body.
特許文献1に開示されている移動体の自動制御装置では、様々なシーンにおける運転者の個体特性(操作特性)を学習することで、運転者の個体特性に適応したモデルを構築している。これにより、この自動制御装置では、運転者の個体特性を自動運転に反映させることで、運転者の違和感を減らすことができる。 In the automatic control device for a moving body disclosed in Patent Document 1, a model adapted to the individual characteristics of the driver is constructed by learning the individual characteristics (operation characteristics) of the driver in various scenes. As a result, in this automatic control device, the driver's individual characteristics are reflected in the automatic driving, so that the driver's discomfort can be reduced.
しかしながら、特許文献1の移動体の自動制御装置では、運転者の個体特性の学習が完了したか否かの判断基準がない。
よって、この自動制御装置では、運転者の個体特性の学習完了の判断が遅れる結果、個体特性の自動運転への反映が遅れてしまう。また、この自動制御装置では、運転者の個体特性の学習が不十分な状態で、当該個体特性を自動運転に反映させてしまう恐れがあり、この場合、運転者に違和感を与えてしまうという問題がある。
However, in the automatic control device for a moving body of Patent Document 1, there is no criterion for determining whether or not the learning of the individual characteristics of the driver is completed.
Therefore, in this automatic control device, as a result of delaying the determination of the completion of learning of the individual characteristics of the driver, the reflection of the individual characteristics in the automatic operation is delayed. Further, in this automatic control device, there is a possibility that the individual characteristics of the driver are reflected in the automatic driving in a state where the learning of the individual characteristics of the driver is insufficient, and in this case, there is a problem that the driver feels uncomfortable. There is.
したがって本発明は、上記課題に鑑みてなされたもので、自動制御装置において、シーンごとに運転者の個体特性の学習完了の判断を適切に行うことで、個体特性の自動運転への反映を迅速に行うことを目的とする。また、運転者の個体特性の学習が完了したと判断されたシーンごとに自動運転を行うことで、運転者に与える違和感を少なくすることを目的とする。 Therefore, the present invention has been made in view of the above problems, and the automatic control device can quickly reflect the individual characteristics in the automatic driving by appropriately determining the completion of learning the individual characteristics of the driver for each scene. The purpose is to do. In addition, it is intended to reduce the sense of discomfort given to the driver by performing automatic driving for each scene where it is determined that the learning of the individual characteristics of the driver is completed.
上記課題を解決するため、機器の操作を行う個体を認証する個体認証部と、機器が置かれているシーンを判定するシーン判定部と、個体の個体特性を学習する個体特性学習部と、個体の個体特性に基づいて、個体による機器の手動操作を推定する手動操作推定部と、シーン判定部で判定された所定のシーンにおいて、個体の個体特性に基づいて手動操作推定部で推定した推定手動操作と、当該個体による機器の実際の手動操作とを比較して、所定のシーンにおける学習進捗度を判定する学習進捗度判定部と、シーン判定部で判定された所定のシーンごとの学習進捗度の判定結果に基づいて、個体の個体特性に適応した自動制御の実施または不実施を、シーンごとに決定する制御部と、を有する自動制御装置とした。 In order to solve the above problems, an individual authentication unit that authenticates an individual who operates the device, a scene determination unit that determines the scene in which the device is placed, an individual characteristic learning unit that learns the individual characteristics of an individual, and an individual In a predetermined scene determined by the manual operation estimation unit that estimates the manual operation of the device by the individual based on the individual characteristics of the individual and the scene determination unit, the estimation manual estimation by the manual operation estimation unit based on the individual characteristics of the individual The learning progress determination unit that determines the learning progress in a predetermined scene by comparing the operation with the actual manual operation of the device by the individual, and the learning progress for each predetermined scene determined by the scene determination unit. Based on the determination result of the above, the automatic control device is provided with a control unit for determining the execution or non-execution of the automatic control adapted to the individual characteristics of the individual for each scene.
本発明によれば、自動制御装置において、シーンごとに運転者の個体特性の学習完了の判断を適切に行うことで、個体特性の自動運転への反映を迅速に行うことができる。また、運転者の個体特性の学習が完了したと判断されたシーンごとに自動運転を行うことで、運転者に与える違和感を少なくすることができる。 According to the present invention, in the automatic control device, the individual characteristics can be quickly reflected in the automatic driving by appropriately determining the completion of learning the individual characteristics of the driver for each scene. Further, by performing automatic driving for each scene where it is determined that the learning of the individual characteristics of the driver is completed, it is possible to reduce the discomfort given to the driver.
以下、本発明の実施の形態にかかる自動制御装置1を説明する。
以下の説明では、自動制御装置1を、車両などの移動体(図示せず)の自動運転に適用した場合を例示して説明する。
図1は、実施の形態にかかる自動制御装置1を説明するブロック図である。
Hereinafter, the automatic control device 1 according to the embodiment of the present invention will be described.
In the following description, a case where the automatic control device 1 is applied to automatic driving of a moving body (not shown) such as a vehicle will be described as an example.
FIG. 1 is a block diagram illustrating an automatic control device 1 according to an embodiment.
[自動制御装置]
図1に示すように、自動制御装置1は、シーン判定基準データベース10と、シーン判定部11と、個体認証部12と、過去情報データベース13と、個体特性学習部14と、手動操作推定部15と、学習進捗度判定部16と、制御部17と、を有している。
[Automatic control device]
As shown in FIG. 1, the automatic control device 1 includes a scene
シーン判定基準データベース10は、自動運転におけるシーンの分類に使用されるパラメータが、分類されるシーンに対応して記憶されている。よって、シーン判定基準データベースから所定のパラメータを取得することで、このパラメータに対応するシーンを抽出することができる。
In the scene determination
ここで、シーンとは、車両などの移動体が走行する道路形状を意味し、一定の距離的又は時間的長さを含む概念である。例えば、シーンの一例として、短い直線シーン、長い直線シーン、緩やかなカーブシーン、急なカーブシーン,上り坂シーン、下り坂シーン、交差点シーンなどが挙げられる。そして、各々のシーンは、一場面だけではなく、ある一定の距離的又は時間的長さを含んでいる。 Here, the scene means a road shape on which a moving body such as a vehicle travels, and is a concept including a certain distance or time length. For example, examples of scenes include short straight line scenes, long straight line scenes, gentle curve scenes, sharp curve scenes, uphill scenes, downhill scenes, and intersection scenes. And each scene includes not only one scene but also a certain distance or time length.
前述したシーン判定基準データベース10は、移動体(車両)側の制御装置などに設けられていてもよいが、シーン判定基準データベース10を移動体とは異なる場所にある外部サーバ(図示せず)に設けることがより好ましい。
The scene judgment
シーン判定基準データベース10を外部サーバ(図示せず)に設け、この外部サーバと移動体のECU(図示せず)とを情報ネットワークを介して接続することで、移動体のECUが、必要に応じて、外部サーバ内のシーン判定基準データベース10に記憶されているパラメータ(シーン)を読み出すことができる。
By providing the scene
このようにすると、移動体側の制御装置などのメモリ容量を小さくすることができ、移動体側の制御装置の製造コストや、維持・管理コストの増加を抑えることができる。また、移動体側の制御装置の計算リソースを、危険回避処理などの緊急性の高い処理に重点的に使用することができる。さらに、運転者が、別の移動体(車両)に乗車した場合でも、情報ネットワークを介して外部サーバから必要な情報を読み出して個体適応制御を行うことができる。 By doing so, the memory capacity of the control device on the moving body side can be reduced, and the increase in the manufacturing cost and the maintenance / management cost of the control device on the moving body side can be suppressed. In addition, the computational resources of the control device on the moving body side can be used intensively for highly urgent processing such as danger avoidance processing. Further, even when the driver gets on another moving body (vehicle), it is possible to read necessary information from an external server via the information network and perform individual adaptation control.
このシーン判定基準データベース10には、シーン判定部11が接続されており、このシーン判定部11には、シーン判定基準データベース10に記憶されたシーンの分類に使用されるパラメータと、環境情報50と、が入力される。
A
シーン判定部11は、シーン判定基準データベース10から入力されたパラメータと、環境情報50とに基づいて、移動体(車両)の置かれているシーンを判定する。
The
ここで、環境情報50は、例えば、道路形状(直線、カーブ、傾斜勾配、交差点の有無等)、周囲の他の移動体(他車両)の密度、周囲の他の移動体の移動速度(車速)、周囲の障害物との距離、道路の車線内における自車両の幅方向の位置、気温、季節、明るさ、などの外部環境情報をいう。また、環境情報50は、例えば、自車両の車速、加速度、ステア角、ピッチ、ロール、などの内部環境情報も含む。 Here, the environmental information 50 includes, for example, a road shape (straight line, curve, slope, presence / absence of an intersection, etc.), density of other moving objects (other vehicles) in the vicinity, and moving speed (vehicle speed) of other moving objects in the vicinity. ), Distance to surrounding obstacles, position in the width direction of the vehicle in the lane of the road, temperature, season, brightness, and other external environmental information. The environmental information 50 also includes internal environmental information such as the vehicle speed, acceleration, steering angle, pitch, and roll of the own vehicle.
個体認証部12は、運転者(個体)の個体認証情報52を取得し、この取得した個体認証情報52と、後述する過去情報データベース13にすでに登録されている個体認証情報と、を照合して、運転者の認証を行う。
The
個体認証情報52は、運転者を特定可能な情報であれば特に限定されるものではなく、例えば、個人IDと暗証番号(パスワード)、運転免許証などの身分証の情報であってもよい。この個体認証情報52は、イグニッションキーやスタート/ストップボタンがOFFにされるまで、ECUのメモリ(図示せず)に記憶されている。 The individual authentication information 52 is not particularly limited as long as it is information that can identify the driver, and may be, for example, identification information such as a personal ID, a personal identification number (password), and a driver's license. The individual authentication information 52 is stored in the memory (not shown) of the ECU until the ignition key and the start / stop button are turned off.
この個体認証部12は、過去情報データベース13に接続されており、個体認証部12は、過去情報データベース13にすでに登録されている個体認証情報を読み出すようになっている。
The
過去情報データベース13には、運転者の個体認証情報52のほか、シーン判定部11で判定されたシーン(判定結果)と、環境情報50と、手動操作情報51とが入力されて記憶されている。
In addition to the driver's individual authentication information 52, the scene (judgment result) determined by the
過去情報データベース13は、個体認証部12で認証された運転者の個体認証情報52に基づいて、過去情報データベース13内での当該個体認証情報52に対応するメモリアドレス(メモリ領域)を特定する。そして、過去情報データベース13は、この特定したメモリアドレスに、シーン判定部11で判定されたシーン(判定結果)と、その際の環境情報50及び運転者の手動操作情報51とを関連付けて記憶する。
The
一方、過去情報データベース13は、個体認証部12で認証された運転者の個体認証情報52が、過去に登録がない(未登録)と判定した場合、当該未登録の運転者の個体認証情報52に対応する新たなメモリアドレス(メモリ領域)を作製すると共に、そのメモリアドレスに、シーン判定部11で判定されたシーン(判定結果)と、その際の環境情報50及び運転者の手動操作情報51と、を関連付けて記憶する。
On the other hand, when the
ここで、手動操作情報51には、例えば、ステアリングの操舵角、車速、各ライト及び各ランプのON/OFF操作、空調の設定温度、車内オーディオの楽曲選定及びその音量、カーナビゲーションの操作情報、ウィンドウの開閉量、ウィンドウの遮光性が電圧を印加するなどで任意に設定できる場合には、その電圧値(遮光度)などが一例として挙げられる。 Here, the manual operation information 51 includes, for example, steering angle of steering, vehicle speed, ON / OFF operation of each light and each lamp, set temperature of air conditioning, music selection and volume of in-vehicle audio, car navigation operation information, and the like. When the opening / closing amount of the window and the light-shielding property of the window can be arbitrarily set by applying a voltage, the voltage value (light-shielding degree) and the like can be given as an example.
過去情報データベース13は、個体特性学習部14に接続されており、過去情報データベース13に記憶された各情報は、個体特性学習部14に入力される。
The
個体特性学習部14は、過去情報データベース13に記憶されたシーン(判定結果)と、環境情報50と、手動操作情報51と、個体認証情報52とに基づいて、当該個体認証情報52で特定される運転者の個体特性モデルを生成する。
The individual
具体的には、個体特性学習部14は、各々のシーンにおいて、運転者がどのような手動操作を行ったのかを機械学習などの手法で学習して、個体特性モデルを生成する。
なお、個体特性(操作特性)の学習は周知の機械学習、ディープラーニングなどの手法を用いることができる。
Specifically, the individual
For learning individual characteristics (operation characteristics), well-known methods such as machine learning and deep learning can be used.
個体特性学習部14は、手動操作推定部15に接続されており、個体特性学習部14で生成された個体特性モデルは、手動操作推定部15に入力される。
The individual
手動操作推定部15には、個体特性学習部14で生成された個体特性モデルのほか、現在の環境情報50が入力されており、この個体特性モデルと環境情報50とに基づいて、運転者の手動操作を推定する。
In addition to the individual characteristic model generated by the individual
ここで、運転者の手動操作には、例えば、ステアリング操作、アクセルペダル操作、各ライト及び各ランプのON/OFF操作、空調の操作、車内オーディオの操作、カーナビゲーションの操作、ウィンドウの開閉操作などが一例として挙げられる。 Here, the driver's manual operation includes, for example, steering operation, accelerator pedal operation, ON / OFF operation of each light and each lamp, air conditioning operation, in-vehicle audio operation, car navigation operation, window opening / closing operation, and the like. Is given as an example.
この手動操作推定部15は、学習進捗度判定部16に接続されており、手動操作推定部15で推定された運転者の手動操作情報(以下、推定手動操作情報ともいう)は、学習進捗度判定部16に入力される。
The manual
学習進捗度判定部16には、手動操作推定部15で推測された推測手動操作情報のほかに、現在の運転者による手動操作情報51と、シーン判定部11で判定されたシーン(判定結果)と、が入力されている。
In the learning
学習進捗度判定部16は、手動操作推定部15で推測された推定手動操作情報と、現在の運転者の手動操作情報51との差分R(推定手動操作情報―手動操作情報51)を、シーンごとに算出することで、シーンごとの学習進捗度を判定する。
例えば、学習進捗度判定部16は、前述した比較結果の差分Rが所定の閾値Rth以下の場合(R≦Rth)、学習進捗度が高い(学習完了)と判定し、差分Rが閾値Rthよりも大きい場合(R>Rth)、学習進捗度が低い(学習未完了)と判定し、この学習進捗度の判定結果を制御部17に出力する。
The learning
For example, when the difference R of the above-mentioned comparison result is equal to or less than a predetermined threshold value Rth (R ≦ Rth), the learning
制御部17は、学習進捗度判定部16で判定された学習進捗度の判定結果に基づいて、シーンごとに、個体適応制御の実施または不実施を決定する。
The
制御部17は、学習進捗度判定部16により学習進捗度が高い(差分R≦閾値Rth)と判定された場合には、個体適応制御を実施する。
When the learning
ここで、制御部17による個体適応制御の実施条件の一例を説明する。
初めに、シーン判定部11は、所定のシーン(例えば、カーブシーン)に含まれる少なくとも2以上の不連続な第1シーン(例えば、緩やかなカーブシーン)と、第2シーン(例えば、交差点シーン)とを判定する。
Here, an example of the execution conditions of the individual adaptation control by the
First, the
そして、学習進捗度判定部16は、第1シーン(例えば、緩やかなカーブシーン)と、第2シーン(例えば、交差点シーン)における、運転者の個体特性の学習進捗度を判定する。
Then, the learning
その結果、制御部17は、第1シーンでの学習進捗度の判定結果と、第2シーンでの学習進捗度の判定結果の何れも学習完了状態(学習進捗度が高い状態)であると、学習進捗度判定部16により判定された場合、個体適応制御を実施する。
As a result, the
このように、制御部17は、全くシーンの異なる不連続な2以上のシーンにおける学習進捗度が完了状態か否かに基づいて、個体適応制御を実施するか否かの判定を行うことにより、2以上の不連続なシーンを含む所定のシーンの学習が完了していると精度よく判定することができる。
In this way, the
また、シーン判定部11は、所定のシーン(例えば、直線シーン)に含まれる互いに離れた位置の第3シーン(例えば、第1の直線シーン)と、第4シーン(例えば、第2の直線シーン)とを判定する。
Further, the
そして、学習進捗度判定部16は、第3シーン(例えば、第1の直線シーン)と、第4シーン(例えば、第2の直線シーン)における、運転者の個体特性の学習進捗度を判定する。
Then, the learning
その結果、制御部17は、第3シーンでの学習進捗度の判定結果と、第4シーンでの学習進捗度の判定結果の何れも学習完了状態(学習進捗度が高い状態)であると、学習進捗度判定部16により判定された場合、個体適応制御を実施する。
As a result, the
このように、制御部17は、離れた距離にある2以上のシーンにおける学習進捗度が完了状態か否かに基づいて、個体適応制御を実施するか否かの判定を行うことにより、2以上の離れた距離にある不連続なシーンを含む所定のシーンの学習が完了していると精度よく判定することができる。
In this way, the
なお、学習進捗度判定部16は、時間的に離れた2つのシーン(第5シーン、第6シーン)での学習進捗度を判定し、制御部17は、2つのシーン(第5シーン、第6シーン)における学習進捗度がいずれも学習完了状態である場合に、個体適応制御を実施するようにしてもよい。
The learning
一方、制御部17は、学習進捗度が低い(差分R>閾値Rth)と判定された場合には、個体適応制御を実施せず、予め初期設定(デフォルト)されている自動運転制御を実施する。
On the other hand, when it is determined that the learning progress is low (difference R> threshold value Rth), the
ここで、個体適応制御とは、運転者(個体)の個体特性(操作特性)を学習して生成した個体特性モデルに基づいて、運転者の個体特性(操作特性)に適応した自動運転制御を行うことを意味する。 Here, the individual adaptive control is an automatic driving control adapted to the individual characteristics (operation characteristics) of the driver based on the individual characteristics model generated by learning the individual characteristics (operation characteristics) of the driver (individual). Means to do.
なお、制御部17は、学習進捗度から学習効率Kを算出し、学習効率Kが所定の閾値Kth以上の場合(K≧Kth)、学習進捗が高いと判定し、学習効率Kが所定の閾値Kthよりも小さい場合(K<Kth)、学習進捗度が低いと判定してもよい。
The
前述した過去情報データベース13、個体特性学習部14、手動操作推定部15、学習進捗度判定部16は、移動体(車両)側の制御装置などに設けられていても良いが、これらを移動体とは異なる場所にある外部サーバ(図示せず)に設け、この外部サーバと移動体のECU(図示せず)とを情報ネットワークを介して接続し、必要に応じて、移動体のECUが、これらの情報を読み出すようにすることが好ましい。
The above-mentioned
このようにすると、移動体側の制御装置のメモリ容量を小さくすることができ、移動体側の制御装置の製造コストや、維持・管理コストの増加を抑えることができる。また、移動体側の制御装置の計算リソースを、危険回避処理などの緊急性の高い処理に重点的に使用することができる。さらに、運転者が、別の移動体(車両)に乗車した場合でも、情報ネットワークを介して外部サーバから必要な情報を読み出して個体適応制御を行うことができる。 By doing so, the memory capacity of the control device on the moving body side can be reduced, and the increase in the manufacturing cost and the maintenance / management cost of the control device on the moving body side can be suppressed. In addition, the computational resources of the control device on the moving body side can be used intensively for highly urgent processing such as danger avoidance processing. Further, even when the driver gets on another moving body (vehicle), it is possible to read necessary information from an external server via the information network and perform individual adaptation control.
[個体適応制御]
次に、自動制御装置1における個体適応制御の処理を説明する。
図2は、個体適応制御のフローチャートである。
[Individual adaptation control]
Next, the processing of individual adaptation control in the automatic control device 1 will be described.
FIG. 2 is a flowchart of individual adaptation control.
初めに、ステップS101において、移動体のECU(図示せず)は、移動体の自動運転が許可されているか否かを判定する。ECUは、自動運転が許可されていると判定した場合(ステップS101:Yes)、ステップS102に進む。
ここで、自動運転の許可は、種々の方法が考えられるが、運転者が、自動運転モードを設定するスイッチをON操作することで設定される。
First, in step S101, the ECU (not shown) of the moving body determines whether or not the automatic operation of the moving body is permitted. When the ECU determines that the automatic operation is permitted (step S101: Yes), the ECU proceeds to step S102.
Here, although various methods can be considered, the permission for automatic driving is set by the driver turning on the switch for setting the automatic driving mode.
ステップS102において、移動体のECUは、個体適応制御が許可されているか否かを判定する。ECUは、個体適応制御が許可されていると判定した場合(ステップS102:Yes)、ステップS103に進む。 In step S102, the mobile ECU determines whether or not individual adaptive control is permitted. When the ECU determines that the individual adaptive control is permitted (step S102: Yes), the ECU proceeds to step S103.
ステップS102において、移動体のECUは、個体適応制御が許可されていないと判定した場合(ステップS102:No)、ステップS106に進む。ステップS106において、自動制御装置1は、予め初期設定(デフォルト)されている自動運転制御により、移動体の自動運転を実施する。 If the mobile ECU determines in step S102 that individual adaptation control is not permitted (step S102: No), the process proceeds to step S106. In step S106, the automatic control device 1 executes the automatic operation of the moving body by the automatic operation control that is initially set (default) in advance.
ステップS103において、学習進捗度判定部16は、シーン判定部により判定されたシーン(判定結果)、環境情報50、手動操作情報51、個体認証情報52に基づいて、現在走行しているシーンにおいて、当該運転者の個体特性の学習が完了したか否かを判定する。
In step S103, the learning
ステップS103において、学習進捗度判定部16は、運転者の個体特性の学習が完了したと判定した場合(ステップS103:Yes)、ステップS104に進む。ステップS104において、制御部17は、学習進捗度判定部16による学習完了の判定に基づいて、当該シーンにおける当該運転者の個体特性に応じた個体適応制御を実施する。
In step S103, when the learning
ステップS103において、学習進捗度判定部16は、運転者の個体特性の学習が完了していないと判定した場合(ステップS103:No)、ステップS106に進む。ステップS106において、制御部17は、学習進捗度判定部16による学習未完了の判定結果に基づいて、個体適応制御の実施を行わず、初期設定(デフォルト)されている自動運転制御により移動体の自動運転を実施する。
In step S103, when the learning
なお、前述したステップS101において、移動体のECU(図示せず)は、運転者が手動で自動運転モードを設定するスイッチをOFFに設定したり、環境情報50に応じて移動体が自動運転を継続できないと判定した場合にOFFに設定される。この場合、移動体のECUは、自動運転が許可されていないと判定し(ステップS101:NO)、ステップS105に進む。 In step S101 described above, the ECU (not shown) of the moving body sets the switch for manually setting the automatic operation mode to OFF by the driver, or the moving body automatically operates according to the environmental information 50. It is set to OFF when it is determined that the continuation cannot be continued. In this case, the ECU of the moving body determines that automatic operation is not permitted (step S101: NO), and proceeds to step S105.
ステップS105において、移動体のECUは、現在の環境情報50と、現在の運転者の手動操作情報51を取得し、過去情報データベース13に送信して処理を終了する。
In step S105, the mobile ECU acquires the current environment information 50 and the current driver's manual operation information 51, transmits the information to the
[過去情報データベースの更新]
次に、過去情報データベース13の更新処理を説明する。
図3は、過去情報データベース13の更新処理のフローチャートである。
[Update past information database]
Next, the update process of the
FIG. 3 is a flowchart of the update process of the
ステップS201において、個体認証部12は、現在の運転者の個体認証情報52を取得する。
In step S201, the
ステップS202において、個体認証部12は、ステップS201で取得した現在の運転者の個体認証情報52が、過去情報データベース13にすでに記憶されているか否かを判定する。個体認証部12は、個体認証情報52が、過去情報データベース13にすでに記憶されていると判定した場合(ステップS202:Yes)、ステップS203に進む。
In step S202, the
ステップS203において、個体認証部12は、当該運転者の個体認証情報52が記憶されている過去情報データベース13上のメモリアドレスを取得し、ステップS204に進む。
In step S203, the
一方、個体認証部12は、個体認証情報52が、過去情報データベース13に記憶されていないと判定した場合(ステップS202:No)、ステップS209に進む。
On the other hand, when the
ステップS209において、個体認証部12は、過去情報データベース13上に、現在の運転者の個体認証情報52を記憶する新たなメモリアドレスを設定し、ステップS204に進む。
In step S209, the
ステップS204において、シーン判定部11は、環境情報50を取得して、ステップS205に進む。
In step S204, the
ステップS205において、シーン判定部11は、シーン判定基準データベース10から取得したシーンの判定に必要なパラメータと、ステップS204で取得した環境情報50とに基づいて、当該シーンを判定する。
In step S205, the
ステップS206において、移動体のECU(図示せず)は、移動体が運転者による手動操作(手動運転)中か否かを判定する。移動体のECUは、手動操作中と判定した場合(ステップS206:Yes)、ステップS207に進み、ステップS207において、現在の、運転者の手動操作による運転情報(手動操作情報51)を取得する。 In step S206, the ECU (not shown) of the moving body determines whether or not the moving body is undergoing manual operation (manual operation) by the driver. When the ECU of the moving body determines that the manual operation is in progress (step S206: Yes), the process proceeds to step S207, and in step S207, the current operation information (manual operation information 51) by the driver's manual operation is acquired.
そして、ステップS208において、移動体のECU(図示せず)は、取得した環境情報50、手動操作情報51、及びシーン判定部11で判定されたシーン(判定結果)を、ステップS203、S209で取得した過去情報データベース13上のメモリアドレスに記憶して処理を終了する。
Then, in step S208, the moving unit ECU (not shown) acquires the acquired environment information 50, the manual operation information 51, and the scene (determination result) determined by the
これにより、運転者が手動操作による運転を行うことで、過去情報データベース13に記憶される環境情報50や手動操作情報51、及びシーン判定部11で判定されたシーン(判定結果)が取得され、この取得された各情報は、過去情報データベース13に蓄積される。よって、過去情報データベース13では、運転者が煩わしさを感じることなく、これらの各情報が蓄積(更新)される。
As a result, when the driver manually operates, the environment information 50 and the manual operation information 51 stored in the
なお、ステップS206において、移動体のECU(図示せず)は、当該移動体が手動操作中でない(自動運転中である)と判定した場合(ステップS206:No)、ステップS210に進み、環境情報50及びシーン判定部11で判定されたシーン(判定結果)を、制御部17に送信して処理を終了する。
If the ECU of the moving body (not shown) determines in step S206 that the moving body is not in manual operation (automatic operation is in progress) (step S206: No), the process proceeds to step S210 to obtain environmental information. The scene (determination result) determined by the 50 and the
[シーン判定基準データベースの更新処理]
次に、シーン判定基準データベース10の更新処理を説明する。
自動制御装置1では、運転者の個体特性の学習効率Kが著しく低いシーンがある場合、シーン判定基準データベース10に記憶された当該シーンを他のシーンに変更して、シーン判定基準データベース10の更新を行う。
図4は、シーン判定基準データベース10の更新処理のフローチャートである。
[Scene judgment criteria database update process]
Next, the update process of the scene determination
In the automatic control device 1, when there is a scene in which the learning efficiency K of the individual characteristics of the driver is extremely low, the scene stored in the scene
FIG. 4 is a flowchart of the update process of the scene
ステップS301において、学習進捗度判定部16は、過去情報データベース13に記憶されている全ての運転者(個体)について、シーンごとの学習効率Kを算出する。
In step S301, the learning
ここで、学習進捗度判定部16は、学習時間Tが十分長いのに学習進捗度が低い場合、又は学習時間Tは短いが学習進捗度の向上率が低い場合に、何れかより小さい値を学習効率Kとして算出する。
Here, the learning
ステップS302では、学習進捗度判定部16は、何れかの運転者(個体)において、学習時間Tが、所定の閾値Tth以上(T≧Tth)であって、学習効率Kが、所定の閾値Kth未満(K<Kth)となるシーンがあるか否かを判定する。
In step S302, in any driver (individual), the learning
学習進捗度判定部16は、ステップS302の条件を満たすシーンがあると判定した場合(ステップS302:Yes)、ステップS303に進む。一方、学習進捗度判定部16は、前述した条件を満たすシーンがないと判定した場合(ステップS302:No)、学習効率Kが著しく低いシーンがないと判定し、本処理を終了する。
When the learning
ステップS303では、学習進捗度判定部16は、所定の同一シーンにおいて、学習時間Tが所定の閾値Tth以上であって、学習効率Kが所定の閾値Kth未満となる条件を満たすシーンを有する運転者(個体)の数Nが、過去情報データベース13に記憶されている全ての運転者(個体)の数Mの過半数以上(N≧M/2)となるか否かを判定する。
In step S303, the learning
ステップS303において、学習進捗度判定部16は、前述した条件を満たす個体の数Nが、全体の過半数以上であると判定した場合(ステップS303:Yes)、ステップS304に進む。
In step S303, when the learning
ステップS304において、移動体のECU(図示せず)は、全ての個体の環境情報50及び手動操作情報51に基づいて、シーン判定基準の再学習を行う。なお、このシーン判定基準の再学習の処理(方法)は後述する。 In step S304, the moving unit ECU (not shown) relearns the scene determination criteria based on the environmental information 50 and the manual operation information 51 of all the individuals. The re-learning process (method) of this scene determination criterion will be described later.
そして、ステップS305において、移動体のECUは、ステップS304での再学習の結果に基づいて、シーン判定基準データベース10のシーンを更新(他のシーンに変更、又は当該シーンを削除など)して処理を終了する。
これにより、自動制御装置1では、学習効率Kの著しく低いシーンを見直し、又は削除することで、シーン判定基準データベース10内のシーンを、より適切なものに更新することができる。
Then, in step S305, the moving ECU updates the scene of the scene determination reference database 10 (changes to another scene, deletes the scene, etc.) based on the result of relearning in step S304, and processes the scene. To finish.
As a result, the automatic control device 1 can update the scenes in the scene
なお、ステップS303において、学習効率Kが所定の閾値Kth未満となる運転者(個体)の数Nが、全ての運転者(個体)の数Mの過半数とならなかったシーンがある場合(ステップS303:No)、ステップS306に進み、当該学習効率Kの著しく低いシーンを有する運転者(個体)で収集された環境情報50と手動操作情報51とに基づいて、当該運転者(個体)におけるシーン判定基準の再学習を行う。
ここで、個別の運転者(個体)におけるシーン判定基準の再学習は、ステップS304のシーン判定基準の再学習と同じ処理(方法)で行われる。
In step S303, there is a scene in which the number N of drivers (individuals) whose learning efficiency K is less than the predetermined threshold value Kth is not a majority of the number M of all drivers (individuals) (step S303). : No), the scene is determined by the driver (individual) based on the environmental information 50 and the manual operation information 51 collected by the driver (individual) having the scene having the learning efficiency K remarkably low in step S306. Relearn the criteria.
Here, the re-learning of the scene determination criteria in the individual driver (individual) is performed by the same process (method) as the re-learning of the scene determination criteria in step S304.
そして、ステップS305に進み、移動体のECU(図示せず)は、ステップS306でのシーン判定基準の再学習の結果に基づいて、シーン判定基準データベース10の個別のシーンを更新して処理を終了する。
Then, the process proceeds to step S305, and the moving unit ECU (not shown) updates the individual scenes in the scene
[シーン判定基準の再学習]
次に、ステップS304(ステップS306)で説明した、シーン判定基準の再学習の処理を説明する。
図5は、シーン判定基準の再学習の処理のフローチャートである。
図6は、シーン判定基準の再学習の方法を説明する概念図である。
[Re-learning of scene judgment criteria]
Next, the process of re-learning the scene determination criteria described in step S304 (step S306) will be described.
FIG. 5 is a flowchart of the process of re-learning the scene determination criteria.
FIG. 6 is a conceptual diagram illustrating a method of re-learning the scene determination criteria.
図5に示すように、ステップS401において、移動体のECU(図示せず)は、学習効率Kの著しく低いと判定された所定のシーン(過去シーン)で適用した個体特性モデルを、外部ネットワークに接続されたメモリ(図示せず)に一時的に保存する。 As shown in FIG. 5, in step S401, the mobile ECU (not shown) applies an individual characteristic model applied in a predetermined scene (past scene) determined to have a significantly low learning efficiency K to the external network. Temporarily save to the connected memory (not shown).
ステップS402において、移動体のECU(図示せず)は、学習効率Kの著しく低い所定のシーンの再分類を行う。 In step S402, the moving ECU (not shown) reclassifies a predetermined scene with a significantly low learning efficiency K.
具体的には、図6に示すように、移動体のECUは、例えば、カーブシーンAと交差点シーンCにおいて、運転者の学習効率Kが著しく低いと判定した場合、カーブシーンAを、緩やかなカーブシーンA1と、急なカーブシーンA2とに再分類すると共に、交差点シーンCを、三差路(T字)交差点シーンC1と、五差路交差点シーンC2とに再分類する。
なお、実施の形態では、学習進捗度判定部16において、直線シーンBの学習効率Kは高いと判定したので、移動体のECUにおいて直線シーンBの再分類は実施されない。
Specifically, as shown in FIG. 6, when the moving body ECU determines, for example, in the curve scene A and the intersection scene C that the learning efficiency K of the driver is extremely low, the curve scene A is gently changed. The curve scene A1 and the sharp curve scene A2 are reclassified, and the intersection scene C is reclassified into the three-way intersection scene C1 and the five-way intersection scene C2.
In the embodiment, since the learning
図5に戻って、学習進捗度判定部16は、ステップS403において、ステップS401でメモリ(図示せず)に保存した個体特性モデルを読み出して、再分類後のシーンに適用する。
Returning to FIG. 5, in step S403, the learning
ステップS404において、学習進捗度判定部16は、再分類後のシーンにおいて、再分類前のシーンで適用した個体特性モデルによる学習効率Kが所定の閾値Kth以上か否かを判定し、学習効率Kが所定の閾値Kth以上であると判定した場合(K≧Kth)、ステップS405に進む(図6参照)。
In step S404, the learning
ステップS405において、移動体のECU(図示せず)は、再分類後のシーンを、新たに分類されたシーンに置き換えて、シーン判定基準データベース10を更新して処理を終了する(図6参照)。
In step S405, the moving unit ECU (not shown) replaces the reclassified scene with the newly classified scene, updates the scene
なお、ステップS404において、学習進捗度判定部16は、再分類後のシーンにおいて、再分類前のシーンで適用した個体特性モデルによる学習効率Kが所定の閾値Kth未満であると判定した場合(K<Kth)、ステップS406に進み、予め初期設定(デフォルト)された自動運転制御を行う(図6参照)。
In step S404, when the learning
[個体特性モデルの生成]
次に、個体特性学習部14において、運転者の個体特性を学習(個体特性モデルの生成)する処理を説明する。
図7は、個体特性学習処理のフローチャートである。
[Generation of individual characteristic model]
Next, in the individual
FIG. 7 is a flowchart of the individual characteristic learning process.
ステップS501において、個体特性学習部14は、移動体(車両)の置かれているシーンの切り換わりがあるか否かを判定し、シーンの切り換わりがあると判定した場合、ステップS502に進む。
In step S501, the individual
個体特性学習部14において、シーンの切り換わりがあるか否かを判定する具体的な方法の一例として、同一種類のシーンが連続して出現しない場合(例えば、緩やかなカーブシーンの後に、交差点シーンが出現した場合)には、シーンの切り換わりがあると判定し(ステップS501:Yes)、同一種類のシーンが連続して出現した場合(例えば、直線シーンの後に、同様の直線シーンが出現した場合)には、シーンの切り換わりがないと判定する(ステップS501:No)
As an example of a specific method for determining whether or not there is a scene change in the individual
ステップS502において、個体特性学習部14は、過去情報データベース13から当該シーンにおいて収集された環境情報50と、運転者の手動操作情報51とを取得して、ステップS503に進む。
In step S502, the individual
ステップS503において、個体特性学習部14は、個体特性の学習(個体特性モデルの生成)を実行する。これにより、個体特性学習部14により、シーンや環境情報50に対する運転者(個体)の手動操作を推測するための個体特性モデルが生成される。
In step S503, the individual
なお、ステップS501において、個体特性学習部14は、シーンの切り換わりがないと判定した場合(ステップS501:No)、ステップS504に進む。
If the individual
ステップS504において、個体特性学習部14は、この個体特性学習処理(ステップS501〜ステップS504)の実行時を起点として、移動体(車両)の走行距離Lが、所定の閾値Lthよりも増えているか(L≧Lth)、又は走行時間Hが、所定の閾値Hthよりも増えているか否かを判定する。
In step S504, the individual
個体特性学習部14は、移動体の走行距離Lが、所定の閾値Lthよりも増えている(L≧Lth)と判定した場合、又は走行時間Hが、所定の閾値Hthよりも増えている(H≧Hth)と判定した場合、(ステップS504:Yes)、ステップS502に進み、当該シーンにおける環境情報50と、運転者の手動操作情報51とを取得し、何れも増えていないと判定した場合(ステップS504:No)、処理を終了する。
これにより、個体特性学習部14は、シーンの切り換わりがないと判定して場合でも、移動体が所定走行距離(又は所定走行時間)経っていると判断した場合には、シーンの切り換わり判断と同様に、個体特性モデルの生成を行う。
When the individual
As a result, even if the individual
前述したように、個体特性学習部14では、運転者の個体特性の学習を、シーンの切り換わりや所定の走行距離を走った場合や所定の走行時間を走った場合など、比較的長い周期で行うことで、短い周期で無駄に個体特性モデルを生成(更新)してしまうことを防止することができる。
As described above, the individual
[個体特性学習の完了判断]
次に、学習進捗度判定部16において、個体特性の学習が完了したか否かの判断の一例を説明する。
図8は、学習進捗度判定部16における個体特性の学習完了の判断処理のフローチャートである。
[Judgment of completion of individual characteristic learning]
Next, an example of determining whether or not the learning of individual characteristics has been completed will be described in the learning
FIG. 8 is a flowchart of the learning completion determination process of the individual characteristic in the learning
ステップS601において、学習進捗度判定部16は、移動体(車両)が置かれている現在のシーンの判定を行う。この学習進捗度判定部16によるシーンの判定は、前述した図3におけるステップS201〜S205と同様の処理により行われるので、ここでの説明は省略する。
In step S601, the learning
ステップS602において、学習進捗度判定部16は、過去情報データベース13から運転者(個体)の個体認証情報と現在のシーンとを取得し、現在のシーンにおける個体特性の学習結果を呼び出す。
In step S602, the learning
ステップS603において、学習進捗度判定部16は、個体特性の学習結果(個体特性モデル)が存在するか否かを判定し、個体特性の学習結果が存在すると判定した場合(ステップS603:Yes)、ステップS604に進む。学習進捗度判定部16は、個体特性の学習結果が存在しないと判定した場合(ステップS603:No)、ステップS611に進み、学習進捗度を「学習未完」に設定して処理を終了する。
In step S603, the learning
ステップS604において、学習進捗度判定部16は、移動体が、運転者による手動操作中であるか否かを判定し、手動操作中であると判定した場合(ステップS604:Yes)、ステップS605に進む。学習進捗度判定部16は、移動体が、運転者による手動操作中でないと判定した場合(ステップS604:No)、ステップS611に進み、学習進捗度を「学習未完」に設定して処理を終了する。
In step S604, the learning
ステップS605において、学習進捗度判定部16は、予め取得している環境情報50を、個体特性学習部14で生成された個体特性モデルに当て嵌め、個体適応制御の走行シミュレーションを実施して、ステップS606に進む。
In step S605, the learning
ステップS606において、学習進捗度判定部16は、ステップS605で実施した走行シミュレーション結果(推定手動操作情報)と、運転者(個体)の実際の手動操作の操作量(手動操作情報51)とを比較し、その差分Rを算出すると共に、算出した差分Rを、過去情報データベース13に記憶する。
In step S606, the learning
前述した差分Rは、ステア角(舵角量)、アクセル開度、移動チアの加速度、移動体の速度、ヨーレート(ヨー角)、障害物との位置関係や相対速度などの走行シミュレーション結果と、実際の測定値との差分である。 The above-mentioned difference R is a running simulation result such as a steering angle (steering angle amount), an accelerator opening, an acceleration of a moving cheer, a moving body speed, a yaw rate (yaw angle), a positional relationship with an obstacle, and a relative speed. It is the difference from the actual measured value.
また、過去情報データベース13への差分Rの記憶は、単に差分Rの累積を記憶してもよく、移動距離に対する比として記憶してもよい。
Further, the storage of the difference R in the
ステップS607において、学習進捗度判定部16は、ステップS606で算出した差分Rと、シーン(パラメータ)ごとに設定された所定の閾値Rthとを比較し、差分Rが所定の閾値Rth以下であるか否かを判定する。
In step S607, the learning
ステップS607において、学習進捗度判定部16は、差分Rが閾値Rth以下であると判定した場合(ステップS607:Yes)、ステップS608に進み、差分Rが閾値Rth以下であると判定した場合(ステップS607:No)、ステップS611に進み、学習進捗度を「学習未完」に設定して処理を終了する。
In step S607, when the learning
なお、ステップS607において、所定の閾値Rthの設定方法の一例として、許容範囲と考えられる数値を予め算出して設定しておいてもよく、仮の数値を設定した後、個体適応制御中に個体(運転者)のオーバーライドの有無や個体の生体情報から運転者の心拍数の増加などを取得し、オーバーライドや心拍数増加の発生頻度が所定の閾値Rth以上である場合に修正するようにしてもよい。 In step S607, as an example of the method of setting the predetermined threshold value Rth, a numerical value considered to be an allowable range may be calculated and set in advance. Even if the driver's heart rate increase is obtained from the presence / absence of the (driver) override and the individual's biometric information, and the frequency of the override or heart rate increase occurs is equal to or higher than the predetermined threshold value Rth. good.
ステップS608において、学習進捗度判定部16は、過去の学習進捗度が「学習未完」状態であったか否かを判定し、「学習未完」状態であると判定した場合(ステップS608:Yes)、ステップS609に進み、「学習未完」状態ではないと判定した場合(ステップS608:No)、ステップS610に進んで、学習進捗度を「学習完了」に設定して処理を終了する。
In step S608, the learning
ステップS609において、学習進捗度判定部16は、学習完了状態への移行が許可されているか否かを判定する。学習進捗度判定部16は、学習完了状態への移行が許可されていると判定した場合(ステップS609:Yes)、ステップS610に進んで、学習進捗度を「学習完了」に設定して処理を終了する。
一方、学習進捗度判定部16は、学習完了状態への移行が許可されていない判定した場合(ステップS609:No)、ステップS611に進んで、学習進捗度を「学習未完」に設定して処理を終了する。
In step S609, the learning
On the other hand, when the learning
学習進捗度判定部16が、学習完了状態への移行が許可されていると判定する場合の一例として、シーンの切り換わり時とするほか、より望ましくは、少なくとも同一シーンにおいて、シーン的に不連続な2か所以上のデータ収集機会におけるシミュレーション結果(推定手動操作情報)と、運転者(個体)の実際の手動操作情報51との差分が所定の閾値以下となることを条件とするのがよい。
As an example of the case where the learning
ここで、学習進捗度判定部16により判定された学習進捗度に基づいて、学習完了状態に移行する許可を判断する一例を説明する。
図9は、学習進捗度に基づいて、学習完了状態への移行許可を判断する一例を説明する図である。
Here, an example of determining permission to shift to the learning completion state will be described based on the learning progress determined by the learning
FIG. 9 is a diagram illustrating an example of determining permission to shift to the learning completion state based on the learning progress.
図9において、上段には、シーン分類結果が示されている。このシーン分類結果は、シーン判定部11によるシーンの判断結果(分類結果)である。
In FIG. 9, the scene classification result is shown in the upper part. This scene classification result is a scene determination result (classification result) by the
実施の形態では、シーン分類結果として、カーブシーンと直線シーンの2つのシーンが分類されており、カーブシーン(曲がり道路)と直線シーン(直線道路)とが交互に出現する経路となっている。 In the embodiment, two scenes, a curved scene and a straight scene, are classified as the scene classification result, and the curved scene (curved road) and the straight scene (straight road) appear alternately.
シーン分類結果の下段には、差分Rが示されている。この差分Rは、手動操作推定部15で推定された運転者の個体特性のシミュレーション結果(推定手動操作情報)と、実際の運転者の手動操作情報51との差分Rの絶対値である。
なお、差分Rではなく、差分Rを累積した値(累積差分)、又はこの差分R又は累積差分を走行距離で割った値を用いてもよく、また、これらの平均値を用いてもよい。
The difference R is shown in the lower part of the scene classification result. This difference R is an absolute value of the difference R between the simulation result (estimated manual operation information) of the individual characteristics of the driver estimated by the manual
Instead of the difference R, a value obtained by accumulating the difference R (cumulative difference), or a value obtained by dividing the difference R or the cumulative difference by the mileage may be used, or an average value thereof may be used.
実施の形態では、シミュレーション結果と実際の個体の手動操作情報51との差分Rの累積は、時刻t1〜t3では所定の閾値Rth(図中の破線)未満となっており、時刻t4の時に閾値Rth以上となる。 In the embodiment, the accumulation of the difference R between the simulation result and the actual manual operation information 51 of the individual is less than the predetermined threshold value Rth (broken line in the figure) at times t1 to t3, and the threshold value at time t4. It becomes Rth or more.
差分Rの下段には、シーンごと(実施の形態では、カーブシーンと直線シーン)の学習進捗度の判定結果が示されている。 In the lower part of the difference R, the determination result of the learning progress for each scene (in the embodiment, the curve scene and the straight line scene) is shown.
実施の形態では、同じシーン(例えば、カーブシーン)が2度あり、何れのシーンでも差分Rの値が所定の閾値Rthを超えない場合、学習進捗度の判定結果を学習完了と判定するようにしている。
具体的には、カーブシーンの学習進捗度は、1度目のカーブシーンが終了する時刻t1において一段階上昇するが、学習完了移行許可の閾値(図中の破線)は超えない。そして、カーブシーンの学習進捗度は、2度目のカーブシーンが終了する時刻t3において、さらに一段階上昇し、学習完了移行許可の閾値(図中の破線)を超える。
In the embodiment, when the same scene (for example, a curve scene) occurs twice and the value of the difference R does not exceed a predetermined threshold value Rth in any of the scenes, the determination result of the learning progress is determined to be the completion of learning. ing.
Specifically, the learning progress of the curve scene increases by one step at the time t1 when the first curve scene ends, but does not exceed the threshold value (broken line in the figure) of the learning completion transition permission. Then, the learning progress of the curve scene is further increased by one step at the time t3 when the second curve scene ends, and exceeds the threshold value (broken line in the figure) of the learning completion transition permission.
この結果、図9の学習進捗度の下段に示すように、学習進捗度判定部16は、時刻t3で、カーブシーンでの個体特性の学習が完了したと判定し、次のカーブシーンが時刻t4以降で出現した場合、当該カーブシーンにおいて個体適応制御を実施する。
As a result, as shown in the lower part of the learning progress of FIG. 9, the learning
一方、直線シーンの学習進捗度は、1度目の直線シーンが終了する時刻t2において一段階上昇するが、学習完了移行許可の閾値(図中の破線)は超えない。そして、2度目の直線シーンが終了する時刻t4において、前述した差分Rが、所定の閾値Rthを超えるため、直線シーンの学習進捗度は、時刻t2以降は上昇せず、学習完了移行許可の閾値(図中の破線)は超えない。 On the other hand, the learning progress of the straight line scene increases by one step at the time t2 when the first straight line scene ends, but does not exceed the threshold value (broken line in the figure) of the learning completion transition permission. Then, at the time t4 when the second straight line scene ends, the above-mentioned difference R exceeds the predetermined threshold value Rth, so that the learning progress of the straight line scene does not increase after the time t2, and the learning completion transition permission threshold value. (Dashed line in the figure) does not exceed.
この結果、図9の学習進捗度の下段に示すように、学習進捗度判定部16は、次の直線シーンが時刻t4以降で出現した場合でも、当該直線シーンにおいて個体適応制御を実施せず、予め初期設定されている自動運転制御を実施する。
As a result, as shown in the lower part of the learning progress of FIG. 9, the learning
なお、差分Rが、所定の閾値を超えた時刻t3〜t4の走行後、直線シーンの学習進捗度を据え置かず、引き下げてもよい。また、学習進捗度の判定は、必ずしも段階的(実施の形態では、2段階)である必要はなく、差分Rと所定の閾値Rthとの差の大きさによって連続的に変化するものとしてもよい。この結果、ある特定のシーン(場所)のみでしか実際の個体特性に適合しないような、いわゆる過学習などの不適切な学習状態において、個体適応制御を実施してしまうことを防ぐことができる。 After traveling at times t3 to t4 when the difference R exceeds a predetermined threshold value, the learning progress of the straight line scene may be lowered without being left unchanged. Further, the determination of the learning progress does not necessarily have to be stepwise (two steps in the embodiment), and may be continuously changed depending on the magnitude of the difference between the difference R and the predetermined threshold value Rth. .. As a result, it is possible to prevent individual adaptation control from being carried out in an inappropriate learning state such as so-called overfitting, in which the actual individual characteristics are adapted only to a specific scene (place).
[安全判定部]
なお、実施の形態では、自動制御装置1は、個体特性学習部14での学習結果(生成された個体特性モデル)に基づく個体適応制御が、移動体(車両)の自動運転において安全か否かを判定する安全判定部20を、さらに有している。
図10は、安全判定部20を説明するブロック図である。
[Safety judgment unit]
In the embodiment, in the automatic control device 1, whether or not the individual adaptive control based on the learning result (generated individual characteristic model) in the individual
FIG. 10 is a block diagram illustrating the
図10に示すように、安全判定部20は、安全検証用シナリオデータベース(DB)21と、走行模擬部22と、危険事象判定部23とを有している。
As shown in FIG. 10, the
安全検証用シナリオデータベース21には、様々な走行状態、走行環境について、事故に繋がる可能性のある事象、例えば、車両の挙動を不安定にさせるような事象や、他車の動作が異常なため衝突などの危険が起こる可能性がある事象など、走行中に発生する可能性のある危険事象の様々なシナリオデータが記憶されている。
The safety
前述した車両の挙動を不安定にさせるような事象は、例えば、環境情報50を取得するための各種センサの出力が不安定である場合、横風や路面の凹凸が大きくハンドルを取られやすい場合などが挙げられる。 The above-mentioned events that destabilize the behavior of the vehicle include, for example, when the outputs of various sensors for acquiring the environmental information 50 are unstable, when crosswinds and unevenness of the road surface are large and the steering wheel is easily taken. Can be mentioned.
安全検証用シナリオデータベース21に記憶されているシナリオデータは、所定の危険事象に基づいて予め作成されている。また、このシナリオデータは、他の移動体(他車両)などから収集された環境情報50に基づいて、実際に事故が発生したり、移動体(他車両)に大きな加速度が加わったり、運転者(個体)の生体情報として心拍数が急に増加した時のシーンを参照して更新される。
The scenario data stored in the safety
このように、安全検証用シナリオデータベース21では、実際に危険事象が発生した際の状況に基づいてシナリオデータが更新されることで、より多くの危険事象におけるシナリオデータが記憶され、様々な危険事象に対応できるようになっている。
In this way, in the safety
走行模擬部22は、安全検証用シナリオデータベース21から、検証を行う個体特性モデル(運転者)の対象となるシーンシナリオを抽出する。そして、走行模擬部22は、個体特性学習部14で生成した運転者の個体特性モデルと、安全検証用シナリオデータベース21から抽出したシーンシナリオと、シーン判定部11で判定されたシーン(判定結果)とに基づいて、走行シミュレーション(模擬走行)を実施する。
これにより、走行模擬部22では、所定のシーンにおいて危険事象が発生した場合、当該運転者の個体特性モデルがどのような運転を行うのかという走行シミュレーションが実施される。
The driving
As a result, the traveling
危険事象判定部23は、走行模擬部22から走行シミュレーションの結果を取得し、危険事象の発生の有無又は危険の程度を判定すると共に、当該判定結果を、安全度評価結果として、自動制御装置1の制御部17(図1参照)に出力する。
The dangerous
制御部17では、危険事象判定部23での安全度評価結果に基づいて、個体適応制御を実施するか否かの判定が行われる。このように、制御部17が、安全度評価結果に基づいて個体適応制御を行うか否かの判断を行うことで、例えば、運転者の個体特性の学習に基づいて作成された個体特性モデルが危険事象に対応できなかったり、危険な運転を行う傾向がある運転者の個体特性を学習してしまった場合でも、個体適応制御を実行しないことで、実際に危険運転を行うことを阻止することができる。
The
次に、危険事象判定部23による危険事象発生の判断の一例を説明する。
図11は、危険事象判定部による危険事象発生の判断の一例を説明する図であり、同図の上段は、時刻と先行車両の速度との関係を示す図であり、同図の下段は、時刻と先行車両との車間距離を示す図である。
なお、図11の下段において、危険事象を適切に回避した場合を実践で示し、危険事象を回避できない場合を破線で示す。
Next, an example of determining the occurrence of a dangerous event by the dangerous
FIG. 11 is a diagram for explaining an example of determining the occurrence of a dangerous event by the dangerous event determination unit, the upper part of the figure is a diagram showing the relationship between the time and the speed of the preceding vehicle, and the lower part of the figure is a diagram showing the relationship between the time and the speed of the preceding vehicle. It is a figure which shows the inter-vehicle distance between a time and a preceding vehicle.
In the lower part of FIG. 11, the case where the dangerous event is appropriately avoided is shown in practice, and the case where the dangerous event cannot be avoided is shown by the broken line.
図11の上段に示すように、例えば、先行車両は、所定の時刻t1までは、直線道路などを一定の車速で走行しており、時刻t1を過ぎた後、急に減速を開始した場合を示している。
これは安全検証用シナリオデータベース21に記憶されているシナリオデータであり、この場合の危険事象は、自車両が先行車両に衝突する可能性がるほど接近(許容最短車間距離Lthよりも近くに接近)することである。
As shown in the upper part of FIG. 11, for example, the preceding vehicle is traveling on a straight road or the like at a constant vehicle speed until a predetermined time t1, and after the time t1, suddenly starts decelerating. Shown.
This is the scenario data stored in the safety
走行模擬部22では、個体特性学習部14で生成された個体特性モデルと、シーン判定部11で判定されたシーン(判定結果)と、安全検証用シナリオデータベース21から抽出したシナリオデータと、に基づいて走行シミュレーション(模擬走行)を行う。
The driving
その結果、図11の下段に示すように、先行車両の急減速に自車両が対応できず所定の車間距離(許容最短車間距離Lth)より近くに接近してしまう場合(図11の下段の破線)、危険事象判定部23は、危険事象が発生したと判定し、当該個体特性モデルを安全不十分のモデルと判定する。
As a result, as shown in the lower part of FIG. 11, when the own vehicle cannot cope with the sudden deceleration of the preceding vehicle and approaches closer than the predetermined inter-vehicle distance (allowable shortest inter-vehicle distance Lth) (broken line in the lower part of FIG. 11). ), The dangerous
一方、自車両の車速制御や操舵制御などで、自車両と先行車両との車間距離が、所定の許容最短車間距離Lthよりも近づかないように運転することができれば(図11の下段の実線)、危険事象判定部23は、危険事象が発生しないと判定し、当該個体特性モデルを安全なモデルと判定する。
On the other hand, if it is possible to drive the vehicle so that the inter-vehicle distance between the own vehicle and the preceding vehicle does not come closer than the predetermined allowable shortest inter-vehicle distance Lth by vehicle speed control or steering control of the own vehicle (solid line in the lower part of FIG. 11). , The dangerous
安全判定部20は、前述した安全検証を、安全検証用シナリオデータベース21に記憶されている全てのシナリオデータ(危険事象)に対して行い、各々のシーンでの個体特性モデルの安全性の検証を行う。
The
なお、前述した実施の形態では、自動制御装置1を、車両の個体適応制御に適用した場合を例示して説明したが、車両の個体適応制御に限定されるものではなく、その他の機器の個体適応制御にも適用することができる。
例えば、ドローンの飛行を地形や気象条件、飛行目的といったシーンに合わせて効率的に自動運転させるために、操作者の手動操作を学習する個体適応制御にも適用できる。
In the above-described embodiment, the case where the automatic control device 1 is applied to the individual adaptive control of the vehicle has been described as an example, but the present invention is not limited to the individual adaptive control of the vehicle, and is not limited to the individual adaptive control of the vehicle. It can also be applied to adaptive control.
For example, it can be applied to individual adaptive control that learns the manual operation of the operator in order to efficiently and automatically drive the drone flight according to the scene such as terrain, weather conditions, and flight purpose.
また、工場などの製造現場や建設現場、採掘現場などで使用される機器を自動化するにあたって、熟練者の手動操作を学習する個体適応制御にも活用できる。 It can also be used for individual adaptive control to learn manual operations by skilled workers when automating equipment used at manufacturing sites such as factories, construction sites, mining sites, and the like.
以上の通り、実施の形態では、
(1)車両などの移動体(機器)の操作を行う運転者(個体)を認証する個体認証部12と、移動体が置かれているシーンを判定するシーン判定部11と、運転者の個体特性を学習する個体特性学習部14と、運転者の個体特性に基づいて、運転者による移動体の手動操作を推定する手動操作推定部15と、シーン判定部11で判定された所定のシーンにおいて、運転者の個体特性に基づいて手動操作推定部15で推定した推定手動操作情報(推定手動操作)と、当該運転者による移動体の実際の手動操作情報51(手動操作)とを比較して、所定のシーンにおける学習進捗度を判定する学習進捗度判定部16と、シーン判定部11で判定された所定のシーンごとの学習進捗度の判定結果に基づいて、運転者の個体特性に適応した自動制御の実施または不実施を、シーンごとに決定する制御部17と、を有する構成とした。
As described above, in the embodiment,
(1) An
このように構成すると、自動制御装置1では、シーン判定部11で判定されたシーンごとに運転者の個体特性の学習進捗度を判定する学習進捗度判定部16を有しているので、制御部17では、このシーンごとに判定した学習進捗度に基づいて、個体適応制御の実施/または不実施を決定することができる。
With this configuration, the automatic control device 1 has a learning
また、学習進捗度判定部16は、シーン判定部11で判定されたシーンごとに学習進捗度を判定するようにしたので、制御部17は、シーンごとに個体適応制御を行うか否かの判定を行うことができ、学習進捗度の高いシーンから迅速に個体適応制御の実施を行うことができる。よって、運転者に違和感を与えることを防止することができる。
Further, since the learning
(2)運転者の個体特性に適応した自動制御により移動体を操作した場合に、移動体が安全な状態を保てるか否かを判定する安全判定部20を、さらに有し、制御部17は、安全判定部20により、移動体が安全な状態を保てると判定された場合にのみ、運転者の個体特性に適応した自動制御を実施する構成とした。
(2) The
このように構成すると、制御部17は、安全判定部20により、個体適応制御を行った結果、移動体が安全な状態を保てると判定された場合のみ個体適応制御を行うようにしたので、安全判定部20により、学習進捗度が高い場合であっても、移動体の安全が保てないと判定された場合には個体適応制御を行わない。
よって日常的に危険操作を行うような運転者の個体特性を学習してしまった場合でも、個体適応制御を実施しないことにより、移動体が危険な状態になることを防止できる。
With this configuration, the
Therefore, even if the individual characteristics of the driver who performs dangerous operations on a daily basis are learned, it is possible to prevent the moving body from becoming in a dangerous state by not performing the individual adaptation control.
(3)シーン判定部11は、所定のシーンに含まれる少なくとも2以上の不連続な第1シーン(例えば、緩やかなカーブシーン)と、第2シーン(例えば、交差点シーン)とを判定し、制御部17は、学習進捗度判定部16により、少なくとも2以上の不連続な第1シーンと、第2シーンにおける学習進捗度の判定結果が何れも学習完了状態であると判定された場合に、運転者の個体特性に適応した自動制御を実施する構成とした。
(3) The
このように構成すると、学習進捗度判定部16は、所定の同一シーンに含まれる異なる2か所以上のシーンで学習進捗度を判定するので、所定の同一シーンのほとんど変わらない複数のシーンで学習進捗度を無駄に判定してしまうことを防ぐことができ、より確実に当該所定のシーンの学習進捗度を判定することができる。
With this configuration, the learning
(4)シーン判定部11は、所定のシーンに含まれる互いに所定距離離れた第3シーン(例えば、第1の直線シーン)と、第4シーン(例えば、第2の直線シーン)とを判定し、制御部17は、学習進捗度判定部16により、所定のシーンにおいて、互いに所定距離離れた第3シーンと、第4シーンにおける学習進捗度の判定結果がいずれも学習完了状態であると判定された場合に、運転者の個体特性に適応した自動制御を実施する構成とした。
(4) The
このように構成すると、学習進捗度判定部16は、所定の同一シーンに含まれる互いに所定距離離れた2か所以上のシーンで学習進捗度を判定するので、所定の同一シーンのほとんど変わらない位置の複数のシーンで学習進捗度を無駄に判定してしまうことを防ぐことができ、より確実に当該所定のシーンの学習進捗度を判定することができる。
With this configuration, the learning
(5)移動体が置かれているシーンを複数記憶するシーン判定基準データベース10を、さらに有し、シーン判定基準データベース10は、学習進捗度判定部16で判定された所定のシーンの学習進捗度の判定結果(差分R)が、所定の閾値Rthよりも低い場合、または学習進捗度判定部16で算出された所定のシーンの学習効率Kが、所定の閾値Kthよりも低い場合に、所定のシーン(例えば、カーブシーン)を、当該所定のシーン(カーブシーン)とは異なる他のシーン(例えば、緩やかなカーブシーンと急なカーブシーン)に変更する構成とした。
(5) Further has a scene judgment
どの運転者にとっても学習進捗度の著しく低いシーンは、シーンの分類に問題がある可能性が高く、このような学習進捗度の著しく低いシーンをいつまでも記憶していても、当該シーンにおいて適切な学習を行うことができない。また、このようなシーンの記憶を継続することは、データベースのメモリ容量を無駄に使うことになり、維持・管理コストも増加してしまう。
このように構成すると、学習進捗度の低いシーンを見直して、新たなシーンに再分類することで、再分類した新たなシーンでの学習を効率的に行うことができる。また、学習進捗度の著しく低いシーンを再分類して更新することで、データベースのメモリ容量の無駄をなくし、維持・管理コストの最適化を行うことができる。
A scene with extremely low learning progress for any driver is likely to have a problem in classifying the scene, and even if such a scene with extremely low learning progress is memorized forever, appropriate learning is performed in the scene. Can't do. In addition, continuing to store such scenes wastes the memory capacity of the database and increases maintenance and management costs.
With this configuration, by reviewing the scenes with low learning progress and reclassifying them into new scenes, it is possible to efficiently perform learning in the reclassified new scenes. In addition, by reclassifying and updating scenes with extremely low learning progress, it is possible to eliminate waste of database memory capacity and optimize maintenance and management costs.
(6)学習進捗度判定部16は、変更された後の他のシーン(例えば、緩やかなカーブシーンと急なカーブシーン)の学習進捗度の判定を、変更される前の所定のシーン(例えば、カーブシーン)の学習進捗度の判定に用いた推定手動操作情報(個体特性モデル)と、移動体の実際の手動操作情報51とを比較することで行い、
シーン判定基準データベース10は、他のシーン(例えば、緩やかなカーブシーンと急なカーブシーン)における、学習進捗度の判定結果が所定の閾値以上である場合、他のシーン(例えば、緩やかなカーブシーンと急なカーブシーン)を所定のシーン(例えば、カーブシーン)に置き換えて記憶する構成とした。
(6) The learning
When the learning progress determination result in another scene (for example, a gentle curve scene and a steep curve scene) is equal to or higher than a predetermined threshold, the scene
このように構成すると、変更される前のシーンの推定手動操作情報(個体特性モデル)を有効に活用することがき、シーン判定基準データベース10の更新処理を迅速に行うことができる。
With this configuration, it is possible to effectively utilize the estimated manual operation information (individual characteristic model) of the scene before the change, and it is possible to quickly update the scene
[シーン一致度検証部]
なお、前述した実施の形態では、学習効率Kの著しく低い所定のシーンを細分化して、新たなシーンに再分類する場合を例示して説明したが、これに限定されるものではない。例えば、細分化された2以上のシーンを纏めて大分類のシーンに再分類してもよい。
また、シーンの学習効率Kに関わらず、一のシーンと他のシーンが一致すると判定された場合には、一つのシーンに再分類しても良い。
[Scene match verification unit]
In the above-described embodiment, a case where a predetermined scene having a remarkably low learning efficiency K is subdivided and reclassified into a new scene has been described as an example, but the present invention is not limited to this. For example, two or more subdivided scenes may be grouped together and reclassified into major scenes.
Further, regardless of the learning efficiency K of the scene, if it is determined that one scene and another scene match, the scene may be reclassified into one scene.
次に、他の実施の形態にかかる自動制御装置1のシーン一致度検証部30を説明する。
図12は、シーン一致度検証部30を説明するブロック図である。
Next, the scene matching
FIG. 12 is a block diagram illustrating a scene matching
図12に示すように、シーン一致度検証部30は、走行シーンシナリオデータベース31と、再分類判定部32とを有している。
As shown in FIG. 12, the scene matching
走行シーンシナリオデータベース31は、シーン判定基準データベース10に記憶されている各々のシーンを含む走行シーンシナリオが複数保存されている。
ここで、走行シーンシナリオは、車両などの移動体が走行する道路の所定のシーンと、移動体が当該所定のシーンを走行する際の環境情報を含んだ情報(シナリオ)である。
The driving
Here, the traveling scene scenario is information (scenario) including a predetermined scene of a road on which a moving body such as a vehicle travels and environmental information when the moving body travels in the predetermined scene.
走行模擬部22は、走行シーンシナリオデータベース31から、全ての走行シーンシナリオを読み出すと共に、個体特性学習部14で生成された、走行シーンシナリオに含まれる各シーンに対応する個体特性モデルを読み出す。
The driving
走行模擬部22では、例えば、読み出した全ての走行シーンシナリオの内の一つに対して、読み出した全ての個体特性モデルを一つ一つ当て嵌めて走行シミュレーション(模擬走行)を実行する。そして、走行模擬部22では、読み出した全ての走行シーンシナリオについて、同じ処理を実行する。
In the running
再分類判定部32では、走行模擬部22での走行シミュレーション(模擬走行)の結果、走行シミュレーションが一致(または類似)する複数の走行シーンシナリオ(例えば、勾配の緩やかな直線シーンシナリオと勾配の急な直線シーンシナリオ)を、一つに纏めて新たな走行シーンシナリオ(例えば、直線シーンシナリオ)を作成する。
In the
これにより、走行シーンシナリオデータベース31に記憶される走行シーンシナリオ(シーン判定基準データベース10に記憶されるシーン)の数を減らすことができる。よって、シーンを記憶するシーン判定基準データベース10のメモリ領域を少なくすることができ、メモリ領域が膨大になることによる自動制御装置1の製造、管理コストの増加を防止することができる。
As a result, the number of driving scene scenarios (scenes stored in the scene determination reference database 10) stored in the driving
<第2の実施の形態>
次に、第2の実施の形態にかかる自動制御装置1Aを説明する。
第2の実施の形態にかかる自動制御装置1Aを、介護を必要としている者(以下、要介護者又は見守り対象者という)の見守り介護システムにおいて、当該介護システムの個体特性の学習に適用した場合を例示して説明する。
図13は、第2の実施の形態にかかる自動制御装置1Aを説明するブロック図である。なお、前述した実施の形態と同様の構成については、同一の番号を付し、必要に応じて説明する。
<Second Embodiment>
Next, the
When the
FIG. 13 is a block diagram illustrating the
[自動制御装置]
図13に示すように、自動制御装置1Aでは、要介護者環境情報53が、シーン判定部11に入力されるようになっている。
要介護者環境情報53は、要介護者(見守り対象者)の周囲の情報(気象、位置、要介護者が興味を示している物体情報など)の外部環境情報と、要介護者の生体情報や移動速度などの内部環境情報が含まれる。
[Automatic control device]
As shown in FIG. 13, in the
The care-requiring person environmental information 53 includes external environmental information (weather, position, object information that the care-requiring person is interested in, etc.) around the care-requiring person (watching target person), and biological information of the care-requiring person. Includes internal environment information such as and movement speed.
要介護者環境情報53は、要介護者が入所する施設内やインフラ側に取り付けられたカメラなどで収集してもよく、要介護者が身につけるウェアラブル端末で収集してもよい。 The care-requiring person environmental information 53 may be collected by a camera installed in the facility where the care-requiring person enters or on the infrastructure side, or may be collected by a wearable terminal worn by the care-requiring person.
過去情報データベース13には、介護者判断情報54が入力されるようになっている。介護者判断情報54は、介護者(要介護者を介護する者)が周囲の状況を確認し、判断した危険度の情報であり、過去情報データベース13の所定のメモリアドレスに記憶されている。介護者判断情報54は、介護者による入力(危険度の判断結果)がない場合、危険度が0(ゼロ)の判断が行われたとする。
Caregiver determination information 54 is input to the
また、自動制御装置1Aでは、危険事象判定部18を有している。
危険事象判定部18は、現在の要介護者環境情報53と、個体特性学習部14で生成された個体特性モデルと、が入力されている。危険事象判定部18は、これらの入力された要介護者環境情報53と、個体特性モデルとから危険事象の有無の判断や、危険事象の発生確率の推定を行う。
Further, the
The danger
ここで、危険事象とは、一例として、要介護者が交通量の多い道に近づいたり、怪我や落下の危険性のある対象物に興味を持っている状況を意味する。 Here, the dangerous event means, for example, a situation in which a person requiring long-term care approaches a road with heavy traffic or is interested in an object at risk of injury or falling.
学習進捗度判定部16は、危険事象判定部18での危険事象の判定結果と、介護者判断情報54(介護者の危険度の判断結果)とを比較し、この差分Rが小さいほど、当該シーンにおける個体特性の学習進捗度が高いと判定する。
The learning
そして、制御部17では、学習進捗度が高いと判定されたシーンから、個体適応学制御を実施し、学習進捗度が低いと判定されたシーンについては、学習進捗度が高いと判定されるまで個体適応制御を実施しない。
Then, the
[個体適応制御]
次に、第2の実施の形態にかかる自動制御装置1Aにおける個体適応制御の流れを説明する。
図14は、個体適応制御の流れを説明するフローチャートである。
[Individual adaptation control]
Next, the flow of individual adaptive control in the
FIG. 14 is a flowchart illustrating the flow of individual adaptation control.
ステップS701において、見守り介護システムの全体制御部(図示せず)では、各データ収集及び個体特性の学習のトリガとして、見守り介護システムの制御が許可されているか否かを判定する。 In step S701, the overall control unit (not shown) of the watching care system determines whether or not control of the watching care system is permitted as a trigger for collecting data and learning individual characteristics.
全体制御部(図示せず)は、制御が許可されていると判定した場合(ステップS701:Yes)、ステップS702に進み、制御が許可されていないと判定した場合(ステップS701:No)、本処理を終了する。
制御許可の判定は、介護者の見守り介護システムの起動スイッチのON/OFFを基準に行ってもよく、見守り介護システムの電源のON/OFFを基準に行ってもよい。
When the overall control unit (not shown) determines that control is permitted (step S701: Yes), proceeds to step S702, and determines that control is not permitted (step S701: No). End the process.
The determination of the control permission may be made based on the ON / OFF of the activation switch of the caregiver's watching care system, or may be made based on the ON / OFF of the power supply of the watching care system.
ステップS702において、見守り介護システムの全体制御部(図示せず)は、要介護者の周囲の環境情報(要介護者環境情報53)を取得し、過去情報データベース13に送信する。
In step S702, the overall control unit (not shown) of the watching care system acquires the environmental information around the care recipient (care recipient environmental information 53) and transmits it to the
ステップS703において、制御部17は、個体適応判断が許可されているか否かを判定する。制御部17は、個体適応判断が許可されていると判定した場合(ステップS703:Yes)、ステップS704に進み、個体適応判断が許可されていないと判定された場合(ステップS703:No)、ステップS706に進み、予め初期設定(デフォルト)された制御を実施する。
In step S703, the
ステップS704において、学習進捗度判定部16は、現在のシーンにおいて、個体特性の学習が完了しているか否かを判定する。学習進捗度判定部16は、現在のシーンにおいて、学習進捗度が所定の閾値よりも高いと判定した場合(ステップS704:Yes)、ステップS705に進み、学習進捗度が所定の閾値よりも低いと判定した場合(ステップS704:No)、ステップS706に進み、予め初期設定(デフォルト)された制御を実施する。
In step S704, the learning
そして、ステップS705において、制御部17は、個体適応制御を実施して処理を終了する。
Then, in step S705, the
[過去情報データベースの更新処理]
次に、過去情報データベース13の更新処理を説明する。
図15は、過去情報データベース13の更新処理のフローチャートである。
[Past information database update process]
Next, the update process of the
FIG. 15 is a flowchart of the update process of the
ステップS801において、個体認証部12は、現在の要介護者の個体認証情報52を取得する。
In step S801, the
ステップS802において、個体認証部12は、ステップS801で取得した現在の要介護者の個体認証情報52が、過去情報データベース13にすでに記憶されているか否かを判定する。個体認証部12は、個体認証情報52が、過去情報データベース13にすでに記憶されていると判定した場合(ステップS802:Yes)、ステップS803に進む。
In step S802, the
ステップS803において、個体認証部12は、当該要介護者の個体認証情報52が記憶されている過去情報データベース13上のメモリアドレスを取得し、ステップS804に進む。
In step S803, the
一方、個体認証部12は、当該要介護者の個体認証情報52が、過去情報データベース13に記憶されていないと判定した場合(ステップS802:No)、ステップS808に進む。
On the other hand, when the
ステップS808において、個体認証部12は、過去情報データベース13上に、現在の要介護者の個体認証情報52を記憶する新たなメモリアドレスを設定し、ステップS804に進む。
In step S808, the
ステップS804において、シーン判定部11は、要介護者環境情報53を取得して、ステップS805に進む。
In step S804, the
ステップS805において、シーン判定部11は、シーン判定基準データベース10から取得したシーンの判定に必要なパラメータと、ステップS804で取得した要介護者環境情報53とに基づいて、当該シーンを判定する。
In step S805, the
ステップS806において、自動制御装置1Aの全体制御部(図示せず)は、介護者の危険度判断情報(介護者判断情報54)を取得する。
In step S806, the overall control unit (not shown) of the
ステップS807において、自動制御装置1Aの全体制御部(図示せず)は、取得した要介護者環境情報53と介護者判断情報54とを、過去情報データベース13と危険事象判定部18とにそれぞれ送信して処理を終了する。
In step S807, the overall control unit (not shown) of the
[重み付け処理]
なお、前述した要介護者の危険事象の学習において、学習進捗度判定部16で危険事象を判断した結果の差分の算出にあたり、介護者が近くにいるか、見守り介護システムにより介護者にアラートを出したときの介護者の判断との差分に基づいて重みを付けるようにしてもよい。
これにより、介護者が危険事象を認知できなかった際に、見守り介護システムが、危険ではなかったと誤って学習してしまうことを防ぐことができる。
[Weighting]
In the above-mentioned learning of the long-term care-requiring person's dangerous event, when calculating the difference between the results of determining the dangerous event by the learning
As a result, when the caregiver cannot recognize the dangerous event, it is possible to prevent the watching care system from mistakenly learning that it was not dangerous.
次に、介護者の危険度判断と、見守り介護システムによる危険度判断との差分に重みをつける処理を説明する。
図16は、重み決定処理のフローチャートである。
Next, a process of weighting the difference between the caregiver's risk judgment and the risk judgment by the watching care system will be described.
FIG. 16 is a flowchart of the weight determination process.
初めに、ステップS901において、見守り介護システムの全体制御部(図示せず)は、介護者による危険事象の判断の入力があったか否かを判定する。危険事象の入力があったと判定した場合(ステップS901:Yes)、ステップS902に進み重みW1が選択される。 First, in step S901, the overall control unit (not shown) of the watching care system determines whether or not the caregiver has input the judgment of the dangerous event. When it is determined that the dangerous event has been input (step S901: Yes), the process proceeds to step S902 and the weight W1 is selected.
このステップS901で選択された重みW1は、0〜1の範囲で設定され、例えば、介護者が指定した危険事象の発生から危険事象の判断の入力までの経過時間に応じて小さくするようにしてもよい。また、危険度判定を行う介護者ごとに個別に設定してもよい。 The weight W1 selected in step S901 is set in the range of 0 to 1, and is reduced according to the elapsed time from the occurrence of the dangerous event specified by the caregiver to the input of the judgment of the dangerous event, for example. May be good. In addition, it may be set individually for each caregiver who determines the degree of risk.
ステップS901において、見守り介護システムの全体制御部(図示せず)は、危険事象の入力がないと判定した場合(ステップS901:No)、ステップS904に進んで、介護者が要介護者(見守り対象者)に意識を向けているか否かを判定する。 In step S901, when the overall control unit (not shown) of the watching care system determines that there is no input of a dangerous event (step S901: No), the caregiver proceeds to step S904 and the caregiver is a care recipient (watching target). Determine whether or not the person is conscious of the person).
ステップS904において、見守り介護システムの全体制御部(図示せず)は、介護者が要介護者(見守り対象者)に意識を向けていると判定した場合(ステップS904:Yes)、ステップS905に進み重みW2が選択される。 In step S904, when the overall control unit (not shown) of the watching care system determines that the caregiver is conscious of the person requiring long-term care (watching target person) (step S904: Yes), the process proceeds to step S905. The weight W2 is selected.
ここで、ステップS905で選択された重みW2は、ステップS902で選択された重みW1よりも小さい値に設定されている。この重みW2は、例えば、重みW1に0〜1の範囲の係数を掛けることで算出できる。 Here, the weight W2 selected in step S905 is set to a value smaller than the weight W1 selected in step S902. The weight W2 can be calculated, for example, by multiplying the weight W1 by a coefficient in the range of 0 to 1.
また、ステップS904において、介護者が意識を向けているか否かの判断は、要介護者環境情報53を取得するための各種センサを用い、例えば、介護者の目線や顔、体が要介護者(見守り対象者)の方向に向けられていれば、意識が向けられていると判定することができる。 Further, in step S904, various sensors for acquiring the care-requiring person environmental information 53 are used to determine whether or not the caregiver is conscious, and for example, the care-requiring person's eyes, face, and body are the care-requiring person. If it is directed in the direction of (the person to be watched over), it can be determined that the consciousness is directed.
ステップS904において、見守り介護システムの全体制御部(図示せず)は、介護者が要介護者(見守り対象者)に意識を向けていないと判定した場合(ステップS904:No)、ステップS906に進んで、介護者が要介護者(見守り対象者)を見通せる場所にいるか否かを判定する。 In step S904, when the overall control unit (not shown) of the watching care system determines that the caregiver is not paying attention to the care recipient (watching target person) (step S904: No), the process proceeds to step S906. Then, it is determined whether or not the caregiver is in a place where the care recipient (person to be watched over) can be seen.
ステップS906において、見守り介護システムの全体制御部(図示せず)は、介護者が要介護者(見守り対象者)を視認可能であると判定した場合(ステップS906:Yes)、ステップS907に進み重みW3が選択される。 In step S906, when the overall control unit (not shown) of the watching care system determines that the care recipient (the person to be watched) can be visually recognized (step S906: Yes), the care proceeds to step S907 and the weight is increased. W3 is selected.
ここで、ステップS907で選択された重みW3は、ステップS905で選択した重みW2よりも小さい値に設定されている。例えば、重みW3は、介護者と要介護者(見守り対象者)との距離に応じて小さくなる、0〜1の範囲の係数を重みW2にかけることで算出できる。 Here, the weight W3 selected in step S907 is set to a value smaller than the weight W2 selected in step S905. For example, the weight W3 can be calculated by multiplying the weight W2 by a coefficient in the range of 0 to 1, which decreases according to the distance between the caregiver and the care recipient (the person to be watched over).
ステップS906において、見守り介護システムの全体制御部(図示せず)は、介護者が要介護者(見守り対象者)を見通せない位置にいると判定した場合(ステップS906:No)、ステップS908に進み重みW4が選択される。 In step S906, when the overall control unit (not shown) of the watching care system determines that the caregiver is in a position where the care recipient (watching target person) cannot be seen (step S906: No), the process proceeds to step S908. The weight W4 is selected.
ここで、ステップS908で選択された重みW4は、ステップS902で選択された重みW1よりも小さい値に設定されている。この重みW4は、重みW1に0〜1の範囲の係数を掛けることで算出できる。 Here, the weight W4 selected in step S908 is set to a value smaller than the weight W1 selected in step S902. The weight W4 can be calculated by multiplying the weight W1 by a coefficient in the range of 0 to 1.
重みW1〜W4が設定された後、ステップS903において、介護者による危険度の判断結果と、見守り介護システムによる危険度の判断結果との差分に、ステップS902、ステップS905、ステップS907、ステップS908で選択した重みW1、W2、W3、W4を掛け合わせる。 After the weights W1 to W4 are set, in step S903, in step S902, step S905, step S907, and step S908, the difference between the risk judgment result by the caregiver and the risk judgment result by the watching care system is calculated. Multiply the selected weights W1, W2, W3, W4.
ステップS909において、重み付け後の差分の累積値(例えば、各シーンの平均値)を算出して処理を終了する。 In step S909, the cumulative value of the weighted difference (for example, the average value of each scene) is calculated, and the process ends.
前述した見守り介護システムにおける危険事象の判断結果は、人間が参照して適宜、要介護者(見守り対象者)の様子を確認するのに用いるだけでなく、要介護者に付き添い、危険事象が発生すると予測される場合にそれを回避するように働くロボットに対して、本危険事象の推定結果を出力するようにしてもよい。 The judgment result of the dangerous event in the above-mentioned watching care system is not only used by human beings to appropriately confirm the state of the person requiring long-term care (person to be watched over), but also accompanies the person requiring long-term care and a dangerous event occurs. Then, when it is predicted, the estimation result of this dangerous event may be output to the robot that works to avoid it.
以上説明した通り、実施の形態では、
要介護者(見守り対象者)に対して、これまで介護者が付き添えない場合には、危険事象の発生を防止するために要介護者の行動を制限する必要があった。しかし、前述した見守り介護システムは、介護者の代わりに要介護者の個々の能力に合った安全な範囲での行動か否かを判定することができる。
この結果、介護者の負担を軽減しつつ、要介護者の行動範囲、可能性を増加させて、要介護者の生活の質向上を図ることができる。
As described above, in the embodiment,
In the past, when the care recipient was not accompanied by the care recipient (person to be watched over), it was necessary to restrict the behavior of the care recipient in order to prevent the occurrence of dangerous events. However, the above-mentioned watching care system can determine whether or not the behavior is within a safe range suitable for the individual ability of the care recipient on behalf of the caregiver.
As a result, it is possible to improve the quality of life of the long-term care recipient by increasing the range of action and possibility of the long-term care recipient while reducing the burden on the long-term care recipient.
なお、前述した第1の実施の形態にかかる自動制御装置1と、第2の実施の形態にかかる自動制御装置1Aとを組み合わせてもよく、他の実施の形態と組み合わせてもよい。
The automatic control device 1 according to the first embodiment described above may be combined with the
1、1A:自動制御装置、10:シーン判定基準データベース、11:シーン判定部、12:個体認証部、13:過去情報データベース、14:個体特性学習部、15:手動操作推定部、16:学習進捗度判定部、17:制御部、20:安全判定部、21:安全検証用シナリオデータベース、22:走行模擬部、23:危険事象判定部、30:シーン一致度検証部、31:走行シーンシナリオデータベース、32:再分類判定部、50:環境情報、51:手動操作情報、52:個体認証情報 1, 1A: Automatic control device, 10: Scene judgment standard database, 11: Scene judgment unit, 12: Individual authentication unit, 13: Past information database, 14: Individual characteristic learning unit, 15: Manual operation estimation unit, 16: Learning Progress judgment unit, 17: Control unit, 20: Safety judgment unit, 21: Safety verification scenario database, 22: Driving simulation unit, 23: Dangerous event judgment unit, 30: Scene matching degree verification unit, 31: Driving scene scenario Database, 32: Reclassification judgment unit, 50: Environmental information, 51: Manual operation information, 52: Individual authentication information
Claims (8)
前記機器が置かれているシーンを判定するシーン判定部と、
前記個体の個体特性を学習する個体特性学習部と、
前記個体の個体特性に基づいて、前記個体による前記機器の手動操作を推定する手動操作推定部と、
前記シーン判定部で判定された所定のシーンにおいて、前記個体の個体特性に基づいて前記手動操作推定部で推定した推定手動操作と、当該個体による前記機器の実際の手動操作とを比較して、前記所定のシーンにおける学習進捗度を判定する学習進捗度判定部と、
前記シーン判定部で判定された前記所定のシーンごとの前記学習進捗度の判定結果に基づいて、前記個体の個体特性に適応した自動制御の実施または不実施を、前記シーンごとに決定する制御部と、
前記機器が置かれているシーンを複数記憶するシーン判定基準データベースと、を有し、
前記シーン判定基準データベースは、
前記学習進捗度判定部で判定された前記所定のシーンの学習進捗度の判定結果が、所定の閾値よりも低い場合、または前記学習進捗度判定部で算出された前記所定のシーンの学習効率が、所定の閾値よりも低い場合に、前記所定のシーンを、当該所定のシーンとは異なる他のシーンに変更し、
前記学習進捗度判定部は、前記変更された後の他のシーンの学習進捗度の判定を、前記変更される前の所定のシーンの学習進捗度の判定に用いた推定手動操作と、前記機器の実際の手動操作とを比較することで行い、
前記シーン判定基準データベースは、前記他のシーンにおける、前記学習進捗度の判定結果が所定の閾値以上である場合、当該他のシーンを一のシーンに置き換えて記憶する自動制御装置。 An individual authentication unit that authenticates an individual who operates a device,
A scene determination unit that determines the scene in which the device is placed, and
The individual characteristic learning unit that learns the individual characteristics of the individual,
A manual operation estimation unit that estimates the manual operation of the device by the individual based on the individual characteristics of the individual, and a manual operation estimation unit.
In a predetermined scene determined by the scene determination unit, the estimated manual operation estimated by the manual operation estimation unit based on the individual characteristics of the individual is compared with the actual manual operation of the device by the individual. A learning progress determination unit that determines the learning progress in the predetermined scene,
Based on the determination result of the learning progress for each of the predetermined scenes determined by the scene determination unit, the control unit determines the execution or non-execution of the automatic control adapted to the individual characteristics of the individual for each scene. When,
Have a, a scene determination criteria database for storing a plurality of scenes in which the device is located,
The scene judgment criteria database is
When the learning progress determination result of the predetermined scene determined by the learning progress determination unit is lower than the predetermined threshold value, or the learning efficiency of the predetermined scene calculated by the learning progress determination unit is high. When the threshold value is lower than the predetermined threshold value, the predetermined scene is changed to another scene different from the predetermined scene.
The learning progress determination unit uses the determination of the learning progress of the other scene after the change to determine the learning progress of the predetermined scene before the change, and the device. Performed by comparing with the actual manual operation of
The scene determination reference database is an automatic control device that replaces the other scene with one scene and stores the other scene when the determination result of the learning progress in the other scene is equal to or more than a predetermined threshold value.
前記機器が置かれているシーンを判定するシーン判定部と、A scene determination unit that determines the scene in which the device is placed, and
前記個体の個体特性を学習する個体特性学習部と、The individual characteristic learning unit that learns the individual characteristics of the individual,
前記個体の個体特性に基づいて、前記個体による前記機器の手動操作を推定する手動操作推定部と、A manual operation estimation unit that estimates the manual operation of the device by the individual based on the individual characteristics of the individual, and a manual operation estimation unit.
前記シーン判定部で判定された所定のシーンにおいて、前記個体の個体特性に基づいて前記手動操作推定部で推定した推定手動操作と、当該個体による前記機器の実際の手動操作とを比較して、前記所定のシーンにおける学習進捗度を判定する学習進捗度判定部と、In a predetermined scene determined by the scene determination unit, the estimated manual operation estimated by the manual operation estimation unit based on the individual characteristics of the individual is compared with the actual manual operation of the device by the individual. A learning progress determination unit that determines the learning progress in the predetermined scene,
前記シーン判定部で判定された前記所定のシーンごとの前記学習進捗度の判定結果に基づいて、前記個体の個体特性に適応した自動制御の実施または不実施を、前記シーンごとに決定する制御部と、Based on the determination result of the learning progress for each of the predetermined scenes determined by the scene determination unit, the control unit determines the execution or non-execution of the automatic control adapted to the individual characteristics of the individual for each scene. When,
前記機器が置かれているシーンを複数記憶するシーン判定基準データベースと、A scene judgment standard database that stores multiple scenes in which the device is placed, and
前記シーン判定基準データベースに含まれる複数のシーンのうち、一のシーンと他のシーンの一致度を検証するシーン一致度検証部と、を有し、It has a scene matching degree verification unit for verifying the matching degree between one scene and another scene among a plurality of scenes included in the scene determination standard database.
前記シーン一致度検証部は、The scene matching degree verification unit
前記一のシーンにおける前記個体の個体特性から前記手動操作推定部により推定された一の推定手動操作を前記他のシーンに当て嵌めて、前記学習進捗度判定部により判定された学習進捗度の判定結果と、Judgment of the learning progress degree determined by the learning progress determination unit by applying one estimated manual operation estimated by the manual operation estimation unit from the individual characteristics of the individual in the one scene to the other scene. Results and
前記他のシーンにおける前記個体の個体特性から前記手動操作推定部により推定された他の推定手動操作を前記一のシーンに当て嵌めて、前記学習進捗度判定部により判定された学習進捗度の判定結果と、を比較して、Judgment of the learning progress degree determined by the learning progress determination unit by applying another estimated manual operation estimated by the manual operation estimation unit from the individual characteristics of the individual in the other scene to the one scene. Compare the result with
前記比較の結果が、所定の閾値よりも小さい場合、前記一のシーンと前記他のシーンとを共通のシーンに纏めて前記シーン判定基準データベースを更新する自動制御装置。An automatic control device that updates the scene determination reference database by collecting the one scene and the other scene into a common scene when the result of the comparison is smaller than a predetermined threshold value.
前記制御部は、
前記安全判定部により、前記機器が安全な状態を保てると判定された場合にのみ、前記個体の個体特性に適応した自動制御を実施する請求項1又は2に記載の自動制御装置。 Further, it has a safety determination unit for determining whether or not the device can maintain a safe state when the device is operated by automatic control adapted to the individual characteristics of the individual.
The control unit
The automatic control device according to claim 1 or 2 , wherein automatic control adapted to the individual characteristics of the individual is performed only when the safety determination unit determines that the device can maintain a safe state.
前記制御部は、
前記学習進捗度判定部により、前記少なくとも2以上の不連続な前記第1シーンと、前記第2シーンにおける学習進捗度の判定結果が何れも学習完了状態であると判定された場合に、前記個体の個体特性に適応した自動制御を実施する請求項3に記載の自動制御装置。 The scene determination unit determines at least two or more discontinuous first scenes and second scenes included in the predetermined scene, and determines the second scene.
The control unit
When the learning progress determination unit determines that at least two or more discontinuous first scenes and the learning progress determination results in the second scene are both in the learning completion state, the individual The automatic control device according to claim 3 , wherein automatic control adapted to the individual characteristics of the above is performed.
前記制御部は、
前記学習進捗度判定部により、前記所定のシーンにおいて、互いに所定距離離れた前記第3シーンと、前記第4シーンにおける学習進捗度の判定結果がいずれも学習完了状態であると判定された場合に、前記個体の個体特性に適応した自動制御を実施する請求項3に記載の自動制御装置。
制御装置。 The scene determination unit determines the third scene and the fourth scene included in the predetermined scene and separated from each other by a predetermined distance.
The control unit
When the learning progress determination unit determines that in the predetermined scene, the determination results of the learning progress in the third scene and the fourth scene, which are separated from each other by a predetermined distance, are both in the learning completed state. The automatic control device according to claim 3 , wherein automatic control adapted to the individual characteristics of the individual is performed.
Control device.
前記機器が置かれているシーンを判定するシーン判定工程と、
前記個体の個体特性を学習する個体特性学習工程と、
前記個体の個体特性に基づいて、前記個体による前記機器の手動操作を推定する手動操作推定工程と、
前記シーン判定工程で判定された所定のシーンにおいて、前記個体の個体特性に基づいて前記手動操作推定工程で推定した推定手動操作と、当該個体による前記機器の実際の手動操作とを比較して、前記所定のシーンにおける学習進捗度を判定する学習進捗度判定工程と、
前記シーン判定工程で判定された前記所定のシーンごとの前記学習進捗度の判定結果に基づいて、前記個体の個体特性に適応した自動制御の実施または不実施を、前記シーンごとに決定する制御工程と、
前記機器が置かれているシーンを複数記憶するシーン判定基準データベースに含まれる複数のシーンのうち、一のシーンと他のシーンの一致度を検証するシーン一致度検証工程と、を有し、
前記シーン一致度検証工程は、
前記一のシーンにおける前記個体の個体特性から前記手動操作推定工程により推定された一の推定手動操作を前記他のシーンに当て嵌めて、前記学習進捗度判定工程により判定された学習進捗度の判定結果と、
前記他のシーンにおける前記個体の個体特性から前記手動操作推定工程により推定された他の推定手動操作を前記一のシーンに当て嵌めて、前記学習進捗度判定工程により判定された学習進捗度の判定結果と、を比較する比較工程と、
前記比較の結果が、所定の閾値よりも小さい場合、前記一のシーンと前記他のシーンとを共通のシーンに纏めて前記シーン判定基準データベースを更新する更新工程と、を有する自動制御装置の制御方法。 An individual authentication process that authenticates an individual who operates a device,
A scene determination process for determining the scene in which the device is placed, and
An individual characteristic learning process for learning the individual characteristics of the individual, and
A manual operation estimation step for estimating the manual operation of the device by the individual based on the individual characteristics of the individual, and a manual operation estimation step.
In a predetermined scene determined in the scene determination step, the estimated manual operation estimated in the manual operation estimation step based on the individual characteristics of the individual is compared with the actual manual operation of the device by the individual. A learning progress determination step for determining the learning progress in the predetermined scene, and
Based on the determination result of the learning progress for each of the predetermined scenes determined in the scene determination step, the control step of determining the execution or non-execution of the automatic control adapted to the individual characteristics of the individual for each scene. When,
Among the plurality of scenes included in the scene determination reference database for storing a plurality of scenes in which the equipment is located, possess a scene matching degree verification step of verifying the coincidence of the first scene and another scene, a,
The scene matching degree verification step is
Judgment of the learning progress degree determined by the learning progress determination step by applying one estimated manual operation estimated by the manual operation estimation step from the individual characteristics of the individual in the one scene to the other scenes. Results and
Judgment of the learning progress degree determined by the learning progress determination step by applying another estimated manual operation estimated by the manual operation estimation step from the individual characteristics of the individual in the other scene to the one scene. A comparison process that compares the results,
Result of the comparison is smaller than a predetermined threshold, the automatic control system for chromatic and a updating step of updating the scene determination reference database together said as one of the scene and the other scenes common scenes Control method.
前記制御工程は、
前記学習進捗度判定工程により、前記少なくとも2以上の不連続な前記第1シーンと、前記第2シーンにおける学習進捗度の判定結果が何れも学習完了状態であると判定された場合に、前記個体の個体特性に適応した自動制御を実施する請求項6に記載の自動制御装置の制御方法。 The scene determination step determines at least two or more discontinuous first scenes and second scenes included in the predetermined scene, and determines the second scene.
The control step is
When the learning progress determination step determines that at least two or more discontinuous first scenes and the learning progress determination results in the second scene are both in the learning completion state, the individual The control method of the automatic control device according to claim 6 , wherein automatic control adapted to the individual characteristics of the above is performed.
前記制御工程は、
前記学習進捗度判定工程により、前記所定のシーンにおいて、互いに所定距離離れた前記第3シーンと、前記第4シーンにおける学習進捗度の判定結果がいずれも学習完了状態であると判定された場合に、前記個体の個体特性に適応した自動制御を実施する請求項6に記載の自動制御装置の制御方法。 In the scene determination step, the third scene and the fourth scene included in the predetermined scene and separated from each other by a predetermined distance are determined.
The control step is
When it is determined by the learning progress determination step that in the predetermined scene, the determination results of the learning progress in the third scene and the fourth scene, which are separated from each other by a predetermined distance, are both in the learning completed state. The control method of the automatic control device according to claim 6 , wherein automatic control adapted to the individual characteristics of the individual is carried out.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017128910A JP6924629B2 (en) | 2017-06-30 | 2017-06-30 | Automatic control device and its control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017128910A JP6924629B2 (en) | 2017-06-30 | 2017-06-30 | Automatic control device and its control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019010967A JP2019010967A (en) | 2019-01-24 |
JP6924629B2 true JP6924629B2 (en) | 2021-08-25 |
Family
ID=65226268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017128910A Active JP6924629B2 (en) | 2017-06-30 | 2017-06-30 | Automatic control device and its control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6924629B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020246075A1 (en) * | 2019-06-04 | 2020-12-10 | ソニー株式会社 | Action control device, action control method, and program |
JP7260450B2 (en) * | 2019-10-02 | 2023-04-18 | 株式会社クボタ | Work vehicle and work management system |
WO2021205615A1 (en) | 2020-04-09 | 2021-10-14 | 三菱電機株式会社 | Teacher data generation apparatus and teacher data generation method |
CN113859246B (en) * | 2020-06-30 | 2023-09-08 | 广州汽车集团股份有限公司 | Vehicle control method and device |
US20220227397A1 (en) * | 2021-01-19 | 2022-07-21 | Baidu Usa Llc | Dynamic model evaluation package for autonomous driving vehicles |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2742928B2 (en) * | 1990-12-17 | 1998-04-22 | 日本電信電話株式会社 | Semi-autonomous robot remote control method |
CN103718221B (en) * | 2011-08-04 | 2016-08-17 | 丰田自动车株式会社 | Vehicular information processing device and Vehicular information processing method |
-
2017
- 2017-06-30 JP JP2017128910A patent/JP6924629B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019010967A (en) | 2019-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6924629B2 (en) | Automatic control device and its control method | |
CN110834644B (en) | Vehicle control method and device, vehicle to be controlled and storage medium | |
RU2705480C1 (en) | Control method and vehicle control device with automatic driving function | |
Noh et al. | Decision-making framework for automated driving in highway environments | |
CN108986540B (en) | Vehicle control system and method, and driving assistance server | |
US10642268B2 (en) | Method and apparatus for generating automatic driving strategy | |
KR102461831B1 (en) | System and Method for Improving of Advanced Deep Reinforcement Learning Based Traffic in Non signalalized Intersections for the Multiple Self driving Vehicles | |
US11940790B2 (en) | Safe hand-off between human driver and autonomous driving system | |
Butakov et al. | Driving autopilot with personalization feature for improved safety and comfort | |
Nilsson et al. | Safe transitions from automated to manual driving using driver controllability estimation | |
CN108349494B (en) | Method for operating a distance and speed adjustment function of a vehicle and driver assistance system for carrying out the method | |
JP2019510677A (en) | Control data creation method for driver's rule-based assistance | |
CN113370996B (en) | Automatic driving lane change following decision method and system and automatic driving vehicle | |
WO2021129156A1 (en) | Control method, device and system of intelligent car | |
JP2019043495A (en) | Device, system and method for adjusting automatic operation | |
CN113173170B (en) | Personalized algorithm based on personnel portrait | |
CN113085873B (en) | Method and device for acquiring driving strategy, computer equipment and storage medium | |
CN112805199A (en) | Self-learning method, device and equipment of automatic driving system and storage medium | |
CN113511215B (en) | Hybrid automatic driving decision method, device and computer storage medium | |
CN111873975A (en) | Control method, device, system, equipment and medium for electronic parking brake | |
CN111967163B (en) | Vehicle simulation control method and device, computer equipment and storage medium | |
CN118238847B (en) | Autonomous lane change decision planning method and system adaptive to different driving styles and road surface environments | |
Jeong | Self-adaptive motion prediction-based proactive motion planning for autonomous driving in urban environments | |
CN114763156A (en) | Method of cognitive situational awareness using event structure based on attention | |
WO2022044210A1 (en) | Driving assistance device, learning device, driving assistance method, driving assistance program, learned model generation method, and learned model generation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210105 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210304 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210713 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210802 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6924629 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |