JP6947091B2 - Driving support device, driving support method, driving support program, motion control device, motion control method, and motion control program - Google Patents

Driving support device, driving support method, driving support program, motion control device, motion control method, and motion control program Download PDF

Info

Publication number
JP6947091B2
JP6947091B2 JP2018047055A JP2018047055A JP6947091B2 JP 6947091 B2 JP6947091 B2 JP 6947091B2 JP 2018047055 A JP2018047055 A JP 2018047055A JP 2018047055 A JP2018047055 A JP 2018047055A JP 6947091 B2 JP6947091 B2 JP 6947091B2
Authority
JP
Japan
Prior art keywords
command
driving
support
command value
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018047055A
Other languages
Japanese (ja)
Other versions
JP2019159930A (en
Inventor
善久 井尻
善久 井尻
中嶋 宏
宏 中嶋
直樹 土屋
直樹 土屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2018047055A priority Critical patent/JP6947091B2/en
Publication of JP2019159930A publication Critical patent/JP2019159930A/en
Application granted granted Critical
Publication of JP6947091B2 publication Critical patent/JP6947091B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、運転支援装置、運転支援方法、運転支援プログラム、動作制御装置、動作制御方法、及び動作制御プログラムに関する。 The present invention relates to a driving support device, a driving support method, a driving support program, an operation control device, an operation control method, and an operation control program.

近年、ハンドルの操舵を補助したり、ブレーキ操作を自動的に行ったり、運転者の運転操作によらない自動運転を実施したり等の車両の運転を支援する技術の開発が進んでいる。例えば、特許文献1では、手動運転モードと自動運転モードとを備える自動運転車であって、所定の車内状況に応じて、手動運転モードから自動運転モードに切り替える自動運転車が提案されている。 In recent years, the development of technologies for assisting the driving of a vehicle, such as assisting the steering of a steering wheel, automatically performing a brake operation, and performing automatic driving that does not depend on the driver's driving operation, has been progressing. For example, Patent Document 1 proposes an autonomous driving vehicle having a manual driving mode and an automatic driving mode, which switches from the manual driving mode to the automatic driving mode according to a predetermined in-vehicle condition.

特開2015−133050号公報JP-A-2015-133050

本件発明者らは、車両の運転を支援する従来の技術には次のような問題点があることを見出した。すなわち、従来の技術では、例えば、ハンドルの操舵角に応じて操舵の補助力を決定する、一定の速度で自動運転を実施する等、特定の操作に対して特定の運転動作の支援が対応付けられていた。そのため、実際の運転時に生じる個々のユーザ、車両の特性等に起因する個別の状況を予め想定して特定の運転動作の支援を対応させることはできず、運転を支援する態様にバリエーションを持たせることができなかった。 The present inventors have found that the conventional technology for supporting the driving of a vehicle has the following problems. That is, in the conventional technology, for example, support for a specific driving operation is associated with a specific operation, such as determining an auxiliary force for steering according to the steering angle of the steering wheel or performing automatic driving at a constant speed. Was being done. Therefore, it is not possible to provide support for a specific driving operation by assuming in advance individual situations caused by individual users, vehicle characteristics, etc. that occur during actual driving, and there are variations in the mode of supporting driving. I couldn't.

これに対して、運転を支援する態様にバリエーションを持たせるため、運転を支援する際の所望の動作を個々のユーザから受け付けるシステムを構築することが考えられる。しかしながら、このようなシステムでは、個別の状況に適した動作を入力したり、入力した動作内容を登録したりする等の手間がかかってしまい、また、個別の状況に応じてこのような登録作業を行う分だけ非効率であった。 On the other hand, in order to give variation to the mode of supporting driving, it is conceivable to construct a system that accepts a desired operation when supporting driving from individual users. However, in such a system, it takes time and effort to input an operation suitable for an individual situation and to register the input operation content, and such a registration work is performed according to an individual situation. It was inefficient as much as it was done.

なお、この問題点は、運転の動作を支援する場面に特有のものではない。例えば、製造ラインのロボット等のような利用者の利用する対象装置の動作を制御するあらゆる場面で同様の問題点が生じ得る。すなわち、対象装置の動作を制御する態様にバリエーションを持たせるために、所望の動作を個々のユーザから受け付けるようにすると、個別の状況に応じて登録作業を行う分だけ非効率である。 It should be noted that this problem is not peculiar to the scene of supporting the driving operation. For example, a similar problem may occur in every situation where the operation of a target device used by a user, such as a robot on a production line, is controlled. That is, if the desired operation is accepted from each user in order to give variation in the mode for controlling the operation of the target device, it is inefficient because the registration work is performed according to the individual situation.

本発明は、一側面では、このような実情を鑑みてなされたものであり、その目的は、簡便かつ効率的な方法で対象装置の動作を制御する態様にバリエーションを持たせる技術を提供することである。 One aspect of the present invention has been made in view of such circumstances, and an object of the present invention is to provide a technique for giving variation to a mode for controlling the operation of a target device in a simple and efficient manner. Is.

本発明は、上述した課題を解決するために、以下の構成を採用する。 The present invention employs the following configuration in order to solve the above-mentioned problems.

すなわち、本発明の一側面に係る運転支援装置は、車両の運転の支援を指示する支援コマンドであって、運転動作の所定の属性に関する指令値を含む支援コマンドに基づいて、前記車両の運転の支援を制御する運転制御部と、前記車両に乗車した乗員を撮影するように配置された撮影装置から撮影画像を取得する画像取得部と、画像に写る状況に応じて運転動作を補正するための機械学習を行った学習済みの学習器に前記撮影画像を入力し、当該学習済みの学習器の演算処理を実行することで、前記支援コマンドの前記指令値に対する補正値を当該学習済みの学習器から取得する動作補正部と、を備え、前記運転制御部は、取得した前記補正値により前記指令値を補正し、前記指令値を補正した後の支援コマンドに基づいて、前記車両の運転の支援を制御する。 That is, the driving support device according to one aspect of the present invention is a support command for instructing support for driving a vehicle, and is a support command for driving the vehicle based on a support command including a command value related to a predetermined attribute of the driving operation. A driving control unit that controls assistance, an image acquisition unit that acquires a captured image from a photographing device arranged to photograph a occupant in the vehicle, and a driving operation for correcting the driving operation according to the situation reflected in the image. By inputting the captured image into the learned learning device that has undergone machine learning and executing the arithmetic processing of the learned learning device, the corrected value for the command value of the support command is corrected to the learned learning device. The operation correction unit includes an operation correction unit acquired from the above, and the operation control unit corrects the command value by the acquired correction value, and supports the operation of the vehicle based on the support command after the command value is corrected. To control.

当該構成では、学習済みの学習器を利用することで、車両の運転の支援を指示する支援コマンドの指令値に対して、乗員を撮影するように配置された撮影装置から得られた撮影画像に写る個々の状況に応じた異なる補正値を得ることができる。この補正値を支援コマンドに適用することで、運転を支援する動作のバリエーションを実現することができるため、個々の状況に適した動作の入力を行う手間を省略することができる。また、当該構成では、学習済みの学習器から得られる補正値を利用して運転を支援する動作のバリエーションを実現しているため、個々の状況に適した運転を支援する動作を個別に一から生成しなくてもよく、当該運転を支援する動作に効率的にバリエーションを持たせることができる。したがって、当該構成によれば、簡便かつ効率的な方法で運転を支援する態様にバリエーションを持たせることができ、これにより、個々のユーザ、車両の特性等に起因する個別の状況に適した運転の支援を実現することができる。 In this configuration, by using the learned learner, the captured image obtained from the photographing device arranged to photograph the occupant with respect to the command value of the support command instructing the driving assistance of the vehicle can be obtained. It is possible to obtain different correction values according to the individual situations in which the image is captured. By applying this correction value to the support command, it is possible to realize a variation of the operation that supports the driving, so that it is possible to save the trouble of inputting the operation suitable for each situation. In addition, in this configuration, since the variation of the operation that supports the driving is realized by using the correction value obtained from the learned learner, the operation that supports the driving suitable for each situation can be individually performed from the beginning. It is not necessary to generate it, and it is possible to efficiently give variation to the operation that supports the operation. Therefore, according to the configuration, it is possible to have variations in the mode of supporting driving in a simple and efficient manner, whereby driving suitable for individual situations due to individual users, vehicle characteristics, and the like can be provided. Support can be realized.

なお、「運転の支援」は、運転動作に対するあらゆる支援を対象としてもよく、例えば、手動運転中における運転者の運転操作の補助、自動運転の実施等を含んでもよい。「乗員」は、車両内に存在するあらゆる人物を対象としてもよく、運転席に着いた乗員(すなわち、運転者)、及び運転席以外の席に着いた乗員を含んでもよい。「学習器」は、例えば、ニューラルネットワーク等の、機械学習により所定の推論を行う能力を獲得可能な学習モデルにより構成される。この学習器の種類は、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。「学習済みの学習器」は、「識別器」又は「分類器」と称されてもよい。 In addition, "driving support" may be intended for all kinds of support for driving operation, and may include, for example, assistance of the driver's driving operation during manual driving, implementation of automatic driving, and the like. The "occupant" may be intended for any person present in the vehicle and may include an occupant in the driver's seat (ie, the driver) and an occupant in a seat other than the driver's seat. The "learner" is composed of a learning model such as a neural network that can acquire the ability to make a predetermined inference by machine learning. The type of the learning device does not have to be particularly limited, and may be appropriately determined according to the embodiment. The "learned learner" may be referred to as a "discriminator" or a "classifier".

上記一側面に係る運転支援装置において、前記学習済みの学習器は、前記機械学習により、画像に写る人物の状態に応じて運転動作を補正するように構築されていてもよい。当該構成によれば、乗員の状況に応じて、運転の支援の動作を補正することができるようになる。 In the driving support device according to the one aspect, the learned learning device may be constructed so as to correct the driving motion according to the state of the person appearing in the image by the machine learning. According to this configuration, it becomes possible to correct the operation of the driving support according to the situation of the occupant.

上記一側面に係る運転支援装置において、前記学習済みの学習器は、前記機械学習により、画像に写る人物の表情に応じて運転動作を補正するように構築されていてもよい。当該構成によれば、乗員の表情に応じて、運転の支援の動作を補正することができるようになる。 In the driving support device according to the one aspect, the learned learning device may be constructed so as to correct the driving motion according to the facial expression of the person in the image by the machine learning. According to this configuration, it becomes possible to correct the driving support operation according to the facial expression of the occupant.

上記一側面に係る運転支援装置において、前記学習済みの学習器は、前記機械学習により、画像に写る人物の表情が怖がっていることに応じて前記運転の支援を軽減する又は打ち消す補正を行うように構築されていてもよい。当該構成によれば、乗員の表情が怖がっていることに応じて、その運転の支援の動作を軽減する又は取りやめることができるようになる。 In the driving support device according to the one aspect, the learned learner performs correction to reduce or cancel the driving support according to the fear of the facial expression of the person in the image by the machine learning. It may be built in. According to this configuration, the operation of supporting the driving can be reduced or canceled depending on the fear of the occupant's facial expression.

上記一側面に係る運転支援装置において、前記学習済みの学習器は、前記機械学習により、画像に写る人物のジェスチャに応じて運転動作を補正するように構築されていてもよい。当該構成によれば、乗員のジェスチャに応じて、運転の支援の動作を補正することができるようになる。 In the driving support device according to the one aspect, the learned learning device may be constructed so as to correct the driving motion according to the gesture of the person appearing in the image by the machine learning. According to this configuration, it becomes possible to correct the operation of the driving support according to the gesture of the occupant.

上記一側面に係る運転支援装置において、前記動作補正部は、運転者による前記車両の操作指令を示す操作情報を前記学習済みの学習器に更に入力し、当該学習済みの学習器の演算処理を実行することで、前記学習済みの学習器から前記補正値を取得してもよい。当該構成によれば、運転者の操作及び撮影画像に写る状況に応じて、運転の支援の動作を補正することができるようになる。 In the driving support device according to the one aspect, the motion correction unit further inputs operation information indicating an operation command of the vehicle by the driver to the learned learner, and performs arithmetic processing of the learned learner. By executing this, the correction value may be acquired from the learned learner. According to this configuration, it becomes possible to correct the operation of the driving support according to the operation of the driver and the situation reflected in the captured image.

上記一側面に係る運転支援装置において、前記運転動作の前記所定の属性は、ハンドルの操舵角、ブレーキ量、及びアクセル量の少なくともいずれかであってよい。当該構成によれば、撮影画像に写る状況に応じて、運転の支援の動作における、ハンドルの操舵角、ブレーキ量、及びアクセル量の少なくともいずれかを補正することができるようになる。 In the driving support device according to the one aspect, the predetermined attribute of the driving operation may be at least one of the steering angle of the steering wheel, the braking amount, and the accelerator amount. According to this configuration, at least one of the steering angle of the steering wheel, the amount of braking, and the amount of accelerator in the driving support operation can be corrected according to the situation shown in the captured image.

上記各形態に係る運転支援装置は、利用者の利用する対象装置の動作を制御するあらゆる場面に適用可能に変更されてもよい。 The driving support device according to each of the above modes may be changed so as to be applicable to any situation in which the operation of the target device used by the user is controlled.

例えば、本発明の一側面に係る動作制御装置は、対象装置に所定の動作を指示する指示コマンドであって、前記動作の所定の属性に関する指令値を含む指示コマンドに基づいて、前記対象装置の動作を制御する動作制御部と、前記対象装置を利用する利用者を撮影するように配置された撮影装置から撮影画像を取得する画像取得部と、画像に写る状況に応じて前記動作を補正するための機械学習を行った学習済みの学習器に前記撮影画像を入力し、当該学習済みの学習器の演算処理を実行することで、前記指示コマンドの指令値に対する補正値を当該学習済みの学習器から取得する動作補正部と、を備え、前記動作制御部は、取得した前記補正値により前記指令値を補正し、前記指令値を補正した後の指示コマンドに基づいて、前記対象装置の動作を制御する。 For example, the motion control device according to one aspect of the present invention is an instruction command for instructing a target device to perform a predetermined operation, and is based on an instruction command including a command value related to a predetermined attribute of the operation of the target device. An operation control unit that controls the operation, an image acquisition unit that acquires a photographed image from a photographing device arranged so as to photograph a user who uses the target device, and a motion control unit that acquires the photographed image, and corrects the operation according to the situation reflected in the image. By inputting the captured image into the learned learning device that has been machine-learned for the purpose and executing the arithmetic processing of the learned learning device, the correction value for the command value of the instruction command is corrected to the learned learning device. The operation correction unit includes an operation correction unit acquired from the device, the operation control unit corrects the command value by the acquired correction value, and operates the target device based on an instruction command after correcting the command value. To control.

なお、「対象装置」は、動作を制御可能なあらゆる装置を含んでもよく、例えば、製造ラインで利用される産業用ロボット、ベルトコンベア等を含んでもよい。「指令値」は、対象装置に供給されて、当該対象装置の動作の属性値を規定する。「所定の属性」は、対象装置の動作のあらゆる属性を含んでよく、例えば、産業用ロボット又はベルトコンベアのモータの駆動量等であってよい。 The "target device" may include any device whose operation can be controlled, and may include, for example, an industrial robot, a belt conveyor, or the like used in a production line. The "command value" is supplied to the target device and defines the attribute value of the operation of the target device. The “predetermined attribute” may include any attribute of the operation of the target device, and may be, for example, a driving amount of a motor of an industrial robot or a belt conveyor.

また、上記各形態に係る運転支援装置及び動作制御装置の別の態様として、以上の各構成を実現する情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記憶した、コンピュータその他装置、機械等が読み取り可能な記憶媒体であってもよい。ここで、コンピュータ等が読み取り可能な記憶媒体とは、プログラム等の情報を、電気的、磁気的、光学的、機械的、又は、化学的作用によって蓄積する媒体である。 Further, as another aspect of the driving support device and the operation control device according to each of the above modes, an information processing method or a program that realizes each of the above configurations may be used, or such a program may be used. It may be a stored storage medium that can be read by a computer or other device, machine, or the like. Here, the storage medium that can be read by a computer or the like is a medium that stores information such as a program by electrical, magnetic, optical, mechanical, or chemical action.

例えば、本発明の一側面に係る運転支援方法は、コンピュータが、車両の運転の支援を指示する支援コマンドであって、運転動作の所定の属性に関する指令値を含む支援コマンドに基づいて、前記車両の運転の支援を制御するステップと、前記車両に乗車した乗員を撮影するように配置された撮影装置から撮影画像を取得するステップと、画像に写る状況に応じて運転動作を補正するための機械学習を行った学習済みの学習器に前記撮影画像を入力し、当該学習済みの学習器の演算処理を実行することで、前記支援コマンドの前記指令値に対する補正値を当該学習済みの学習器から取得するステップと、取得した前記補正値により前記指令値を補正するステップと、前記指令値を補正した後の支援コマンドに基づいて、前記車両の運転の支援を制御するステップと、を実行する、情報処理方法である。 For example, the driving support method according to one aspect of the present invention is a support command in which a computer instructs a vehicle to support driving, and the vehicle is based on a support command including a command value related to a predetermined attribute of a driving operation. A step of controlling the driving support of the vehicle, a step of acquiring a photographed image from a photographing device arranged to photograph the occupant in the vehicle, and a machine for correcting the driving motion according to the situation reflected in the image. By inputting the captured image into the learned learning device that has been trained and executing the arithmetic processing of the learned learning device, the correction value for the command value of the support command is corrected from the learned learning device. The step of acquiring, the step of correcting the command value by the acquired correction value, and the step of controlling the driving support of the vehicle based on the support command after correcting the command value are executed. It is an information processing method.

また、例えば、本発明の一側面に係る運転支援プログラムは、コンピュータに、車両の運転の支援を指示する支援コマンドであって、運転動作の所定の属性に関する指令値を含む支援コマンドに基づいて、前記車両の運転の支援を制御するステップと、前記車両に乗車した乗員を撮影するように配置された撮影装置から撮影画像を取得するステップと、画像に写る状況に応じて運転動作を補正するための機械学習を行った学習済みの学習器に前記撮影画像を入力し、当該学習済みの学習器の演算処理を実行することで、前記支援コマンドの前記指令値に対する補正値を当該学習済みの学習器から取得するステップと、取得した前記補正値により前記指令値を補正するステップと、前記指令値を補正した後の支援コマンドに基づいて、前記車両の運転の支援を制御するステップと、を実行させるための、プログラムである。 Further, for example, the driving support program according to one aspect of the present invention is a support command for instructing a computer to support driving of a vehicle, and is based on a support command including a command value related to a predetermined attribute of driving operation. A step of controlling the driving support of the vehicle, a step of acquiring a photographed image from a photographing device arranged to photograph an occupant in the vehicle, and a step of correcting the driving operation according to the situation reflected in the image. By inputting the captured image into the learned learning device that has undergone machine learning and executing the arithmetic processing of the learned learning device, the correction value for the command value of the support command is corrected to the learned learning device. The step of acquiring the command value from the device, the step of correcting the command value by the acquired correction value, and the step of controlling the driving support of the vehicle based on the support command after correcting the command value are executed. It is a program to make it.

また、例えば、本発明の一側面に係る動作制御方法は、コンピュータが、対象装置に所定の動作を指示する指示コマンドであって、前記動作の所定の属性に関する指令値を含む指示コマンドに基づいて、前記対象装置の動作を制御するステップと、前記対象装置を利用する利用者を撮影するように配置された撮影装置から撮影画像を取得するステップと、画像に写る状況に応じて前記動作を補正するための機械学習を行った学習済みの学習器に前記撮影画像を入力し、当該学習済みの学習器の演算処理を実行することで、前記指示コマンドの指令値に対する補正値を当該学習済みの学習器から取得するステップと、取得した前記補正値により前記指令値を補正するステップと、前記指令値を補正した後の指示コマンドに基づいて、前記対象装置の動作を制御するステップと、を実行する、情報処理方法である。 Further, for example, the operation control method according to one aspect of the present invention is an instruction command in which a computer instructs a target device to perform a predetermined operation, and is based on an instruction command including a command value relating to a predetermined attribute of the operation. , A step of controlling the operation of the target device, a step of acquiring a captured image from a photographing device arranged to photograph a user using the target device, and correcting the operation according to the situation reflected in the image. By inputting the captured image into the trained learner that has been machine-learned to perform the operation and executing the arithmetic processing of the trained learner, the correction value for the command value of the instruction command has been learned. A step of acquiring the command value from the learner, a step of correcting the command value by the acquired correction value, and a step of controlling the operation of the target device based on an instruction command after correcting the command value are executed. It is an information processing method.

また、例えば、本発明の一側面に係る動作制御プログラムは、コンピュータに、対象装置に所定の動作を指示する指示コマンドであって、前記動作の所定の属性に関する指令値を含む指示コマンドに基づいて、前記対象装置の動作を制御するステップと、前記対象装置を利用する利用者を撮影するように配置された撮影装置から撮影画像を取得するステップと、画像に写る状況に応じて前記動作を補正するための機械学習を行った学習済みの学習器に前記撮影画像を入力し、当該学習済みの学習器の演算処理を実行することで、前記指示コマンドの指令値に対する補正値を当該学習済みの学習器から取得するステップと、取得した前記補正値により前記指令値を補正するステップと、前記指令値を補正した後の指示コマンドに基づいて、前記対象装置の動作を制御するステップと、を実行させるための、プログラムである。 Further, for example, the operation control program according to one aspect of the present invention is an instruction command for instructing a target device to perform a predetermined operation based on an instruction command including a command value related to a predetermined attribute of the operation. , A step of controlling the operation of the target device, a step of acquiring a captured image from a photographing device arranged to photograph a user using the target device, and correcting the operation according to the situation reflected in the image. By inputting the captured image into the trained learner that has been machine-learned to perform the operation and executing the arithmetic processing of the trained learner, the correction value for the command value of the instruction command has been learned. A step of acquiring the command value from the learner, a step of correcting the command value by the acquired correction value, and a step of controlling the operation of the target device based on an instruction command after correcting the command value are executed. It is a program to make it.

本発明によれば、簡便かつ効率的な方法で対象装置の動作を制御する態様にバリエーションを持たせる技術を提供することができる。 According to the present invention, it is possible to provide a technique for giving variation to a mode of controlling the operation of a target device by a simple and efficient method.

図1は、本発明が適用される場面の一例を模式的に例示する。FIG. 1 schematically illustrates an example of a situation in which the present invention is applied. 図2は、実施の形態に係る運転支援装置のハードウェア構成の一例を模式的に例示する。FIG. 2 schematically illustrates an example of the hardware configuration of the driving support device according to the embodiment. 図3は、実施の形態に係る学習装置のハードウェア構成の一例を模式的に例示する。FIG. 3 schematically illustrates an example of the hardware configuration of the learning device according to the embodiment. 図4は、実施の形態に係る運転支援装置のソフトウェア構成の一例を模式的に例示する。FIG. 4 schematically illustrates an example of the software configuration of the driving support device according to the embodiment. 図5は、実施の形態に係る学習装置のソフトウェア構成の一例を模式的に例示する。FIG. 5 schematically illustrates an example of the software configuration of the learning device according to the embodiment. 図6は、実施の形態に係る運転支援装置の処理手順の一例を例示する。FIG. 6 illustrates an example of the processing procedure of the driving support device according to the embodiment. 図7は、実施の形態に係る学習装置の処理手順の一例を例示する。FIG. 7 illustrates an example of the processing procedure of the learning device according to the embodiment. 図8は、本発明が適用される他の場面の一例を模式的に例示する。FIG. 8 schematically illustrates an example of another situation to which the present invention is applied. 図9は、他の形態に係る動作制御装置のハードウェア構成の一例を模式的に例示する。FIG. 9 schematically illustrates an example of the hardware configuration of the motion control device according to another form. 図10は、他の形態に係る動作制御装置のソフトウェア構成の一例を模式的に例示する。FIG. 10 schematically illustrates an example of the software configuration of the motion control device according to another form.

以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。 Hereinafter, embodiments according to one aspect of the present invention (hereinafter, also referred to as “the present embodiment”) will be described with reference to the drawings. However, the embodiments described below are merely examples of the present invention in all respects. Needless to say, various improvements and modifications can be made without departing from the scope of the present invention. That is, in carrying out the present invention, a specific configuration according to the embodiment may be appropriately adopted. The data appearing in the present embodiment are described in natural language, but more specifically, the data is specified in a pseudo language, a command, a parameter, a machine language, etc. that can be recognized by a computer.

§1 適用例
まず、本発明の基本的な構成の一例について説明する。対象装置の動作を制御する態様にバリエーションを持たせるため、所望の動作を個々のユーザから受け付けるシステムを構築すると、次のような問題が生じ得る。すなわち、個別の状況に適した動作を入力したり、入力した動作内容を登録したりする等の手間がかかってしまい、また、個別の状況に応じてこのような登録作業を行う分だけ非効率である。
§1 Application example First, an example of the basic configuration of the present invention will be described. In order to give variation in the mode of controlling the operation of the target device, if a system that accepts a desired operation from an individual user is constructed, the following problems may occur. That is, it takes time and effort to input an operation suitable for an individual situation and to register the input operation content, and it is inefficient because such registration work is performed according to an individual situation. Is.

そこで、本発明の一例では、対象装置に所定の動作を指示する指示コマンドであって、当該動作の所定の属性に関する指令値を含む指示コマンドに基づいて、対象装置の動作を制御する。対象装置は、動作を制御可能なあらゆる装置を含んでよい。指令値は、対象装置に供給されて、当該対象装置の動作の属性値を規定する。所定の属性は、対象装置の動作のあらゆる属性を含んでよい。 Therefore, in one example of the present invention, the operation of the target device is controlled based on an instruction command that instructs the target device to perform a predetermined operation and includes a command value related to a predetermined attribute of the operation. The target device may include any device whose operation can be controlled. The command value is supplied to the target device and defines the attribute value of the operation of the target device. A given attribute may include any attribute of the operation of the target device.

次に、対象装置を利用する利用者を撮影するように配置された撮影装置から撮影画像を取得する。続いて、画像に写る状況に応じて対象装置の動作を補正するための機械学習を行った学習済みの学習器に取得した撮影画像を入力し、当該学習済みの学習器の演算処理を実行することで、指示コマンドの指令値に対する補正値を当該学習済みの学習器から取得する。そして、取得した補正値により指令値を補正し、指令値を補正した後の指示コマンドに基づいて、対象装置の動作を制御する。 Next, a photographed image is acquired from a photographing device arranged so as to photograph a user who uses the target device. Subsequently, the acquired captured image is input to the learned learning device that has undergone machine learning to correct the operation of the target device according to the situation reflected in the image, and the arithmetic processing of the learned learning device is executed. As a result, the correction value for the command value of the instruction command is acquired from the learned learner. Then, the command value is corrected by the acquired correction value, and the operation of the target device is controlled based on the instruction command after the command value is corrected.

これにより、本発明の一例では、学習済みの学習器を利用することで、対象装置に所定の動作を指示する指示コマンドの指令値に対して、利用者を撮影するように配置された撮影装置から得られた撮影画像に写る個々の状況に応じた異なる補正値を得ることができる。この補正値を適用することで、対象装置の動作のバリエーションを実現することができるため、個々の状況に適した動作の入力を行う手間を省略することができる。また、本発明の一例では、学習済みの学習器から得られる補正値を利用して動作のバリエーションを実現しているため、個々の状況に適した動作を個別に一から生成しなくてもよく、効率的に対象装置の動作にバリエーションを持たせることができる。したがって、本発明の一例によれば、簡便かつ効率的な方法で対象装置の動作を制御する態様にバリエーションを持たせることができる。 Thereby, in one example of the present invention, by using the learned learner, a photographing device arranged to photograph the user with respect to the command value of the instruction command instructing the target device to perform a predetermined operation. It is possible to obtain different correction values according to the individual situations reflected in the captured image obtained from the above. By applying this correction value, it is possible to realize variations in the operation of the target device, so that it is possible to save the trouble of inputting the operation suitable for each situation. Further, in the example of the present invention, since the variation of the operation is realized by using the correction value obtained from the learned learner, it is not necessary to individually generate the operation suitable for each situation from scratch. , It is possible to efficiently give variation to the operation of the target device. Therefore, according to an example of the present invention, it is possible to have variations in the mode of controlling the operation of the target device by a simple and efficient method.

次に、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本発明の車両の運転支援に適用した場面の一例を模式的に例示する。ただし、本発明の適用範囲は、以下で説明する車両の運転支援の例に限られる訳ではない。本発明は、対象装置の動作を支援するあらゆる場面に適用可能である。 Next, an example of a situation in which the present invention is applied will be described with reference to FIG. FIG. 1 schematically illustrates an example of a scene applied to the driving support of the vehicle of the present invention. However, the scope of application of the present invention is not limited to the example of vehicle driving support described below. The present invention can be applied to any situation that supports the operation of the target device.

図1で例示される運転支援装置1は、車両100の運転の支援を制御するように構成されたコンピュータである。本実施形態に係る運転支援装置1は、車両100の運転の支援を指示する支援コマンドであって、運転動作の所定の属性に関する指令値を含む支援コマンドに基づいて、車両100の運転の支援を制御する。車両100は、本発明の「対象装置」の一例である。運転の支援は、本発明の「所定の動作」の一例である。支援コマンドは、本発明の「指示コマンド」の一例である。 The driving support device 1 illustrated in FIG. 1 is a computer configured to control the driving support of the vehicle 100. The driving support device 1 according to the present embodiment is a support command for instructing the driving support of the vehicle 100, and supports the driving of the vehicle 100 based on the support command including the command value related to a predetermined attribute of the driving operation. Control. The vehicle 100 is an example of the "target device" of the present invention. Driving assistance is an example of the "predetermined operation" of the present invention. The support command is an example of the "instruction command" of the present invention.

ここで、運転の支援は、運転の動作に対するあらゆる支援を含んでよく、例えば、手動運転モード中における運転者Dの運転操作の補助を含んでもよい。補助の対象となる運転操作の一例として、ハンドルの操作、ブレーキの操作、アクセルの操作等を挙げることができる。また、車両100が運転者Dの運転操作によらない自動運転モードを実施可能に構成されている場合、運転の支援には、自動運転モードの実施が含まれてもよい。この運転の支援を指示する支援コマンドの指令値により規定される運転動作の所定の属性は、例えば、車両100のハンドルの操舵角、ブレーキ量、及びアクセル量の少なくともいずれかであってよい。 Here, the driving assistance may include any assistance for the driving operation, and may include, for example, assisting the driving operation of the driver D in the manual driving mode. Examples of driving operations to be assisted include steering wheel operation, brake operation, accelerator operation, and the like. Further, when the vehicle 100 is configured to be able to execute an automatic driving mode that does not depend on the driving operation of the driver D, the driving support may include the implementation of the automatic driving mode. The predetermined attribute of the driving operation defined by the command value of the support command instructing the driving assistance may be, for example, at least one of the steering angle of the steering wheel of the vehicle 100, the brake amount, and the accelerator amount.

また、運転支援装置1は、車両100に乗車した乗員を撮影するように配置されたカメラ32から撮影画像を取得する。カメラ32は、本発明の「撮影装置」の一例である。図1の例では、カメラ32は、運転者Dを撮影可能に配置されている。しかしながら、カメラ32の配置は、このような例に限定されなくてもよい。撮影の対象となる乗員は、車両100内に存在するあらゆる人物を対象としてもよく、運転席に着いた運転者Dの他、運転席以外の席に着いた乗員を含んでもよい。 Further, the driving support device 1 acquires a photographed image from a camera 32 arranged so as to photograph an occupant in the vehicle 100. The camera 32 is an example of the "photographing device" of the present invention. In the example of FIG. 1, the camera 32 is arranged so that the driver D can be photographed. However, the arrangement of the camera 32 does not have to be limited to such an example. The occupant to be photographed may be any person existing in the vehicle 100, and may include a driver D who is in the driver's seat and an occupant who is in a seat other than the driver's seat.

続いて、運転支援装置1は、画像に写る状況に応じて運転動作を補正するための機械学習を行った学習済みの学習器(後述するニューラルネットワーク6)に撮影画像を入力し、学習済みの学習器の演算処理を実行する。これにより、運転支援装置1は、支援コマンドの指令値に対する補正値を学習済みの学習器から取得する。なお、この学習済みの学習器は、「識別器」又は「分類器」と称されてもよい。 Subsequently, the driving support device 1 inputs a captured image into a learned learning device (neural network 6 described later) that has been machine-learned to correct the driving motion according to the situation reflected in the image, and has learned the image. Executes the arithmetic processing of the learner. As a result, the driving support device 1 acquires the correction value for the command value of the support command from the learned learner. The learned learner may be referred to as a "discriminator" or a "classifier".

そして、運転支援装置1は、取得した補正値により指令値を補正し、指令値を補正した後の支援コマンドに基づいて、車両100の運転の支援を制御する。例えば、補正の対象となる指令値により規定される運転動作の属性が車両100のアクセル量である場合、運転支援装置1は、学習済みの学習器から取得した補正値により車両100のアクセル量を補正(変更)する。 Then, the driving support device 1 corrects the command value based on the acquired correction value, and controls the driving support of the vehicle 100 based on the support command after the command value is corrected. For example, when the attribute of the driving operation defined by the command value to be corrected is the accelerator amount of the vehicle 100, the driving support device 1 adjusts the accelerator amount of the vehicle 100 by the correction value acquired from the learned learner. Correct (change).

一方、本実施形態に係る学習装置2は、運転支援装置1で利用する学習器を構築する、すなわち、入力された撮影画像に写る状況に応じて運転動作の補正値を出力するように学習器の機械学習を実施するコンピュータである。具体的には、学習装置2は、撮影画像(本実施形態では、操作情報を更に含む)と補正値との組み合わせを学習用データセットとして取得する。これらのうち、撮影画像は入力データ(訓練データ)として利用され、補正値は教師データ(正解データ)として利用される。つまり、学習装置2は、撮影画像を入力すると支援コマンドの指令値に対する補正値を出力するように学習器(後述するニューラルネットワーク7)を学習させる。 On the other hand, the learning device 2 according to the present embodiment constructs the learning device used in the driving support device 1, that is, the learning device outputs the correction value of the driving operation according to the situation reflected in the input captured image. It is a computer that carries out machine learning. Specifically, the learning device 2 acquires a combination of a captured image (in this embodiment, further including operation information) and a correction value as a learning data set. Of these, the captured image is used as input data (training data), and the correction value is used as teacher data (correct answer data). That is, the learning device 2 trains the learning device (neural network 7 described later) so as to output a correction value for the command value of the support command when the captured image is input.

これにより、学習装置2は、運転支援装置1で利用する学習済みの学習器を作成することができる。運転支援装置1は、例えば、ネットワークを介して、学習装置2により作成された学習済みの学習器を取得することができる。なお、ネットワークの種類は、例えば、インターネット、無線通信網、移動通信網、電話網、専用網等から適宜選択されてよい。 As a result, the learning device 2 can create a learned learning device to be used in the driving support device 1. The driving support device 1 can acquire the learned learner created by the learning device 2 via the network, for example. The network type may be appropriately selected from, for example, the Internet, a wireless communication network, a mobile communication network, a telephone network, a dedicated network, and the like.

以上のとおり、本実施形態によれば、学習済みの学習器を利用することで、車両100の運転の支援を指示する支援コマンドの指令値に対して、乗員を撮影するように配置されたカメラ32から得られた撮影画像に写る個々の状況に応じた異なる補正値を得ることができる。支援コマンドの指令値にこの補正値を適用することで、運転を支援する動作のバリエーションを実現することができるため、個々の状況に適した動作の入力を行う手間を省略することができる。加えて、本実施形態では、運転を支援する動作のテンプレートを用意すれば、その用意したテンプレートに補正値を適用することで、運転を支援する動作のバリエーションを実現することができる。そのため、個々の状況に適した運転を支援する動作を個別に一から生成しなくてもよく、当該運転を支援する動作に効率的にバリエーションを持たせることができる。したがって、本実施形態によれば、簡便かつ効率的な方法で運転を支援する態様にバリエーションを持たせることができ、これにより、個々のユーザ、車両の特性等に起因する個別の状況に適した運転の支援を実現することができる。 As described above, according to the present embodiment, by using the learned learner, a camera arranged to photograph the occupant with respect to the command value of the support command instructing the driving support of the vehicle 100. It is possible to obtain different correction values according to the individual situations reflected in the captured image obtained from 32. By applying this correction value to the command value of the support command, it is possible to realize a variation of the operation that supports the driving, so that it is possible to save the trouble of inputting the operation suitable for each situation. In addition, in the present embodiment, if a template for an operation that supports driving is prepared, a variation of the operation that supports driving can be realized by applying a correction value to the prepared template. Therefore, it is not necessary to individually generate an operation that supports driving suitable for each situation from scratch, and it is possible to efficiently give variations to the operation that supports the operation. Therefore, according to the present embodiment, it is possible to have variations in the mode of supporting driving in a simple and efficient manner, which is suitable for individual situations caused by individual users, vehicle characteristics, and the like. Driving support can be realized.

§2 構成例
[ハードウェア構成]
<運転支援装置>
次に、図2を用いて、本実施形態に係る運転支援装置1のハードウェア構成の一例について説明する。図2は、本実施形態に係る運転支援装置1のハードウェア構成の一例を模式的に例示する。
§2 Configuration example [Hardware configuration]
<Driving support device>
Next, an example of the hardware configuration of the driving support device 1 according to the present embodiment will be described with reference to FIG. FIG. 2 schematically illustrates an example of the hardware configuration of the driving support device 1 according to the present embodiment.

図2に示されるとおり、本実施形態に係る運転支援装置1は、制御部11、記憶部12、及び外部インタフェース13が電気的に接続されたコンピュータである。なお、図2では、外部インタフェースを「外部I/F」と記載している。 As shown in FIG. 2, the driving support device 1 according to the present embodiment is a computer to which the control unit 11, the storage unit 12, and the external interface 13 are electrically connected. In FIG. 2, the external interface is described as "external I / F".

制御部11は、ハードウェアプロセッサであるCPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、プログラム及び各種データに基づいて情報処理を実行するように構成される。記憶部12は、メモリの一例であり、例えば、RAM、ROM等で構成される。本実施形態では、記憶部12は、運転支援プログラム121、学習結果データ122等の各種情報を記憶する。 The control unit 11 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like, which are hardware processors, and is configured to execute information processing based on a program and various data. NS. The storage unit 12 is an example of a memory, and is composed of, for example, a RAM, a ROM, or the like. In the present embodiment, the storage unit 12 stores various information such as the driving support program 121 and the learning result data 122.

運転支援プログラム121は、車両100の運転の支援を制御する後述の情報処理(図6)を運転支援装置1に実行させるためのプログラムであり、当該情報処理の一連の命令を含む。学習結果データ122は、運転支援装置1において利用する学習済みの学習器の設定を行うためのデータである。詳細は後述する。 The driving support program 121 is a program for causing the driving support device 1 to execute information processing (FIG. 6) described later that controls driving support of the vehicle 100, and includes a series of instructions for the information processing. The learning result data 122 is data for setting the learned learning device used in the driving support device 1. Details will be described later.

外部インタフェース13は、外部装置と接続するためのインタフェースであり、接続する外部装置に応じて適宜構成される。本実施形態では、外部インタフェース13は、例えば、CAN(Controller Area Network)を介して、ナビゲーション装置30、操作部31、及びカメラ32に接続される。 The external interface 13 is an interface for connecting to an external device, and is appropriately configured according to the external device to be connected. In the present embodiment, the external interface 13 is connected to the navigation device 30, the operation unit 31, and the camera 32 via, for example, CAN (Controller Area Network).

ナビゲーション装置30は、車両100の走行時に経路案内を行うコンピュータである。ナビゲーション装置30には、公知のカーナビゲーション装置が用いられてよい。ナビゲーション装置30は、GPS(Global Positioning System)信号に基づいて自車位置を測定し、地図情報及び周辺の建物等に関する周辺情報を利用して、経路案内を行うように構成される。なお、以下では、GPS信号に基づいて測定される自車位置を示す情報を「GPS情報」と称する。 The navigation device 30 is a computer that provides route guidance when the vehicle 100 is traveling. A known car navigation device may be used as the navigation device 30. The navigation device 30 is configured to measure the position of the own vehicle based on a GPS (Global Positioning System) signal and provide route guidance by using map information and peripheral information related to surrounding buildings and the like. In the following, information indicating the position of the own vehicle measured based on the GPS signal will be referred to as "GPS information".

操作部31は、例えば、ハンドル、アクセル、ブレーキ、操作パネル等であり、車両100の運転操作に利用される。操作部31の種類は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。運転支援装置1は、外部インタフェース13を介して操作部31と接続されることで、運転者Dによる操作部31に対する運転操作に応じた操作指令の内容を示す操作情報を取得することができる。 The operation unit 31 is, for example, a steering wheel, an accelerator, a brake, an operation panel, or the like, and is used for driving the vehicle 100. The type of the operation unit 31 does not have to be particularly limited, and may be appropriately selected according to the embodiment. By connecting the driving support device 1 to the operation unit 31 via the external interface 13, it is possible to acquire operation information indicating the content of an operation command corresponding to the operation operation of the operation unit 31 by the driver D.

カメラ32は、車両100に乗車した乗員を撮影するように配置される。図1の例では、カメラ32は、少なくとも運転者Dの上半身を撮影範囲とするように、運転席の前方上方に配置されている。しかしながら、カメラ32の配置場所は、このような例に限定されなくてもよく、運転者D、運転者D以外の他の乗員等の車両100に乗車した乗員を撮影可能であれば、実施の形態に応じて適宜決定されてよい。なお、カメラ32には、一般のデジタルカメラ、ビデオカメラ等が用いられてよい。運転支援装置1は、外部インタフェース13を介してカメラ32に接続されることで、乗員の状態を含む車内の状況が写る撮影画像をカメラ32から取得することができる。 The camera 32 is arranged so as to photograph an occupant in the vehicle 100. In the example of FIG. 1, the camera 32 is arranged above the front of the driver's seat so that at least the upper body of the driver D is the shooting range. However, the location of the camera 32 does not have to be limited to such an example, and if it is possible to photograph an occupant in the vehicle 100 such as a driver D and an occupant other than the driver D, the camera 32 may be arranged. It may be appropriately determined according to the form. A general digital camera, a video camera, or the like may be used as the camera 32. By connecting the driving support device 1 to the camera 32 via the external interface 13, it is possible to acquire a captured image of the situation inside the vehicle including the state of the occupant from the camera 32.

外部インタフェース13には、上記以外の外部装置が接続されてよい。例えば、外部インタフェース13には、ネットワークを介してデータ通信を行うための通信モジュールが接続されてもよい。外部インタフェース13に接続する外部装置は、上記の各装置に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。また、図2の例では、運転支援装置1は、1つの外部インタフェース13を備えている。しかしながら、外部インタフェース13は、接続する外部装置毎に設けられてもよい。外部インタフェース13の数は、実施の形態に応じて適宜選択可能である。 An external device other than the above may be connected to the external interface 13. For example, a communication module for performing data communication via a network may be connected to the external interface 13. The external device connected to the external interface 13 does not have to be limited to each of the above devices, and may be appropriately selected according to the embodiment. Further, in the example of FIG. 2, the driving support device 1 includes one external interface 13. However, the external interface 13 may be provided for each external device to be connected. The number of external interfaces 13 can be appropriately selected according to the embodiment.

なお、運転支援装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部11は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA(field-programmable gate array)、ECU(Electronic Control Unit)等で構成されてよい。記憶部12は、制御部11に含まれるRAM及びROMにより構成されてもよい。記憶部12は、ハードディスクドライブ、ソリッドステートドライブ等の補助記憶装置で構成されてもよい。また、運転支援装置1には、提供されるサービス専用に設計された情報処理装置の他、汎用のコンピュータが用いられてもよい。 Regarding the specific hardware configuration of the driving support device 1, the components can be omitted, replaced, or added as appropriate according to the embodiment. For example, the control unit 11 may include a plurality of hardware processors. The hardware processor may be composed of a microprocessor, an FPGA (field-programmable gate array), an ECU (Electronic Control Unit), or the like. The storage unit 12 may be composed of a RAM and a ROM included in the control unit 11. The storage unit 12 may be composed of an auxiliary storage device such as a hard disk drive or a solid state drive. Further, as the driving support device 1, a general-purpose computer may be used in addition to the information processing device designed exclusively for the provided service.

<学習装置>
次に、図3を用いて、本実施形態に係る学習装置2のハードウェア構成の一例について説明する。図3は、本実施形態に係る学習装置2のハードウェア構成の一例を模式的に例示する。
<Learning device>
Next, an example of the hardware configuration of the learning device 2 according to the present embodiment will be described with reference to FIG. FIG. 3 schematically illustrates an example of the hardware configuration of the learning device 2 according to the present embodiment.

図3に示されるとおり、本実施形態に係る学習装置2は、制御部21、記憶部22、通信インタフェース23、入力装置24、出力装置25、及びドライブ26が電気的に接続されたコンピュータである。なお、図3では、通信インタフェースを「通信I/F」と記載している。 As shown in FIG. 3, the learning device 2 according to the present embodiment is a computer to which the control unit 21, the storage unit 22, the communication interface 23, the input device 24, the output device 25, and the drive 26 are electrically connected. .. In FIG. 3, the communication interface is described as "communication I / F".

制御部21は、上記制御部11と同様に、ハードウェアプロセッサであるCPU、RAM、ROM等を含み、プログラム及び各種データに基づいて情報処理を実行するように構成される。記憶部22は、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成される。記憶部22は、制御部21で実行される学習プログラム221、学習器の機械学習に利用する学習用データセット222、学習プログラム221を実行して作成した学習結果データ122等の各種情報を記憶する。 Like the control unit 11, the control unit 21 includes a CPU, RAM, ROM, etc., which are hardware processors, and is configured to execute information processing based on a program and various data. The storage unit 22 is composed of, for example, a hard disk drive, a solid state drive, or the like. The storage unit 22 stores various information such as the learning program 221 executed by the control unit 21, the learning data set 222 used for machine learning of the learning device, and the learning result data 122 created by executing the learning program 221. ..

学習プログラム221は、後述する機械学習の処理(図7)を学習装置2に実行させ、当該機械学習の結果として学習結果データ122を生成させるためのプログラムである。学習用データセット222は、画像に写る状況に応じて運転動作の補正値を決定する能力を学習器に習得させるための機械学習に利用されるデータである。詳細は後述する。 The learning program 221 is a program for causing the learning device 2 to execute a machine learning process (FIG. 7) described later, and to generate learning result data 122 as a result of the machine learning. The learning data set 222 is data used for machine learning for making the learner acquire the ability to determine the correction value of the driving motion according to the situation shown in the image. Details will be described later.

通信インタフェース23は、例えば、有線LAN(Local Area Network)モジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインタフェースである。学習装置2は、当該通信インタフェース23を介して、作成した学習結果データ122を外部の装置に配信してもよい。 The communication interface 23 is, for example, a wired LAN (Local Area Network) module, a wireless LAN module, or the like, and is an interface for performing wired or wireless communication via a network. The learning device 2 may distribute the created learning result data 122 to an external device via the communication interface 23.

入力装置24は、例えば、マウス、キーボード等の入力を行うための装置である。また、出力装置25は、例えば、ディスプレイ、スピーカ等の出力を行うための装置である。オペレータは、入力装置24及び出力装置25を介して、学習装置2を操作することができる。 The input device 24 is, for example, a device for inputting a mouse, a keyboard, or the like. The output device 25 is, for example, a device for outputting a display, a speaker, or the like. The operator can operate the learning device 2 via the input device 24 and the output device 25.

ドライブ26は、例えば、CDドライブ、DVDドライブ等であり、記憶媒体92に記憶されたプログラムを読み込むためのドライブ装置である。ドライブ26の種類は、記憶媒体92の種類に応じて適宜選択されてよい。上記学習プログラム221及び学習用データセット222は、この記憶媒体92に記憶されていてもよい。 The drive 26 is, for example, a CD drive, a DVD drive, or the like, and is a drive device for reading a program stored in the storage medium 92. The type of the drive 26 may be appropriately selected according to the type of the storage medium 92. The learning program 221 and the learning data set 222 may be stored in the storage medium 92.

記憶媒体92は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。学習装置2は、この記憶媒体92から、上記学習プログラム221及び学習用データセット222を取得してもよい。 The storage medium 92 stores the information of the program or the like by electrical, magnetic, optical, mechanical or chemical action so that the information of the program or the like recorded by the computer or other device, the machine or the like can be read. It is a medium to do. The learning device 2 may acquire the learning program 221 and the learning data set 222 from the storage medium 92.

ここで、図3では、記憶媒体92の一例として、CD、DVD等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体92の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。 Here, FIG. 3 illustrates a disc-type storage medium such as a CD or DVD as an example of the storage medium 92. However, the type of the storage medium 92 is not limited to the disc type, and may be other than the disc type. Examples of storage media other than the disk type include semiconductor memories such as flash memories.

なお、学習装置2の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部21は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA、ECU等で構成されてよい。学習装置2は、複数台の情報処理装置で構成されてもよい。また、学習装置2には、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、PC等が用いられてもよい。 Regarding the specific hardware configuration of the learning device 2, the components can be omitted, replaced, or added as appropriate according to the embodiment. For example, the control unit 21 may include a plurality of hardware processors. The hardware processor may be composed of a microprocessor, FPGA, ECU and the like. The learning device 2 may be composed of a plurality of information processing devices. Further, as the learning device 2, in addition to an information processing device designed exclusively for the provided service, a general-purpose server device, a PC, or the like may be used.

[ソフトウェア構成]
<運転支援装置>
次に、図4を用いて、本実施形態に係る運転支援装置1のソフトウェア構成の一例について説明する。図4は、本実施形態に係る運転支援装置1のソフトウェア構成の一例を模式的に例示する。
[Software configuration]
<Driving support device>
Next, an example of the software configuration of the driving support device 1 according to the present embodiment will be described with reference to FIG. FIG. 4 schematically illustrates an example of the software configuration of the driving support device 1 according to the present embodiment.

運転支援装置1の制御部11は、記憶部12に記憶された運転支援プログラム121をRAMに展開する。そして、制御部11は、RAMに展開された運転支援プログラム121をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図4に示されるとおり、本実施形態に係る運転支援装置1は、運転制御部111、画像取得部112、及び動作補正部113をソフトウェアモジュールとして備えるコンピュータとして動作する。 The control unit 11 of the driving support device 1 expands the driving support program 121 stored in the storage unit 12 into the RAM. Then, the control unit 11 interprets and executes the driving support program 121 expanded in the RAM by the CPU to control each component. As a result, as shown in FIG. 4, the operation support device 1 according to the present embodiment operates as a computer including an operation control unit 111, an image acquisition unit 112, and an operation correction unit 113 as software modules.

運転制御部111は、車両100の運転の支援を指示する支援コマンド50であって、運転動作の所定の属性に関する指令値を含む支援コマンド50に基づいて、車両100の運転の支援を制御する。実施する支援の内容は、実施の形態に応じて適宜決定されてよい。例えば、運転制御部111は、運転者Dによる車両100の操作部31に対する運転操作に応じた操作指令の内容を示す操作情報51を取得してもよい。そして、運転制御部111は、取得した操作情報51により示される操作指令の内容に基づいて、実行する支援コマンド50の種類を決定してもよい。 The driving control unit 111 controls the driving support of the vehicle 100 based on the support command 50 that instructs the driving support of the vehicle 100 and includes the command value related to a predetermined attribute of the driving operation. The content of the support to be implemented may be appropriately determined according to the embodiment. For example, the driving control unit 111 may acquire the operation information 51 indicating the content of the operation command corresponding to the driving operation of the driver D to the operation unit 31 of the vehicle 100. Then, the operation control unit 111 may determine the type of the support command 50 to be executed based on the content of the operation command indicated by the acquired operation information 51.

画像取得部112は、車両100に乗車した乗員を撮影するように配置されたカメラ32から撮影画像52を取得する。動作補正部113は、画像に写る状況に応じて運転動作を補正するための機械学習を行った学習済みのニューラルネットワーク6を学習済みの学習器として含む。ニューラルネットワーク6は、本発明の「学習器」の一例である。動作補正部113は、学習済みのニューラルネットワーク6に操作情報51及び撮影画像52を入力し、学習済みのニューラルネットワーク6の演算処理を実行する。これにより、動作補正部113は、支援コマンド50の指令値に対する補正値53を学習済みのニューラルネットワーク6から取得する。運転制御部111は、取得した補正値により支援コマンド50の指令値を補正し、指令値を補正した後の支援コマンド50に基づいて、車両100の運転の支援を制御する。 The image acquisition unit 112 acquires the captured image 52 from the camera 32 arranged so as to photograph the occupant in the vehicle 100. The motion correction unit 113 includes a trained neural network 6 that has been machine-learned to correct the driving motion according to the situation reflected in the image as a trained learner. The neural network 6 is an example of the "learner" of the present invention. The motion correction unit 113 inputs the operation information 51 and the captured image 52 to the trained neural network 6, and executes the arithmetic processing of the trained neural network 6. As a result, the motion correction unit 113 acquires the correction value 53 with respect to the command value of the support command 50 from the trained neural network 6. The operation control unit 111 corrects the command value of the support command 50 with the acquired correction value, and controls the driving support of the vehicle 100 based on the support command 50 after the command value is corrected.

(学習器)
次に、学習器の一例であるニューラルネットワーク6について説明する。図4に示されるとおり、本実施形態に係るニューラルネットワーク6は、いわゆる深層学習に用いられる多層構造のニューラルネットワークであり、入力から順に、入力層61、中間層(隠れ層)62、及び出力層63を備えている。
(Learning device)
Next, the neural network 6 which is an example of the learner will be described. As shown in FIG. 4, the neural network 6 according to the present embodiment is a neural network having a multi-layer structure used for so-called deep learning, and is an input layer 61, an intermediate layer (hidden layer) 62, and an output layer in order from the input. It has 63.

なお、図4の例では、ニューラルネットワーク6は、1層の中間層62を備えており、入力層61の出力が中間層62に入力され、中間層62の出力が出力層63に入力されている。ただし、中間層62の数は、1層に限られなくてもよく、ニューラルネットワーク6は、2層以上の中間層62を備えてもよい。 In the example of FIG. 4, the neural network 6 includes a one-layer intermediate layer 62, the output of the input layer 61 is input to the intermediate layer 62, and the output of the intermediate layer 62 is input to the output layer 63. There is. However, the number of intermediate layers 62 is not limited to one, and the neural network 6 may include two or more intermediate layers 62.

各層61〜63は、1又は複数のニューロンを備えている。例えば、入力層61のニューロンの数は、入力される操作情報51及び撮影画像52に応じて設定することができる。中間層62のニューロンの数は、実施の形態に応じて適宜設定することができる。また、出力層63のニューロンの数は、補正値53に応じて設定することができる。 Each layer 61-63 comprises one or more neurons. For example, the number of neurons in the input layer 61 can be set according to the input operation information 51 and the captured image 52. The number of neurons in the intermediate layer 62 can be appropriately set according to the embodiment. Further, the number of neurons in the output layer 63 can be set according to the correction value 53.

隣接する層のニューロン同士は適宜結合され、各結合には重み(結合荷重)は機械学習の結果に基づいて設定される。図4の例では、各ニューロンは、隣接する層の全てのニューロンと結合されているが、ニューロンの結合は、このような例に限定されなくてもよく、実施の形態に応じて適宜設定されてよい。また、機械学習の結果に基づいて、各ニューロンには閾値が設定される。基本的には、各入力と各重みとの積の和が閾値を超えているか否かによって各ニューロンの出力が決定される。 Neurons in adjacent layers are appropriately connected to each other, and a weight (connection load) is set for each connection based on the result of machine learning. In the example of FIG. 4, each neuron is connected to all neurons in the adjacent layer, but the connection of neurons does not have to be limited to such an example and is appropriately set according to the embodiment. You can. In addition, a threshold is set for each neuron based on the result of machine learning. Basically, the output of each neuron is determined by whether or not the sum of the products of each input and each weight exceeds the threshold value.

動作補正部113は、操作情報51及び撮影画像52を入力層61に入力し、ニューラルネットワーク6の演算処理として各層に含まれる各ニューロンの発火判定を入力側から順に行う。これにより、動作補正部113は、支援コマンド50の指令値に対する補正値53を出力層63から取得する。 The motion correction unit 113 inputs the operation information 51 and the captured image 52 to the input layer 61, and performs firing determination of each neuron included in each layer in order from the input side as arithmetic processing of the neural network 6. As a result, the motion correction unit 113 acquires the correction value 53 with respect to the command value of the support command 50 from the output layer 63.

なお、このようなニューラルネットワーク6の構成(例えば、各ネットワークの層数、各層におけるニューロンの個数、ニューロン同士の結合関係、各ニューロンの伝達関数)、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報は、学習結果データ122に含まれている。動作補正部113は、学習結果データ122を参照して、撮影画像52に写る状況に応じて、支援コマンド50に基づく運転動作の支援に対する補正の内容を決定する処理に用いる学習済みのニューラルネットワーク6の設定を行う。 The configuration of such a neural network 6 (for example, the number of layers in each network, the number of neurons in each layer, the connection relationship between neurons, the transmission function of each neuron), the weight of the connection between each neuron, and each neuron Information indicating the threshold value is included in the learning result data 122. The motion correction unit 113 refers to the learning result data 122, and uses the trained neural network 6 to determine the content of the correction for the driving motion support based on the support command 50 according to the situation reflected in the captured image 52. Set.

<学習装置>
次に、図5を用いて、本実施形態に係る学習装置2のソフトウェア構成の一例について説明する。図5は、本実施形態に係る学習装置2のソフトウェア構成の一例を模式的に例示する。
<Learning device>
Next, an example of the software configuration of the learning device 2 according to the present embodiment will be described with reference to FIG. FIG. 5 schematically illustrates an example of the software configuration of the learning device 2 according to the present embodiment.

学習装置2の制御部21は、記憶部22に記憶された学習プログラム221をRAMに展開する。そして、制御部21は、RAMに展開された学習プログラム221をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図5に示されるとおり、本実施形態に係る学習装置2は、学習データ取得部211、及び学習処理部212をソフトウェアモジュールとして備えるコンピュータとして構成される。 The control unit 21 of the learning device 2 expands the learning program 221 stored in the storage unit 22 into the RAM. Then, the control unit 21 interprets and executes the learning program 221 expanded in the RAM by the CPU to control each component. As a result, as shown in FIG. 5, the learning device 2 according to the present embodiment is configured as a computer including the learning data acquisition unit 211 and the learning processing unit 212 as software modules.

学習データ取得部211は、操作情報223及び撮影画像224と補正値225との組み合わせを学習用データセット222として取得する。操作情報223及び撮影画像224は、入力データ(訓練データ)として利用され、補正値225は、教師データ(正解データ)として利用される。 The learning data acquisition unit 211 acquires the combination of the operation information 223, the captured image 224, and the correction value 225 as the learning data set 222. The operation information 223 and the captured image 224 are used as input data (training data), and the correction value 225 is used as teacher data (correct answer data).

操作情報223は、運転者による車両の操作指令を示す。この車両は、上記車両100と同種であってもよいし、異種であってもよい。また、撮影画像224は、車両に乗車した乗員を撮影するように配置された撮影装置により得られる。この撮影装置は、上記カメラ32と同種であってもよいし、異種であってもよい。補正値225は、操作情報223及び撮影画像224に反映された状況に応じた所望の運転動作の補正を実施可能なように適宜決定される。 The operation information 223 indicates an operation command of the vehicle by the driver. This vehicle may be of the same type as the vehicle 100 or may be of a different type. Further, the captured image 224 is obtained by a photographing device arranged so as to photograph an occupant in the vehicle. This imaging device may be of the same type as the camera 32 or may be of a different type. The correction value 225 is appropriately determined so that the desired driving operation can be corrected according to the situation reflected in the operation information 223 and the captured image 224.

学習処理部212は、取得した学習用データセット222を利用して、ニューラルネットワーク7の機械学習(教師あり学習)を実施する。すなわち、学習処理部212は、操作情報223及び撮影画像224を入力すると、補正値225を出力値として出力するようにニューラルネットワーク7の学習処理を行う。 The learning processing unit 212 uses the acquired learning data set 222 to perform machine learning (supervised learning) of the neural network 7. That is, when the operation information 223 and the captured image 224 are input, the learning processing unit 212 performs the learning process of the neural network 7 so as to output the correction value 225 as an output value.

ニューラルネットワーク7は、学習対象となる学習器の一例である。ニューラルネットワーク7は、上記ニューラルネットワーク6と同様に構成される。すなわち、ニューラルネットワーク7は、入力層71、中間層(隠れ層)72、及び出力層73を備える。各層71〜73は、上記ニューラルネットワーク6の各層61〜63と同様に構成される。 The neural network 7 is an example of a learning device to be learned. The neural network 7 is configured in the same manner as the neural network 6. That is, the neural network 7 includes an input layer 71, an intermediate layer (hidden layer) 72, and an output layer 73. The layers 71 to 73 are configured in the same manner as the layers 61 to 63 of the neural network 6.

学習処理部212は、ニューラルネットワークの学習処理により、操作情報223及び撮影画像224が入力層71に入力されると、補正値225を出力層73から出力するようにニューラルネットワーク7を学習させる。これにより、学習済みのニューラルネットワーク6が構築される。そして、学習処理部212は、学習後のニューラルネットワーク7(すなわち、学習済みのニューラルネットワーク6)の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を学習結果データ122として記憶部22に格納する。 When the operation information 223 and the captured image 224 are input to the input layer 71 by the learning process of the neural network, the learning processing unit 212 trains the neural network 7 so that the correction value 225 is output from the output layer 73. As a result, the trained neural network 6 is constructed. Then, the learning processing unit 212 stores information indicating the configuration of the neural network 7 (that is, the learned neural network 6) after learning, the weight of the connection between each neuron, and the threshold value of each neuron as the learning result data 122. It is stored in the unit 22.

つまり、運転の操作及び車内の乗員の状況に応じて運転動作の補正内容を決定する能力をニューラルネットワーク7に習得させるため、本実施形態に係る学習用データセット222は、操作情報223及び撮影画像224と、当該操作情報223及び撮影画像224に反映された状況に応じた所望の補正値225との組み合わせにより構成される。ただし、車内の乗員の状況に応じて運転動作の補正内容を決定する能力をニューラルネットワーク7に習得させるための学習用データセットの組み合わせは、このような例に限定されなくてもよい。例えば、学習用データセットは、操作情報223及び撮影画像224と所望の補正値225を得るためのインデックスとの組み合わせにより構成されてよい。また、所望の補正値225を得るためのインデックスは、画像に写る状況(例えば、人物の状態等)に対応していてもよい。 That is, in order to make the neural network 7 acquire the ability to determine the correction content of the driving operation according to the driving operation and the situation of the occupant in the vehicle, the learning data set 222 according to the present embodiment includes the operation information 223 and the captured image. It is composed of a combination of 224 and a desired correction value 225 according to the situation reflected in the operation information 223 and the captured image 224. However, the combination of learning data sets for causing the neural network 7 to acquire the ability to determine the correction content of the driving motion according to the situation of the occupant in the vehicle does not have to be limited to such an example. For example, the learning data set may be composed of a combination of the operation information 223 and the captured image 224 and an index for obtaining a desired correction value 225. Further, the index for obtaining the desired correction value 225 may correspond to the situation (for example, the state of a person) appearing in the image.

なお、操作情報223及び撮影画像224と所望の補正値225との組み合わせは、実施の形態に応じて適宜決定されてよい。例えば、学習処理部212は、画像に写る人物の状態に応じて運転動作を補正するように学習済みのニューラルネットワーク6を構築してもよい。この場合、撮影画像224に写る人物の状態に応じて決定された補正値225が、操作情報223及び当該撮影画像224に組み合わせられる。このような学習用データセット222を機械学習に利用することにより、学習処理部212は、画像に写る人物の状態に応じて運転動作の補正内容を決定する学習済みのニューラルネットワーク6を構築することができる。 The combination of the operation information 223 and the captured image 224 and the desired correction value 225 may be appropriately determined according to the embodiment. For example, the learning processing unit 212 may construct a trained neural network 6 so as to correct the driving motion according to the state of the person appearing in the image. In this case, the correction value 225 determined according to the state of the person captured in the captured image 224 is combined with the operation information 223 and the captured image 224. By using such a learning data set 222 for machine learning, the learning processing unit 212 constructs a trained neural network 6 that determines the correction content of the driving motion according to the state of the person in the image. Can be done.

人物の状態に対応付ける補正の内容(補正値)は、実施の形態に応じて適宜決定されてよい。例えば、学習処理部212は、画像に写る人物の表情に応じて運転動作を補正するように学習済みのニューラルネットワーク6を構築してもよい。この場合、撮影画像224に写る人物の表情に応じて決定された補正値225が、操作情報223及び当該撮影画像224に組み合わせられる。このような学習用データセット222を機械学習に利用することにより、学習処理部212は、画像に写る人物の表情に応じて運転動作の補正内容を決定する学習済みのニューラルネットワーク6を構築することができる。 The content (correction value) of the correction associated with the state of the person may be appropriately determined according to the embodiment. For example, the learning processing unit 212 may construct a trained neural network 6 so as to correct the driving motion according to the facial expression of a person appearing in the image. In this case, the correction value 225 determined according to the facial expression of the person captured in the captured image 224 is combined with the operation information 223 and the captured image 224. By using such a learning data set 222 for machine learning, the learning processing unit 212 constructs a trained neural network 6 that determines the correction content of the driving motion according to the facial expression of the person in the image. Can be done.

なお、人物の表情に対応付ける補正の内容(補正値)は、実施の形態に応じて適宜決定されてよい。具体例として、学習処理部212は、画像に写る人物の表情が怖がっていることに応じて運転の支援を軽減する又は打ち消す補正を行うように学習済みのニューラルネットワーク6を構築してもよい。この場合、運転の支援を軽減する又は打ち消すように決定された、換言すると、対応する支援コマンド50の指令値を小さくする又は打ち消すように決定された補正値225が、怖がった表情を浮かべている人物の写る撮影画像224に組み合わせられる。このような学習用データセット222を機械学習に利用することにより、学習処理部212は、画像に写る人物の表情が怖がっていることに応じて運転の支援を軽減する又は打ち消す補正を行うことを決定する学習済みのニューラルネットワーク6を構築することができる。 The content of the correction (correction value) associated with the facial expression of the person may be appropriately determined according to the embodiment. As a specific example, the learning processing unit 212 may construct a trained neural network 6 so as to reduce or cancel the driving support according to the fear of the facial expression of the person in the image. In this case, the correction value 225, which is determined to reduce or cancel the driving assistance, in other words, the correction value 225, which is determined to reduce or cancel the command value of the corresponding support command 50, has a scared expression. It is combined with a photographed image 224 showing a person. By using such a learning data set 222 for machine learning, the learning processing unit 212 makes a correction to reduce or cancel the driving support according to the fear of the facial expression of the person in the image. A trained neural network 6 to be determined can be constructed.

ここで、支援を軽減する補正は、支援コマンドによる運転の支援の動作を弱めることであり、例えば、支援コマンドの指令値により車両のアクセル量が規定されている場合に、運転の支援を軽減する補正を行うことで、このアクセル量を小さくすることができる。また、支援の打ち消す補正は、支援コマンドによる運転の支援の動作を停止することであり、例えば、支援コマンドにより自動運転モードが実施されている場合に、運転の支援を打ち消す補正を行うことで、自動運転モードで走行している車両を停車させることができる。 Here, the correction for reducing the support is to weaken the operation of the driving support by the support command. For example, when the accelerator amount of the vehicle is specified by the command value of the support command, the driving support is reduced. By performing the correction, this accelerator amount can be reduced. Further, the correction for canceling the support is to stop the operation of the driving support by the support command. For example, when the automatic driving mode is implemented by the support command, the correction for canceling the driving support is performed. A vehicle running in the automatic driving mode can be stopped.

また、例えば、学習処理部212は、画像に写る人物のジェスチャに応じて運転動作を補正するように学習済みのニューラルネットワーク6を構築してもよい。この場合、撮影画像224に写る人物のジェスチャに応じて決定された補正値225が、操作情報223及び当該撮影画像224に組み合わせられる。このような学習用データセット222を機械学習に利用することにより、学習処理部212は、画像に写る人物のジェスチャに応じて運転動作の補正内容を決定する学習済みのニューラルネットワーク6を構築することができる。 Further, for example, the learning processing unit 212 may construct a trained neural network 6 so as to correct the driving motion according to the gesture of the person appearing in the image. In this case, the correction value 225 determined according to the gesture of the person appearing in the captured image 224 is combined with the operation information 223 and the captured image 224. By using such a learning data set 222 for machine learning, the learning processing unit 212 constructs a trained neural network 6 that determines the correction content of the driving motion according to the gesture of the person appearing in the image. Can be done.

なお、人物のジェスチャと補正の内容(補正値)との対応関係は、実施の形態に応じて適宜決定されてよい。例えば、停止のサインを行っている人物の写る撮影画像224と、運転の支援を軽減する又は打ち消すように決定された補正値225とが組み合わせられてもよい。この場合、学習処理部212は、画像に写る人物が停止のサインを行っていることに応じて運転の支援を軽減する又は打ち消す補正を行うことを決定する学習済みのニューラルネットワーク6を構築することができる。 The correspondence between the gesture of the person and the content of the correction (correction value) may be appropriately determined according to the embodiment. For example, a captured image 224 showing a person signing a stop may be combined with a correction value 225 determined to reduce or cancel driving assistance. In this case, the learning processing unit 212 constructs a trained neural network 6 that determines to reduce or cancel the driving support according to the person appearing in the image signing the stop. Can be done.

以上のとおり、操作情報223及び撮影画像224と所望の補正値225との組み合わせは、実施の形態に応じて適宜決定されてよい。なお、制御に利用する操作情報51及び撮影画像52と学習に利用する操作情報223及び撮影画像224とを呼び分ける場合、操作情報51及び撮影画像52はそれぞれ「第1操作情報」及び「第1撮影画像」と称し、操作情報223及び撮影画像224をそれぞれ「第2操作情報」及び「第2撮影画像」と称してもよい。 As described above, the combination of the operation information 223 and the captured image 224 and the desired correction value 225 may be appropriately determined according to the embodiment. When the operation information 51 and the captured image 52 used for control and the operation information 223 and the captured image 224 used for learning are called separately, the operation information 51 and the captured image 52 are the "first operation information" and the "first", respectively. It may be referred to as "captured image", and the operation information 223 and the captured image 224 may be referred to as "second operation information" and "second captured image", respectively.

<その他>
運転支援装置1及び学習装置2の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、運転支援装置1及び学習装置2の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上のソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、運転支援装置1及び学習装置2それぞれのソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
<Others>
Each software module of the driving support device 1 and the learning device 2 will be described in detail in an operation example described later. In this embodiment, an example in which each software module of the driving support device 1 and the learning device 2 is realized by a general-purpose CPU is described. However, some or all of the above software modules may be implemented by one or more dedicated processors. Further, with respect to the software configurations of the driving support device 1 and the learning device 2, software modules may be omitted, replaced, or added as appropriate according to the embodiment.

§3 動作例
[運転支援装置]
次に、図6を用いて、運転支援装置1の動作例について説明する。図6は、運転支援装置1の処理手順の一例を例示するフローチャートである。以下で説明する処理手順は、本発明の「運転支援方法」の一例である。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
§3 Operation example [Driving support device]
Next, an operation example of the driving support device 1 will be described with reference to FIG. FIG. 6 is a flowchart illustrating an example of the processing procedure of the driving support device 1. The processing procedure described below is an example of the "driving support method" of the present invention. However, the processing procedure described below is only an example, and each processing may be changed as much as possible. Further, with respect to the processing procedure described below, steps can be omitted, replaced, and added as appropriate according to the embodiment.

(ステップS101)
ステップS101では、制御部11は、運転制御部111として動作し、外部インタフェース13を介して接続された操作部31に対する運転者Dの運転操作を監視して、当該運転操作に応じた操作指令の内容を示す操作情報51を取得する。
(Step S101)
In step S101, the control unit 11 operates as the operation control unit 111, monitors the operation of the driver D with respect to the operation unit 31 connected via the external interface 13, and issues an operation command corresponding to the operation. The operation information 51 indicating the content is acquired.

操作情報51の内容は、実施の形態に応じて適宜決定されてよい。例えば、制御部11は、ハンドル、ブレーキペダル、及びアクセルペダルそれぞれの操作に応じて、ハンドル操舵角、ブレーキ量、及びアクセル量それぞれを示す操作情報51を取得する。また、例えば、制御部11は、手動運転モードから自動運転モードに動作モードを切り替える操作を操作パネルに対して行われたことに応じて、自動運転モードの実施を示す操作情報51を取得する。操作情報51を取得すると、制御部11は、次のステップS102に処理を進める。 The content of the operation information 51 may be appropriately determined according to the embodiment. For example, the control unit 11 acquires operation information 51 indicating each of the steering wheel steering angle, the brake amount, and the accelerator amount in response to the operation of the steering wheel, the brake pedal, and the accelerator pedal. Further, for example, the control unit 11 acquires the operation information 51 indicating the execution of the automatic operation mode in response to the operation of switching the operation mode from the manual operation mode to the automatic operation mode on the operation panel. When the operation information 51 is acquired, the control unit 11 proceeds to the next step S102.

(ステップS102)
ステップS102では、制御部11は、運転制御部111として動作し、車両100の運転の支援を指示する支援コマンド50であって、運転動作の所定の属性に関する指令値を含む支援コマンド50に基づいて、車両100の運転の支援を制御する。運転の支援の制御を開始すると、制御部11は、次のステップS103に処理を進める。
(Step S102)
In step S102, the control unit 11 operates as the driving control unit 111, and is a support command 50 for instructing the driving support of the vehicle 100, based on the support command 50 including a command value related to a predetermined attribute of the driving operation. , Control the driving support of the vehicle 100. When the control of the driving support is started, the control unit 11 proceeds to the next step S103.

なお、実行する支援コマンド50の種類、すなわち、実施する運転の支援の内容は、実施の形態に応じて適宜決定されてよい。例えば、運転支援装置1は、操作部31による操作指令と支援コマンド50とを対応付けたテーブル形式等の支援参照情報(不図示)を記憶部12に保持していてもよい。この場合、制御部11は、この支援参照情報を参照することで、ステップS101で取得した操作情報51により示される操作指令に応じて、実行する支援コマンド50を決定することができる。 The type of the support command 50 to be executed, that is, the content of the support for the operation to be executed may be appropriately determined according to the embodiment. For example, the driving support device 1 may store support reference information (not shown) such as a table format in which the operation command by the operation unit 31 and the support command 50 are associated with each other in the storage unit 12. In this case, the control unit 11 can determine the support command 50 to be executed in response to the operation command indicated by the operation information 51 acquired in step S101 by referring to the support reference information.

具体例として、ハンドル、ブレーキペダル、又はアクセルペダルが操作されたことに応じて、支援コマンド50は、ハンドル、ブレーキペダル、又はアクセルペダルの操作の補助を行うことを指示してもよい。この場合、支援コマンド50に含まれる指令値により規定される運転動作の属性は、例えば、ハンドル操舵角、ブレーキ量、又はアクセル量であってよい。このとき、支援コマンド50に含まれる指令値、換言すると、ハンドル操舵角、ブレーキ量、又はアクセル量の補助量は、テンプレートにより与えられてよい。 As a specific example, the assist command 50 may instruct to assist the operation of the handlebar, the brake pedal, or the accelerator pedal in response to the operation of the handlebar, the brake pedal, or the accelerator pedal. In this case, the driving operation attribute defined by the command value included in the support command 50 may be, for example, the steering angle of the steering wheel, the amount of braking, or the amount of accelerator. At this time, the command value included in the support command 50, in other words, the steering angle of the steering wheel, the brake amount, or the auxiliary amount of the accelerator amount may be given by the template.

また、手動運転モードから自動運転モードに動作モードを切り替える操作を操作パネルに対して行われたことに応じて、支援コマンド50は、自動運転モードを実施することを指示してもよい。この場合、支援コマンド50に含まれる指令値により規定される運転動作の属性は、例えば、自動運転中における、車両100のハンドルの操舵角、ブレーキ量、アクセル量等であってよい。このとき、支援コマンド50に含まれる指令値、換言すると、自動運転中における、車両100のハンドルの操舵角、ブレーキ量、アクセル量等の値は、テンプレートにより与えられてよい。また、ハンドルの操舵角、ブレーキ量、及びアクセル量は、これらの組み合わせの結果として得られる、車両100の走行速度、他の車両と車両100との車間距離、走行車線等の2次的な指標に基づいて決定されていてもよい。この場合、指令値は、走行速度、車間距離、走行車線等の2次的な指標に対して与えられてもよい。 Further, the support command 50 may instruct to execute the automatic operation mode in response to the operation of switching the operation mode from the manual operation mode to the automatic operation mode to the operation panel. In this case, the attributes of the driving operation defined by the command value included in the support command 50 may be, for example, the steering angle of the steering wheel of the vehicle 100, the brake amount, the accelerator amount, and the like during automatic driving. At this time, the command value included in the support command 50, in other words, the steering angle of the steering wheel of the vehicle 100, the brake amount, the accelerator amount, and the like during automatic driving may be given by the template. The steering angle of the steering wheel, the amount of braking, and the amount of accelerator are secondary indicators such as the traveling speed of the vehicle 100, the distance between another vehicle and the vehicle 100, and the traveling lane, which are obtained as a result of these combinations. It may be determined based on. In this case, the command value may be given to a secondary index such as a traveling speed, an inter-vehicle distance, or a traveling lane.

(ステップS103)
ステップS103では、制御部11は、画像取得部112として動作し、車両100に乗車した乗員を撮影するように配置されたカメラ32から撮影画像52を取得する。撮影画像52は、動画像であってもよいし、静止画像であってもよい。
(Step S103)
In step S103, the control unit 11 operates as the image acquisition unit 112 and acquires the captured image 52 from the camera 32 arranged so as to photograph the occupant in the vehicle 100. The captured image 52 may be a moving image or a still image.

本実施形態では、運転支援装置1は、外部インタフェース13を介してカメラ32に接続されている。そのため、制御部11は、外部インタフェース13を介してカメラ32から撮影画像52を取得する。撮影画像52を取得すると、制御部11は、次のステップS104に処理を進める。 In the present embodiment, the driving support device 1 is connected to the camera 32 via the external interface 13. Therefore, the control unit 11 acquires the captured image 52 from the camera 32 via the external interface 13. When the captured image 52 is acquired, the control unit 11 proceeds to the next step S104.

ただし、撮影画像52を取得する経路は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、運転支援装置1とは異なる他の情報処理装置が、カメラ32に接続されていてもよい。この場合、運転支援装置1は、他の情報処理装置からの撮影画像52の送信を受け付けることにより、当該撮影画像52を取得してもよい。 However, the route for acquiring the captured image 52 does not have to be limited to such an example, and may be appropriately selected according to the embodiment. For example, another information processing device different from the driving support device 1 may be connected to the camera 32. In this case, the driving support device 1 may acquire the captured image 52 by accepting the transmission of the captured image 52 from another information processing device.

(ステップS104及びS105)
ステップS104では、制御部11は、動作補正部113として動作し、学習済みのニューラルネットワーク6に撮影画像52を入力し、学習済みのニューラルネットワーク6の演算処理を実行する。これにより、ステップS105では、制御部11は、支援コマンド50の指令値に対する補正値53を学習済みのニューラルネットワーク6から取得する。
(Steps S104 and S105)
In step S104, the control unit 11 operates as the motion correction unit 113, inputs the captured image 52 to the trained neural network 6, and executes the arithmetic processing of the trained neural network 6. As a result, in step S105, the control unit 11 acquires the correction value 53 with respect to the command value of the support command 50 from the trained neural network 6.

具体的には、制御部11は、ステップS103で取得した撮影画像52を学習済みのニューラルネットワーク6の入力層61に入力する。そして、制御部11は、入力側から順に、各層61〜63に含まれる各ニューロンの発火判定を行う。これにより、制御部11は、補正値53に対応する出力値を出力層63から取得する。 Specifically, the control unit 11 inputs the captured image 52 acquired in step S103 to the input layer 61 of the trained neural network 6. Then, the control unit 11 determines the firing of each neuron included in each layer 61 to 63 in order from the input side. As a result, the control unit 11 acquires the output value corresponding to the correction value 53 from the output layer 63.

なお、出力層63から得られる出力値の形式は、実施の形態に応じて適宜選択されてよい。例えば、出力層63から得られる出力値は、そのまま補正値53として利用されてもよい。この場合、制御部11は、学習済みのニューラルネットワーク6の出力層63から補正値53を直接取得することができる。また、例えば、出力層63から得られる出力値は、補正値53を決定するためのインデックスを示してもよい。この場合、運転支援装置1は、出力層63から得られる出力値と補正値53との対応付けたテーブル形式等の補正参照情報(不図示)を記憶部12に保持していてもよい。制御部11は、ステップS105において、この補正参照情報を参照することにより、出力層63から得られた出力値に対応する補正値53を決定することができる。このインデックスは、例えば、運転者の眠気の程度等のような個々の状況に対応していてもよい。補正値53を取得すると、制御部11は、次のステップS106に処理を進める。 The format of the output value obtained from the output layer 63 may be appropriately selected according to the embodiment. For example, the output value obtained from the output layer 63 may be used as it is as the correction value 53. In this case, the control unit 11 can directly acquire the correction value 53 from the output layer 63 of the trained neural network 6. Further, for example, the output value obtained from the output layer 63 may indicate an index for determining the correction value 53. In this case, the driving support device 1 may store correction reference information (not shown) such as a table format in which the output value obtained from the output layer 63 and the correction value 53 are associated with each other in the storage unit 12. In step S105, the control unit 11 can determine the correction value 53 corresponding to the output value obtained from the output layer 63 by referring to the correction reference information. The index may correspond to individual situations such as, for example, the degree of drowsiness of the driver. When the correction value 53 is acquired, the control unit 11 proceeds to the next step S106.

(ステップS106及びS107)
ステップS106では、制御部11は、運転制御部111として動作し、ステップS105で取得した補正値53により、実行中の支援コマンド50に含まれる指令値を補正する。そして、ステップS107では、制御部11は、指令値を補正した後の支援コマンド50に基づいて、車両100の運転の支援を制御する。
(Steps S106 and S107)
In step S106, the control unit 11 operates as the operation control unit 111, and corrects the command value included in the running support command 50 by the correction value 53 acquired in step S105. Then, in step S107, the control unit 11 controls the driving support of the vehicle 100 based on the support command 50 after correcting the command value.

つまり、制御部11は、ステップS105で取得した補正値53を利用して、支援コマンド50の指令値により規定された、ハンドルの操舵角、ブレーキ量、アクセル量等の値を変更する。これにより、制御部11は、撮影画像52に写る状況に応じて、支援コマンド50による運転動作の支援の内容を修正する。 That is, the control unit 11 changes the steering angle of the steering wheel, the brake amount, the accelerator amount, and the like defined by the command value of the support command 50 by using the correction value 53 acquired in step S105. As a result, the control unit 11 corrects the content of the driving operation support by the support command 50 according to the situation reflected in the captured image 52.

例えば、上記のとおり、学習済みのニューラルネットワーク6は、画像に写る人物の状態に応じて運転動作を補正するように構築されていてもよい。この場合、制御部11は、ステップS105において、ステップS103で取得した撮影画像52に写る人物の状態に応じて決定された補正値53を学習済みのニューラルネットワーク6から取得することができる。これにより、ステップS106及びS107では、撮影画像52に写る人物の状態に応じて、支援コマンド50による運転動作の支援の内容を修正することができる。 For example, as described above, the trained neural network 6 may be constructed so as to correct the driving motion according to the state of the person appearing in the image. In this case, in step S105, the control unit 11 can acquire the correction value 53 determined according to the state of the person appearing in the captured image 52 acquired in step S103 from the trained neural network 6. As a result, in steps S106 and S107, the content of the driving operation support by the support command 50 can be modified according to the state of the person captured in the captured image 52.

また、例えば、学習済みのニューラルネットワーク6は、画像に写る人物の表情に応じて運転動作を補正するように構築されていてもよい。この場合、制御部11は、ステップS105において、ステップS103で取得した撮影画像52に写る人物の表情に応じて決定された補正値53を学習済みのニューラルネットワーク6から取得することができる。これにより、ステップS106及びS107では、撮影画像52に写る人物の表情に応じて、支援コマンド50による運転動作の支援の内容を修正することができる。 Further, for example, the trained neural network 6 may be constructed so as to correct the driving motion according to the facial expression of a person appearing in the image. In this case, in step S105, the control unit 11 can acquire the correction value 53 determined according to the facial expression of the person captured in the captured image 52 acquired in step S103 from the trained neural network 6. As a result, in steps S106 and S107, the content of the driving operation support by the support command 50 can be modified according to the facial expression of the person reflected in the captured image 52.

具体例として、学習済みのニューラルネットワーク6は、画像に写る人物の表情が怖がっていることに応じて運転の支援を軽減する又は打ち消す補正を行うように構築されていてもよい。この場合、制御部11は、ステップS105において、ステップS103で取得した撮影画像52に写る人物が怖がった表情を浮かべていることに応じて、運転の支援を軽減する又は打ち消す、換言すると、支援コマンド50の指令値を小さくする又は打ち消す補正値53を取得することができる。これにより、ステップS106及びS107では、撮影画像52に写る人物の表情が怖がっていることに応じて、支援コマンド50による運転動作の支援を軽減する又は打ち消すことができる。例えば、支援コマンド50の指令値により車両100のアクセル量が規定されている場合には、制御部11は、ステップS106及びS107により、車両100のアクセル量を小さくしたり、車両100を停車させたりすることができる。 As a specific example, the trained neural network 6 may be constructed to reduce or cancel the driving support according to the fear of the facial expression of the person in the image. In this case, in step S105, the control unit 11 reduces or cancels the driving support according to the person in the captured image 52 acquired in step S103 having a scared facial expression, in other words, the support command. It is possible to obtain a correction value 53 that reduces or cancels the command value of 50. As a result, in steps S106 and S107, the support for the driving operation by the support command 50 can be reduced or canceled depending on the fear of the facial expression of the person in the captured image 52. For example, when the accelerator amount of the vehicle 100 is defined by the command value of the support command 50, the control unit 11 reduces the accelerator amount of the vehicle 100 or stops the vehicle 100 in steps S106 and S107. can do.

また、例えば、学習済みのニューラルネットワーク6は、画像に写る人物のジェスチャに応じて運転動作を補正するように構築されていてもよい。この場合、制御部11は、ステップS105において、ステップS103で取得した撮影画像52に写る人物のジェスチャに応じて決定された補正値53を学習済みのニューラルネットワーク6から取得することができる。これにより、ステップS106及びS107では、撮影画像52に写る人物のジェスチャに応じて、支援コマンド50による運転動作の支援の内容を修正することができる。 Further, for example, the trained neural network 6 may be constructed so as to correct the driving motion according to the gesture of the person appearing in the image. In this case, in step S105, the control unit 11 can acquire the correction value 53 determined according to the gesture of the person appearing in the captured image 52 acquired in step S103 from the trained neural network 6. As a result, in steps S106 and S107, the content of the driving operation support by the support command 50 can be modified according to the gesture of the person shown in the captured image 52.

これにより、運転動作の支援の内容を修正すると、制御部11は、本動作例に係る処理を終了する。この後、制御部11は、ステップS101から一連の処理を繰り返すことで、車両100の運転の支援を継続的に制御してもよい。また、制御部11は、ステップS103から一連の処理を繰り返すことで、支援コマンド50の指令値を繰り返し補正してもよい。 As a result, when the content of the support for the driving operation is modified, the control unit 11 ends the process related to this operation example. After that, the control unit 11 may continuously control the driving support of the vehicle 100 by repeating a series of processes from step S101. Further, the control unit 11 may repeatedly correct the command value of the support command 50 by repeating a series of processes from step S103.

[学習装置]
次に、図7を用いて、学習装置2の動作例について説明する。図7は、学習装置2の処理手順の一例を例示するフローチャートである。なお、以下で説明する学習器の機械学習に関する処理手順は、コンピュータによる学習方法の一例である。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
[Learning device]
Next, an operation example of the learning device 2 will be described with reference to FIG. 7. FIG. 7 is a flowchart illustrating an example of the processing procedure of the learning device 2. The processing procedure related to machine learning of the learning device described below is an example of a learning method using a computer. However, the processing procedure described below is only an example, and each processing may be changed as much as possible. Further, with respect to the processing procedure described below, steps can be omitted, replaced, and added as appropriate according to the embodiment.

(ステップS201)
ステップS201では、制御部21は、学習データ取得部211として動作し、操作情報223及び撮影画像224と補正値225との組み合わせを学習用データセット222として取得する。
(Step S201)
In step S201, the control unit 21 operates as the learning data acquisition unit 211, and acquires the combination of the operation information 223, the captured image 224, and the correction value 225 as the learning data set 222.

学習用データセット222は、画像に写る状況に応じて運転動作の補正の内容を決定する能力をニューラルネットワーク7に習得させるための機械学習に利用される。このような学習用データセット222は、実施の形態に応じて適宜生成されてよい。例えば、カメラを備える車両を用意し、運転者に運転の操作をさせ、支援コマンドにより運転の支援を実施しながら、車両に乗車した乗員を様々な条件で撮影する。そして、得られた操作情報223及び撮影画像224に対して、撮影画像224に写る状況に応じた所望の補正値225を組み合わせる。これにより、学習用データセット222を生成することができる。 The learning data set 222 is used for machine learning to make the neural network 7 acquire the ability to determine the content of the correction of the driving motion according to the situation shown in the image. Such a learning data set 222 may be appropriately generated according to the embodiment. For example, a vehicle equipped with a camera is prepared, the driver is made to operate the driving, and the driving support is provided by the support command, and the occupant in the vehicle is photographed under various conditions. Then, the obtained operation information 223 and the captured image 224 are combined with a desired correction value 225 according to the situation reflected in the captured image 224. As a result, the training data set 222 can be generated.

この学習用データセット222の生成は、学習装置2により行われてもよい。この場合、制御部21は、オペレータによる入力装置24の操作に応じて、学習用データセット222を生成してもよい。また、制御部21は、学習プログラム221の処理により、得られる操作情報223及び撮影画像224に対して補正値225を適宜決定して、学習用データセット222を自動的に生成してもよい。この生成処理を実行することで、本ステップS201では、制御部21は、学習用データセット222を取得することができる。 The generation of the learning data set 222 may be performed by the learning device 2. In this case, the control unit 21 may generate the learning data set 222 in response to the operation of the input device 24 by the operator. Further, the control unit 21 may appropriately determine the correction value 225 for the obtained operation information 223 and the captured image 224 by the processing of the learning program 221 and automatically generate the learning data set 222. By executing this generation process, in this step S201, the control unit 21 can acquire the learning data set 222.

また、学習用データセット222の生成は、学習装置2以外の他の情報処理装置により行われてもよい。他の情報処理装置では、学習用データセット222は、オペレータにより手動で生成されてもよいし、プログラムの処理により自動的に生成されてもよい。この場合、本ステップS201では、制御部21は、ネットワーク、記憶媒体92等を介して、他の情報処理装置により生成された学習用データセット222を取得してもよい。 Further, the learning data set 222 may be generated by an information processing device other than the learning device 2. In other information processing devices, the learning data set 222 may be manually generated by the operator or automatically generated by the processing of the program. In this case, in this step S201, the control unit 21 may acquire the learning data set 222 generated by another information processing device via the network, the storage medium 92, or the like.

本ステップS201で取得する学習用データセット222の件数は、実施の形態に応じて適宜決定されてよく、例えば、ニューラルネットワーク7の機械学習を実施可能な程度に適宜決定されてよい。これにより、学習用データセット222を取得すると、制御部21は、次のステップS202に処理を進める。 The number of learning data sets 222 acquired in this step S201 may be appropriately determined according to the embodiment, and may be appropriately determined, for example, to the extent that machine learning of the neural network 7 can be performed. As a result, when the learning data set 222 is acquired, the control unit 21 proceeds to the next step S202.

なお、上記のとおり、学習用データセット222における操作情報223及び撮影画像224と所望の補正値225との組み合わせは、実施の形態に応じて適宜決定されてよい。 As described above, the combination of the operation information 223 and the captured image 224 in the learning data set 222 and the desired correction value 225 may be appropriately determined according to the embodiment.

例えば、撮影画像224に写る人物の状態に応じて決定された補正値225が、操作情報223及び当該撮影画像224に組み合わせられてもよい。また、例えば、撮影画像224に写る人物の表情に応じて決定された補正値225が、操作情報223及び当該撮影画像224に組み合わせられてもよい。具体例として、撮影画像224に写る人物の表情が怖がっていることに応じて、運転の支援を軽減する又は打ち消すように決定された補正値225が、操作情報223及び当該撮影画像224に組み合わせられてもよい。また、例えば、撮影画像224に写る人物のジェスチャに応じて決定された補正値225が、操作情報223及び当該撮影画像224に組み合わせられてもよい。 For example, the correction value 225 determined according to the state of the person appearing in the captured image 224 may be combined with the operation information 223 and the captured image 224. Further, for example, the correction value 225 determined according to the facial expression of the person captured in the captured image 224 may be combined with the operation information 223 and the captured image 224. As a specific example, the correction value 225 determined to reduce or cancel the driving assistance according to the fear of the facial expression of the person reflected in the captured image 224 is combined with the operation information 223 and the captured image 224. You may. Further, for example, the correction value 225 determined according to the gesture of the person appearing in the captured image 224 may be combined with the operation information 223 and the captured image 224.

(ステップS202)
ステップS202では、制御部21は、学習処理部212として動作し、ステップS201で取得した学習用データセット222を用いて、操作情報223及び撮影画像224を入力層71に入力すると、出力値として補正値225を出力層73から出力するようにニューラルネットワーク7の機械学習を実施する。
(Step S202)
In step S202, the control unit 21 operates as the learning processing unit 212, and when the operation information 223 and the captured image 224 are input to the input layer 71 using the learning data set 222 acquired in step S201, it is corrected as an output value. Machine learning of the neural network 7 is performed so that the value 225 is output from the output layer 73.

具体的には、まず、制御部21は、学習処理を行う対象となるニューラルネットワーク7を用意する。用意するニューラルネットワーク7の構成、各ニューロン間の結合の重みの初期値、及び各ニューロンの閾値の初期値は、テンプレートにより与えられてもよいし、オペレータの入力により与えられてもよい。また、再学習を行う場合には、制御部21は、再学習を行う対象となる学習結果データ122に基づいて、ニューラルネットワーク7を用意してもよい。 Specifically, first, the control unit 21 prepares a neural network 7 to be subjected to learning processing. The configuration of the neural network 7 to be prepared, the initial value of the weight of the connection between each neuron, and the initial value of the threshold value of each neuron may be given by the template or by the input of the operator. Further, when performing re-learning, the control unit 21 may prepare the neural network 7 based on the learning result data 122 to be re-learned.

次に、制御部21は、ステップS201で取得した学習用データセット222に含まれる操作情報223及び撮影画像224を入力データとして用い、補正値225を教師データとして用いて、ニューラルネットワーク7の学習処理を実行する。このニューラルネットワーク7の学習処理には、確率的勾配降下法等が用いられてよい。 Next, the control unit 21 uses the operation information 223 and the captured image 224 included in the learning data set 222 acquired in step S201 as input data, and uses the correction value 225 as the teacher data to perform the learning process of the neural network 7. To execute. A stochastic gradient descent method or the like may be used for the learning process of the neural network 7.

例えば、制御部21は、操作情報223及び撮影画像224を入力層71に入力し、入力側から順に各層71〜73に含まれる各ニューロンの発火判定を行う。これにより、制御部21は、出力層73から出力値を得る。次に、制御部21は、出力層73から得た出力値と補正値225との誤差を算出する。続いて、制御部21は、誤差逆伝搬(Back propagation)法により、算出した出力値の誤差を用いて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの誤差を算出する。そして、制御部21は、算出した各誤差に基づいて、各ニューロン間の結合の重み及び各ニューロンの閾値それぞれの値の更新を行う。 For example, the control unit 21 inputs the operation information 223 and the captured image 224 to the input layer 71, and determines the firing of each neuron included in each layer 71 to 73 in order from the input side. As a result, the control unit 21 obtains an output value from the output layer 73. Next, the control unit 21 calculates an error between the output value obtained from the output layer 73 and the correction value 225. Subsequently, the control unit 21 calculates the error of the connection weight between each neuron and the error of each threshold value of each neuron by using the error of the output value calculated by the error back propagation method. Then, the control unit 21 updates the weight of the connection between each neuron and the value of each threshold value of each neuron based on each calculated error.

制御部21は、各件の学習用データセット222について、ニューラルネットワーク7から出力される出力値が補正値225と一致するまでこの一連の処理を繰り返す。これにより、制御部21は、操作情報223及び撮影画像224を入力すると対応する補正値225を出力するニューラルネットワーク7(すなわち、学習済みのニューラルネットワーク6)を構築することができる。 The control unit 21 repeats this series of processes for each learning data set 222 until the output value output from the neural network 7 matches the correction value 225. As a result, the control unit 21 can construct a neural network 7 (that is, a trained neural network 6) that outputs a corresponding correction value 225 when the operation information 223 and the captured image 224 are input.

例えば、撮影画像224に写る人物の状態に応じて決定された補正値225と操作情報223及び当該撮影画像224とが組み合わせられた学習用データセット222を利用したケースを想定する。この場合には、本ステップS202により、制御部21は、画像に写る人物の状態に応じて運転動作の補正内容を決定するニューラルネットワーク7を構築することができる。 For example, it is assumed that a learning data set 222 in which the correction value 225 determined according to the state of the person captured in the captured image 224, the operation information 223, and the captured image 224 are combined is used. In this case, according to this step S202, the control unit 21 can construct a neural network 7 that determines the correction content of the driving operation according to the state of the person appearing in the image.

また、例えば、撮影画像224に写る人物の表情に応じて決定された補正値225と操作情報223及び当該撮影画像224とが組み合わせられた学習用データセット222を利用したケースを想定する。この場合には、本ステップS202により、制御部21は、画像に写る人物の表情に応じて運転動作の補正内容を決定するニューラルネットワーク7を構築することができる。 Further, for example, it is assumed that a learning data set 222 in which the correction value 225 determined according to the facial expression of the person captured in the captured image 224, the operation information 223, and the captured image 224 are combined is used. In this case, according to this step S202, the control unit 21 can construct a neural network 7 that determines the correction content of the driving operation according to the facial expression of the person in the image.

具体例として、怖がった表情を浮かべている人物の写る撮影画像224と運転の支援を軽減する又は打ち消すように決定された補正値225とが組み合わせられた学習用データセット222を利用したケースを想定する。この場合には、本ステップS202により、制御部21は、画像に写る人物の表情が怖がっていることに応じて運転の支援を軽減する又は打ち消す補正を行うことを決定するニューラルネットワーク7を構築することができる。 As a specific example, it is assumed that a learning data set 222 is used in which a photographed image 224 showing a person with a scared expression and a correction value 225 determined to reduce or cancel driving assistance are combined. do. In this case, in this step S202, the control unit 21 constructs a neural network 7 that determines to reduce or cancel the driving support according to the fear of the facial expression of the person in the image. be able to.

また、例えば、撮影画像224に写る人物のジェスチャに応じて決定された補正値225と操作情報223及び当該撮影画像224とが組み合わせられた学習用データセット222を利用したケースを想定する。この場合には、本ステップS202により、制御部21は、画像に写る人物のジェスチャに応じて運転動作の補正内容を決定するニューラルネットワーク7を構築することができる。ニューラルネットワーク7の学習処理が完了すると、制御部21は、次のステップS203に処理を進める。 Further, for example, it is assumed that a learning data set 222 is used in which the correction value 225 determined according to the gesture of the person captured in the captured image 224, the operation information 223, and the captured image 224 are combined. In this case, according to this step S202, the control unit 21 can construct a neural network 7 that determines the correction content of the driving motion according to the gesture of the person appearing in the image. When the learning process of the neural network 7 is completed, the control unit 21 proceeds to the next step S203.

(ステップS203)
ステップS203では、制御部21は、学習処理部212として動作して、機械学習後のニューラルネットワーク7の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を学習結果データ122として記憶部22に格納する。これにより、制御部21は、本動作例に係るニューラルネットワーク7の学習処理を終了する。
(Step S203)
In step S203, the control unit 21 operates as the learning processing unit 212, and uses information indicating the configuration of the neural network 7 after machine learning, the weight of the connection between each neuron, and the threshold value of each neuron as learning result data 122. It is stored in the storage unit 22. As a result, the control unit 21 ends the learning process of the neural network 7 according to this operation example.

なお、制御部21は、上記ステップS203の処理が完了した後に、作成した学習結果データ122を運転支援装置1に転送してもよい。また、制御部21は、上記ステップS201〜S203の学習処理を定期的に実行することで、学習結果データ122を定期的に更新してもよい。そして、制御部21は、作成した学習結果データ122を学習処理の実行毎に運転支援装置1に転送することで、運転支援装置1の保持する学習結果データ122を定期的に更新してもよい。また、例えば、制御部21は、作成した学習結果データ122をNAS(Network Attached Storage)等のデータサーバに保管してもよい。この場合、運転支援装置1は、このデータサーバから学習結果データ122を取得してもよい。また、学習装置2により作成された学習結果データ122は、運転支援装置1に予め組み込まれてもよい。 The control unit 21 may transfer the created learning result data 122 to the driving support device 1 after the process of step S203 is completed. Further, the control unit 21 may periodically update the learning result data 122 by periodically executing the learning processes of steps S201 to S203. Then, the control unit 21 may periodically update the learning result data 122 held by the driving support device 1 by transferring the created learning result data 122 to the driving support device 1 each time the learning process is executed. .. Further, for example, the control unit 21 may store the created learning result data 122 in a data server such as NAS (Network Attached Storage). In this case, the driving support device 1 may acquire the learning result data 122 from this data server. Further, the learning result data 122 created by the learning device 2 may be incorporated in the driving support device 1 in advance.

[特徴]
以上のように、本実施形態に係る運転支援装置1は、上記ステップS101及びS103の処理により、操作情報51及び撮影画像52を取得する。次に、運転支援装置1は、上記ステップS104及びS105において、操作情報51及び撮影画像52を学習済みのニューラルネットワーク6に入力することで、撮影画像52に写る状況に応じて決定された補正値53を取得する。この学習済みのニューラルネットワーク6は、上記学習装置2により、操作情報223及び撮影画像224と補正値225との組み合わせで構成された学習用データセット222を利用した機械学習(教師あり学習)によって生成される。そして、運転支援装置1は、上記ステップS106及びS107において、取得した補正値53を利用して、運転動作の内容を修正する。
[feature]
As described above, the driving support device 1 according to the present embodiment acquires the operation information 51 and the captured image 52 by the processing of steps S101 and S103. Next, in steps S104 and S105, the driving support device 1 inputs the operation information 51 and the captured image 52 into the trained neural network 6, and the correction value is determined according to the situation reflected in the captured image 52. Get 53. The trained neural network 6 is generated by the learning device 2 by machine learning (supervised learning) using a learning data set 222 composed of a combination of operation information 223, captured image 224, and correction value 225. Will be done. Then, the driving support device 1 corrects the content of the driving operation by using the correction value 53 acquired in the steps S106 and S107.

したがって、本実施形態によれば、学習済みのニューラルネットワークを利用することで、車両100の運転の支援を指示する支援コマンドの指令値に対して、乗員を撮影するように配置されたカメラ32から得られた撮影画像52に写る個々の状況に応じた異なる補正値53を得ることができる。これにより、上記ステップS106及びS107では、支援コマンド50の指令値に補正値53を適用することで、運転を支援する動作のバリエーションを実現することができるため、個々の状況に適した動作の入力を行う手間を省略することができる。加えて、本実施形態では、支援コマンド50の指令値をテンプレートにより与えておけば、この支援コマンド50に補正値53を適用することで、運転を支援する動作のバリエーションを実現することができる。そのため、個々の状況に適した運転を支援する支援コマンド50を個別に用意しなくてもよく、当該運転を支援する動作に効率的にバリエーションを持たせることができる。したがって、本実施形態によれば、簡便かつ効率的な方法で運転を支援する方法にバリエーションを持たせることができ、これにより、個々のユーザ、車両の特性等に起因する個別の状況に適した運転の支援を実現することができる。 Therefore, according to the present embodiment, by using the learned neural network, the camera 32 arranged to photograph the occupant with respect to the command value of the support command instructing the driving support of the vehicle 100 It is possible to obtain different correction values 53 according to the individual situations captured in the obtained captured image 52. As a result, in steps S106 and S107, by applying the correction value 53 to the command value of the support command 50, it is possible to realize a variation of the operation that supports the operation, so that the operation suitable for each situation is input. It is possible to save the trouble of performing the above. In addition, in the present embodiment, if the command value of the support command 50 is given by the template, by applying the correction value 53 to the support command 50, it is possible to realize a variation of the operation of supporting the driving. Therefore, it is not necessary to individually prepare the support command 50 that supports the driving suitable for each situation, and the operation that supports the driving can be efficiently varied. Therefore, according to the present embodiment, it is possible to provide variations in the method of supporting driving in a simple and efficient manner, which is suitable for individual situations caused by individual users, vehicle characteristics, and the like. Driving support can be realized.

§4 変形例
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
§4 Modifications Although the embodiments of the present invention have been described in detail above, the above description is merely an example of the present invention in all respects. Needless to say, various improvements and modifications can be made without departing from the scope of the present invention. For example, the following changes can be made. In the following, the same reference numerals will be used for the same components as those in the above embodiment, and the same points as in the above embodiment will be omitted as appropriate. The following modifications can be combined as appropriate.

<4.1>
上記実施形態では、各ニューラルネットワーク(6、7)は、全結合ニューラルネットワークである。しかしながら、各ニューラルネットワーク(6、7)の構成及び種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、各ニューラルネットワーク(6、7)は、畳み込みニューラルネットワーク、再帰型ニューラルネットワーク等により構成されてよい。
<4.1>
In the above embodiment, each neural network (6, 7) is a fully connected neural network. However, the configuration and type of each neural network (6, 7) need not be limited to such an example, and may be appropriately selected according to the embodiment. For example, each neural network (6, 7) may be composed of a convolutional neural network, a recurrent neural network, or the like.

<4.2>
上記実施形態では、学習器の一例として、ニューラルネットワークを利用している。しかしながら、学習器の種類は、撮影画像を入力として利用可能であれば、ニューラルネットワークに限られなくてもよく、実施の形態に応じて適宜選択されてよい。利用可能な学習器として、例えば、サポートベクターマシン、自己組織化マップ、強化学習により機械学習を行う学習器等を挙げることができる。
<4.2>
In the above embodiment, a neural network is used as an example of the learner. However, the type of the learning device is not limited to the neural network as long as the captured image can be used as an input, and may be appropriately selected according to the embodiment. Examples of the learning device that can be used include a support vector machine, a self-organizing map, and a learning device that performs machine learning by reinforcement learning.

<4.3>
上記実施形態では、学習結果データ122は、学習済みのニューラルネットワーク6の構成を示す情報を含んでいる。しかしながら、学習結果データ122の構成は、このような例に限定されなくてもよく、学習済みの学習器の設定に利用可能であれば、実施の形態に応じて適宜決定されてよい。例えば、利用するニューラルネットワークの構成が各装置で共通化されている場合には、学習結果データ122は、学習済みのニューラルネットワーク6の構成を示す情報を含んでいなくてもよい。
<4.3>
In the above embodiment, the training result data 122 includes information indicating the configuration of the trained neural network 6. However, the configuration of the learning result data 122 does not have to be limited to such an example, and may be appropriately determined according to the embodiment as long as it can be used for setting the learned learning device. For example, when the configuration of the neural network to be used is common to each device, the learning result data 122 does not have to include information indicating the configuration of the trained neural network 6.

<4.4>
上記実施形態では、学習用データセット222は、操作情報223及び撮影画像224と補正値225との組み合わせにより構成されており、学習済みのニューラルネットワーク6には撮影画像52と共に操作情報51が入力されている。しかしながら、ニューラルネットワークの入力は、このような例に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。
<4.4>
In the above embodiment, the learning data set 222 is composed of a combination of the operation information 223, the captured image 224, and the correction value 225, and the operation information 51 is input to the trained neural network 6 together with the captured image 52. ing. However, the input of the neural network does not have to be limited to such an example, and may be appropriately determined according to the embodiment.

例えば、操作情報51は省略されてもよい。この場合、上記学習用データセット222は、撮影画像224と補正値225との組み合わせにより構成されてよく、学習済みのニューラルネットワーク6には撮影画像52のみが入力されてよい。また、例えば、操作情報51に代えて支援コマンド50が入力されてもよい。この場合、学習用データセット222は、支援コマンド及び撮影画像224と補正値225との組み合わせにより構成されてよく、学習済みのニューラルネットワーク6には撮影画像52と共に支援コマンド50が入力されてよい。 For example, the operation information 51 may be omitted. In this case, the learning data set 222 may be composed of a combination of the captured image 224 and the correction value 225, and only the captured image 52 may be input to the trained neural network 6. Further, for example, the support command 50 may be input instead of the operation information 51. In this case, the learning data set 222 may be composed of a support command and a combination of the captured image 224 and the correction value 225, and the support command 50 may be input to the trained neural network 6 together with the captured image 52.

<4.5>
上記実施形態では、車両100の運転の支援を行う場面に本発明を適用した例を示している。しかしながら、本発明の適用範囲は、このような車両100の運転の支援を行う場面に限られなくてもよい。本発明は、対象装置の動作を制御するあらゆる場面に広く適用可能である。
<4.5>
In the above embodiment, an example in which the present invention is applied to a situation where the driving of the vehicle 100 is supported is shown. However, the scope of application of the present invention does not have to be limited to the situation where the driving of the vehicle 100 is supported. The present invention can be widely applied to all situations where the operation of the target device is controlled.

図8は、本発明が適用される他の場面の一例を模式的に例示する。本変形例に係る動作制御装置1Aは、利用者UAにより利用される対象装置RAの動作を制御するように構成される。図8の例では、利用者UAは製造ラインにおける作業者であり、対象装置RAは、製造ラインで利用者UAと協働する産業用ロボットである。ただし、対象装置RAは、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。利用者UAが製造ラインにおける作業者である場合、対象装置RAは、例えば、ベルトコンベア等の製造ラインに設けられる装置であってよい。 FIG. 8 schematically illustrates an example of another situation to which the present invention is applied. The motion control device 1A according to this modification is configured to control the motion of the target device RA used by the user UA. In the example of FIG. 8, the user UA is a worker on the production line, and the target device RA is an industrial robot that cooperates with the user UA on the production line. However, the target device RA does not have to be limited to such an example, and may be appropriately selected according to the embodiment. When the user UA is a worker on the production line, the target device RA may be, for example, a device provided on the production line such as a belt conveyor.

図9及び図10は、本変形例に係る動作制御装置1Aのハードウェア構成及びソフトウェア構成の一例を模式的に例示する。処理対象が車両100から対象装置RAに置き換わる点を除き、動作制御装置1Aは、上記運転支援装置1と同様に構成されてよい。すなわち、図9に示されるとおり、動作制御装置1Aのハードウェア構成は、上記運転支援装置1のハードウェア構成と同じであってよい。また、図10に示されるとおり、運転制御部111が動作制御部111Aに置き換わる点を除き、動作制御装置1Aのソフトウェア構成は、上記運転支援装置1のソフトウェア構成と同じであってよい。 9 and 10 schematically show an example of the hardware configuration and software configuration of the operation control device 1A according to this modification. The operation control device 1A may be configured in the same manner as the driving support device 1 except that the processing target is replaced by the target device RA from the vehicle 100. That is, as shown in FIG. 9, the hardware configuration of the operation control device 1A may be the same as the hardware configuration of the operation support device 1. Further, as shown in FIG. 10, the software configuration of the operation control device 1A may be the same as the software configuration of the operation support device 1 except that the operation control unit 111 is replaced with the operation control unit 111A.

具体的に、図9に示されるとおり、動作制御装置1Aの記憶部12は、動作制御プログラム121A、学習結果データ122A等の各種情報を記憶する。動作制御プログラム121Aは、上記運転支援装置1と同様の処理手順により、対象装置RAの動作を制御する情報処理を動作制御装置1Aに実行させるためのプログラムであり、当該情報処理の一連の命令を含む。学習結果データ122Aは、画像に写る状況に応じて対象装置RAの動作を補正するための機械学習を行った学習済みの学習器(学習済みのニューラルネットワーク6A)の設定を行うためのデータである。また、動作制御装置1Aは、外部インタフェース13を介して、制御する対象となる対象装置RA及びカメラ32と接続している。カメラ32は、対象装置RAの利用者UAを撮影可能な場所に適宜配置される。 Specifically, as shown in FIG. 9, the storage unit 12 of the motion control device 1A stores various information such as the motion control program 121A and the learning result data 122A. The operation control program 121A is a program for causing the operation control device 1A to execute information processing for controlling the operation of the target device RA by the same processing procedure as the operation support device 1, and issues a series of instructions for the information processing. include. The learning result data 122A is data for setting a learned learner (learned neural network 6A) that has been machine-learned to correct the operation of the target device RA according to the situation shown in the image. .. Further, the motion control device 1A is connected to the target device RA and the camera 32 to be controlled via the external interface 13. The camera 32 is appropriately arranged at a place where the user UA of the target device RA can be photographed.

また、図10に示されるとおり、動作制御装置1Aは、制御部11により動作制御プログラム121Aを実行することで、動作制御部111A、画像取得部112、及び動作補正部113をソフトウェアモジュールとして備えるコンピュータとして動作する。動作制御部113Aは、対象装置RAに所定の動作を指示する指示コマンド50Aであって、当該動作の所定の属性に関する指令値を含む指示コマンド50Aに基づいて、対象装置RAの動作を制御する。 Further, as shown in FIG. 10, the motion control device 1A is a computer including the motion control unit 111A, the image acquisition unit 112, and the motion correction unit 113 as software modules by executing the motion control program 121A by the control unit 11. Works as. The operation control unit 113A controls the operation of the target device RA based on the instruction command 50A that instructs the target device RA to perform a predetermined operation and includes a command value related to a predetermined attribute of the operation.

また、本変形例に係る動作補正部113は、学習済みのニューラルネットワーク6Aを含んでいる。動作補正部113は、画像に写る状況に応じて対象装置RAの動作を補正するための機械学習を行った学習済みのニューラルネットワーク6Aに撮影画像52を入力し、学習済みのニューラルネットワーク6Aの演算処理を実行することで、指示コマンド50Aの指令値に対する補正値を学習済みのニューラルネットワーク6Aから取得する。動作制御部111Aは、取得した補正値により指令値を補正し、指令値を補正した後の指示コマンド50Aに基づいて、対象装置RAの動作を制御する。 Further, the motion correction unit 113 according to this modification includes the trained neural network 6A. The motion correction unit 113 inputs the captured image 52 into the trained neural network 6A that has been machine-learned to correct the motion of the target device RA according to the situation reflected in the image, and calculates the trained neural network 6A. By executing the process, the correction value for the command value of the instruction command 50A is acquired from the trained neural network 6A. The operation control unit 111A corrects the command value based on the acquired correction value, and controls the operation of the target device RA based on the instruction command 50A after the command value is corrected.

なお、学習済みのニューラルネットワーク6Aは、撮影画像を入力すると、入力した撮影画像に写る状況に応じた補正値(又は、その補正値を取得するためのインデックス)を出力するように適宜構築される。学習装置2は、この学習済みのニューラルネットワーク6Aを上記実施形態と同様の処理手順(上記ステップS201〜S203の処理)に構築可能である。また、学習装置2は、構築された学習済みのニューラルネットワーク6Aの構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を学習結果データ122Aとして保存する。動作補正部113は、この学習結果データ122Aを参照して、学習済みのニューラルネットワーク6Aの設定を行う。 The trained neural network 6A is appropriately constructed so as to output a correction value (or an index for acquiring the correction value) according to the situation reflected in the input captured image when the captured image is input. .. The learning device 2 can construct the trained neural network 6A in the same processing procedure as in the above embodiment (processing in steps S201 to S203). Further, the learning device 2 stores information indicating the configuration of the constructed learned neural network 6A, the weight of the connection between each neuron, and the threshold value of each neuron as the learning result data 122A. The motion correction unit 113 sets the trained neural network 6A with reference to the learning result data 122A.

本変形例に係る動作制御装置1Aは、上記運転支援装置1とほぼ同様の処理手順により、対象装置RAの動作を制御する。具体的には、ステップS102では、制御部11は、動作制御部111Aとして動作し、対象装置RAに所定の動作を指示する指示コマンド50Aであって、当該動作の所定の属性に関する指令値を含む指示コマンド50Aに基づいて、対象装置RAの動作を制御する。指令値により規定される動作の属性は、対象装置RAの動作のあらゆる属性を含んでもよい。図8に例示されるとおり、対象装置RAが産業用ロボットである場合、指令値により規定される動作の属性は、産業用ロボットのモータの駆動量等であってよい。 The motion control device 1A according to this modification controls the motion of the target device RA by a processing procedure substantially the same as that of the operation support device 1. Specifically, in step S102, the control unit 11 operates as the operation control unit 111A, is an instruction command 50A that instructs the target device RA to perform a predetermined operation, and includes a command value related to a predetermined attribute of the operation. The operation of the target device RA is controlled based on the instruction command 50A. The operation attribute defined by the command value may include any attribute of the operation of the target device RA. As illustrated in FIG. 8, when the target device RA is an industrial robot, the attribute of the operation defined by the command value may be the driving amount of the motor of the industrial robot or the like.

ステップS103では、制御部11は、画像取得部112として動作し、対象装置RAを利用する利用者UAを撮影するように配置されたカメラ32から撮影画像52を取得する。ステップS104では、制御部11は、動作補正部113として動作し、画像に写る状況に応じて動作を補正するための機械学習を行った学習済みのニューラルネットワーク6Aに撮影画像52を入力し、学習済みのニューラルネットワーク6Aの演算処理を実行する。これにより、ステップS105では、制御部11は、指示コマンド50Aの指令値に対する補正値を学習済みのニューラルネットワーク6Aから取得する。 In step S103, the control unit 11 operates as the image acquisition unit 112 and acquires the captured image 52 from the camera 32 arranged to capture the user UA using the target device RA. In step S104, the control unit 11 operates as the motion correction unit 113, inputs the captured image 52 into the trained neural network 6A that has been machine-learned to correct the motion according to the situation reflected in the image, and learns. The arithmetic processing of the completed neural network 6A is executed. As a result, in step S105, the control unit 11 acquires the correction value for the command value of the instruction command 50A from the trained neural network 6A.

上記実施形態と同様に、学習済みのニューラルネットワーク6Aは、画像に写る人物の状態に応じて対象装置RAの動作を補正するように構築されていてもよい。学習済みのニューラルネットワーク6Aは、画像に写る人物の表情に応じて対象装置RAの動作を補正するように構築されていてもよい。学習済みのニューラルネットワーク6Aは、画像に写る人物の表情が怖がっていることに応じて対象装置RAの動作を軽減する又は打ち消す補正を行うように構築されていてもよい。学習済みのニューラルネットワーク6Aは、画像に写る人物のジェスチャに応じて対象装置RAの動作を補正するように構築されていてもよい。学習装置2は、上記実施形態と同様に機械学習により、各形態の学習済みのニューラルネットワーク6Aを構築可能である。 Similar to the above embodiment, the trained neural network 6A may be constructed so as to correct the operation of the target device RA according to the state of the person appearing in the image. The trained neural network 6A may be constructed so as to correct the operation of the target device RA according to the facial expression of the person appearing in the image. The trained neural network 6A may be constructed to reduce or cancel the operation of the target device RA depending on the fear of the facial expression of the person in the image. The trained neural network 6A may be constructed so as to correct the operation of the target device RA according to the gesture of the person appearing in the image. The learning device 2 can construct the trained neural network 6A of each form by machine learning as in the above embodiment.

ステップS106では、制御部11は、動作制御部111Aとして動作し、ステップS105で取得した補正値により指示コマンド50Aの指令値を補正する。そして、ステップS107では、制御部11は、動作制御部111Aとして動作し、指令値を補正した後の指示コマンド50Aに基づいて、対象装置RAの動作を制御する。これにより、撮影画像52に写る状況に応じて、対象装置RAの動作のバリエーションを実現することができる。例えば、利用者UA(作業者)が怖がった表情をした場合に、動作制御装置1Aは、対象装置RA(産業用ロボット)の動作を軽減する又は打ち消す補正を行うことができる。 In step S106, the control unit 11 operates as the operation control unit 111A, and corrects the command value of the instruction command 50A by the correction value acquired in step S105. Then, in step S107, the control unit 11 operates as the operation control unit 111A, and controls the operation of the target device RA based on the instruction command 50A after correcting the command value. As a result, it is possible to realize variations in the operation of the target device RA according to the situation captured in the captured image 52. For example, when the user UA (worker) makes a scared expression, the motion control device 1A can make a correction to reduce or cancel the motion of the target device RA (industrial robot).

1…運転支援装置、
11…制御部、12…記憶部、13…外部インタフェース、
111…運転制御部、112…画像取得部、
113…動作補正部、
121…運転支援プログラム、122…学習結果データ、
2…学習装置、
21…制御部、22…記憶部、23…通信インタフェース、
24…入力装置、25…出力装置、26…ドライブ、
211…学習データ取得部、212…学習処理部、
221…学習プログラム、222…学習データ、
92…記憶媒体、
30…ナビゲーション装置、
31…操作部、32…カメラ、
50…支援コマンド、
51…操作情報、52…撮影画像、
53…補正値、
6…ニューラルネットワーク(学習済みの学習器)、
61…入力層、62…中間層(隠れ層)、63…出力層、
7…ニューラルネットワーク、
71…入力層、72…中間層(隠れ層)、73…出力層
1 ... Driving support device,
11 ... Control unit, 12 ... Storage unit, 13 ... External interface,
111 ... Operation control unit, 112 ... Image acquisition unit,
113 ... Motion correction unit,
121 ... Driving support program, 122 ... Learning result data,
2 ... Learning device,
21 ... Control unit, 22 ... Storage unit, 23 ... Communication interface,
24 ... Input device, 25 ... Output device, 26 ... Drive,
211 ... Learning data acquisition unit, 212 ... Learning processing unit,
221 ... Learning program, 222 ... Learning data,
92 ... Storage medium,
30 ... Navigation device,
31 ... Operation unit, 32 ... Camera,
50 ... Support command,
51 ... Operation information, 52 ... Captured image,
53 ... Correction value,
6 ... Neural network (learned learner),
61 ... Input layer, 62 ... Intermediate layer (hidden layer), 63 ... Output layer,
7 ... Neural network,
71 ... Input layer, 72 ... Intermediate layer (hidden layer), 73 ... Output layer

Claims (12)

車両の運転の支援を指示する支援コマンドであって、運転動作の所定の属性に関する指令値を含む支援コマンドに基づいて、前記車両の運転の支援を制御する運転制御部であって、前記指令値はテンプレートにより与えられる、運転制御部と、
前記車両に乗車した乗員を撮影するように配置された撮影装置から撮影画像を取得する画像取得部と、
画像に写る状況に応じて運転動作を補正するための機械学習を行った学習済みの学習器に前記撮影画像を入力し、当該学習済みの学習器の演算処理を実行することで、前記支援コマンドの前記指令値に対する補正値を当該学習済みの学習器から取得する動作補正部と、
を備え、
前記運転制御部は、取得した前記補正値により前記指令値を補正し、前記指令値を補正した後の支援コマンドに基づいて、前記車両の運転の支援を制御する、
運転支援装置。
A support command for instructing support for driving a vehicle, which is a driving control unit that controls support for driving the vehicle based on a support command including a command value related to a predetermined attribute of the driving operation, and the command value. Is given by the template, with the operation control unit ,
An image acquisition unit that acquires a photographed image from an imaging device arranged so as to photograph an occupant in the vehicle, and an image acquisition unit.
The support command is obtained by inputting the captured image into a learned learner that has undergone machine learning to correct the driving motion according to the situation shown in the image and executing arithmetic processing of the learned learner. The motion correction unit that acquires the correction value for the command value of the above from the learned learner, and
With
The driving control unit corrects the command value with the acquired correction value, and controls the driving support of the vehicle based on the support command after the command value is corrected.
Driving support device.
前記学習済みの学習器は、前記機械学習により、画像に写る人物の状態に応じて運転動作を補正するように構築されている、
請求項1に記載の運転支援装置。
The learned learner is constructed so as to correct the driving motion according to the state of the person in the image by the machine learning.
The driving support device according to claim 1.
前記学習済みの学習器は、前記機械学習により、画像に写る人物の表情に応じて運転動作を補正するように構築されている、
請求項2に記載の運転支援装置。
The learned learner is constructed so as to correct the driving motion according to the facial expression of the person in the image by the machine learning.
The driving support device according to claim 2.
前記学習済みの学習器は、前記機械学習により、画像に写る人物の表情が怖がっていることに応じて前記運転の支援を軽減する又は打ち消す補正を行うように構築されている、
請求項3に記載の運転支援装置。
The learned learner is constructed so as to reduce or cancel the driving support according to the fear of the facial expression of the person in the image by the machine learning.
The driving support device according to claim 3.
前記学習済みの学習器は、前記機械学習により、画像に写る人物のジェスチャに応じて運転動作を補正するように構築されている、
請求項2に記載の運転支援装置。
The learned learner is constructed so as to correct the driving motion according to the gesture of the person shown in the image by the machine learning.
The driving support device according to claim 2.
前記動作補正部は、運転者による前記車両の操作指令を示す操作情報を前記学習済みの学習器に更に入力し、当該学習済みの学習器の演算処理を実行することで、前記学習済みの学習器から前記補正値を取得する、
請求項1から5のいずれか1項に記載の運転支援装置。
The motion correction unit further inputs operation information indicating an operation command of the vehicle by the driver to the learned learner, and executes arithmetic processing of the learned learner to perform the learned learning. Obtaining the correction value from the device,
The driving support device according to any one of claims 1 to 5.
前記運転動作の前記所定の属性は、ハンドルの操舵角、ブレーキ量、及びアクセル量の少なくともいずれかである、
請求項1から6のいずれか1項に記載の運転支援装置。
The predetermined attribute of the driving operation is at least one of the steering angle of the steering wheel, the braking amount, and the accelerator amount.
The driving support device according to any one of claims 1 to 6.
コンピュータが、
車両の運転の支援を指示する支援コマンドであって、運転動作の所定の属性に関する指令値を含む支援コマンドに基づいて、前記車両の運転の支援を制御するステップであって、前記指令値はテンプレートにより与えられる、ステップと、
前記車両に乗車した乗員を撮影するように配置された撮影装置から撮影画像を取得するステップと、
画像に写る状況に応じて運転動作を補正するための機械学習を行った学習済みの学習器に前記撮影画像を入力し、当該学習済みの学習器の演算処理を実行することで、前記支援コマンドの前記指令値に対する補正値を当該学習済みの学習器から取得するステップと、
取得した前記補正値により前記指令値を補正するステップと、
前記指令値を補正した後の支援コマンドに基づいて、前記車両の運転の支援を制御するステップと、
を実行する、
運転支援方法。
The computer
It is a support command for instructing the driving support of the vehicle, and is a step of controlling the driving support of the vehicle based on the support command including the command value related to a predetermined attribute of the driving operation, and the command value is a template. Given by the steps and
A step of acquiring a photographed image from a photographing device arranged so as to photograph an occupant in the vehicle, and a step of acquiring a photographed image.
The support command is obtained by inputting the captured image into a learned learner that has undergone machine learning to correct the driving motion according to the situation shown in the image and executing arithmetic processing of the learned learner. The step of acquiring the correction value for the command value of the above from the learned learner, and
A step of correcting the command value with the acquired correction value, and
A step of controlling the driving support of the vehicle based on the support command after correcting the command value, and
To execute,
Driving support method.
コンピュータに、
車両の運転の支援を指示する支援コマンドであって、運転動作の所定の属性に関する指令値を含む支援コマンドに基づいて、前記車両の運転の支援を制御するステップであって、前記指令値はテンプレートにより与えられる、ステップと、
前記車両に乗車した乗員を撮影するように配置された撮影装置から撮影画像を取得するステップと、
画像に写る状況に応じて運転動作を補正するための機械学習を行った学習済みの学習器に前記撮影画像を入力し、当該学習済みの学習器の演算処理を実行することで、前記支援コマンドの前記指令値に対する補正値を当該学習済みの学習器から取得するステップと、
取得した前記補正値により前記指令値を補正するステップと、
前記指令値を補正した後の支援コマンドに基づいて、前記車両の運転の支援を制御するステップと、
を実行させるための、
運転支援プログラム。
On the computer
It is a support command for instructing the driving support of the vehicle, and is a step of controlling the driving support of the vehicle based on the support command including the command value related to a predetermined attribute of the driving operation, and the command value is a template. Given by the steps and
A step of acquiring a photographed image from a photographing device arranged so as to photograph an occupant in the vehicle, and a step of acquiring a photographed image.
The support command is obtained by inputting the captured image into a learned learner that has undergone machine learning to correct the driving motion according to the situation shown in the image and executing arithmetic processing of the learned learner. The step of acquiring the correction value for the command value of the above from the learned learner, and
A step of correcting the command value with the acquired correction value, and
A step of controlling the driving support of the vehicle based on the support command after correcting the command value, and
To execute,
Driving support program.
対象装置に所定の動作を指示する指示コマンドであって、前記動作の所定の属性に関する指令値を含む指示コマンドに基づいて、前記対象装置の動作を制御する動作制御部であって、前記指令値はテンプレートにより与えられる、動作制御部と、
前記対象装置を利用する利用者を撮影するように配置された撮影装置から撮影画像を取得する画像取得部と、
画像に写る状況に応じて前記動作を補正するための機械学習を行った学習済みの学習器に前記撮影画像を入力し、当該学習済みの学習器の演算処理を実行することで、前記指示コマンドの指令値に対する補正値を当該学習済みの学習器から取得する動作補正部と、
を備え、
前記動作制御部は、取得した前記補正値により前記指令値を補正し、前記指令値を補正した後の指示コマンドに基づいて、前記対象装置の動作を制御する、
動作制御装置。
A instruction command for instructing a predetermined operation to the target device, based on an instruction command containing the command value for a given attribute of the operation, a motion control section that controls operation of the target device, the command value Is given by the template, with the motion control unit ,
An image acquisition unit that acquires a captured image from a photographing device arranged so as to photograph a user who uses the target device, and an image acquisition unit.
The instruction command is obtained by inputting the captured image into a learned learner that has undergone machine learning to correct the movement according to the situation reflected in the image and executing arithmetic processing of the learned learner. The motion correction unit that acquires the correction value for the command value of
With
The operation control unit corrects the command value with the acquired correction value, and controls the operation of the target device based on the instruction command after the command value is corrected.
Operation control device.
コンピュータが、
対象装置に所定の動作を指示する指示コマンドであって、前記動作の所定の属性に関する指令値を含む指示コマンドに基づいて、前記対象装置の動作を制御するステップであって、前記指令値はテンプレートにより与えられる、ステップと、
前記対象装置を利用する利用者を撮影するように配置された撮影装置から撮影画像を取得するステップと、
画像に写る状況に応じて前記動作を補正するための機械学習を行った学習済みの学習器に前記撮影画像を入力し、当該学習済みの学習器の演算処理を実行することで、前記指示コマンドの指令値に対する補正値を当該学習済みの学習器から取得するステップと、
取得した前記補正値により前記指令値を補正するステップと、
前記指令値を補正した後の指示コマンドに基づいて、前記対象装置の動作を制御するステップと、
を実行する、
動作制御方法。
The computer
An instruction command for instructing a target device to perform a predetermined operation, which is a step of controlling the operation of the target device based on an instruction command including a command value related to a predetermined attribute of the operation, and the command value is a template. Given by the steps and
A step of acquiring a captured image from a photographing device arranged so as to photograph a user who uses the target device, and
The instruction command is obtained by inputting the captured image into a learned learner that has undergone machine learning to correct the movement according to the situation reflected in the image and executing arithmetic processing of the learned learner. And the step of acquiring the correction value for the command value of
A step of correcting the command value with the acquired correction value, and
A step of controlling the operation of the target device based on the instruction command after correcting the command value, and
To execute,
Operation control method.
コンピュータに、
対象装置に所定の動作を指示する指示コマンドであって、前記動作の所定の属性に関する指令値を含む指示コマンドに基づいて、前記対象装置の動作を制御するステップであって、前記指令値はテンプレートにより与えられる、ステップと、
前記対象装置を利用する利用者を撮影するように配置された撮影装置から撮影画像を取得するステップと、
画像に写る状況に応じて前記動作を補正するための機械学習を行った学習済みの学習器に前記撮影画像を入力し、当該学習済みの学習器の演算処理を実行することで、前記指示コマンドの指令値に対する補正値を当該学習済みの学習器から取得するステップと、
取得した前記補正値により前記指令値を補正するステップと、
前記指令値を補正した後の指示コマンドに基づいて、前記対象装置の動作を制御するステップと、
を実行させるための、
動作制御プログラム。
On the computer
An instruction command for instructing a target device to perform a predetermined operation, which is a step of controlling the operation of the target device based on an instruction command including a command value related to a predetermined attribute of the operation, and the command value is a template. Given by the steps and
A step of acquiring a captured image from a photographing device arranged so as to photograph a user who uses the target device, and
The instruction command is obtained by inputting the captured image into a learned learner that has undergone machine learning to correct the movement according to the situation reflected in the image and executing arithmetic processing of the learned learner. And the step of acquiring the correction value for the command value of
A step of correcting the command value with the acquired correction value, and
A step of controlling the operation of the target device based on the instruction command after correcting the command value, and
To execute,
Operation control program.
JP2018047055A 2018-03-14 2018-03-14 Driving support device, driving support method, driving support program, motion control device, motion control method, and motion control program Active JP6947091B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018047055A JP6947091B2 (en) 2018-03-14 2018-03-14 Driving support device, driving support method, driving support program, motion control device, motion control method, and motion control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018047055A JP6947091B2 (en) 2018-03-14 2018-03-14 Driving support device, driving support method, driving support program, motion control device, motion control method, and motion control program

Publications (2)

Publication Number Publication Date
JP2019159930A JP2019159930A (en) 2019-09-19
JP6947091B2 true JP6947091B2 (en) 2021-10-13

Family

ID=67996311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018047055A Active JP6947091B2 (en) 2018-03-14 2018-03-14 Driving support device, driving support method, driving support program, motion control device, motion control method, and motion control program

Country Status (1)

Country Link
JP (1) JP6947091B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110816531B (en) * 2019-11-22 2020-12-04 辽宁工业大学 Control system and control method for safe distance between unmanned automobile vehicles

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4301084B2 (en) * 2003-11-12 2009-07-22 トヨタ自動車株式会社 Driving support policy determination method and driving support device
JP2011117905A (en) * 2009-12-07 2011-06-16 Pioneer Electronic Corp Route selection support device and route selection support method
US9919717B2 (en) * 2014-04-14 2018-03-20 Mitsubishi Electric Corporation Driving assistance device and driving assistance method
JP2016020177A (en) * 2014-07-15 2016-02-04 株式会社デンソー Driving control device
JP6451583B2 (en) * 2015-10-08 2019-01-16 株式会社デンソー Driving assistance device
JP6701913B2 (en) * 2016-04-18 2020-05-27 トヨタ自動車株式会社 Vehicle control device

Also Published As

Publication number Publication date
JP2019159930A (en) 2019-09-19

Similar Documents

Publication Publication Date Title
US20210053616A1 (en) Steering control for vehicles
CN111252061B (en) Real-time decision-making for autonomous vehicles
CN112805198B (en) Personal driving style learning for autonomous driving
US10839230B2 (en) Multi-tier network for task-oriented deep neural network
CN109214987B (en) Method and system for operating an autonomous vehicle
CN109214986B (en) Method and system for operating an autonomous vehicle
JP7222868B2 (en) Real-time prediction of object behavior
CN108537326B (en) Method, medium, and system for autonomous driving of vehicle
WO2018168039A1 (en) Driver monitoring device, driver monitoring method, learning device, and learning method
CN111240312B (en) Learning-based dynamic modeling method for automatically driven vehicles
CN110214107B (en) Autonomous vehicle providing driver education
CN111380534B (en) ST-chart-based learning method for automatically driving vehicle
CN111899594B (en) Automated training data extraction method for dynamic models of autonomous vehicles
US11465650B2 (en) Model-free reinforcement learning
JP2019202765A (en) Pid embedding lqr for automatic drive vehicle
EP3750765A1 (en) Methods, apparatuses and computer programs for generating a machine-learning model and for generating a control signal for operating a vehicle
JP2019505423A (en) Steering control method and system for autonomous vehicle using proportional, integral and derivative (PID) controller
CN110901656B (en) Experimental design method and system for autonomous vehicle control
CN112534367B (en) Learning device, control device, learning method, and computer-readable storage medium
JP2021059327A (en) Safe transition from autonomous driving mode to manual driving mode along with support of autonomous driving system
US11964671B2 (en) System and method for improving interaction of a plurality of autonomous vehicles with a driving environment including said vehicles
WO2021070737A1 (en) Control of autonomous vehicles adaptive to user driving preferences
JP2019031268A (en) Control policy learning and vehicle control method based on reinforcement learning without active exploration
JP6947091B2 (en) Driving support device, driving support method, driving support program, motion control device, motion control method, and motion control program
JP6986503B2 (en) Electronic control device, neural network update system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210830

R150 Certificate of patent or registration of utility model

Ref document number: 6947091

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150