JP2020142566A - Evaluation device, control system, notification system, generation method for learning model, computer program and storage medium - Google Patents
Evaluation device, control system, notification system, generation method for learning model, computer program and storage medium Download PDFInfo
- Publication number
- JP2020142566A JP2020142566A JP2019038893A JP2019038893A JP2020142566A JP 2020142566 A JP2020142566 A JP 2020142566A JP 2019038893 A JP2019038893 A JP 2019038893A JP 2019038893 A JP2019038893 A JP 2019038893A JP 2020142566 A JP2020142566 A JP 2020142566A
- Authority
- JP
- Japan
- Prior art keywords
- control
- human
- powered vehicle
- evaluation
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 163
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000004590 computer program Methods 0.000 title claims abstract description 22
- 230000006870 function Effects 0.000 claims description 41
- 239000000725 suspension Substances 0.000 claims description 26
- 230000001133 acceleration Effects 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 10
- 230000008929 regeneration Effects 0.000 claims description 8
- 238000011069 regeneration method Methods 0.000 claims description 8
- 230000009471 action Effects 0.000 description 68
- 238000012545 processing Methods 0.000 description 65
- 230000005540 biological transmission Effects 0.000 description 33
- 238000004891 communication Methods 0.000 description 24
- 230000015654 memory Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000003542 behavioural effect Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 239000003921 oil Substances 0.000 description 5
- 230000003139 buffering effect Effects 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 239000010720 hydraulic oil Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000013016 damping Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
Description
本発明は、評価装置、制御システム、報知システム、学習モデルの生成方法、コンピュータプログラム、および、記憶媒体に関する。 The present invention relates to an evaluation device, a control system, a notification system, a learning model generation method, a computer program, and a storage medium.
電動コンポーネントを含む自転車の制御システムが知られている。例えば、特許文献1には、操作装置、制御装置、および、電動コンポーネントが無線接続された制御システムが開示されている。
Bicycle control systems, including electric components, are known. For example,
現在、自転車の制御システムにおいて、制御を評価することが求められている。 Currently, it is required to evaluate the control in the control system of the bicycle.
本発明は、人力駆動車のコンポーネントに対する制御の好ましさを評価する評価装置、制御システム、報知システム、学習モデルの生成方法、コンピュータプログラム、および、記憶媒体を提供することを目的とする。 An object of the present invention is to provide an evaluation device, a control system, a notification system, a learning model generation method, a computer program, and a storage medium for evaluating the preference of control for a component of a human-powered vehicle.
本発明の第1側面に係る評価装置は、人力駆動車の走行に関する走行情報に従って、前記人力駆動車のコンポーネントに対する制御の好ましさを、学習モデルを用いて評価する。 The evaluation device according to the first aspect of the present invention evaluates the preference of control for the components of the human-powered vehicle by using a learning model according to the traveling information regarding the traveling of the human-powered vehicle.
この評価装置によれば、学習モデルを用いることによって、人力駆動車の走行情報に従い、コンポーネントに対する制御の好ましさを評価できる。ここで、制御の好ましさとは、コンポーネントを制御した際の人力駆動車の状態の良し悪しを示唆する情報である。制御の好ましさは、例えば、人力駆動車のトラクションの良し悪しにより評価される。したがって、評価装置は、人力駆動車のトラクションが良好となる制御を高く評価し、トラクションが失われると推定される制御を低く評価する。 According to this evaluation device, by using the learning model, it is possible to evaluate the preference of control for the component according to the driving information of the human-powered vehicle. Here, the preference of control is information suggesting whether the state of the human-powered vehicle is good or bad when the component is controlled. The preference of control is evaluated, for example, by the quality of traction of a human-powered vehicle. Therefore, the evaluation device highly evaluates the control that improves the traction of the human-powered vehicle, and evaluates the control that is presumed to lose traction.
本発明の第1側面に係る第2側面の評価装置は、前記好ましさの評価結果と、前記評価結果に応じた前記コンポーネントの制御結果と、に応じて前記学習モデルを再学習させる。 The evaluation device of the second aspect according to the first aspect of the present invention retrains the learning model according to the evaluation result of the preference and the control result of the component according to the evaluation result.
この評価装置によれば、評価装置の評価結果と、コンポーネントの制御結果とに応じて、学習モデルを再学習させるので、学習が進行するにつれて、より好ましい制御状態を実現できる。 According to this evaluation device, the learning model is retrained according to the evaluation result of the evaluation device and the control result of the component, so that a more preferable control state can be realized as the learning progresses.
本発明の第1または第2側面に係る第3側面の評価装置は、前記走行情報は、速度、加速度、姿勢、荷重、駆動力、ケイデンス、変速比、操作装置への操作入力、前記操作入力と前記コンポーネントの制御結果の履歴、回生量、傾斜、路面状況、位置、天候、および、車両情報のうちの少なくとも1つに関する情報を含む。 In the evaluation device of the third aspect according to the first or second aspect of the present invention, the traveling information includes speed, acceleration, attitude, load, driving force, cadence, gear ratio, operation input to the operation device, and the operation input. And information about at least one of the history of control results of the component, regeneration amount, slope, road surface condition, position, weather, and vehicle information.
この評価装置によれば、速度、加速度、姿勢、荷重、駆動力、ケイデンス、変速比、操作装置への操作入力、操作入力とコンポーネントの制御結果の履歴、回生量、傾斜、路面状況、位置、天候、および、車両情報のうちの少なくとも1つに従って、コンポーネントに対する制御の好ましさを評価できる。 According to this evaluation device, speed, acceleration, attitude, load, driving force, cadence, gear ratio, operation input to the operation device, history of operation input and component control result, regeneration amount, inclination, road surface condition, position, The preference for control over the component can be assessed according to the weather and at least one of the vehicle information.
本発明の第1または第2側面に係る第4側面の評価装置は、前記人力駆動車の走行情報は、前記人力駆動車のトラクションに関する情報を含む。 In the evaluation device of the fourth aspect according to the first or second aspect of the present invention, the traveling information of the manpower-driven vehicle includes information regarding the traction of the man-powered vehicle.
この評価装置によれば、人力駆動車のトラクションに関する情報に従って、コンポーネントに対する制御の好ましさを評価できる。 According to this evaluation device, it is possible to evaluate the preference of control for the component according to the information regarding the traction of the man-powered vehicle.
本発明の第5側面に係る制御システムは、第1から第4側面のいずれか1つに係る評価装置と、前記評価装置の評価結果に基づいて前記コンポーネントを制御する制御装置と、を備える。 The control system according to the fifth aspect of the present invention includes an evaluation device according to any one of the first to fourth aspects, and a control device that controls the component based on the evaluation result of the evaluation device.
この制御システムによれば、評価装置の評価結果に基づき、制御装置がコンポーネントを制御するので、ライダーの操作に依らずに、より好ましい制御状態を実現できる。 According to this control system, since the control device controls the components based on the evaluation result of the evaluation device, a more preferable control state can be realized without depending on the operation of the rider.
本発明の第5側面に係る第6側面の制御システムは、前記コンポーネントは、補助駆動力を出力する電動駆動ユニットを有するアシスト装置を含む。 In the control system of the sixth aspect according to the fifth aspect of the present invention, the component includes an assist device including an electric drive unit that outputs an auxiliary driving force.
この制御システムによれば、制御装置は、補助駆動力を出力するアシスト装置を制御するので、補助駆動制御に関して、より好ましい制御状態を実現できる。 According to this control system, since the control device controls the assist device that outputs the auxiliary driving force, a more preferable control state can be realized with respect to the auxiliary drive control.
本発明の第5または第6側面に係る第7側面の制御システムは、前記コンポーネントは、電動駆動ユニットを有するブレーキ装置を含む。 In the control system of the seventh aspect according to the fifth or sixth aspect of the present invention, the component includes a braking device including an electric drive unit.
この制御システムによれば、制御装置は、ブレーキ装置を制御するので、ブレーキ制御に関して、より好ましい制御状態を実現できる。 According to this control system, since the control device controls the brake device, a more preferable control state can be realized with respect to the brake control.
本発明の第5から第7側面のいずれか1つに係る第8側面の制御システムは、前記コンポーネントは、電動駆動ユニットを有するアンチロックブレーキ装置を含む。 In the control system of the eighth aspect according to any one of the fifth to seventh aspects of the present invention, the component includes an antilock braking device including an electric drive unit.
この制御システムによれば、制御装置は、アンチロックブレーキ装置を制御するので、アンチロックブレーキ制御に関して、より好ましい制御状態を実現できる。 According to this control system, the control device controls the antilock brake device, so that a more preferable control state can be realized with respect to the antilock brake control.
本発明の第5から第8側面のいずれか1つに係る第9側面の制御システムは、前記コンポーネントは、電動駆動ユニットを有するサスペンション装置を含む。 In the control system of the ninth aspect according to any one of the fifth to eighth aspects of the present invention, the component includes a suspension device including an electric drive unit.
この制御システムによれば、制御装置は、サスペンション装置を制御するので、サスペンション制御に関して、より好ましい制御状態を実現できる。 According to this control system, since the control device controls the suspension device, a more preferable control state can be realized with respect to the suspension control.
本発明の第10側面に係る報知システムは、第1から第4側面のいずれか1つに係る評価装置と、前記評価装置の評価結果に関する情報を報知する報知装置と、を備える。 The notification system according to the tenth aspect of the present invention includes an evaluation device according to any one of the first to fourth aspects and a notification device for notifying information on the evaluation result of the evaluation device.
この報知システムによれば、評価結果に関する情報を報知する報知装置を備えるので、ライダーは人力駆動車の制御状態の良否を把握できる。 According to this notification system, since a notification device for notifying information on the evaluation result is provided, the rider can grasp the quality of the control state of the human-powered vehicle.
本発明の第10側面に係る第11側面の報知システムは、前記評価結果に関する情報は、前記コンポーネントの制御状態に関する情報を含む。 In the notification system of the eleventh aspect according to the tenth aspect of the present invention, the information regarding the evaluation result includes the information regarding the control state of the component.
この報知システムによれば、評価結果に関する情報は、コンポーネントの制御状態に関する情報を含むので、ライダーはコンポーネントの制御状態の良否を把握できる。 According to this notification system, the information regarding the evaluation result includes the information regarding the control state of the component, so that the rider can grasp the quality of the control state of the component.
本発明の第12側面に係る学習モデルの生成方法は、コンピュータを用いて、人力駆動車の走行に関する走行情報に従って、前記人力駆動車のコンポーネントに対する制御の好ましさを、関数を用いて評価し、前記好ましさの評価結果と、前記評価結果に応じた前記コンポーネントの制御結果と、に応じて前記関数を更新することによって学習モデルを生成する。 In the method of generating the learning model according to the twelfth aspect of the present invention, the preference of control for the components of the human-powered vehicle is evaluated by using a function according to the driving information regarding the running of the human-powered vehicle using a computer. , The learning model is generated by updating the function according to the evaluation result of the preference and the control result of the component according to the evaluation result.
この学習モデルの生成方法によれば、人力駆動車の走行情報を収集することによって、コンポーネントの制御に対する好ましさを評価するための学習モデルを生成できる。 According to this learning model generation method, it is possible to generate a learning model for evaluating the preference for controlling the components by collecting the driving information of the human-powered vehicle.
本発明の第13側面に係るコンピュータプログラムは、コンピュータに、人力駆動車の走行に関する走行情報に従って、前記人力駆動車のコンポーネントに対する制御の好ましさを、学習モデルを用いて評価する処理を実行させるためのコンピュータプログラムである。 The computer program according to the thirteenth aspect of the present invention causes a computer to execute a process of evaluating the preference for control of the components of the human-powered vehicle by using a learning model according to the traveling information regarding the running of the human-powered vehicle. Is a computer program for.
このコンピュータプログラムによれば、人力駆動車の走行情報に従ってコンポーネントに対する制御野好ましさを評価する実行環境を、コンピュータによって実現できる。 According to this computer program, an execution environment for evaluating the control ambition for the components according to the driving information of the human-powered vehicle can be realized by the computer.
本発明の第14側面に係る記憶媒体は、第13側面に係るコンピュータプログラムが記憶される。 The storage medium according to the 14th aspect of the present invention stores the computer program according to the 13th aspect.
この記憶媒体によれば、記憶媒体に記憶されているコンピュータプログラムをコンピュータにインストールすることによって、人力駆動車の走行情報に従ってコンポーネントに対する制御野好ましさを評価する実行環境を、コンピュータによって実現できる。 According to this storage medium, by installing a computer program stored in the storage medium in the computer, it is possible to realize an execution environment in which the control ambition for the component is evaluated according to the driving information of the human-powered vehicle.
本願によれば、人力駆動車のコンポーネントに対する制御の好ましさを評価できる。 According to the present application, it is possible to evaluate the preference for control over the components of a human-powered vehicle.
以下、本発明をその実施の形態を示す図面に基づいて具体的に説明する。
(第1実施形態)
図1は第1実施形態の評価装置100が適用される人力駆動車1の側面図である。人力駆動車1は、走行のための原動力に関して、少なくとも部分的に人力を用いる車両である。内燃機関または電動機のみを原動力に用いる車両は、本実施形態の人力駆動車1から除外される。人力駆動車1は、例えば、マウンテンバイク、ロードバイク、クロスバイク、シティサイクル等を含む自転車である。
Hereinafter, the present invention will be specifically described with reference to the drawings showing the embodiments thereof.
(First Embodiment)
FIG. 1 is a side view of the human-powered
人力駆動車1は、車両本体10、前輪12、後輪14、ハンドルバー16、シート18、および、駆動機構20を備える。以下の説明において、前後、左右、および、上下の各方向を表す用語は、ライダーが人力駆動車1のシート18に着座した状態における方向を基準として用いられる。
The human-powered
車両本体10は、フレーム10Aおよびフロントフォーク10Bを備える。前輪12は、フロントフォーク10Bに回転可能に支持される。後輪14は、フレーム10Aに回転可能に支持される。ハンドルバー16は、前輪12の進行方向を変更できるように、フレーム10Aに支持される。
The
駆動機構20は、人力駆動力を後輪14へ伝達する。駆動機構20は、クランク22、フロントスプロケットアセンブリ24A、リアスプロケットアセンブリ24B、チェーン26、および、一対のペダル28,28を含む。駆動機構20は、更に、チェーン26が外れることを抑制するためのチェーンデバイスを備えてもよい。
The
クランク22は、右クランク22A、左クランク22B、および、クランク軸22Cを含む。クランク軸22Cは、フレーム10Aに回転可能に支持される。右クランク22Aおよび左クランク22Bは、それぞれクランク軸22Cに連結される。一対のペダル28,28の一方は右クランク22Aに回転可能に支持され、他方は左クランク22Bに回転可能に支持される。
The
フロントスプロケットアセンブリ24Aは、クランク軸22Cに連結されており、クランク軸22Cと一体的に回転する。フロントスプロケットアセンブリ24Aは、一例では、外径が異なる複数のフロントスプロケットを含む。複数のフロントスプロケットの外径は、クランク軸22の回転軸心と平行な方向において、車両本体10の中心面から外側に向かって大きくなる。
The
リアスプロケットアセンブリ24Bは、後輪14のハブ(図示略)に回転可能に支持される。リアスプロケットアセンブリ24Bは、一例では、外径が異なる複数のリアスプロケットを含む。複数のリアスプロケットの外径は、ハブアセンブリの回転軸心と平行な方向において、車両本体10の中心面から外側に向かって小さくなる。
The
チェーン26は、フロントスプロケットアセンブリ24Aおよびリアスプロケットアセンブリ24Bに巻き掛けられる。ペダル28,28に加えられる人力駆動力によってクランク22が前転すると、フロントスプロケットアセンブリ24Aがクランク22と共に前転する。フロントスプロケットアセンブリ24Aの回転は、チェーン26を介してリアスプロケットアセンブリ24Bに伝達し、後輪14を回転させる。チェーン26の代わりに、ベルトまたはシャフトを用いてもよい。
The
人力駆動車1は、更に、操作装置30、変速装置32および33、アシスト装置34、ブレーキ装置36、アンチロックブレーキ装置38、サスペンション装置40、および、バッテリユニット42を備える。
The human-powered
操作装置30は、例えばハンドルバー16に設けられる。操作スイッチ30は、ライダーの指によって操作される操作スイッチ30A,30Bを備える。操作スイッチ30A,30Bは、変速装置32、アシスト装置34、ブレーキ装置36、アンチロックブレーキ装置38、および、サスペンション装置40の少なくとも1つを制御するためのスイッチである。
The operating
人力駆動車1に搭載される操作装置30の数は1つである必要はなく、複数であってもよい。図1に示した例では、操作装置30が2つの操作スイッチ30A,30Bを備える構成としたが、1つまたは3つ以上の操作スイッチを備える構成であってもよい。操作装置30は、スイッチを備える構成に限定されず、操作レバーまたは操作ダイヤル等を備える構成であってもよい。
The number of
操作装置30は、操作スイッチ30Aまたは操作スイッチ30Bの操作に応じた制御信号を制御対象のコンポーネントへ送信できるように、各コンポーネントに接続される。一例では、操作装置30は、通信線またはPLC(Power Line Communication)が可能な電線によって制御対象のコンポーネントに接続される。制御対象のコンポーネントは、変速装置32、アシスト装置34、ブレーキ装置36、アンチロックブレーキ装置38、および、サスペンション装置40の少なくとも1つである。他の例では、操作装置30は、無線通信が可能な無線通信ユニットによって制御対象のコンポーネントに接続される。操作装置30は、更に、操作入力に関する情報を評価装置100へ出力してもよい。
The
変速装置32は、操作装置30から送信される制御信号に応じて動作が制御される人力駆動車1のコンポーネントの1つである。変速装置32は、電動アクチュエータ32Aおよびチェーンガイド32Bを備える。電動アクチュエータ32Aの一例は、電動モータである。変速装置32は、電動アクチュエータ32Aを駆動し、チェーンガイド32を動作させることによって、チェーン26が巻き掛けられるリアスプロケットを変更し、人力駆動車1の変速比を切り替える。
The
変速装置32の一例は外装変速機である。変速装置32が外装変速機である場合、リアスプロケットアセンブリ24Bは、外径が異なる複数のリアスプロケットを含む。変速装置32は、シフトアップを指示する制御信号を操作装置30から受信した場合、チェーン26が巻き掛けられるリアスプロケットを、現在のリアスプロケットよりも外径が小さいリアスプロケットに変更するように、電動アクチュエータ32Aによってチェーンガイド32Bを動作させる。変速装置32は、シフトダウンを指示する制御信号を操作装置30から受信した場合、チェーン26が巻き掛けられるリアスプロケットを、現在のリアスプロケットよりも外径が大きいリアスプロケットに変更するように、電動アクチュエータ32Aによってチェーンガイド32Bを動作させる。
An example of the
変速装置33は、操作装置30から送信される制御信号に応じて動作が制御される人力駆動車1のコンポーネントの1つである。変速装置33は、電動アクチュエータ33Aおよびチェーンガイド33Bを備える。電動アクチュエータ33Aの一例は、電動モータである。変速装置33は、電動アクチュエータ33Aの駆動によって、チェーンガイド33Bを動作させることで、チェーン26が巻き掛けられるフロントスプロケットを変更し、人力駆動車1の変速比を切り替える。
The transmission 33 is one of the components of the human-powered
変速装置33の一例は外装変速機である。変速装置33が外装変速機である場合、フロントスプロケットアセンブリ24Aは、外径が異なる複数のフロントスプロケットを含む。本実施形態において、変速装置33は、シフトアップを指示する制御信号を操作装置30から受信した場合、チェーン26が巻き掛けられるフロントスプロケットを、現在のスプロケットよりも外径が大きいスプロケットに変更するように電動アクチュエータ33Aによってチェーンガイド33Bを動作させる。変速装置33は、シフトダウンを指示する制御信号を操作装置30から受信した場合、例えば、チェーン26が巻き掛けられるフロントスプロケットを、現在のフロントスプロケットよりも外径が小さいフロントスプロケットに変更するように、電動アクチュエータ33Aによってチェーンガイド33Bを動作させる。
An example of the transmission 33 is an external transmission. When the transmission 33 is an external transmission, the
変速装置32および33は内装変速機であってもよい。例えば、変速装置32が内装変速機である場合、変速装置32は例えば後輪14のハブに設けられ、リアスプロケットアセンブリ24Bに入力された回転を変速して後輪14に伝達する。このとき、リアスプロケットアセンブリ24Bに含まれるリアスプロケットは単一である。変速装置32および33の少なくとも1つは、無段変速機であってもよい。
The
アシスト装置34は、駆動機構20に対して設けられる。アシスト装置34は、電動駆動ユニット34Aを有する。電動駆動ユニット34Aは、駆動回路、メモリ、電動モータ等を含み、駆動回路が電動モータを作動させることによって補助駆動力を出力し、人力駆動車1の走行を補助する。本実施の形態において、アシスト装置34は、後述の制御装置200によって自動制御されるコンポーネントの1つである。制御装置200は、図5に示される。アシスト装置34は、操作装置30から出力される制御信号に応じて制御されてもよい。アシスト装置34の制御状態は、補助駆動力が異なる複数の制御状態を含む。アシスト装置34における制御状態はアシストレベルともいう。アシスト装置34は、例えばクランク22に作用する人力駆動力に応じて、アシストレベルを変更する。アシストレベルは、たとえば4段階設けられる場合、強アシストレベル、中アシストレベル、弱アシストレベル、およびゼロアシストレベルを含む。ゼロアシストレベルでは、モータユニット34を駆動せず、アシストが行われない。
The
なお、アシスト装置34は、人力駆動車1を制動する回生ブレーキ装置としても機能するように構成されてもよい。回生量を含むアシスト装置34の制御結果は、評価装置100へ出力され、評価装置100の記憶部106に履歴として記憶されてもよい。評価装置100の記憶部106は、図2において示される。
The
ブレーキ装置36は、前輪12および後輪14に対して設けられる。前輪12に設けられるブレーキ装置36は、電動駆動ユニット36Aと、前輪12のホイールに接触可能なブレーキパッドを含むキャリパ36Bとを備える、リムブレーキである。ブレーキ装置36の電動駆動ユニット36Aは、駆動回路、および、電動モータを含む。ブレーキ装置36は、制御装置200によって自動制御されるコンポーネントの1つである。ブレーキ装置36は、ハンドルバー16に設けられるブレーキ操作装置36Cに接続されてもよい。制御装置200からの制御信号、または、ブレーキ操作装置36Cの操作に応じて、電動駆動ユニット36Aの駆動回路は、電動モータによってキャリパ36Bを作動させ、ブレーキパッドを前輪12のホイールに接触させることによって、前輪12の回転力を減衰させる。ブレーキ装置36は、制動力が異なる複数の制御状態にて動作可能である。ブレーキ装置36の制御結果は、評価装置100へ出力され、評価装置100の記憶部106に履歴として記憶されてもよい。ブレーキ装置36は、ブレーキ操作装置36Cへの操作入力に関する情報を、評価装置100へ出力してもよい。操作入力に関する情報には、例えば、ブレーキ操作の仕方、操作量、および、左右いずれのブレーキ装置36の操作であるのかを示す情報が含まれる。
The
後輪14に設けられるブレーキ装置36は、電動駆動ユニット36Aと、後輪14のホイールに接触可能なブレーキパッドを含むキャリパ36Bとを備える、リムブレーキである。ブレーキ装置36の電動駆動ユニット36Aは、駆動回路、および、電動モータを含む。ブレーキ装置36は、制御装置200によって自動制御されるコンポーネントの1つである。ブレーキ装置36は、ハンドルバー16に設けられるブレーキ操作装置36Cに接続されてもよい。制御装置200からの制御信号、または、ブレーキ操作装置36Cの操作に応じて、電動駆動ユニット36Aの駆動回路は、電動モータによってキャリパ36Bを作動させ、ブレーキパッドを後輪14のホイールに接触させることによって、後輪14の回転力を減衰させる。ブレーキ装置36は、制動力が異なる複数の制御状態にて動作可能である。ブレーキ装置36の制御結果は、評価装置100へ出力され、評価装置100の記憶部106に履歴として記憶されてもよい。ブレーキ装置36は、ブレーキ操作装置36Cへの操作入力に関する情報を、評価装置100へ出力してもよい。
The
ブレーキ装置36は、前輪12のハブおよび後輪14のハブに取り付けられる回転体に接触可能なブレーキパッドを含むディスクブレーキであってもよい。ディスクブレーキでは、例えば、電動モータによって流体を制御してブレーキパッドを移動させ、ブレーキパッドを回転体(ディスクブレーキロータ)に押し当てることによって、前輪12または後輪14の回転力を減衰させる。または、ディスクブレーキは、電動モータによって直接的にブレーキパッドを移動させ、ブレーキパッドを回転体に押し当てることによって、前輪12または後輪14の回転力を減衰させる。
The
アンチロックブレーキ装置38は、ブレーキ装置36に対して設けられる。アンチロックブレーキ装置38は、駆動回路を含む電動駆動ユニット38A、作動油を溜めるリザーバ、作動油を供給し、キャリパ36Bに油圧を与えるポンプ、ブレーキ装置36のキャリパ36Bに与えられる油圧を調節するバルブ等を備える。電動駆動ユニット38Aは、バルブの開閉を制御し、キャリパ36Bに与える油圧を調節することによって、キャリパ36Bから前輪12または後輪14に与える制動力を制御する。アンチロックブレーキ装置38は、制御装置200によって自動制御されるコンポーネントの1つである。アンチロックブレーキ装置38は、キャリパ36Bに与える油圧の大きさが異なる複数の制御状態にて動作可能である。アンチロックブレーキ装置38の制御結果は、評価装置100へ出力され、評価装置100の記憶部106に履歴として記憶される。
The
サスペンション装置40は、一例では、フロントフォーク10Bに設けられ、前輪12に加えられた衝撃を減衰するフロントサスペンションである。他の例では、サスペンション装置40は、後輪14に加えられた衝撃を減衰するリアサスペンションである。サスペンション装置40は、電動駆動ユニット40Aを備える。電動駆動ユニット40Aは、駆動回路、および、電動モータを含む。サスペンション装置40は、動作パラメータとして、例えば、減衰率、反発力、ストローク量、およびロックアウト状態を設定することによって制御される。サスペンション装置40は、制御装置200によって自動制御されるコンポーネントの1つである。サスペンション装置40は、緩衝性が異なる複数の制御状態にて動作可能である。サスペンション装置40の制御結果は、評価装置100へ出力され、評価装置100の記憶部106に履歴として記憶される。
The
バッテリユニット42は、バッテリ42Aおよびバッテリホルダ42Bを含む。バッテリ42Aは、1または複数のバッテリセルを含む蓄電池である。バッテリホルダ42Bは、人力駆動車1のフレーム10Aに固定される。バッテリ42Aは、バッテリホルダ42Bに、着脱可能に取り付けられる。バッテリ42Aは、変速装置32、アシスト装置34、ブレーキ装置36、アンチロックブレーキ装置38、サスペンション装置40などにそれぞれ電気的に接続される。
The
人力駆動車1は、更に、車速センサS1、加速度センサS2、姿勢センサS3、荷重センサS4、トルクセンサS5、ケイデンスセンサS6、傾斜センサS7、撮像センサS8、位置センサS9、および、気象センサS10の少なくとも1つを備えてもよい。以下の説明において、それぞれを個別に説明する必要がない場合、センサS1〜S10とも記載する。
The human-powered
車速センサS1は、人力駆動車1の速度に応じた信号を出力するセンサである。車速センサS1は、フレーム10Aまたはフロントフォーク10Bに取り付けられる。車速センサS1は、例えばホール素子を含み、前輪12または後輪14に設けられる磁石(図示略)を検出することによって、前輪12または後輪14の回転速度を計測する。一例では、車速センサS1は、前輪12または後輪14の回転速度を示す信号を出力する。他の例では、車速センサS1は、計測した前輪12または後輪14の回転速度に基づき、人力駆動車1の速度を算出し、算出した速度を示す信号を出力する。
The vehicle speed sensor S1 is a sensor that outputs a signal corresponding to the speed of the human-powered
加速度センサS2は、人力駆動車1の前後方向の加速度に応じた信号を出力するセンサである。加速度センサS2は、例えば、フレーム10Aに設けられ、前後方向の加速度が加えられた場合における錘の変位を静電容量または抵抗値の変化として検出することによって加速度を計測する。加速度センサS2は、人力駆動車1のヨー方向、ロール方向、および、ピッチ方向の加速度を計測するモーションセンサであってもよい。
The acceleration sensor S2 is a sensor that outputs a signal corresponding to the acceleration in the front-rear direction of the human-powered
姿勢センサS3は、ライダーの姿勢に応じた信号を出力するセンサである。姿勢センサS3の一例は圧電センサであり、ライダーの体重が掛かる人力駆動車1の複数箇所に設けられる。例えば、姿勢センサS3は、ハンドルバー16が備えるグリップ、シート18の表面、ペダル28等の1または複数箇所に設けられる。姿勢センサS3は、ライダーに装着されるウェアラブル端末に内蔵されるモーションセンサであってもよい。
The posture sensor S3 is a sensor that outputs a signal according to the posture of the rider. An example of the posture sensor S3 is a piezoelectric sensor, which is provided at a plurality of locations of the human-powered
荷重センサS4は、人力駆動車1に加えられる荷重に応じた信号を出力するセンサである。荷重センサS4の一例は、歪みゲージ式のロードセルである。荷重センサS4は、前輪12または後輪14の車軸、ハンドルバー16、シート18、ペダル28等の人力駆動車1の一箇所または復数箇所に設けられる。荷重センサS4は、前輪12および後輪14の接地荷重を計測するセンサであってもよく、人力駆動車1の荷重バランスを計測するセンサであってもよい。姿勢センサS3および荷重センサS4の少なくとも一部を共通化してもよい。
The load sensor S4 is a sensor that outputs a signal corresponding to the load applied to the human-powered
トルクセンサS5は、クランク22に加えられるトルクに応じた信号を出力するセンサである。トルクセンサS5は、右クランク22A、左クランク22B、クランク軸22C、フロントスプロケットアセンブリ24A、または、クランク軸22Cからフロントスプロケットアセンブリ24Aまでの駆動経路のいずれかに設けられる。トルクセンサS5は、歪みセンサ、磁歪センサ、光センサ、または、圧力センサ等を含み、クランク22に加えられるトルクを検出する。
The torque sensor S5 is a sensor that outputs a signal corresponding to the torque applied to the
ケイデンスセンサS6は、ケイデンスを示す信号を出力するセンサである。ケイデンスセンサS6は、フレーム10Aに取り付けられる。ケイデンスセンサS6は、例えばホール素子を含み、右クランク22Aまたは左クランク22Bに設けられる磁石(図示略)を検出することによって、クランク軸22Cの単位時間当たりの回転数を計測する。
The cadence sensor S6 is a sensor that outputs a signal indicating cadence. The cadence sensor S6 is attached to the
評価装置100は、トルクセンサS5によって検出されるクランク22に加えられるトルクと、ケイデンスセンサS6によって検出されるクランク軸22Cの単位時間当たりの回転数と、に基づき、人力駆動車100に加えられるパワーを算出することができる。
The
傾斜センサS7は、人力駆動車1の傾斜角度に応じた信号を出力するセンサである。傾斜センサS7が検出する傾斜角度は、例えば、人力駆動車1の左右方向に沿うピッチ軸まわりの回転角度である。傾斜センサS7は、一例として、ピッチ角度の角速度を検出するセンサを含み、ピッチ軸まわりの角速度を積分した値をピッチ角度として算出する。傾斜センサS7は、人力駆動車1の前後方向に沿うロール軸まわりの回転角度、および、人力駆動車1の上下方向に沿うヨー軸まわりの回転速度を併せて計測する構成であってもよい。
The tilt sensor S7 is a sensor that outputs a signal according to the tilt angle of the human-powered
撮像センサS8は、人力駆動車1の周囲を撮像することによって得られる映像信号を出力するセンサである。撮像センサS8は、例えば、撮像範囲内に路面が含まれるようにフレーム10Aまたはハンドルバー16の適宜箇所に設けられる。撮像センサS8はライダーに装着されるウェアラブルカメラであってもよい。
The image sensor S8 is a sensor that outputs a video signal obtained by photographing the surroundings of the human-powered
位置センサS9は、人力駆動車1の現在位置を示す信号を出力するセンサである。位置センサS9は、フレーム10Aまたはハンドルバー16に取り付けられる。位置センサS9は、例えばGPS(Global Positioning System)通信機を含み、GPS衛星からの電波を受信することによって、人力駆動車1の現在位置を測位する。位置センサS9は、測位した位置情報を逐次記録するメモリを備え、メモリに記録した位置情報に基づき、人力駆動車1が走行した走行路の情報を出力する構成であってもよい。
The position sensor S9 is a sensor that outputs a signal indicating the current position of the human-powered
気象センサS10は、人力駆動車1の周囲の気象を計測し、計測結果に応じた信号を出力するセンサである。気象センサS10は、フレーム10Aに取り付けられ、風向、風速、外気の温度、および、外気の湿度のうちの少なくとも1つを計測する。気象センサS10は、外部の気象サーバ(図示略)と通信し、気象サーバから、人力駆動車1の周囲の風向、風速、外気の温度、および、外気の湿度のうちの少なくとも1つの情報を取得する構成であってもよい。
The weather sensor S10 is a sensor that measures the weather around the human-powered
評価装置100は、コンピュータの一種である。一例では、評価装置100は、人力駆動車1に設けられるサイクルコンピュータなどの専用端末である。評価装置100は、他の例では、人力駆動車1のライダーが所持するスマートフォン、タブレット端末、ウェアラブル端末などの汎用端末である。
The
評価装置100は、人力駆動車1の走行に関する走行情報を取得する。評価装置100が取得する走行情報は、速度、加速度、姿勢、荷重、駆動力、ケイデンス、変速比、操作装置30への操作入力、操作入力とコンポーネントの制御結果の履歴、回生量、傾斜、路面状況、位置、天候、および、車両情報のうちの少なくとも1つに関する情報を含む。走行情報は、人力駆動車1のトラクションに関する情報を含んでもよい。評価装置100は、人力駆動車1に搭載されるセンサS1〜S10またはコンポーネントから走行情報を取得できる。評価装置100が取得する走行情報は、センサS1〜S10またはコンポーネントから直接的に得られる情報だけでなく、演算によって導出される情報を含んでもよく、評価装置100の記憶部106に記憶される情報を含んでもよい。例えば、記憶部106に記憶される走行情報は、ブレーキ操作装置36Cへの操作入力に対する制動距離の情報を含んでもよく、フレーム寸法、人力駆動車1の重量、タイヤ径などの車両情報を含んでもよい。
The
評価装置100は、人力駆動車1の走行に関する走行情報に従って、人力駆動車1のコンポーネントに対する制御の好ましさを、学習モデル120を用いて評価する。ここで、制御の好ましさは、コンポーネントに対する制御を実行した際の人力駆動車1の状態の良し悪しを示唆する情報である。評価装置100は、例えば、人力駆動車1のトラクションの良し悪しによって制御の好ましさを評価できる。評価装置100は、人力駆動車1のトラクションが良好となる制御を高く評価し、トラクションが低減することが推定される制御を低く評価してもよい。評価装置100がコンポーネントに対する制御の好ましさを評価する際に用いる学習モデル120については、図3を用いて詳述することとする。
The
図2は第1実施形態に係る評価装置100の内部構成を示すブロック図である。評価装置100は、入力部102、演算処理部104、記憶部106、および、出力部108を備える。
FIG. 2 is a block diagram showing an internal configuration of the
入力部102は、操作装置30、変速装置32、アシスト装置34、ブレーキ装置36、アンチロックブレーキ(ABS:Anti-lock Brake System)装置38、サスペンション装置40、および、センサS1〜S10の少なくとも1つを接続するインタフェースを備える。入力部102が備えるインタフェースは、例えば有線のインタフェースであり、操作装置30等を、通信ケーブルを介して接続する。入力部102を通じて入力される信号に基づく情報は記憶部106に一時的に記憶される。入力部102が備えるインタフェースは、無線インタフェースであってもよい。無線インタフェースとして、Bluetooth(登録商標) 、WiFi(登録商標)、ZigBee(登録商標)、LTE(Long Term Evolution)、および、その他の無線LAN(Local Area Network)を含む通信規格に準じた通信インタフェースを用いることができる。
The
演算処理部104は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などを備える。演算処理部104が備えるROMには、評価装置100が備えるハードウェア各部の動作を制御するためのコンピュータプログラム等が記憶される。演算処理部104内のCPUは、ROMまたは記憶部106に記憶されるコンピュータプログラムを実行し、ハードウェア各部の動作を制御することによって、人力駆動車1の走行に関する走行情報に従って、人力駆動車1のコンポーネントに対する制御の好ましさを、学習モデル120を用いて評価する処理を実現する。演算処理部104が備えるRAMには、演算の実行中に利用されるデータが一時的に記憶される。
The
演算処理部104は、CPU、ROMおよびRAMを備える構成としたが、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)、DSP(Digital Signal Processor)、量子プロセッサ、揮発性または不揮発性のメモリ等を備える1または複数の演算回路であってもよい。
The
記憶部106は、EEPROM(Electronically Erasable Programmable Read Only Memory)、SRAM(Static Random Access Memory)などのメモリを備える。記憶部106は、演算処理部104によって実行される評価処理プログラム110を含む各種コンピュータプログラム、および、後述する学習モデル120等を記憶する。
The
評価処理プログラム110は、コンピュータに、人力駆動車1の走行に関する走行情報に従って、人力駆動車1のコンポーネントに対する制御の好ましさを、学習モデル120を用いて評価する処理を実行させるためのコンピュータプログラムである。演算処理部104は、評価処理プログラム110を実行することによって、人力駆動車1の走行情報に従って、人力駆動車1のコンポーネントに対する制御の好ましさを、学習モデル120を用いて評価する。
The
評価処理プログラム110を含む各種コンピュータプログラムは、コンピュータプログラムが記憶される記憶媒体Mによって提供され得る。記憶媒体Mは、例えば、CD−ROM、USBメモリ、SD(Secure Digital)カード、マイクロSDカード、コンパクトフラッシュ(登録商標)などの可搬型メモリである。本実施形態において、記憶媒体Mは、評価処理プログラム110を含む各種コンピュータプログラムを読み取り可能に記憶する非一時的な記憶媒体である。演算処理部104は、読取装置を用いて記憶媒体Mから各種コンピュータプログラムを読み取り、読み取った各種コンピュータプログラムを記憶部106にインストールする。
Various computer programs including the
記憶部106に記憶される学習モデル120は、その定義情報によって記述される。学習モデル120の定義情報は、学習モデル120の構造情報、学習モデル120で用いられるノード間の重みおよびバイアスなどの各種パラメータ等を含む。本実施形態における学習モデル120は、人力駆動車1の走行に関する走行情報に従って、人力駆動車1のコンポーネントに対する制御の好ましさを評価するために用いられる。学習モデル120は、一例では、DQN(Deep Q-Network)を用いて構築される学習モデルである。学習モデル120は、DQNに限らず、DDQN(Double DQN)、CDQN(Continuous DQN)などを用いて構築される学習モデルであってもよい。
The
出力部108は、演算処理部104による評価結果を出力する出力インタフェースを備える。評価結果の出力形式は任意である。一例では、出力部108は、液晶ディスプレイ、有機EL(Electro-Luminescence)ディスプレイ等の表示デバイスを備える。この場合、出力部108は、制御の好ましさに関する評価結果を文字情報または画像情報として表示デバイスに表示してもよい。他の例では、出力部108は、スピーカ等の音声出力デバイスを備える。この場合、出力部108は、制御の好ましさに関する評価結果を音声出力デバイスから音声として出力してもよい。更に他の例では、出力部108は、通信インタフェースを備える。この場合、出力部108は、制御の好ましさに関する評価結果を通信インタフェースに接続された外部機器へ出力してもよい。
The
図3は学習モデル120の実装例を示す模式図である。学習モデル120は、例えばDQNによって構築される学習モデルである。DQNでは、状態sを入力とし、選択し得る行動aに対応した数の行動価値関数Q(s,a)の値を出力とする多層ニューラルネットワークが用いられる。以下の説明において、行動価値関数Q(s,a)の値をQ値とも記載される。学習モデル120を構成する多層ニューラルネットワークは、例えば、入力層122、中間層124、および、出力層126を含む。
FIG. 3 is a schematic diagram showing an implementation example of the
入力層122は複数のノードを備える。入力層122のノードは、入力すべき状態sの数だけ用意される。本実施形態において、状態sは、人力駆動車1の走行に関する走行情報である。走行情報は、速度、加速度、姿勢、荷重、駆動力、ケイデンス、変速比、操作装置30への操作入力、操作入力とコンポーネントの制御結果の履歴、回生量、傾斜、路面状況、位置、天候、および、車両情報のうちの少なくとも1つによって区別される状態である。
The
中間層124は、複数の層により構成される。中間層124の各層は、複数のノードを備える。中間層124における各層のノードは、前後の層に存在するノードと一方向に所望の重みとバイアスとによって結合される。ノード間の結合状態を特徴付ける重みおよびバイアスは学習によって更新される。中間層124は、各ノードを用いて演算して演算結果を出力層126へ出力する。
The
出力層126は、複数のノードを備える。出力層126のノードは区別すべき行動aの数だけ用意される。本実施形態において、行動aは、人力駆動車1が備える1つまたは複数のコンポーネントの制御状態によって区別される。例えば、行動aは、人力駆動車1のブレーキ装置36が作動している状態であるか否かに応じて区別される。更に、行動aは、左右いずれのブレーキ装置36が作動したのか、どの程度の力または速度でブレーキ操作装置36Cを操作したのか等に応じて区別される。行動aは、ブレーキ装置36の制御状態に限らず、アシスト装置34、アンチロックブレーキ装置38、または、サスペンション装置40の制御状態によって区別されてもよい。
The
出力層126の各ノードは、各行動aに対するQ値を出力する。Q値は、状態sが示す状態において行動aを取った場合における、将来にわたって得られる収益の期待値である。学習モデル120は、人力駆動車1のトラクションが良好となるような制御状態においてQ値が高くなり、人力駆動車1のトラクションが失われるような制御状態においてQ値が低くなるように学習される。
Each node of the
次に、学習モデル120を用いた評価手順について説明する。
図4は学習モデル120の学習手順を説明するフローチャートである。ステップS101において、評価装置100の演算処理部104は、走行情報を取得する。具体的には、演算処理部104は、入力部102を通じて、速度、加速度、姿勢、荷重、駆動力、ケイデンス、変速比、操作装置30への操作入力、操作入力とコンポーネントの制御結果の履歴、回生量、傾斜、路面状況、位置、天候、および、車両情報のうちの少なくとも1つを含む走行情報を取得する。演算処理部104が取得する走行情報は、人力駆動車1のトラクションに関する情報であってもよい。走行情報は、各種センサS1〜S10によって得られる情報だけでなく、演算処理部104によって演算される情報であってもよく、記憶部106に記憶されている情報であってもよい。
Next, the evaluation procedure using the
FIG. 4 is a flowchart illustrating a learning procedure of the
ステップS102において、演算処理部104は、入力部102等から取得した走行情報を学習モデル120の入力層122に入力することによって、学習モデル120による演算を実行する。入力層122に入力される走行情報は、DQNによって構築される学習モデル120において、状態sを表す。入力層122に入力された走行情報は中間層124に与えられる。中間層124では、各ノードにおいて直前の層からの入力に対する重みの乗算、バイアスの加算、活性化関数を用いた演算が行われ、演算結果が出力層126へ出力される。出力層126は、各ノードを通じて、Q値を出力する。
In step S102, the
ステップS103において、演算処理部104は、学習モデル120の演算結果として得られるQ値を出力層126から取得する。
In step S103, the
ステップS104において、演算処理部104は、人力駆動車1のコンポーネントに対する制御の好ましさを評価する。学習モデル120は、出力層126が備える各ノードから、コンポーネントの制御状態に対応する行動aのそれぞれについてQ値を出力する。演算処理部104は、出力層126の各ノードから出力されるQ値を参照することによって、コンポーネントに対する制御の好ましさを評価する。例えば、演算処理部104は、出力層126の各ノードから出力されるQ値のうち、最も高い値を示す行動aに対応した制御状態を、最も好ましい制御と評価できる。
In step S104, the
以上のように、第1実施形態における評価装置100は、学習モデル120を用いることによって、人力駆動車1の走行に関する走行情報に従って、人力駆動車1のコンポーネントに対する制御の好ましさを評価できる。
As described above, the
(第2実施形態)
第2実施形態では、評価装置100による評価結果に基づき、人力駆動車1のコンポーネントを制御する制御システムについて説明する。
(Second Embodiment)
In the second embodiment, the control system that controls the components of the human-powered
図5は第2実施形態に係る制御システムを説明するブロック図である。第2実施形態に係る制御システムは、評価装置100と、評価装置100による評価結果に基づき、人力駆動車1のコンポーネントを制御する制御装置200とを備える。制御装置200は、独立した装置として設けられてもよく、制御対象のコンポーネント内に設けられてもよい。図5に示した例では、評価装置100と制御装置200とを別体として記載したが、評価装置100と制御装置200とが一体となった構成であってもよい。
FIG. 5 is a block diagram illustrating a control system according to the second embodiment. The control system according to the second embodiment includes an
制御装置200は、制御部202、記憶部204、入力部206、および、出力部208を備える。制御部202は、例えば、CPU、ROM、RAMなどを備える。制御部202が備えるROMには、制御装置200が備えるハードウェア各部の動作を制御するための制御プログラム等が記憶される。制御部202内のCPUは、ROMに記憶された制御プログラム、および、記憶部204に記憶された各種プログラムを実行し、ハードウェア各部の動作を制御することによって、本願の制御装置を実現する。具体的には、制御部202は、入力部206を通じて入力される評価装置100からの判定結果に基づき、人力駆動車1のコンポーネントを制御する制御信号を生成し、生成した制御信号を出力部208から出力する。
The
制御部202は上述の構成に限定されない。制御部202は、シングルコアCPU、マルチコアCPU、FPGA、揮発性または不揮発性のメモリ等を含む1または複数の制御回路であればよい。また、制御部202は、日時情報を出力するクロック、計測開始指示を与えてから計測終了指示を与えるまでの経過時間を計測するタイマ、数をカウントするカウンタ等の機能を備えていてもよい。
The
記憶部204は、EEPROM、SRAMなどのメモリを備える。記憶部204には、制御部202によって実行されるコンピュータプログラム、および、このコンピュータプログラムが用いるデータ等が記憶される。
The
入力部206は、ケーブルを介して評価装置100を接続するインタフェースを備える。入力部206には、評価装置100から出力される評価結果が入力される。入力部206に入力される評価結果は、人力駆動車1のコンポーネントに対する制御の好ましさを表す。入力部206は、入力された評価結果を制御部202へ出力する。本実施形態では、ケーブルを介して評価装置100を接続する構成としたが、無線通信のインタフェースを介して、評価装置100と制御装置200との間でデータを送受信できるように構成してもよい。無線通信では、Bluetooth 、WiFi、ZigBee、LTE、その他の無線LAN等の通信規格に準じた無線通信方式が利用できる。
The
出力部208は、ケーブルを介して制御対象のコンポーネントを接続するインタフェースを備える。コンポーネントは、補助駆動力を出力する電動駆動ユニット34Aを有するアシスト装置34を含んでいてよい。また、コンポーネントは、電動駆動ユニット36Aを有するブレーキ装置36を含んでいてよい。また、コンポーネントは、電動駆動ユニット38Aを有するアンチロックブレーキ装置38を含んでいてよい。また、コンポーネントは、電動駆動ユニット40Aを有するサスペンション装置40を含んでいてよい。本実施形態において、制御装置200には、アシスト装置34、ブレーキ装置36、アンチロックブレーキ装置38、および、サスペンション装置40が接続される。出力部208は、制御部202から出力される制御信号を制御対象のコンポーネントへ出力する。本実施形態では、ケーブルを介して人力駆動車1のコンポーネントを接続する構成としたが、無線通信のインタフェースを介して、制御装置200と人力駆動車1のコンポーネントとの間でデータを送受信できるように構成してもよい。無線通信では、上述した各種の通信規格に準拠した無線通信方式が利用できる。
The
以下、評価装置100の評価結果に基づき、制御装置200が人力駆動車1のコンポーネントを制御する制御手順について説明する。
Hereinafter, a control procedure in which the
図6は制御装置200が実行する処理の手順を説明するフローチャートである。ステップS201において、制御装置200の制御部202は、評価装置100による評価結果を取得する。評価結果は、Q値が最も高い行動の情報を含む。
FIG. 6 is a flowchart illustrating a procedure of processing executed by the
ステップS202において、制御部202は、乱数を生成する。制御部202は、公知の手法を用いて、乱数を生成することができる。制御部202が生成する乱数は、0以上、1以下の乱数である。
In step S202, the
ステップS203において、制御部202は、ステップS202において生成した乱数をεと比較し、乱数がεより大きいか否かを判断する。ここで、εは、Q値を利用すべきか、ランダムに行動を選択すべきかを決定するためのパラメータである。εは、0以上、1以下の値であり、予め設定される固定値であってもよく、経過時間に応じて1から0まで減少する変動値であってもよい。
In step S203, the
制御部202は、乱数がεより大きいと判断した場合、ステップS204において、Q値が最も高い行動を選択する。
When the
制御部202は、乱数がε以下と判断した場合、ステップS205において、ランダムに行動を選択する。
When the
ステップS206において、制御部202は、ステップS204またはステップS205において選択した行動に応じて、人力駆動車1のコンポーネントを制御する。制御対象のコンポーネントは、評価装置100の評価結果に応じて、選択されてもよい。
In step S206, the
制御対象のコンポーネントがアシスト装置34である場合、制御部202は、アシスト装置34へ制御信号を出力する。例えば、制御前のアシストレベルが弱アシストレベルであり、ステップS204またはステップS205において選択した行動に対応するアシストレベルが強アシストレベルである場合、制御部202は、アシストレベルを弱アシストレベルから強アシストレベルに遷移させる制御信号をアシスト装置34へ出力する。制御前のアシストレベルと、ステップS204またはステップS205において選択した行動に対応するアシストレベルとが同一である場合、制御部202は、アシスト装置34に対する制御を行わない。
When the component to be controlled is the
制御対象のコンポーネントがブレーキ装置36である場合、制御部202は、ブレーキ装置36への制御信号を出力する。例えば、制御前の制御状態が第1制動力に対応し、ステップS204またはステップS205において選択した行動が第2制動力に対応する場合、制御部202は、ブレーキ装置36の制動力を第1制動力から第2制動力へ遷移させる制御信号を出力する。制御前の制動力と、ステップS204またはステップS205において選択した行動に対応する制動力とが同一である場合、制御部202は、ブレーキ装置36に対する制御を行わない。
When the component to be controlled is the
制御対象のコンポーネントがアンチロックブレーキ装置38である場合、制御部202は、アンチロックブレーキ装置38へ制御信号を出力する。例えば、制御前の制御状態が第1油圧力に対応し、ステップS204またはステップS205において選択した行動が第2油圧力に対応する場合、制御部202は、アンチロックブレーキ装置38の油圧力を第1油圧力から第2油圧力へ遷移させる制御信号を出力する。制御前の油圧力と、ステップS204またはステップS205において選択した行動に対応する油圧力とが同一である場合、制御部202は、アンチロックブレーキ装置38に対する制御を行わない。
When the component to be controlled is the
制御対象のコンポーネントがサスペンション装置40である場合、制御部202は、サスペンション装置40へ制御信号を出力する。例えば、制御前の制御状態が第1の緩衝性を示し、ステップS204またはステップS205において選択した行動が第2の緩衝性を示す場合、制御部202は、サスペンション装置40の緩衝性を第1の緩衝性から第2の緩衝性へ遷移させる制御信号を出力する。制御前の緩衝性と、ステップS204またはステップS205において選択した行動に対応する緩衝性とが同一である場合、制御部202は、サスペンション装置40に対する制御を行わない。
When the component to be controlled is the
本実施形態では、εというパラメータを用いて、Q値を利用すべきか、ランダムに行動を選択すべきかを決定するε−greedy法によって行動を選択する構成としたが、ε−greedy法とは異なるアルゴリズムによって行動を選択してもよい。 In the present embodiment, the action is selected by the ε-greedy method that determines whether the Q value should be used or the action should be randomly selected using the parameter ε, but this is different from the ε-greedy method. Actions may be selected by an algorithm.
(第3実施形態)
第3実施形態では、学習モデル120の生成方法について説明する。
(Third Embodiment)
In the third embodiment, a method of generating the
評価装置100は、コンピュータを用いて、人力駆動車1の走行に関する走行情報に従って、人力駆動車1のコンポーネントに対する制御の好ましさを、関数を用いて評価し、好ましさの評価結果と、評価結果に応じたコンポーネントの制御結果と、に応じて関数を更新することによって学習モデル120を生成する。より具体的には、評価装置100は、次式に基づいて行動価値関数Q(s,a)を更新し、学習モデル120を特徴付けるパラメータを改善することによって、学習モデル120を生成する。
Q(st ,at )←Q(st ,at )+α(rt+1 +γmaxa'Q(st+1 , a’)−Q(st ,at ))…式(1)
The
Q (s t, a t) ← Q (s t, a t) + α (r t + 1 + γmax a 'Q (s t + 1, a') - Q (s t, a t)) ... formula (1 )
行動価値関数Q(s,a)は、状態sにおいて行動aを取った場合において、将来にわたって得られる収益の期待値である。rは報酬である。状態s、行動a、報酬rの添え字tは、時系列に繰り返す思考過程における1回分のステップを示す番号である。添え字tは、試行番号とも呼ばれる。行動決定後に状態が変化すると試行番号がインクリメントされる。したがって、式(1)における報酬rt+1 は、状態st において行動atが選択され、状態がst+1 になった場合に得られる報酬である。αは学習率、γは割引率である。行動a’は、状態st+1 において取り得る行動at+1 のうち、行動価値関数Q(st+1 ,at+1 )を最大化する行動である。maxa'Q(st+1 , a’)は、行動a’が選択されたことによって最大化された行動価値関数である。 The action value function Q (s, a) is the expected value of the profit obtained in the future when the action a is taken in the state s. r is the reward. The subscript t of the state s, the action a, and the reward r is a number indicating one step in the thinking process that repeats in time series. The subscript t is also called a trial number. If the state changes after the action is decided, the trial number is incremented. Thus, reward r t + 1 in the formula (1) may act a t in state s t is selected, a reward condition is obtained when it becomes s t + 1. α is the learning rate and γ is the discount rate. The action a'is an action that maximizes the action value function Q (s t + 1 , at + 1 ) among the actions a t + 1 that can be taken in the state st + 1 . max a 'Q (s t + 1, a') is a maximized action value function by the action a 'is selected.
図7は学習モデル120の生成手順を説明するフローチャートである。ステップS301において、評価装置100の演算処理部104は、学習モデル120の定義情報を初期化する。学習モデル120の定義情報は、学習モデル120の構造情報、学習モデル120で用いられるノード間の重みおよびバイアスなどの各種パラメータ等を含む。以下では、学習モデル120の定義情報に含まれる各種パラメータを便宜的にパラメータθと記述する。
FIG. 7 is a flowchart illustrating a procedure for generating the
ステップS302において、評価装置100の演算処理部104は、走行情報を取得する。走行情報は、センサS1〜S10等によって観測される。演算処理部104は、走行情報として、速度、加速度、姿勢、荷重、駆動力、ケイデンス、変速比、操作装置30への操作入力、操作入力とコンポーネントの制御結果の履歴、回生量、傾斜、路面状況、位置、天候、および、車両情報のうちの少なくとも1つを取得する。演算処理部104が取得する走行情報は、人力駆動車1のトラクションに関する情報であってもよい。走行情報は、各種センサS1〜S10によって観測される情報だけでなく、演算処理部104によって演算される情報であってもよく、記憶部106に予め記憶される情報であってもよい。
In step S302, the
ステップS303において、演算処理部104は、入力部102等から取得した走行情報を学習モデル120の入力層122へ入力し、学習モデル120による演算を実行することによって、Q値を算出する。入力層122に入力された走行情報は中間層124に与えられる。中間層124では、各ノードにおいて直前の層からの入力に対する重みの乗算、バイアスの加算、活性化関数を用いた演算が行われ、演算結果が出力層126へ出力される。出力層126は、各ノードを通じてQ値を出力する。演算処理部104は、算出した各行動のQ値を制御装置200へ出力する。
In step S303, the
ステップS304において、制御装置200の制御部202は、人力駆動車1が取るべき行動を選択する。制御部202は、例えばε−greedy法を用いて、Q値を利用して行動を選択すべきか、ランダムに行動を選択すべきかを決定する。
In step S304, the
ステップS305において、制御部202は、選択した行動を人力駆動車1に取らせるべく、人力駆動車1のコンポーネントを制御する。
In step S305, the
ステップS306において、評価装置100の演算処理部104は、コンポーネントが制御された後の走行情報を取得する。演算処理部104が取得する走行情報は、ステップS302において取得する走行情報と同様である。
In step S306, the
ステップS307において、演算処理部104は、報酬を評価する。本実施形態において、報酬は、人力駆動車1の走行状態に基づいて決定される。例えば、人力駆動車1のトラクションが低下することなく走行できた場合、正の報酬が付与され、人力駆動車1のトラクションが低下した場合、または、人力駆動車1が転倒した場合、負の報酬が付与される。現在の試行番号がtである場合、ステップS307において付与される報酬は、式(1)におけるrt+1 である。
In step S307, the
ステップS308において、演算処理部104は、目的関数の値を算出する。行動価値関数Q(s,a)を適切に更新するためには、行動価値関数Q(s,a)を出力する学習モデル120の最適化が必要である。学習が完了していない段階では、行動価値関数Q(s,a)の知見がなく、ターゲットとなる教師データを設定することは困難である。そこで、本実施形態では、式(1)の第2項に示される、TD(Temporal Difference)誤差を最小化する目的関数によって、学習モデル120を特徴付けるパラメータθを改善する。
In step S308, the
ステップS309において、演算処理部104は、学習が終了したか否かを判断する。本実施形態では、TD誤差が充分に小さいか否かを判定するための閾値が予め定められており、目的関数の値が閾値以下である場合、演算処理部104は、学習が終了したと判断する。
In step S309, the
演算処理部104は、ステップS309において学習が終了していないと判断した場合、ステップS310において、行動価値関数Q(s,a)を更新する。例えば、演算処理部104は、TD誤差のパラメータθによる偏微分に基づいて目的関数を小さくするパラメータθの変化方向を特定し、パラメータθを変化させる。パラメータθの変化方向の特定は、TD誤差のパラメータθによる偏微分に限らず、各種の勾配降下法を用いることができる。以上の処理により、行動価値関数Q(s,a)がターゲットに近づくようにパラメータθを変化させることができる。行動価値関数Q(s,a)を更新した後、演算処理部104は、処理をステップS303へ戻す。
When the
演算処理部104は、ステップS309において学習が終了したと判断した場合、ステップS311において、学習モデル120の定義情報を更新する。演算処理部104は、学習によって得られたθを、人力駆動車1の制御の好ましさを評価する際に参照されるべき学習モデル120の定義情報として記憶部106に記憶させる。
When the
以上のように、本実施形態では、行動価値関数(s,a)の値を最大化する行動aを選択する処理と、選択した行動aに基づき人力駆動車1を制御する処理とを繰り返しながら、行動価値関数(s,a)を最適化することによって、学習モデル120を生成できる。
As described above, in the present embodiment, the process of selecting the action a that maximizes the value of the action value function (s, a) and the process of controlling the human-powered
本実施の形態では、人力駆動車1の評価装置100において学習モデル120を生成する構成としたが、外部サーバにおいて学習モデル120を生成する構成としてもよい。この場合、外部サーバと通信可能な通信装置(不図示)が評価装置100に接続される。または、外部サーバと通信可能な通信装置が評価装置100に内蔵される。評価装置100は、センサS1〜S10等から取得する走行情報を、通信装置を通じて、外部サーバへアップロードする。外部サーバでは、行動価値関数Q(s,a)に基づき、行動価値関数(s,a)の値を最大化する行動aを選択し、選択した行動aの情報を人力駆動車1に通知する。人力駆動車1の制御装置200は、外部サーバによって選択された行動aの情報に基づき、コンポーネントの制御を行う。このように、行動価値関数(s,a)の値を最大化する行動aを選択する外部サーバの処理と、選択した行動aに基づき人力駆動車1を制御する制御装置200の処理とを繰り返しながら、外部サーバにおいて行動価値関数(s,a)を最適化し、学習モデル120を生成する。
In the present embodiment, the
(第4実施形態)
第4実施形態では、学習モデル120を再学習する構成について説明する。
(Fourth Embodiment)
In the fourth embodiment, a configuration for re-learning the
図8は学習モデル120の再学習手順を説明するフローチャートである。ステップS401において、評価装置100の演算処理部104は、記憶部106に記憶されている学習モデル120の定義情報を読み出す。
FIG. 8 is a flowchart illustrating a re-learning procedure of the
ステップS402において、評価装置100の演算処理部104は、走行情報を取得する。演算処理部104が取得する走行情報は実施形態3と同様である。
In step S402, the
ステップS403において、演算処理部104は、入力部102等から取得した走行情報を学習モデル120の入力層122へ入力し、学習モデル120による演算を実行することによってQ値を算出する。
In step S403, the
ステップS404において、制御装置200の制御部202は、人力駆動車1が取るべき行動を選択する。制御部202は、例えばε−greedy法を用いて、Q値を利用して行動を選択すべきか、ランダムに行動を選択すべきかを決定する。
In step S404, the
ステップS405において、制御部202は、選択した行動を人力駆動車1に取らせるべく、人力駆動車1のコンポーネントを制御する。
In step S405, the
ステップS406において、評価装置100の演算処理部104は、コンポーネントが制御された後の走行情報を取得する。演算処理部104が取得する走行情報は、ステップS402において取得する走行情報と同様である。
In step S406, the
ステップS407において、演算処理部104は、報酬を評価する。本実施形態において、報酬は、人力駆動車1の走行状態に基づいて決定される。例えば、人力駆動車1のトラクションが低下することなく走行できた場合、正の報酬が付与され、人力駆動車1のトラクションが低下した場合、または、人力駆動車1が転倒した場合、負の報酬が付与される。
In step S407, the
ステップS408において、演算処理部104は、目的関数の値を算出する。本実施形態では、式(1)の第2項に示される、TD誤差を最小化する目的関数によって、学習モデル120を特徴付けるパラメータθを改善する。
In step S408, the
ステップS409において、演算処理部104は、学習が終了したか否かを判断する。本実施形態では、TD誤差が充分に小さいか否かを判定するための閾値が予め定められており、目的関数の値が閾値以下である場合、演算処理部104は、学習が終了したと判断する。
In step S409, the
演算処理部104は、ステップS409において学習が終了していないと判断した場合、ステップS410において、行動価値関数Q(s,a)を更新する。例えば、演算処理部104は、TD誤差のパラメータθによる偏微分に基づいて目的関数を小さくするパラメータθの変化方向を特定し、パラメータθを変化させる。パラメータθの変化方向の特定は、TD誤差のパラメータθによる偏微分に限らず、各種の勾配降下法を用いることができる。以上の処理により、行動価値関数Q(s,a)がターゲットに近づくようにパラメータθを変化させることができる。行動価値関数Q(s,a)を更新した後、演算処理部104は、処理をステップS403へ戻す。
When the
演算処理部104は、ステップS409において学習が終了したと判断した場合、ステップS411において、学習モデル120の定義情報を更新する。更新された学習モデル120の定義情報は記憶部106に記憶される。
When the
以上のように、本実施形態では、評価装置100は、好ましさの評価結果と、評価結果に応じたコンポーネントの制御結果と、に応じて学習モデル120を再学習させる。すなわち、本実施形態では、行動価値関数(s,a)の値を最大化する行動aを選択する処理と、選択した行動aに基づき人力駆動車1を制御する処理とを繰り返しながら、行動価値関数(s,a)を最適化することによって、学習モデル120を再学習できる。
As described above, in the present embodiment, the
(第5実施形態)
第5実施形態では、評価装置100の評価結果を報知する報知システムについて説明する。
(Fifth Embodiment)
In the fifth embodiment, a notification system for notifying the evaluation result of the
図9は第5実施形態に係る報知システムを説明するブロック図である。第5実施形態に係る報知システムは、評価装置100と、評価装置100による評価結果を報知する報知装置300とを備える。報知装置300が報知する評価結果は、コンポーネントの制御状態に関する情報を含んでもよい。図9に示した例では、評価装置100と報知装置300とを別体として記載したが、評価装置100と報知装置300とが一体となった構成であってもよい。
FIG. 9 is a block diagram illustrating a notification system according to a fifth embodiment. The notification system according to the fifth embodiment includes an
報知装置300は、例えば、液晶ディスプレイ、有機ELディスプレイ等の表示デバイスである。報知装置300は、評価装置100の評価結果に応じて、文字情報または画像情報を表示デバイスに表示することによって、評価結果に関する情報をライダーに報知できる。
The
報知装置300は、LEDなどの発光素子であってもよい。報知装置300は、評価装置100の評価結果に応じて、発光素子を点灯、点滅、または消灯することによって、評価結果に関する情報をライダーに報知できる。
The
報知装置300は、スピーカなどの音声出力デバイスであってもよい。報知装置300は、評価装置100の評価結果に応じて、音声出力デバイスから音声を出力することによって、評価結果に関する情報をライダーに報知できる。
The
報知装置300は、通信デバイスであってもよい。報知装置300は、評価装置100の評価結果に応じて、文字情報または画像情報を外部の通信装置へ送信することによって、評価結果に関する情報をライダーに報知できる。外部の通信装置は、例えば、ライダーが携帯するスマートフォン、タブレット、ウェアラブル端末である。
The
報知装置300は、バイブレータなどの振動デバイスであってもよい。報知装置300は、評価装置100の評価結果に応じて、振動デバイスを振動させることによって、評価結果に関する情報をライダーに報知できる。
The
報知装置300は、評価装置100の評価結果を常時報知する必要はなく、特定の条件下において、評価結果に関する情報を報知してもよい。例えば、報知装置300は、ブレーキ操作装置36Cの操作入力に比して、人力駆動車1の減速度が所定よりも低くなった場合に、評価結果に関する情報を報知してもよい。
The
以上のように、本実施形態では、評価装置100の評価結果を報知装置300によってライダーに報知できる。
As described above, in the present embodiment, the evaluation result of the
今回開示された実施形態は、全ての点において例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。 The embodiments disclosed this time should be considered as exemplary in all respects and not restrictive. The scope of the present invention is indicated by the scope of claims, not the above-mentioned meaning, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.
1…人力駆動車、30…操作装置、32,33…変速装置、34…アシスト装置、36…ブレーキ装置、38…アンチロックブレーキ装置、40…サスペンション装置、42…バッテリユニット、100…評価装置、102…入力部、104…演算処理部、106…記憶部、108…出力部、110…評価処理プログラム、120…学習モデル、200…制御装置、202…制御部、204…記憶部、206…入力部、208…出力部、300…報知装置 1 ... Human-powered vehicle, 30 ... Operation device, 32, 33 ... Transmission device, 34 ... Assist device, 36 ... Brake device, 38 ... Anti-lock braking device, 40 ... Suspension device, 42 ... Battery unit, 100 ... Evaluation device, 102 ... Input unit, 104 ... Arithmetic processing unit, 106 ... Storage unit, 108 ... Output unit, 110 ... Evaluation processing program, 120 ... Learning model, 200 ... Control device, 202 ... Control unit, 204 ... Storage unit, 206 ... Input Unit, 208 ... Output unit, 300 ... Notification device
Claims (14)
前記評価装置の評価結果に基づいて前記コンポーネントを制御する制御装置と、を備える制御システム。 The evaluation device according to any one of claims 1 to 4,
A control system including a control device that controls the component based on the evaluation result of the evaluation device.
前記評価装置の評価結果に関する情報を報知する報知装置と、を備える報知システム。 The evaluation device according to any one of claims 1 to 4,
A notification system including a notification device that notifies information regarding an evaluation result of the evaluation device.
人力駆動車の走行に関する走行情報に従って、前記人力駆動車のコンポーネントに対する制御の好ましさを、関数を用いて評価し、
前記好ましさの評価結果と、前記評価結果に応じた前記コンポーネントの制御結果と、に応じて前記関数を更新することによって学習モデルを生成する、学習モデルの生成方法。 Using a computer
According to the driving information regarding the driving of the human-powered vehicle, the preference for control over the components of the human-powered vehicle is evaluated by using a function.
A method of generating a learning model, which generates a learning model by updating the function according to the evaluation result of the preference and the control result of the component according to the evaluation result.
人力駆動車の走行に関する走行情報に従って、前記人力駆動車のコンポーネントに対する制御の好ましさを、学習モデルを用いて評価する
処理を実行させるためのコンピュータプログラム。 On the computer
A computer program for executing a process of evaluating the preference of control for a component of the human-powered vehicle by using a learning model according to driving information related to the running of the human-powered vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019038893A JP2020142566A (en) | 2019-03-04 | 2019-03-04 | Evaluation device, control system, notification system, generation method for learning model, computer program and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019038893A JP2020142566A (en) | 2019-03-04 | 2019-03-04 | Evaluation device, control system, notification system, generation method for learning model, computer program and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020142566A true JP2020142566A (en) | 2020-09-10 |
Family
ID=72355151
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019038893A Pending JP2020142566A (en) | 2019-03-04 | 2019-03-04 | Evaluation device, control system, notification system, generation method for learning model, computer program and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020142566A (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11294230A (en) * | 1998-04-09 | 1999-10-26 | Yamaha Motor Co Ltd | Fuel injection control device for engine |
JP2000100477A (en) * | 1998-09-18 | 2000-04-07 | Yamaha Motor Co Ltd | Battery state display device for electric vehicle |
JP2007230411A (en) * | 2006-03-02 | 2007-09-13 | Matsushita Electric Ind Co Ltd | Vehicle with auxiliary power |
JP2014069689A (en) * | 2012-09-28 | 2014-04-21 | Honda Motor Co Ltd | Assist power control device for power-assisted bicycle |
JP2014196096A (en) * | 2013-03-29 | 2014-10-16 | ヤマハ発動機株式会社 | Antiskid device, vehicle, and two-wheeled motor vehicle |
US20150197308A1 (en) * | 2012-08-21 | 2015-07-16 | Befra Electronic, S.R.O | Electronically Controlled Suspension System, Method for Controlling a Suspension System and Computer Program |
US20180362114A1 (en) * | 2017-06-14 | 2018-12-20 | Wen-Sung Lee | Control system of learning applications for electric bikes |
-
2019
- 2019-03-04 JP JP2019038893A patent/JP2020142566A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11294230A (en) * | 1998-04-09 | 1999-10-26 | Yamaha Motor Co Ltd | Fuel injection control device for engine |
JP2000100477A (en) * | 1998-09-18 | 2000-04-07 | Yamaha Motor Co Ltd | Battery state display device for electric vehicle |
JP2007230411A (en) * | 2006-03-02 | 2007-09-13 | Matsushita Electric Ind Co Ltd | Vehicle with auxiliary power |
US20150197308A1 (en) * | 2012-08-21 | 2015-07-16 | Befra Electronic, S.R.O | Electronically Controlled Suspension System, Method for Controlling a Suspension System and Computer Program |
JP2014069689A (en) * | 2012-09-28 | 2014-04-21 | Honda Motor Co Ltd | Assist power control device for power-assisted bicycle |
JP2014196096A (en) * | 2013-03-29 | 2014-10-16 | ヤマハ発動機株式会社 | Antiskid device, vehicle, and two-wheeled motor vehicle |
US20180362114A1 (en) * | 2017-06-14 | 2018-12-20 | Wen-Sung Lee | Control system of learning applications for electric bikes |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7324632B2 (en) | Output device, learning model generation method, and computer program | |
US9845133B2 (en) | Electric bike motor using sensed air speed | |
JP6817113B2 (en) | Bicycle controller and bicycle drive including this controller | |
JP7048388B2 (en) | Control device for human-powered vehicles | |
TWI594915B (en) | Slope calculation device | |
CN104340324B (en) | Bicycle control | |
CN105408197A (en) | Device and method for regulating the assistance power of an electric power-assisted bicycle | |
JP2023091087A (en) | Control device, learning method of learning model, learning model, computer program, and storage medium | |
US11527981B2 (en) | Human-powered vehicle control device, electronic device, and human-powered vehicle control system | |
TWI823965B (en) | Variable speed control system for human-driven vehicles | |
US11527980B2 (en) | Electronic device and human-powered vehicle system | |
US11459050B2 (en) | Connected component platform | |
US11597470B2 (en) | Human-powered vehicle component, mobile electronic device, and equipment for human-powered vehicle | |
JP2019166911A (en) | Human-powered vehicular control device | |
JP2024009328A (en) | Control device for human-powered vehicle | |
JP7193332B2 (en) | Electronics and systems for human powered vehicles | |
US20200012964A1 (en) | Control data creation device, component control device, control data creation method, component control method and computer program | |
JP2020142566A (en) | Evaluation device, control system, notification system, generation method for learning model, computer program and storage medium | |
TW201515929A (en) | Slope calculation device | |
JP2020138700A (en) | Estimation device, control system, learning model, learning model creating method, computer program, and storage medium | |
JP6355822B2 (en) | Method and apparatus for generating gradient values | |
JP7356230B2 (en) | control system | |
JP2023151357A (en) | Control device for man-power drive vehicle, learning method, control method for man-power drive vehicle, and computer program | |
JP7457458B2 (en) | Output device, computer program, and storage medium | |
US11161562B2 (en) | Controlling device, indicating system, and controlling method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230221 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230731 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230808 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20231013 |