JP7337510B2 - Output device, learning model generation method, computer program, and storage medium - Google Patents

Output device, learning model generation method, computer program, and storage medium Download PDF

Info

Publication number
JP7337510B2
JP7337510B2 JP2019024853A JP2019024853A JP7337510B2 JP 7337510 B2 JP7337510 B2 JP 7337510B2 JP 2019024853 A JP2019024853 A JP 2019024853A JP 2019024853 A JP2019024853 A JP 2019024853A JP 7337510 B2 JP7337510 B2 JP 7337510B2
Authority
JP
Japan
Prior art keywords
information
learning model
output
parts
mounting state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019024853A
Other languages
Japanese (ja)
Other versions
JP2020131813A (en
Inventor
隆 古家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimano Inc
Original Assignee
Shimano Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimano Inc filed Critical Shimano Inc
Priority to JP2019024853A priority Critical patent/JP7337510B2/en
Publication of JP2020131813A publication Critical patent/JP2020131813A/en
Application granted granted Critical
Publication of JP7337510B2 publication Critical patent/JP7337510B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、人力駆動車のコンポーネントに関する適切な取り付け状態を提案するための情報の出力装置、学習モデルの生成方法、コンピュータプログラム、および記憶媒体に関する。 The present invention relates to an information output device, a learning model generation method, a computer program, and a storage medium for proposing an appropriate mounting state for a component of a manpowered vehicle.

自転車をはじめとして電動アシスト付き自転車、Eバイクと呼ばれる電動自転車等、少なくとも部分的に人力が用いられる人力駆動車がある。人力駆動車は、フロントディレーラ、リアディレーラ、シートポスト、またはサスペンション等である複数のコンポーネントを備える。 There are human-powered vehicles that use human power at least partially, such as bicycles, electrically assisted bicycles, and electric bicycles called E-bikes. A human powered vehicle comprises multiple components such as a front derailleur, a rear derailleur, a seat post, or a suspension.

複数のコンポーネントに対し、診断装置を接続して故障の有無を含む診断を行なう技術が知られている(特許文献1、2参照)。従来の診断装置は、コンポーネントと通信し、コンポーネントに所定の動作を指示した場合に動作が終了したか否か等によって故障を診断する。 There is known a technique of connecting a diagnostic device to a plurality of components and diagnosing whether or not there is a failure (see Patent Documents 1 and 2). A conventional diagnostic device communicates with a component and diagnoses a failure based on whether or not the operation is completed when the component is instructed to perform a predetermined operation.

米国特許第7819032号明細書U.S. Pat. No. 7,819,032 米国特許第9227697号明細書U.S. Pat. No. 9,227,697

1つ1つのコンポーネントとして故障はしていない状況であっても、組み合わせとして適切でない場合がある。他のコンポーネントとの関係、乗り手の個性によっては、より適切な組立状態が提案されるべき場合もある。多数の条件に基づく適切な組立状態は、複数のコンポーネントそれぞれの状態を総合的に判断して提案されるべきである。 Even if there is no failure of individual components, the combination may not be appropriate. Depending on the relationship with other components and the personality of the rider, there are cases where a more appropriate assembly state should be proposed. Appropriate assembly states based on multiple conditions should be proposed by comprehensively judging the states of each of the plurality of components.

本発明の目的は、人力駆動車のコンポーネントを含む部品の適切な取り付け状態を提案するための情報を出力する出力装置、学習モデルの生成方法、コンピュータプログラム、および記憶媒体を提供することである。 An object of the present invention is to provide an output device, a learning model generation method, a computer program, and a storage medium for outputting information for proposing an appropriate mounting state of parts including components of a manpowered vehicle.

(1)本発明の第1側面に従う出力装置は、学習アルゴリズムによって学習された学習モデルを用いて、人力駆動車の部品の取り付け状態に関する入力情報に応じて前記取り付け状態に関する出力情報を出力する処理部を備える。
このため、取り付け状態に関する多様な情報に応じた出力情報が学習モデルから出力され、出力情報に基づいた部品の適切な取り付け状態の提案が可能である。
(1) The output device according to the first aspect of the present invention uses a learning model learned by a learning algorithm to output output information regarding the mounting state of parts of a human-powered vehicle according to input information regarding the mounting state. have a department.
Therefore, the learning model outputs output information corresponding to various information regarding the mounting state, and it is possible to propose an appropriate mounting state of the part based on the output information.

(2)本発明の第2側面に従う出力装置は、前記入力情報は、前記部品の識別情報を含む。
このため、人力駆動車に取り付けられる部品の組み合わせに応じた出力情報が学習モデルから出力され、出力情報に基づいた部品の適切な取り付け状態の提案が可能である。
(2) In the output device according to the second aspect of the present invention, the input information includes identification information of the component.
Therefore, output information corresponding to the combination of parts to be attached to the manpowered vehicle is output from the learning model, and it is possible to propose an appropriate attachment state of the parts based on the output information.

(3)本発明の第3側面に従う出力装置は、前記入力情報は、前記人力駆動車の車体に関する情報を含む。
このため、人力駆動車の車体のサイズ、またはタイプ等の情報に応じた出力情報が学習モデルから出力され、出力情報に基づいた部品の適切な取り付け状態の提案が可能である。
(3) In the output device according to the third aspect of the present invention, the input information includes information regarding the vehicle body of the human-powered vehicle.
Therefore, output information corresponding to information such as the size or type of the vehicle body of the manpowered vehicle is output from the learning model, and it is possible to propose an appropriate mounting state of parts based on the output information.

(4)本発明の第4側面に従う出力装置は、前記入力情報は、前記人力駆動車のユーザの身体情報を含む。
このため、人力駆動車の部品に関し、人力駆動車に乗るユーザの体重、身長、または脚の長さ等に応じた部品の適切な取り付け状態の提案が可能である。
(4) In the output device according to the fourth aspect of the present invention, the input information includes physical information of the user of the manpowered vehicle.
Therefore, with respect to the parts of the manpowered vehicle, it is possible to propose an appropriate mounting state of the parts according to the weight, height, leg length, or the like of the user who rides the manpowered vehicle.

(5)本発明の第5側面に従う出力装置は、前記入力情報は、前記人力駆動車の静止画像データおよび前記人力駆動車の動画像データの少なくともいずれか1つを含む。
このため、人力駆動車の部品に関し、人力駆動車を撮影した静止画像データまたは動画像データを入力とし、人力駆動車全体の観察結果に応じた部品の適切な取り付け状態の提案が可能である。
(5) In the output device according to the fifth aspect of the present invention, the input information includes at least one of still image data of the manpowered vehicle and moving image data of the manpowered vehicle.
Therefore, regarding parts of a manpowered vehicle, it is possible to propose an appropriate mounting state of parts according to the observation result of the whole manpowered vehicle by inputting still image data or moving image data of the manpowered vehicle.

(6)本発明の第6側面に従う出力装置は、前記入力情報は、前記人力駆動車から発せられる振動に関するデータを含む。
このため、人力駆動車の部品に関し、人力駆動車の駆動中の振動に基づいた部品の適切な取り付け状態の提案が可能である。
(6) In the output device according to the sixth aspect of the present invention, the input information includes data regarding vibrations emitted from the manpowered vehicle.
For this reason, it is possible to propose an appropriate mounting state of the parts of the manpowered vehicle based on the vibration during driving of the manpowered vehicle.

(7)本発明の第7側面に従う出力装置は、前記振動に関するデータは、音声データを含む。
このため、人力駆動車の部品に関し、人力駆動車の駆動中に集音される音声データを入力とし、異音を含む多様な発生音に応じた部品の適切な取り付け状態の提案が可能である。
(7) In the output device according to the seventh aspect of the present invention, the vibration-related data includes audio data.
For this reason, regarding the parts of a human-powered vehicle, it is possible to propose the appropriate mounting state of the parts according to various generated sounds including abnormal sounds by inputting sound data collected while the human-powered vehicle is driving. .

(8)本発明の第8側面に従う出力装置は、前記出力情報は、前記取り付け状態の適否に関する適否情報を含む。
このため、人力駆動車の部品に関し、多様な入力情報に応じて部品の取り付け状態の適否が学習モデルから出力され、部品の取り付け状態の適否の提示が可能である。
(8) In the output device according to the eighth aspect of the present invention, the output information includes suitability information regarding suitability of the mounting state.
Therefore, with respect to the parts of the manpowered vehicle, the appropriateness of the mounting state of the parts is output from the learning model according to various input information, and it is possible to present the appropriateness of the mounting state of the parts.

(9)本発明の第9側面に従う出力装置は、前記出力情報は、前記取り付け状態に対する提案に関する提案情報を含む。
このため、人力駆動車の部品に関し、多様な入力情報に対応する部品の取り付け状態に対する適切な他の取り付け状態の提案が学習モデルから出力されるので、出力される情報から部品の適切な取り付け状態の提案が可能である。
(9) In the output device according to the ninth aspect of the present invention, the output information includes proposal information regarding proposals for the mounting state.
For this reason, with respect to the parts of the human-powered vehicle, since the learning model outputs proposals for other appropriate mounting states for the mounting states of the parts corresponding to various input information, the appropriate mounting states of the parts can be determined from the output information. can be proposed.

(10)本発明の第10側面に従う出力装置は、前記提案情報は、前記部品の取り付け方に関する情報、前記部品の調整に関する情報、および、前記部品の交換に関する情報の少なくともいずれか1つを含む。
このため、人力駆動車の部品に関し、多様な入力情報に対応する部品の取り付け状態に応じた部品の適切な取り付け方、調整量、調整方法、部品の交換の提案が可能である。
(10) In the output device according to the tenth aspect of the present invention, the proposal information includes at least one of information on how to install the part, information on adjustment of the part, and information on replacement of the part. .
Therefore, with respect to the parts of the manpowered vehicle, it is possible to propose an appropriate mounting method, adjustment amount, adjustment method, and replacement of the parts according to the mounting state of the parts corresponding to various input information.

(11)本発明の第11側面に従う学習モデルの生成方法は、人力駆動車の部品の取り付け状態に関する入力情報に応じて、前記取り付け状態に関する出力情報を出力するように構成されるニューラルネットワークを用いて学習モデルを生成する、学習モデルの生成方法であって、前記入力情報に対する評価をラベル付けした教師データに応じて前記ニューラルネットワークの中間層におけるパラメータをコンピュータによって調整する。
このため、人力駆動車の部品の取り付け状態に関する多様な入力情報と、入力情報に対応する適切な取り付け状態に対応する既知の教師データに基づいて学習モデルが生成される。学習モデルから出力される出力情報を用いることによって部品の適切な取り付け状態の提案が可能である。
(11) A method of generating a learning model according to the eleventh aspect of the present invention uses a neural network configured to output output information regarding the mounting state of parts of a manpowered vehicle in response to input information regarding the mounting state of the parts. In the learning model generation method, a computer adjusts parameters in the intermediate layer of the neural network in accordance with teacher data labeled with evaluations of the input information.
For this reason, a learning model is generated based on various input information regarding the mounting state of the parts of the manpowered vehicle and known teacher data corresponding to appropriate mounting states corresponding to the input information. By using the output information output from the learning model, it is possible to propose an appropriate mounting state of the part.

(12)本発明の第12側面に従う学習モデルの生成方法は、前記入力情報を前記ニューラルネットワークへ与えることによって出力された出力情報に対する評価をラベル付けした追加教師データに基づいて、前記学習モデルをコンピュータによって更新する。
このため、人力駆動車の部品に関して学習中のニューラルネットワークから出力される出力情報に対する評価に基づいてニューラルネットワークが逐次更新され、部品の取り付け状態の提案がより適切となる。
(12) The method of generating a learning model according to the twelfth aspect of the present invention generates the learning model based on additional teacher data labeled with evaluations of output information outputted by giving the input information to the neural network. Update by computer.
Therefore, the neural network is sequentially updated based on the evaluation of the output information output from the neural network that is learning about the parts of the manpowered vehicle, and the proposal of the mounting state of the parts becomes more appropriate.

(13)本発明の第13側面に従う学習モデルの生成方法は、人力駆動車の部品の取り付け状態に関する入力情報に応じて、前記取り付け状態に関する出力情報を出力するように構成されるニューラルネットワークを用いて学習モデルを生成する、学習モデルの生成方法であって、前記入力情報を前記ニューラルネットワークへ与えることによって出力された出力情報に対する評価をラベル付けした教師データに応じて前記ニューラルネットワークの中間層におけるパラメータをコンピュータによって調整する。
このため、予め教師データを用いることなく、学習中のニューラルネットワークから出力される出力情報に対する評価に基づいてニューラルネットワークが逐次更新され、部品の取り付け状態の提案がより適切となる。
(13) A method of generating a learning model according to the thirteenth aspect of the present invention uses a neural network configured to output output information regarding the mounting state of parts of a manpowered vehicle in response to input information regarding the mounting state of the parts. A method of generating a learning model, wherein a learning model is generated by applying the input information to the neural network in an intermediate layer of the neural network according to teacher data labeled with an evaluation of the output information output Adjust parameters by computer.
Therefore, the neural network is sequentially updated based on the evaluation of the output information output from the neural network during learning without using teaching data in advance, and the proposal of the mounting state of the part becomes more appropriate.

(14)本発明の第14側面に従うコンピュータプログラムは、人力駆動車の部品の取り付け状態に関する入力情報に応じて、前記取り付け状態に関する出力情報を出力するように学習アルゴリズムによって学習された学習モデルに、取得した入力情報を与えて、前記学習モデルから出力される出力情報に基づいて前記人力駆動車における部品の取り付け状態に関する情報を前記人力駆動車の画像を表示する表示部に前記画像に重畳および並べて表示する処理をコンピュータに実行させる。
このため、人力駆動車の部品の取り付け状態に関する多様な入力情報に基づき適切な取り付け状態を提案するための出力情報が、車体の情報、乗り手の情報等の多様な条件に合わせて学習モデルから出力される。学習モデルから出力された情報に基づいて人力駆動車の画像に対応させた部品の適切な取り付け状態を示す画像が表示され、視覚的に分かりやすい提案が可能である。
(14) The computer program according to the fourteenth aspect of the present invention provides a learning model trained by a learning algorithm to output output information regarding the mounting state in response to input information regarding the mounting state of parts of a manpowered vehicle, Given the acquired input information, based on the output information output from the learning model, information on the mounting state of parts in the manpowered vehicle is superimposed and arranged on the image on a display unit that displays the image of the manpowered vehicle. Make the computer execute the processing to be displayed.
For this reason, output information for proposing an appropriate mounting state based on various input information regarding the mounting state of the parts of the human-powered vehicle is output from the learning model according to various conditions such as vehicle body information and rider information. be done. Based on the information output from the learning model, an image showing the appropriate mounting state of parts corresponding to the image of the human-powered vehicle is displayed, making it possible to make visually easy-to-understand proposals.

(15)本発明の第15側面に従う記憶媒体は、前記(14)のコンピュータプログラムが記憶される。
このため、記憶媒体からコンピュータによって読み出されるコンピュータプログラムに基づいて前記コンピュータは、学習モデルから出力された情報に基づいて人力駆動車の画像に対応させた部品の適切な取り付け状態を示す画像が表示され、視覚的に分かりやすい提案が可能である。
(15) A storage medium according to the fifteenth aspect of the present invention stores the computer program of (14).
For this reason, based on the computer program read by the computer from the storage medium, the computer displays an image showing the appropriate mounting state of the parts corresponding to the image of the manpowered vehicle based on the information output from the learning model. , a visually easy-to-understand proposal is possible.

本発明に関する人力駆動車の部品の取り付け状態に関する情報を出力する出力装置によれば、人力駆動車のコンポーネントを含む部品の適切な取り付け状態を提案するための情報を出力することができる。 According to the output device for outputting information about the mounting state of parts of a manpowered vehicle according to the present invention, it is possible to output information for proposing an appropriate mounting state of parts including components of a manpowered vehicle.

第1実施形態の出力装置および端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of the output device of 1st Embodiment, and a terminal device. 学習モデルの生成方法の一例を示すフローチャートである。4 is a flow chart showing an example of a method of generating a learning model; 学習モデルの生成方法の他の一例を示すフローチャートである。10 is a flow chart showing another example of a method of generating a learning model; 学習モデルの概要を示す図である。It is a figure which shows the outline|summary of a learning model. 取り付け状態の提案に関する処理手順の一例を示すフローチャートである。7 is a flow chart showing an example of a procedure for proposing an installation state; 端末装置にて表示される画面例を示す図である。It is a figure which shows the example of a screen displayed on a terminal device. 端末装置にて表示される画面例を示す図である。It is a figure which shows the example of a screen displayed on a terminal device. 第2実施形態の出力装置および端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of the output device of 2nd Embodiment, and a terminal device. 第2実施形態における学習モデルの生成方法の一例を示すフローチャートである。9 is a flow chart showing an example of a learning model generation method according to the second embodiment. 第2実施形態の学習モデルの概要を示す図である。It is a figure which shows the outline|summary of the learning model of 2nd Embodiment. 取り付け状態の提案に関する処理手順の一例を示すフローチャートである。7 is a flow chart showing an example of a procedure for proposing an installation state; 取り付け状態の提案に関する処理手順の一例を示すフローチャートである。7 is a flow chart showing an example of a procedure for proposing an installation state; 第2実施形態の端末装置にて表示される画面例を示す図である。It is a figure which shows the example of a screen displayed on the terminal device of 2nd Embodiment. 第2実施形態の端末装置にて表示される画面例を示す図である。It is a figure which shows the example of a screen displayed on the terminal device of 2nd Embodiment. 第3実施形態における端末装置の構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of a terminal device according to the third embodiment; FIG. 第4実施形態の出力装置が適用される人力駆動車の側面図である。It is a side view of a human-powered vehicle to which the output device of 4th Embodiment is applied. 第4実施形態における出力装置の構成を示すブロック図である。It is a block diagram which shows the structure of the output device in 4th Embodiment. 第4実施形態における学習モデルの生成方法の一例を示すフローチャートである。FIG. 14 is a flow chart showing an example of a method of generating a learning model in the fourth embodiment; FIG. 第4実施形態における学習モデルの概要を示す図である。It is a figure which shows the outline|summary of the learning model in 4th Embodiment. 第4実施形態における取り付け状態の適否の判断に関する処理手順の一例を示すフローチャートである。FIG. 14 is a flow chart showing an example of a processing procedure for judging whether the mounting state is appropriate in the fourth embodiment; FIG.

以下の各実施形態に関する説明は、本発明に関する出力装置が取り得る形態の例示であり、その形態を制限することを意図していない。本発明に関する出力装置は、各実施形態の変形例、および、相互に矛盾しない少なくとも2つの変形例が組み合わせられた形態等のように各実施形態とは異なる形態を取り得る。 The following descriptions of the respective embodiments are examples of forms that the output device of the present invention can take, and are not intended to limit the forms. An output device related to the present invention can take a form different from each embodiment, such as a modification of each embodiment, or a form in which at least two mutually consistent modifications are combined.

以下の各実施形態に関する説明において、前、後、前方、後方、左、右、横、上、および、下等の方向を表す言葉は、ユーザが人力駆動車のサドルに着座した状態における方向を基準として用いられる。 In the description of each embodiment below, terms such as forward, rearward, forward, rearward, left, right, sideways, up, and down refer to directions when the user is seated on the saddle of the manpowered vehicle. Used as a reference.

(第1実施形態)
第1実施形態では、人力駆動車の部品メーカによって管理される出力装置1と、出力装置1から提供される人力駆動車の部品の取り付け状態に関する情報に基づいて人力駆動車のメンテナンスに用いられる端末装置2とを用いたメンテナンス方法について説明する。
(First embodiment)
In the first embodiment, an output device 1 managed by a parts manufacturer of the manpowered vehicle and a terminal used for maintenance of the manpowered vehicle based on information on the mounting state of the parts of the manpowered vehicle provided from the output device 1. A maintenance method using the device 2 will be described.

図1は、第1実施形態の出力装置1および端末装置2の構成を示すブロック図である。第1実施形態において出力装置1は、サーバコンピュータを用いる。出力装置1は、パーソナルコンピュータであってもよい。出力装置1は、処理部10、記憶部12、および通信部14を備える。第1実施形態において以下では、出力装置1は1台のサーバコンピュータとして説明するが、複数のサーバコンピュータで機能又は処理を分散させてもよいし、1台の大型コンピュータに仮想的に生成される複数のインスタンスの内の1つであってもよい。 FIG. 1 is a block diagram showing configurations of an output device 1 and a terminal device 2 according to the first embodiment. In the first embodiment, the output device 1 uses a server computer. The output device 1 may be a personal computer. The output device 1 includes a processing unit 10 , a storage unit 12 and a communication unit 14 . In the first embodiment, the output device 1 is described below as one server computer, but the functions or processes may be distributed among a plurality of server computers, or the output device 1 may be virtually generated in one large computer. It may be one of multiple instances.

処理部10は、CPU(Central Processing Unit )またはGPU(Graphics Processing Unit)を用いたプロセッサである。処理部10は、内蔵するROM(Read Only Memory)およびRAM(Random Access Memory)等のメモリを用い、各構成部を制御して処理を実行する。処理部10は、記憶部12に記憶されている学習モデル1Mを含む学習プログラム1Pに基づいて、学習モデル1Mを生成し、生成した学習モデル1Mを用いて人力駆動車の組み立てに関する情報を端末装置2へ向けて出力する。 The processing unit 10 is a processor using a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). The processing unit 10 uses built-in memories such as ROM (Read Only Memory) and RAM (Random Access Memory) to control each component and execute processing. The processing unit 10 generates the learning model 1M based on the learning program 1P including the learning model 1M stored in the storage unit 12, and uses the generated learning model 1M to transmit information regarding the assembly of the human-powered vehicle to the terminal device. Output to 2.

記憶部12は、ハードディスク、または、SSD(Solid State Drive )を用い、学習プログラム1Pを含む処理部10が参照するプログラム、およびデータを記憶する。記憶部12は、学習プログラム1Pに基づいて生成される学習モデル1Mを記憶する。記憶部12には、部品メーカが取り扱う部品の取り付け方を説明する説明書のデータが記憶されている。学習プログラム1P、および学習モデル1Mは、記憶媒体3に記憶された学習プログラム30Pおよび学習モデル30Mを読み出して記憶部12に複製されたものであってもよい。 The storage unit 12 uses a hard disk or an SSD (Solid State Drive) and stores programs and data referred to by the processing unit 10 including the learning program 1P. The storage unit 12 stores a learning model 1M generated based on the learning program 1P. The storage unit 12 stores data of manuals explaining how to install parts handled by parts manufacturers. The learning program 1P and the learning model 1M may be obtained by reading the learning program 30P and the learning model 30M stored in the storage medium 3 and duplicating them in the storage unit 12 .

通信部14は、公衆通信網N1を含むネットワークNを介した端末装置2との通信接続を実現する通信モジュールである。通信部14は例えば、Wi-Fi に対応する無線通信デバイスである。通信部14は第2例では、ネットワークNに含まれるキャリアネットワークN2を介した通信接続を実現するキャリア通信用モジュールである。通信部14は第3例では有線接続用のネットワークカードである。 The communication unit 14 is a communication module that realizes communication connection with the terminal device 2 via the network N including the public communication network N1. The communication unit 14 is, for example, a wireless communication device compatible with Wi-Fi. In the second example, the communication unit 14 is a carrier communication module that realizes communication connection via a carrier network N2 included in the network N. FIG. The communication unit 14 is a network card for wired connection in the third example.

端末装置2は、メンテナンスを行なう人力駆動車のユーザ、または人力駆動車の販売者が所有するタブレット等の通信端末である。端末装置2は、所謂スマートフォンであってもよい。端末装置2は、ラップトップ型のパーソナルコンピュータであってもよい。端末装置2は、処理部20、記憶部22、通信部24、表示部26、および操作部28を備える。 The terminal device 2 is a communication terminal such as a tablet owned by a user of the manpowered vehicle performing maintenance or a dealer of the manpowered vehicle. The terminal device 2 may be a so-called smart phone. The terminal device 2 may be a laptop personal computer. The terminal device 2 includes a processing section 20 , a storage section 22 , a communication section 24 , a display section 26 and an operation section 28 .

処理部20は、CPUまたはGPUを用いたプロセッサである。処理部20は、内蔵するROM、およびRAM等のメモリを用い、各構成部を制御して処理を実行する。処理部20は、プロセッサ、メモリ、記憶部22および通信部24を集積した1つのハードウェア、SoC(System On a Chip)として構成されていてもよい。処理部20は、記憶部22に記憶されているメンテナンスアプリプログラム2Pに基づいて、人力駆動車の組み立てに関する情報を表示部26に表示する。 The processing unit 20 is a processor using a CPU or GPU. The processing unit 20 uses internal memories such as ROM and RAM to control each component and execute processing. The processing unit 20 may be configured as one piece of hardware, SoC (System On a Chip), in which the processor, memory, storage unit 22 and communication unit 24 are integrated. Based on the maintenance application program 2P stored in the storage unit 22, the processing unit 20 displays information regarding the assembly of the human-powered vehicle on the display unit 26. FIG.

記憶部22は、フラッシュメモリを用い、メンテナンスアプリプログラム2Pを含む処理部20が参照するプログラム、およびデータを記憶する。記憶部22に記憶されているメンテナンスアプリプログラム2Pは、人力駆動車の部品メーカから提供され、任意の配信サーバから配信され、汎用コンピュータである端末装置2にインストールされる。メンテナンスアプリプログラム2Pは、記憶媒体5に記憶されたメンテナンスアプリプログラム50Pを読み出して記憶部22に複製されたものであってもよい。 The storage unit 22 uses a flash memory and stores programs and data referred to by the processing unit 20 including the maintenance application program 2P. The maintenance application program 2P stored in the storage unit 22 is provided by a parts manufacturer of the human-powered vehicle, distributed from an arbitrary distribution server, and installed in the terminal device 2, which is a general-purpose computer. The maintenance application program 2P may be obtained by reading the maintenance application program 50P stored in the storage medium 5 and duplicating it in the storage unit 22 .

通信部24は、公衆通信網N1への通信接続を実現する通信モジュールである。通信部24は例えば、Wi-Fi に対応する無線通信デバイスである。通信部24は第2例では、キャリアネットワークN2を介した通信を実現するキャリア通信用モジュールである。通信部24は第3例ではネットワークカードである。 The communication unit 24 is a communication module that realizes communication connection to the public communication network N1. The communication unit 24 is, for example, a wireless communication device compatible with Wi-Fi. In the second example, the communication unit 24 is a carrier communication module that realizes communication via the carrier network N2. The communication unit 24 is a network card in the third example.

表示部26は、液晶パネルまたは有機ELディスプレイ等のディスプレイ装置を用いる。表示部26は、人力駆動車における部品の取り付け状態に関する情報を、人力駆動車の画像と共に表示する。 The display unit 26 uses a display device such as a liquid crystal panel or an organic EL display. The display unit 26 displays information about the mounting state of the parts in the manpowered vehicle together with the image of the manpowered vehicle.

操作部28は、利用者の操作を受け付けるインタフェースであり、物理ボタン、ディスプレイ内蔵のタッチパネルデバイス、スピーカ、およびマイクロフォン等を用いる。操作部28は、物理ボタンまたはタッチパネルにて表示部26で表示している画面上で操作を受け付けてもよいし、マイクロフォンにて入力音声から操作内容を認識し、スピーカで出力する音声との対話形式で操作を受け付けてもよい。 The operation unit 28 is an interface that receives user operations, and uses physical buttons, a touch panel device with a built-in display, a speaker, a microphone, and the like. The operation unit 28 may accept operations on the screen displayed on the display unit 26 using physical buttons or a touch panel, or recognize the operation content from the input voice with the microphone and interact with the voice output from the speaker. You may accept the operation in the form.

上述のような構成を有する第1実施形態の出力装置1は、後述する学習アルゴリズムによって学習された学習モデル1Mを用いて、人力駆動車の部品の取り付け状態に関する入力情報に応じて部品の取り付け状態に関する出力情報を出力する。出力情報は端末装置2へ送信され、端末装置2では、メンテナンスアプリプログラム2Pに基づいてこれを受信し、受信した出力情報に基づいて人力駆動車における部品の取り付け状態に関する情報を、表示部26に表示する。 The output device 1 of the first embodiment having the configuration described above uses a learning model 1M learned by a learning algorithm to be described later to determine the mounting state of the parts according to the input information regarding the mounting state of the parts of the human-powered vehicle. Print output information about . The output information is transmitted to the terminal device 2, and the terminal device 2 receives it based on the maintenance application program 2P, and displays information on the mounting state of the parts in the human-powered vehicle on the display unit 26 based on the received output information. indicate.

第1に出力装置1にて生成される学習モデル1Mについて説明する。学習モデル1Mは予め、出力装置1または外部装置によって生成される。図2は、学習モデル1Mの生成方法の一例を示すフローチャートである。出力装置1は、ニューラルネットワーク(以下NN:Neural Network)を用いた教師ありの深層学習アルゴリズムによって人力駆動車の部品の取り付け状態に関する入力情報に対する出力情報を出力する学習モデル1Mを生成する。学習アルゴリズムは教師なしの学習アルゴリズムでもよいし、リカレントニューラルネットワーク(Recurrent Neural Network)でもよい。学習アルゴリズムは強化学習でもよい。 First, the learning model 1M generated by the output device 1 will be described. The learning model 1M is generated in advance by the output device 1 or an external device. FIG. 2 is a flow chart showing an example of a method of generating the learning model 1M. The output device 1 generates a learning model 1M that outputs output information in response to input information regarding the mounting state of parts of the human-powered vehicle by a supervised deep learning algorithm using a neural network (hereinafter referred to as NN). The learning algorithm may be an unsupervised learning algorithm or a recurrent neural network. The learning algorithm may be reinforcement learning.

処理部10は生成を開始する前に、教師データとなる情報を収集し、記憶部12に記憶しておく。教師データは、人力駆動車の部品の取り付け状態に関する情報と、取り付け状態に対して適否の判定結果が付与された情報群である。これらの情報群は、人力駆動車または部品のメーカにより収集され、適切または不適切であると判定された取り付け状態の人力駆動車の情報である。情報群は人力駆動車の販売店、組み立て工場または試験場で収集される。適否の判定の主体は、組立のエンジニア、メーカのエンジニア等である。判定の主体は、ユーザであってもよい。入力情報は例えば、部品の識別情報であり、メーカ名、型番、品番、品名である。入力情報は車体情報を含む。車体情報は、フレーム、フロントフォーク、ハンドル、ステム、およびシートポストそれぞれのサイズ、種類、および品番を含む。入力情報は、部品の識別情報および車体情報に対応する人力駆動車に乗るユーザの身体情報を含む。身体情報は、ユーザの体重、身長、脚の長さ、および腕の長さ等のいずれか1つを少なくとも含む。 The processing unit 10 collects information to be teacher data and stores it in the storage unit 12 before starting generation. The training data is a group of information in which information about the mounting state of the parts of the manpowered vehicle and judgment results as to whether the mounting state is appropriate or not are given. These groups of information are collected by manufacturers of manpowered vehicles or parts, and are information of manpowered vehicles in installed states determined to be appropriate or inappropriate. Information clusters are collected at a human powered vehicle dealership, assembly plant or proving ground. Assembling engineers, manufacturer engineers, etc. are responsible for judging suitability. The subject of determination may be the user. The input information is, for example, part identification information, such as the manufacturer name, model number, part number, and part name. The input information includes vehicle body information. The vehicle body information includes the size, type, and part number of each frame, front fork, handle, stem, and seat post. The input information includes the physical information of the user riding in the manpowered vehicle corresponding to the part identification information and the vehicle body information. The physical information includes at least one of the user's weight, height, leg length, arm length, and the like.

処理部10は、収集された情報群を用いて以下の処理を実行する。
処理部10は、記憶部12に記憶された人力駆動車の部品の取り付け状態に関し、人力駆動車に取り付けられる部品の識別情報を取得する(ステップS101)。処理部10は、ステップS101で取得した1つまたは複数の部品が取り付けられた人力駆動車の車体に関する情報を取得する(ステップS103)。処理部は、ステップS101で取得した1つまたは複数の部品が取り付けられた人力駆動車のユーザの身体情報を取得する(ステップS105)。
The processing unit 10 executes the following processes using the collected information group.
The processing unit 10 acquires identification information of parts to be attached to the manpowered vehicle, regarding the mounting state of the parts of the manpowered vehicle stored in the storage unit 12 (step S101). The processing unit 10 acquires information about the body of the human-powered vehicle to which the one or more parts acquired in step S101 are attached (step S103). The processing unit acquires the physical information of the user of the manpowered vehicle to which the one or more parts acquired in step S101 are attached (step S105).

処理部10は、ステップS101からステップS105で取得した入力情報に、予め与えられた適否の判定結果のラベルを付与することで教師データを作成する(ステップS107)。 The processing unit 10 creates teacher data by assigning a label indicating the judgment result of suitability given in advance to the input information acquired in steps S101 to S105 (step S107).

処理部10は、記憶部12に記憶されている情報群のうち、所定の条件を満たす全ての情報群から教師データを作成したか否かを判断する(ステップS109)。所定の条件は例えば、同一の取り付け状態について入力情報を取得するに関し、教師データとなる情報数の数である。ステップS109で全ての情報群から教師データを作成していないと判断された場合(S109:NO)、処理部10は処理をステップS101へ戻す。 The processing unit 10 determines whether or not teacher data has been created from all information groups that satisfy a predetermined condition among the information groups stored in the storage unit 12 (step S109). The predetermined condition is, for example, the number of pieces of information used as teacher data for obtaining input information for the same mounting state. If it is determined in step S109 that the teacher data has not been created from all information groups (S109: NO), the processing unit 10 returns the process to step S101.

ステップS109で全ての情報群から教師データを作成したと判断された場合(S109:YES)、処理部10は作成した教師データをNNへ与える(ステップS111)。処理部10は、与えられた教師データによってNNの中間層における重みおよびバイアスの少なくとも一方を含むパラメータを学習し(ステップS113)、処理を終了する。 If it is determined in step S109 that the teacher data has been created from all information groups (S109: YES), the processor 10 provides the created teacher data to the NN (step S111). The processing unit 10 learns parameters including at least one of weights and biases in the intermediate layers of the NN from the given teacher data (step S113), and ends the process.

これにより、学習モデル1Mは、前記入力情報に対する評価を予めラベル付けした教師データに応じてNNの中間層におけるパラメータをコンピュータによって調整することで生成される。 As a result, the learning model 1M is generated by adjusting the parameters in the intermediate layer of the NN according to the teacher data pre-labeled for the evaluation of the input information by a computer.

学習モデル1Mの生成は、上述のラベル付けした教師あり学習方法には限られない。図3は、学習モデル1Mの生成方法の他の一例を示すフローチャートである。図3のフローチャートに示した処理手順の内、図2のフローチャートと共通する手順については同一のステップ番号を付して詳細な説明を省略する。図3のフローチャートでは、1つの取り付け状態、または1台の人力駆動車に関する情報に基づいて処理部10が処理を実行する。処理部10は、多様な人力駆動車または多様な取り付け状態の1つ1つに対し、以下の処理をそれぞれ実行する。 Generation of the learning model 1M is not limited to the labeled supervised learning method described above. FIG. 3 is a flow chart showing another example of the method of generating the learning model 1M. Among the processing procedures shown in the flowchart of FIG. 3, the procedures common to the flowchart of FIG. 2 are given the same step numbers, and detailed descriptions thereof are omitted. In the flowchart of FIG. 3, the processing unit 10 executes processing based on information regarding one mounting state or one manpowered vehicle. The processing unit 10 performs the following processes for each of the various manpowered vehicles or the various mounting conditions.

処理部10は、1つの取り付け状態について、ステップS103からステップS105で取得した入力情報を、学習中のNNへ与える(ステップS121)。処理部10は、入力情報をNNへ与えた場合にNNから出力される取り付け状態の全体としての適否の情報、例えばスコアを特定する(ステップS123)。処理部10は、特定された適否の情報と、予め付与されている判定結果とを比較し評価値を導出する(ステップS125)。評価値は例えばステップS123で特定されたスコアと判定結果に対応するスコアとの誤差である。誤差のパラメータは例えば角度、距離、寸法、方位、または重さである。 The processing unit 10 gives the input information acquired in steps S103 to S105 for one mounting state to the learning NN (step S121). The processing unit 10 specifies the information, for example, the score, regarding the suitability of the mounting state as a whole, which is output from the NN when the input information is given to the NN (step S123). The processing unit 10 compares the specified suitability information with the judgment result given in advance to derive an evaluation value (step S125). The evaluation value is, for example, the difference between the score specified in step S123 and the score corresponding to the determination result. Error parameters are, for example, angles, distances, dimensions, orientations, or weights.

処理部10は、導出した評価値を中間層へ与えて中間層におけるパラメータを更新し(ステップS127)、処理を終了する。ステップS127では、導出された誤差が最小になるようにパラメータが更新される。ステップS127によってステップS101からステップS105によって取得された入力情報をNNに入力した場合に出力される出力情報に対する評価の教師データによって調整され、学習モデル1Mが生成される。 The processing unit 10 gives the derived evaluation value to the intermediate layer to update the parameters in the intermediate layer (step S127), and ends the process. In step S127, the parameters are updated to minimize the derived error. In step S127, the learning model 1M is generated by adjusting the evaluation teacher data for the output information output when the input information obtained in steps S101 to S105 is input to the NN.

処理部10は、図2のフローチャートに示した処理手順、または図3のフローチャートに示した処理手順のいずれかによって学習モデル1Mを生成してもよいし、いずれの処理手順をも実行してもよい。いずれの処理手順をも実行する場合、処理部10は例えば、図2のフローチャートに示した手順で初期的に学習モデル1Mを生成し、生成された学習モデル1Mの中間層におけるパラメータを、図3のフローチャートに示した処理手順によって調整し、再更新するとよい。 The processing unit 10 may generate the learning model 1M by either the processing procedure shown in the flowchart of FIG. 2 or the processing procedure shown in the flowchart of FIG. good. When executing any of the processing procedures, the processing unit 10, for example, initially generates the learning model 1M according to the procedure shown in the flowchart of FIG. It is preferable to adjust and re-update according to the processing procedure shown in the flow chart.

図4は、学習モデル1Mの概要を示す図である。学習モデル1Mは、人力駆動車の部品に関する入力情報を入力する入力層31と、人力駆動車の部品の取り付け状態に対する適否に関する出力情報を出力する出力層32とを備える。学習モデル1Mは、入力情報が入力された場合に適否を出力するように教師データによって学習済みのパラメータを有する中間層33を備える。入力層31に、部品に関する入力情報が入力された場合、学習済みパラメータによって中間層33で演算が行なわれ、出力層32から入力された部品の適否に関する出力情報が出力される。 FIG. 4 is a diagram showing an overview of the learning model 1M. The learning model 1M includes an input layer 31 for inputting input information about parts of the manpowered vehicle, and an output layer 32 for outputting output information about the adequacy of the mounting state of the parts of the manpowered vehicle. The learning model 1M includes an intermediate layer 33 having parameters that have been learned using teacher data so as to output suitability when input information is input. When input information about a part is input to the input layer 31 , computation is performed in the intermediate layer 33 using learned parameters, and output information about the propriety of the input part is output from the output layer 32 .

図4の具体例では入力層31には、部品の取り付け状態の適否に関し、異なる種別の部品それぞれの識別情報が与えられる。図4の具体例では部品の識別情報は、電動コンポーネントについての識別情報が与えられる。フロントディレーラ、リアディレーラ、ディスクロータが例示されている。 In the specific example of FIG. 4, the input layer 31 is provided with identification information for each of different types of parts regarding the adequacy of the mounting state of the parts. In the example of FIG. 4, the identification information of the part is given the identification information about the electric component. A front derailleur, a rear derailleur, and a disk rotor are illustrated.

入力層31には、車体情報が与えられる。車体情報は、上述したようにフレーム、フロントフォーク、ハンドル、ステム、およびシートポストそれぞれのサイズ、種類、および品番を含む。 The input layer 31 is provided with vehicle body information. The vehicle body information includes the size, type, and part number of each of the frame, front fork, handle, stem, and seat post, as described above.

入力層31には、ユーザの身体情報が与えられる。身体情報は、身長、および体重を含む。身体情報は他に、脚の長さ、手の長さ、または性別であってもよい。 The input layer 31 is given physical information of the user. Physical information includes height and weight. Physical information may also be leg length, hand length, or gender.

図4の具体例は、部品の識別情報、車体情報、および身体情報全てを入力層31に与える構成である。しかしながら、出力装置1における処理は、全てを与える構成に限らない。部品の識別情報、車体情報、および身体情報の一部のみであってもよい。適否の対象に応じて、入力される情報が区別されてもよい。例えば、リアディレーラの取り付けに関する適否の情報を出力する学習モデル1Mの場合には、フレームの種類、長さ、およびフロントディレーラの品番を入力するというように区別されてもよい。 The specific example of FIG. 4 is a configuration in which all of identification information of parts, vehicle body information, and physical information are given to the input layer 31 . However, the processing in the output device 1 is not limited to the configuration that provides everything. Part identification information, vehicle body information, and part of physical information may be used. The information to be input may be distinguished according to the object of suitability. For example, in the case of the learning model 1M that outputs information on whether or not the rear derailleur is installed properly, the type and length of the frame and the model number of the front derailleur may be input.

このように生成された学習モデル1Mは、以下の部品の取り付け状態の提案処理に利用される。図5は、取り付け状態の提案に関する処理手順の一例を示すフローチャートである。取り付け状態の提案は、ユーザが用いる端末装置2がメンテナンスアプリプログラム2Pを実行し、メンテナンスを開始した場合に開始される。 The learning model 1M generated in this manner is used in the following process of proposing the mounting state of parts. FIG. 5 is a flow chart showing an example of a processing procedure for proposing an installation state. Proposal of the installation state is started when the terminal device 2 used by the user executes the maintenance application program 2P and starts maintenance.

端末装置2の処理部20は、メンテナンスアプリプログラム2Pに基づいてユーザの人力駆動車についての情報の入力画面にて、入力を受け付ける(ステップS201)。処理部20は、入力画面への入力に基づいて、メンテナンス対象の人力駆動車に取り付けられている、またはこれから組み立てられる人力駆動車の部品の識別情報、車体情報、およびユーザの身体情報を受け付ける(ステップS203)。 The processing unit 20 of the terminal device 2 receives an input on the user's information input screen about the manpower-driven vehicle based on the maintenance application program 2P (step S201). Based on the input to the input screen, the processing unit 20 receives the identification information of the parts of the manpowered vehicle to be maintained or assembled from the manpowered vehicle, the vehicle body information, and the physical information of the user ( step S203).

処理部20は、受け付けた部品の識別情報、車体情報、およびユーザの身体情報を含む判定依頼を通信部24から出力装置1へ向けて送信する(ステップS205)。 The processing unit 20 transmits a determination request including the received part identification information, vehicle body information, and user physical information from the communication unit 24 to the output device 1 (step S205).

出力装置1は、通信部14によって判定依頼を受信し(ステップS131)、処理部10は、受信した判定依頼から人力駆動車に取り付けられる部品の識別情報を取得する(ステップS133)。処理部10は、判定依頼から人力駆動車の車体に関する情報を取得する(ステップS135)。車体の情報は、人力駆動車のフレーム、フロントフォーク、ハンドル、ステム、およびシートポストそれぞれのサイズ、種類、および品番のいずれかである。処理部10は、判定依頼から人力駆動車のユーザの身体情報を取得する(ステップS137)。ステップS137において身体情報とは、ユーザの体重、身長、脚の長さ、および腕の長さ等のいずれか1つを少なくとも含む。 The output device 1 receives the determination request through the communication unit 14 (step S131), and the processing unit 10 acquires the identification information of the parts attached to the human-powered vehicle from the received determination request (step S133). The processing unit 10 acquires information about the body of the human-powered vehicle from the determination request (step S135). The vehicle body information is either the size, type, or product number of the frame, front fork, handle, stem, and seat post of the human-powered vehicle. The processing unit 10 acquires the physical information of the user of the human-powered vehicle from the determination request (step S137). The physical information in step S137 includes at least one of the user's weight, height, leg length, arm length, and the like.

ステップS135およびステップS137の処理は、いずれか一方のみであってもよい。つまり、学習モデル1Mに入力されるべき情報は、車体情報および身体情報の両方であってもよいし、いずれか一方のみであってもよい。 Only one of steps S135 and S137 may be performed. That is, the information to be input to the learning model 1M may be both the vehicle body information and the body information, or may be only one of them.

出力装置1の処理部10は、ステップS133,S135,S137で取得した入力情報を、学習モデル1Mへ与える(ステップS139)。処理部10は、入力情報を学習モデル1Mに与えた場合に学習モデル1Mから出力される取り付け状態の全体としての適否の情報、例えばスコアを特定する(ステップS141)。 The processing unit 10 of the output device 1 gives the input information acquired in steps S133, S135, and S137 to the learning model 1M (step S139). The processing unit 10 identifies information, for example, a score, indicating whether the attachment state as a whole is output from the learning model 1M when the input information is given to the learning model 1M (step S141).

処理部10は、ステップS133で取得した部品の識別情報に基づいて、対象の部品に対応する説明書データを記憶部12から読み出し(ステップS143)、ステップS135で取得した車体情報に基づいて、使用される車体に関連する説明書データを記憶部12から読み出す(ステップS145)。処理部10は、身体情報に基づいて、体格別に推奨される部品の説明書データを読み出してもよい。 Based on the identification information of the part acquired in step S133, the processing unit 10 reads the manual data corresponding to the target part from the storage unit 12 (step S143). The manual data related to the vehicle body to be processed is read out from the storage unit 12 (step S145). The processing unit 10 may read the instruction manual data of parts recommended for each body type based on the physical information.

処理部10は、ステップS141で特定した適否の情報と、ステップS143およびステップS145で読み出した説明書データとを通信部14から判定依頼元の端末装置2へ送信する(ステップS147)。 The processing unit 10 transmits the suitability information specified in step S141 and the instruction manual data read out in steps S143 and S145 from the communication unit 14 to the terminal device 2 that requested the determination (step S147).

端末装置2では、通信部24から適否の情報と説明書データとを受信し(ステップS207)、処理部20は受信した適否の情報を表示部26に表示させる(ステップS209)。処理部20は、受信した情報に基づいて適否を判断し(ステップS211)、適と判断された場合には(S211:YES)、処理をそのまま終了する。 The terminal device 2 receives the information on suitability and the manual data from the communication unit 24 (step S207), and the processing unit 20 displays the received information on the suitability on the display unit 26 (step S209). The processing unit 20 determines suitability based on the received information (step S211), and if it is determined to be suitable (S211: YES), the process ends.

ステップS211にて不適と判断された場合(S211:NO)、処理部20はステップS207で受信した説明書データに基づいて部品の取り付け方の見本を表示部26に表示させ(ステップS213)、処理を終了する。 If it is determined to be inappropriate in step S211 (S211: NO), the processing unit 20 causes the display unit 26 to display a sample of how to install the parts based on the instruction manual data received in step S207 (step S213), and performs processing. exit.

処理部20は、ステップS211の判断に拘わらず、部品の取り付け方の見本を表示部26に表示するようにしてもよい。 The processing unit 20 may display a sample of how to install the component on the display unit 26 regardless of the determination in step S211.

図6および図7は、端末装置2にて表示される画面例を示す図である。ユーザが端末装置2を使用してメンテナンスアプリプログラム2Pを選択し起動させた場合、処理部20は、メンテナンスアプリプログラム2Pに基づいて、部品の取り付け状態に関し、入力情報を受け付ける入力画面261を表示部26に表示する。入力画面261は図6に示すように、部品の識別情報のコンポーネント毎の選択画面263、車体情報の選択画面265、身体情報の選択画面267を含む。入力画面261は、適否の判定依頼を送信するための送信ボタン269を含む。送信ボタン269が選択された場合、処理部20は、選択画面263,265,267で受け付けた情報を含む判定依頼を通信部24から送信する(S205)。選択画面267ではなく自由入力欄であってもよい。 6 and 7 are diagrams showing examples of screens displayed on the terminal device 2. FIG. When the user selects and activates the maintenance application program 2P using the terminal device 2, the processing unit 20 displays an input screen 261 for accepting input information regarding the mounting state of the parts based on the maintenance application program 2P. 26. The input screen 261 includes, as shown in FIG. 6, a selection screen 263 of identification information of parts for each component, a selection screen 265 of vehicle body information, and a selection screen 267 of physical information. The input screen 261 includes a send button 269 for sending a request for judgment of suitability. When the send button 269 is selected, the processing unit 20 sends a determination request including the information received on the selection screens 263, 265, and 267 from the communication unit 24 (S205). A free input field may be used instead of the selection screen 267 .

図7は、判定依頼に対応する適否の情報を表示する提案画面271の例を示している。図7に示すように、提案画面271には、適否の結果と共に、取り付け方の説明書データへのリンク273が含まれている。リンク273が選択されると、説明書、つまり適切な取り付け方の提案が表示部26に表示される。また図7に示すように、提案画面271には、適否の結果と共に、推奨する部品を示しており、部品の交換に関する情報を含むとよい。 FIG. 7 shows an example of a proposal screen 271 that displays information on suitability corresponding to a judgment request. As shown in FIG. 7, the proposal screen 271 includes a link 273 to instruction manual data on how to install together with the result of suitability. When the link 273 is selected, the instruction manual, that is, a proposal for an appropriate mounting method, is displayed on the display unit 26 . Further, as shown in FIG. 7, the proposal screen 271 shows the recommended parts together with the result of suitability, and preferably includes information on replacement of the parts.

上述したように、学習済みの学習モデル1Mは、人工知能ソフトウエアの一部であるメンテナンスアプリプログラム20Pのプログラムモジュールとしての利用が想定される。本開示の学習モデル1Mは上述したように、処理部10および記憶部12を備える出力装置1における端末装置2との連携処理で用いられる。 As described above, the learned learning model 1M is assumed to be used as a program module of the maintenance application program 20P, which is part of the artificial intelligence software. The learning model 1M of the present disclosure is used in cooperative processing with the terminal device 2 in the output device 1 including the processing unit 10 and the storage unit 12, as described above.

このようにして、学習モデル1Mに基づいて取り付け状態に関する多様な情報、部品を識別する情報、車体の種類またはサイズに関する情報、乗り手であるユーザの身体に応じた出力情報が出力され、出力情報に基づいた部品の適切な取り付け状態の提案が可能である。 In this way, based on the learning model 1M, various information about the mounting state, information for identifying parts, information about the type or size of the vehicle body, and output information according to the body of the user who is the rider are output. It is possible to propose an appropriate mounting state of parts based on this.

(第2実施形態)
図8は、第2実施形態の出力装置1および端末装置2の構成を示すブロック図である。第2実施形態における出力装置1は、記憶部12に学習モデル12Mを記憶する。学習モデル12Mは、適否の対象の部品別に学習される。学習モデル12Mは、取り付け状態に関する入力情報として、人力駆動車を撮像した静止画像データまたは動画像データを入力する。端末装置2は、処理部20、記憶部22、通信部24、表示部26、および操作部28の他に、撮像部29を備える。撮像部29は、撮像素子を含み、処理部20の指示に基づいて静止画像または動画像を撮像し、撮像により得られるデータを出力するデバイスである。
(Second embodiment)
FIG. 8 is a block diagram showing configurations of the output device 1 and the terminal device 2 of the second embodiment. The output device 1 according to the second embodiment stores the learning model 12M in the storage unit 12. FIG. The learning model 12M is learned for each component that is an object of suitability. The learning model 12M receives still image data or moving image data of an imaged human-powered vehicle as input information regarding the mounting state. The terminal device 2 includes an imaging unit 29 in addition to the processing unit 20 , the storage unit 22 , the communication unit 24 , the display unit 26 and the operation unit 28 . The imaging unit 29 is a device that includes an imaging element, captures a still image or a moving image based on an instruction from the processing unit 20, and outputs data obtained by imaging.

出力装置1および端末装置2の構成と、学習モデル12Mの生成方法、学習モデル12Mの内容、学習モデル12Mに基づく取り付け状態の適否の情報の出力方法に関する処理手順以外は、実施の形態1と同様である。したがって、実施の形態2の構成のうち、実施の形態1と共通する構成については同一の符号を付して詳細な説明を省略する。 The configuration of the output device 1 and the terminal device 2, the method of generating the learning model 12M, the content of the learning model 12M, and the processing procedure related to the method of outputting information on the adequacy of the mounting state based on the learning model 12M are the same as those of the first embodiment. is. Therefore, among the configurations of the second embodiment, the configurations common to those of the first embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted.

図9は、第2実施形態における学習モデル12Mの生成方法の一例を示すフローチャートである。第2実施形態においても出力装置1は、NNを用いた教師ありの深層学習アルゴリズムによって部品の取り付け状態に関する出力情報を出力する学習モデル12Mを生成する。 FIG. 9 is a flow chart showing an example of a method of generating the learning model 12M in the second embodiment. Also in the second embodiment, the output device 1 generates a learning model 12M that outputs output information about the mounting state of parts by a supervised deep learning algorithm using NN.

処理部10は、生成を開始する前に、教師データとなる情報を収集し、記憶部12に記憶しておく。教師データは、人力駆動車の部品の取り付け状態を撮像した静止画像データ、または動画像データである入力情報に、撮像されている取り付け状態に対する適否の判定結果が付与された情報群である。これらの情報群は、人力駆動車または部品のメーカにより収集され、適切または不適切であると判定された取り付け状態の人力駆動車の情報である。静止画像データ、または動画像データは、人力駆動車の販売店、組み立て工場または試験場で収集される。静止画像データ、または動画像データは、対象となる部品の種別に分類されている。入力情報は、静止画像データ、または動画像データに加え、第1実施形態で示した部品の識別情報、車体情報、またはユーザの身体情報を含んでもよい。 The processing unit 10 collects information that becomes teacher data and stores it in the storage unit 12 before starting generation. The training data is a group of information in which input information, which is still image data or moving image data obtained by picking up the mounting state of the parts of the manpowered vehicle, is added with the judgment result of the propriety of the mounting state being imaged. These groups of information are collected by manufacturers of manpowered vehicles or parts, and are information of manpowered vehicles in installed states determined to be appropriate or inappropriate. Still image data, or motion image data, is collected at a manpowered vehicle dealership, assembly plant, or proving ground. The still image data or the moving image data is classified according to the type of target parts. The input information may include, in addition to still image data or moving image data, component identification information, vehicle body information, or user physical information described in the first embodiment.

処理部10は、部品別に以下の生成処理を実行する。処理部10は例えば、フロントディレーラを撮像したものとして分類されている静止画像データ、または動画像データを教師データとして以下の処理を行なう。 The processing unit 10 executes the following generation processing for each part. For example, the processing unit 10 performs the following processing using still image data or moving image data classified as images of the front derailleur as teacher data.

処理部10は、記憶部12に記憶された人力駆動車の部品の取り付け状態に関し、対象の部品を選択する(ステップS151)。部品を取り付けた人力駆動車を撮像した静止画像データおよび動画像データの少なくともいずれか1つを取得する(ステップS153)。静止画像データ、または動画像データは、人力駆動車全体を撮像したデータであってもよいが、取り付け状態の適否の判定の対象を拡大して撮像したデータでもよい。 The processing unit 10 selects a target part with respect to the mounting state of the parts of the manpowered vehicle stored in the storage unit 12 (step S151). At least one of still image data and moving image data of the human-powered vehicle with the parts attached is acquired (step S153). The still image data or moving image data may be data obtained by imaging the entire human-powered vehicle, or may be data obtained by imaging an enlarged image of an object for determining whether the mounting state is appropriate.

処理部10は、静止画像、または動画像を撮像した対象の人力駆動車に取り付けられている部品の識別情報を取得する(ステップS155)。ステップS155では処理部10は例えば、フロントディレーラの品番または型名を取得する。処理部10は、車体情報を取得し(ステップS157)、ユーザの身体情報を取得する(ステップS159)。ステップS155,S157,S159の処理は、いずれも省略されてもよいし、いずれか1つ、またはいずれか2つが実行されてもよい。 The processing unit 10 acquires the identification information of the parts attached to the manpowered vehicle for which the still image or the moving image is captured (step S155). At step S155, the processing unit 10 acquires, for example, the product number or model name of the front derailleur. The processing unit 10 acquires vehicle body information (step S157) and acquires physical information of the user (step S159). All of the processes of steps S155, S157, and S159 may be omitted, or one or two of them may be executed.

処理部10は、ステップS153からステップS159で取得した入力情報に、予め与えられた適否の判定結果のラベルを付与することで教師データを作成する(ステップS161)。 The processing unit 10 creates teacher data by assigning a label indicating the judgment result of suitability given in advance to the input information acquired in steps S153 to S159 (step S161).

処理部10は、記憶部12に記憶されている情報群のうち、対象の部品について所定の条件を満たす全ての情報群から教師データを作成したか否かを判断する(ステップS163)。所定の条件は例えば、同一の取り付け状態について入力情報を取得するに関し、教師データとなる情報数に対する上限である。ステップS163で全ての情報群から教師データを作成していないと判断された場合(S163:NO)、処理部10は処理をステップS153へ戻す。 The processing unit 10 determines whether or not the teacher data has been created from all the information groups that satisfy a predetermined condition for the target part among the information groups stored in the storage unit 12 (step S163). The predetermined condition is, for example, an upper limit for the number of pieces of information to be used as teacher data regarding acquisition of input information for the same mounting state. If it is determined in step S163 that the teacher data has not been created from all the information groups (S163: NO), the processing unit 10 returns the process to step S153.

ステップS163で全ての情報群から教師データを作成したと判断された場合(S163:YES)、処理部10は作成した教師データをNNへ与える(ステップS165)。処理部10は、与えられた教師データによってNNの中間層における重みおよびバイアスの少なくとも一方を含むパラメータを学習し(ステップS167)、処理を終了する。 If it is determined in step S163 that the teacher data has been created from all information groups (S163: YES), the processor 10 provides the created teacher data to the NN (step S165). The processing unit 10 learns parameters including at least one of weights and biases in the intermediate layers of the NN from the given teacher data (step S167), and ends the process.

これにより、学習モデル12Mは、前記入力情報に対する評価を予めラベル付けした教師データに応じてNNの中間層におけるパラメータをコンピュータによって調整することで生成される。 As a result, the learning model 12M is generated by adjusting the parameters in the intermediate layer of the NN according to the teacher data pre-labeled for the evaluation of the input information by a computer.

第2実施形態でも処理部10は、第1実施形態の図3のフローチャートで示したように、1つの静止画像データ、または動画像データを入力してNNから出力される適否に関する出力情報と、既知の判定結果との差分を求め、誤差伝播によって学習モデル12Mを生成してもよい。対応する処理手順についてフローチャートおよび詳細な説明は省略する。処理部10は、図9のフローチャートに示した処理手順の後に、誤差伝播によって中間層のパラメータを調整するようにしてもよい。 In the second embodiment, as shown in the flowchart of FIG. 3 of the first embodiment, the processing unit 10 inputs one piece of still image data or moving image data and outputs information about suitability output from the NN, A learning model 12M may be generated by error propagation by obtaining a difference from a known determination result. Flowcharts and detailed descriptions of corresponding processing procedures are omitted. The processing unit 10 may adjust the parameters of the intermediate layer by error propagation after the processing procedure shown in the flowchart of FIG. 9 .

図10は、第2実施形態の学習モデル12Mの概要を示す図である。学習モデル12Mは、人力駆動車の部品に関する入力情報を入力する入力層31と、人力駆動車の部品の取り付け状態に対する適否に関する出力情報を出力する出力層32とを備える。学習モデル12Mは、入力情報が入力された場合に適否を出力するように教師データによって学習済みのパラメータを有する中間層33を備える。入力層31に、部品に関する入力情報が入力された場合、学習済みパラメータによって中間層33で演算が行なわれ、出力層32から入力された部品の適否に関する出力情報が出力される。 FIG. 10 is a diagram showing an overview of the learning model 12M of the second embodiment. The learning model 12M includes an input layer 31 for inputting input information about parts of the manpowered vehicle, and an output layer 32 for outputting output information about the adequacy of the mounting state of the parts of the manpowered vehicle. The learning model 12M is provided with an intermediate layer 33 having parameters that have been learned using teacher data so as to output suitability when input information is input. When input information about a part is input to the input layer 31 , computation is performed in the intermediate layer 33 using learned parameters, and output information about the propriety of the input part is output from the output layer 32 .

図10の具体例では入力層31には、部品の取り付け状態の適否に関し、人力駆動車を撮像した静止画像データ、または動画像データが与えられる。入力層31には、静止画像データ、または動画像データとは別で、第1実施形態に示したような入力情報、例えば部品の識別情報、車体情報、およびユーザの身体情報のいずれか、または全部が与えられてもよい。 In the specific example of FIG. 10, the input layer 31 is provided with still image data or moving image data obtained by picking up a human-powered vehicle regarding the propriety of the mounting state of parts. In the input layer 31, apart from still image data or moving image data, input information such as that shown in the first embodiment, such as identification information of parts, vehicle body information, and physical information of the user, or All may be given.

図10の具体例は、静止画像データ、または動画像データと、部品の識別情報および車体情報とが入力される構成である。しかしながら、出力装置1における処理は、全てを与える構成に限らない。静止画像データ、または動画像データのみであってもよい。図10に示すように、静止画像データ、または動画像データの特徴量が出力された後の中間層33に、部品情報、および車体情報を入力するようにしてもよいし、静止画像データ、または動画像データは、事前に畳み込みニューラルネットワークを用いて特徴量を導出してから、入力層31に入力されてもよい。 The specific example of FIG. 10 is a configuration in which still image data or moving image data, part identification information and vehicle body information are input. However, the processing in the output device 1 is not limited to the configuration that provides everything. Only still image data or moving image data may be used. As shown in FIG. 10, part information and vehicle body information may be input to the intermediate layer 33 after still image data or moving image data feature amounts are output, still image data, or The moving image data may be input to the input layer 31 after the feature amount is derived in advance using a convolutional neural network.

学習モデル12Mの入力情報は、適否の対象に応じて、入力される情報が区別されてもよい。上述したように、フロントディレーラの取り付けに関する適否の情報を出力する学習モデル12Mを生成する場合には、フロントディレーラを撮像した静止画像データと部品の識別情報とを入力し、ディスクロータを対象とする場合にはディスクロータの静止画像データと車体情報とを入力するように区別されてもよい。 The input information of the learning model 12M may be classified according to the object of suitability. As described above, when generating the learning model 12M that outputs information on whether or not the front derailleur is installed properly, the still image data of the front derailleur and the identification information of the parts are input, and the disk rotor is used as the target. In some cases, a distinction may be made so as to input still image data of the disk rotor and vehicle body information.

図10では学習モデル12Mから、出力情報として、適切であるか、または不適切な場合にはいずれのタイプの不適切な状態であるのか夫々の確率が出力される。処理部10は、出力される適切である状態、タイプAの不適切な状態、タイプBの不適切な状態の確率によっていずれの状態であるかを特定する。学習モデル12Mはこれに限らず、適切なタイプGの状態、適切なタイプEの状態を含む複数の状態の内のいずれかの確率を出力してもよい。 In FIG. 10, the learning model 12M outputs, as output information, the probabilities of whether it is appropriate or, if inappropriate, what type of inappropriate state it is. The processing unit 10 identifies the appropriate state, the type A inappropriate state, and the type B inappropriate state based on the output probabilities of the appropriate state. The learning model 12M is not limited to this, and may output the probability of any one of a plurality of states including a suitable type G state and a suitable type E state.

このように学習された学習モデル12Mは、新たに静止画像データ、または動画像データが入力された場合に、画像に写っている部品の取り付け状態の適否に関する確率を出力する。 The learning model 12M learned in this way outputs the probability of the adequacy of the mounting state of the parts shown in the image when new still image data or moving image data is input.

学習モデル12Mは、以下の部品の取り付け状態の提案処理に利用される。図11および図12は、取り付け状態の提案に関する処理手順の一例を示すフローチャートである。取り付け状態の提案は、ユーザが用いる端末装置2がメンテナンスアプリプログラム2Pを実行し、メンテナンスを開始した場合に開始される。 The learning model 12M is used in the process of proposing the mounting state of the following parts. 11 and 12 are flowcharts showing an example of a processing procedure for proposing an installation state. Proposal of the installation state is started when the terminal device 2 used by the user executes the maintenance application program 2P and starts maintenance.

端末装置2の処理部20は、メンテナンスアプリプログラム20Pに基づいて、ユーザの人力駆動車についての情報の入力画面にて、適否の判定対象の部品の静止画像または動画像の撮像を促す画面を表示部26に表示させる(ステップS221)。処理部20は、撮像開始の操作を操作部28で受け付けて、人力駆動車の静止画像、または動画像を撮像部29により撮像する(ステップS223)。ステップS223において処理部20は、予め撮像された静止画像、または動画像のデータを記憶部12から読み出してもよい。 Based on the maintenance application program 20P, the processing unit 20 of the terminal device 2 displays a screen that prompts the user to capture a still image or a moving image of the part to be judged as appropriate on the screen for inputting information about the human-powered vehicle. It is displayed on the unit 26 (step S221). The processing unit 20 accepts an operation to start imaging with the operation unit 28, and images a still image or a moving image of the manpowered vehicle with the imaging unit 29 (step S223). In step S<b>223 , the processing unit 20 may read data of a still image or a moving image captured in advance from the storage unit 12 .

処理部20は、入力画面への入力に基づいて、撮像された人力駆動車に取り付けられている、またはこれから組み立てられる人力駆動車の部品の識別情報、および車体情報を受け付ける(ステップS225)。 Based on the input to the input screen, the processing unit 20 receives the identification information of the parts of the manpowered vehicle that is imaged or to be assembled from the manpowered vehicle and the vehicle body information (step S225).

処理部20は、撮像された静止画像、または動画像のデータと、入力された部品の識別情報、および、車体情報を含む判定依頼を通信部24から出力装置1へ向けて送信する(ステップS227)。処理部20はステップS227において、撮像対象の部品の種別、フロントディレーラか、リアディレーラ、ディスクロータのいずれであるかを識別する情報を指定する。 The processing unit 20 transmits a judgment request including the captured still image or moving image data, the input identification information of the parts, and the vehicle body information from the communication unit 24 to the output device 1 (step S227). ). In step S227, the processing unit 20 designates information identifying the type of part to be imaged, and whether it is a front derailleur, a rear derailleur, or a disc rotor.

出力装置1は、通信部14によって判定依頼を受信し(ステップS171)、処理部10は、判定依頼で指定された部品の種別に対応する学習モデル12Mを選択する(ステップS173)。 The output device 1 receives the determination request through the communication unit 14 (step S171), and the processing unit 10 selects the learning model 12M corresponding to the component type specified in the determination request (step S173).

処理部10は、受信した判定依頼から部品を取り付けた人力駆動車を撮像した静止画像データおよび動画像データの少なくともいずれか1つを取得する(ステップS175)。処理部10は、判定依頼からステップS173の静止画像データ、または動画像データに写っている人力駆動車の部品の識別情報を取得する(ステップS177)。処理部10は、判定依頼から人力駆動車の車体に関する情報を取得する(ステップS179)。 The processing unit 10 acquires at least one of still image data and moving image data of the manpowered vehicle with the parts attached from the received determination request (step S175). The processing unit 10 acquires the identification information of the parts of the manpowered vehicle shown in the still image data or moving image data of step S173 from the determination request (step S177). The processing unit 10 acquires information about the body of the human-powered vehicle from the determination request (step S179).

処理部10は、ステップS175で取得した静止画像データ、または動画像データと、部品の識別情報、および、車体に関する情報を、ステップS173で選択した学習モデル12Mへ与える(ステップS181)。処理部10は、学習モデル12Mから出力される部品の取り付け状態の適否の情報、例えば適切な状態、タイプAの不適切な状態、タイプBの不適切な状態のいずれであるかを特定する(ステップS183)。 The processing unit 10 provides the still image data or moving image data acquired in step S175, the identification information of the parts, and the information on the vehicle body to the learning model 12M selected in step S173 (step S181). The processing unit 10 identifies information about the propriety of the attachment state of the component output from the learning model 12M, for example, which one of the appropriate state, type A inappropriate state, and type B inappropriate state ( step S183).

処理部10は、特定された状態に基づいて、適切な状態とするための提案情報を記憶部22から読み出し(ステップS185)、類似する画像データを取得する(ステップS187)。ステップS185で提案情報は、部品の種別毎に、適切な状態と特定された場合のメッセージ、タイプAの不適切な状態と特定された場合の適切な状態とするための提案内容、タイプBの不適切な状態と特定された場合の提案内容として記憶部12に記憶されている。類似する画像データは、静止画像データでもよいし、動画像データでもよい。 Based on the specified state, the processing unit 10 reads out proposal information for establishing an appropriate state from the storage unit 22 (step S185), and acquires similar image data (step S187). In step S185, the proposal information includes, for each type of part, a message when an appropriate state is specified, a proposal content for making an appropriate state when an inappropriate state of type A is specified, and an appropriate state of type B. It is stored in the storage unit 12 as the content of the proposal when the inappropriate state is specified. The similar image data may be still image data or moving image data.

処理部20はステップS183で特定された適否の情報と、ステップS185で読み出した提案情報及び類似する画像データとを通信部14から判定依頼元の端末装置2へ送信する(ステップS189)。 The processing unit 20 transmits the suitability information identified in step S183, the proposal information read out in step S185, and similar image data from the communication unit 14 to the terminal device 2 that requested the determination (step S189).

類似する画像データの取得は必須ではなく、ステップS185で読み出した提案情報のみであってもよい。提案情報は、部品の取り付けに係る角度、基準点からの距離等を具体的に示すメッセージであってもよい。画像データと共に提案情報を送信する場合には、提案情報は数値のみであってもよく、画像データと共に距離、または角度を示す数値が表示されるとよい。 Acquisition of similar image data is not essential, and only the proposal information read in step S185 may be obtained. The proposal information may be a message that specifically indicates the angle for mounting the component, the distance from the reference point, and the like. When the proposal information is transmitted together with the image data, the proposal information may be only numerical values, and the numerical values indicating the distance or angle are preferably displayed together with the image data.

端末装置2では、通信部24から適否の情報、提案情報および画像データを受信し(ステップS229)、処理部20は受信した適否の情報を表示部26に表示させる(ステップS231)。処理部20は、受信した情報に基づいて適否を判断し(ステップS233)、適と判断された場合には(S233:YES)、処理をそのまま終了する。 The terminal device 2 receives the suitability information, the proposal information, and the image data from the communication unit 24 (step S229), and the processing unit 20 displays the received suitability information on the display unit 26 (step S231). The processing unit 20 determines suitability based on the received information (step S233), and if it is determined to be suitable (S233: YES), the process ends.

ステップS233にて不適と判断された場合(S233:NO)、処理部20はステップS223で撮像した静止画像に、ステップS229で受信した類似する画像データの画像を重畳させ、受信した提案情報を並べて表示部26に表示させ(ステップS235)、処理を終了する。ステップS223で動画像を撮像した場合、処理部20は、動画像データからいずれかのフレーム画像を抽出した静止画像データとする。 If it is determined to be inappropriate in step S233 (S233: NO), the processing unit 20 superimposes the image of the similar image data received in step S229 on the still image captured in step S223, and arranges the received proposal information. It is displayed on the display unit 26 (step S235), and the process ends. If a moving image is captured in step S223, the processing unit 20 extracts any frame image from the moving image data and uses it as still image data.

処理部20は、ステップS233の判断に拘わらず、部品の取り付け方の見本として、類似するとして抽出された画像データに基づく画像と提案情報を表示部26に表示するようにしてもよい。 Regardless of the determination in step S233, the processing unit 20 may display, on the display unit 26, an image based on the image data extracted as being similar and the proposal information as a sample of how to attach the part.

図13および図14は、第2実施形態の端末装置2にて表示される画面例を示す図である。ユーザが端末装置2を使用してメンテナンスアプリプログラム20Pを選択し起動させた場合、処理部20は、メンテナンスアプリプログラム20Pに基づいて、部品の取り付け状態に関し、取り付け状態の適否の判定対象の部品の撮像を促す入力画面281を表示部26に表示する(S221)。 13 and 14 are diagrams showing examples of screens displayed on the terminal device 2 of the second embodiment. When the user selects and activates the maintenance application program 20P using the terminal device 2, the processing unit 20 determines the appropriateness of the mounting state of the component based on the maintenance application program 20P. An input screen 281 prompting the user to take an image is displayed on the display unit 26 (S221).

入力画面261は図13に示すように、部品の選択画面283、撮像ボタン285を含む。入力画面281は、車体情報の選択画面287も含む。入力画面281は、適否の判定依頼を送信するための送信ボタン289を含む。送信ボタン289が選択された場合、処理部20は、選択画面263,265,267で受け付けた情報を含む判定依頼を通信部24から送信する(S227)。選択画面283、287ではなくいずれの項目についても自由入力欄が含まれてもよい。 The input screen 261 includes a component selection screen 283 and an imaging button 285, as shown in FIG. The input screen 281 also includes a selection screen 287 for body information. The input screen 281 includes a send button 289 for sending a request for judgment of suitability. When the send button 289 is selected, the processing unit 20 sends a determination request including the information received on the selection screens 263, 265, 267 from the communication unit 24 (S227). Any item instead of the selection screens 283 and 287 may include a free entry field.

図14は、判定依頼に対応する適否の情報を表示する提案画面291の例を示している。図14に示すように、提案画面291には、適否の結果と共に、学習モデル12Mから出力される出力情報に基づいて前記人力駆動車における部品の取り付け状態に関し、提案情報が、部品を撮像した撮像画像上に重畳され、類似する画像データが並べて表示されている。 FIG. 14 shows an example of a proposal screen 291 that displays information on suitability corresponding to a judgment request. As shown in FIG. 14, on the proposal screen 291, along with the result of suitability, proposal information regarding the installation state of parts in the human-powered vehicle based on the output information output from the learning model 12M is displayed. Similar image data are displayed side by side, superimposed on the image.

このようにして、学習モデル12Mに基づいて取り付け状態に関し、部品の取り付け状態を撮像した画像データに応じた適否が出力され、部品の観察結果に応じた部品の適切な取り付け状態の提案が可能である。 In this way, regarding the mounting state based on the learning model 12M, suitability corresponding to the image data obtained by picking up the mounting state of the component is output, and it is possible to propose an appropriate mounting state of the component according to the observation result of the component. be.

(第3実施形態)
図15は、第3実施形態における端末装置2の構成を示すブロック図である。第1実施形態および第2実施形態ではいずれも場合も、学習モデル1Mまたは学習モデル12Mに基づく取り付け状態の適否の情報は、部品メーカが管理する出力装置1から出力され、端末装置2へ送信された。これに対し第3実施形態では、ユーザが用いる端末装置2のメンテナンスアプリプログラム22Pが学習モデル2Mに基づく処理を実現する。出力装置1と通信することなく、端末装置2のみで処理を行なうことができる。第3実施形態における端末装置2は、記憶部22にメンテナンスアプリプログラム22Pと共に学習モデル2Mが記憶されており、メンテナンスアプリプログラム22Pに基づく処理以外は、第1実施形態または第2実施形態における端末装置2と同様である。したがって同様の構成には同一の符号を付して詳細な説明を省略する。
(Third Embodiment)
FIG. 15 is a block diagram showing the configuration of the terminal device 2 according to the third embodiment. In both the first embodiment and the second embodiment, the information on the adequacy of the mounting state based on the learning model 1M or the learning model 12M is output from the output device 1 managed by the parts manufacturer and transmitted to the terminal device 2. Ta. In contrast, in the third embodiment, the maintenance application program 22P of the terminal device 2 used by the user implements processing based on the learning model 2M. Processing can be performed only by the terminal device 2 without communicating with the output device 1 . In the terminal device 2 according to the third embodiment, the learning model 2M is stored together with the maintenance application program 22P in the storage unit 22. Except for the processing based on the maintenance application program 22P, the terminal device 2 according to the first or second embodiment is the same as the terminal device according to the first or second embodiment. 2. Therefore, the same components are denoted by the same reference numerals, and detailed description thereof will be omitted.

記憶部22に記憶されたメンテナンスアプリプログラム22Pおよび学習モデル2Mは、記憶媒体5に記憶されたメンテナンスアプリプログラム52Pおよび学習モデル50Mを読み出して記憶部22に複製されたものであってもよい。 The maintenance application program 22P and the learning model 2M stored in the storage unit 22 may be obtained by reading out the maintenance application program 52P and the learning model 50M stored in the storage medium 5 and duplicating them in the storage unit 22.

端末装置2による処理は、第1実施形態において出力装置1および端末装置2が協働して実行した処理と共通であるから、詳細な説明を省略する。 The processing by the terminal device 2 is the same as the processing executed by the cooperation of the output device 1 and the terminal device 2 in the first embodiment, so detailed description thereof will be omitted.

このように端末装置2単体で学習モデル2Mに基づく取り付け状態の適否に基づく提案が可能である。 In this way, the terminal device 2 alone can make a proposal based on the adequacy of the mounting state based on the learning model 2M.

(第4実施形態)
第4実施形態では、出力装置4は、人力駆動車に搭載されるコンポーネントの制御ユニットとして適用される。図16は、第4実施形態の出力装置4が適用される人力駆動車Aの側面図である。人力駆動車Aは、電気エネルギーを用いて人力駆動車Aの推進をアシストするアシスト機構Cを含むロードバイクである。人力駆動車Aの構成は、任意に変更可能である。第1例では、人力駆動車Aはアシスト機構Cを含まない。第2例では、人力駆動車Aの種類は、シティサイクル、マウンテンバイク、または、クロスバイクである。第3例では、人力駆動車Aは、第1例および第2例の特徴を含む。
(Fourth embodiment)
In 4th Embodiment, the output device 4 is applied as a control unit of the component mounted in a human-powered vehicle. FIG. 16 is a side view of a human-powered vehicle A to which the output device 4 of the fourth embodiment is applied. The human-powered vehicle A is a road bike including an assist mechanism C that assists the propulsion of the human-powered vehicle A using electrical energy. The configuration of the manpowered vehicle A can be changed arbitrarily. In the first example, the manpowered vehicle A does not include the assist mechanism C. In the second example, the type of manpowered vehicle A is a city cycle, mountain bike, or cross bike. In the third example, manpowered vehicle A includes features of the first and second examples.

人力駆動車Aは、本体A1、ハンドルバーA2、前輪A3、後輪A4、フロントフォークA5、およびサドルA6を備える。人力駆動車Aは、駆動機構B、アシスト機構C、操作装置D、変速機E、ディスクロータG、ディスプレイHおよび出力装置4を備える。人力駆動車Aは、加速度センサS1、集音器S2を含む。本体A1は、フレームA12を備える。 A manpowered vehicle A includes a body A1, a handlebar A2, a front wheel A3, a rear wheel A4, a front fork A5, and a saddle A6. A human-powered vehicle A includes a drive mechanism B, an assist mechanism C, an operation device D, a transmission E, a disk rotor G, a display H, and an output device 4 . The manpowered vehicle A includes an acceleration sensor S1 and a sound collector S2. The main body A1 has a frame A12.

駆動機構Bは、チェーンドライブ、ベルトドライブ、または、シャフトドライブによって人力駆動力を後輪A4へ伝達する。図1ではチェーンドライブの駆動機構Bを例示している。駆動機構Bは、クランクB1、第1スプロケット組立体B2、第2スプロケット組立体B3、チェーンB4、および、一対のペダルB5を含む。 The drive mechanism B transmits human power to the rear wheel A4 by chain drive, belt drive, or shaft drive. FIG. 1 illustrates a drive mechanism B of a chain drive. The drive mechanism B includes a crank B1, a first sprocket assembly B2, a second sprocket assembly B3, a chain B4 and a pair of pedals B5.

第1スプロケット組立体B2は、第1回転中心軸心を有し、クランク軸B11と一体回転可能に連結される。第1スプロケット組立体B2は、1または複数のスプロケットB22を含む。クランク軸B11の回転中心軸心と第1スプロケット組立体B2の回転中心軸心は同軸である。 The first sprocket assembly B2 has a first rotation center axis and is connected to the crankshaft B11 so as to rotate integrally therewith. The first sprocket assembly B2 includes one or more sprockets B22. The rotation center axis of the crankshaft B11 and the rotation center axis of the first sprocket assembly B2 are coaxial.

第2スプロケット組立体B3は、第2回転中心軸心を有し、後輪A4のハブ(図示略)に回転可能に支持される。第2スプロケット組立体B3は、1または複数のスプロケットB31を含む。 The second sprocket assembly B3 has a second rotation center axis and is rotatably supported by a hub (not shown) of the rear wheel A4. The second sprocket assembly B3 includes one or more sprockets B31.

チェーンB4は、第1スプロケット組立体B2のいずれかのスプロケットB22および第2スプロケット組立体B3のいずれかのスプロケットB31に巻き掛けられる。一対のペダルB5に加えられる人力駆動力によってクランクB1が前転すると、第1スプロケット組立体B2がクランクB1とともに前転し、第1スプロケット組立体B2の回転がチェーンB4を介して第2スプロケット組立体B3に伝達されることで後輪A4が前転する。 The chain B4 is wound around one of the sprockets B22 of the first sprocket assembly B2 and one of the sprockets B31 of the second sprocket assembly B3. When the crank B1 rotates forward by the human power applied to the pair of pedals B5, the first sprocket assembly B2 rotates forward together with the crank B1, and the rotation of the first sprocket assembly B2 rotates through the chain B4 to the second sprocket assembly. The rear wheel A4 rolls forward by being transmitted to the solid B3.

アシスト機構Cは、人力駆動車Aの推進をアシストする。一例では、アシスト機構Cは、第1スプロケット組立体B2にトルクを伝達することによって人力駆動車Aの推進をアシストする。アシスト機構Cは電気モータを含む。アシスト機構Cは減速機を含んでいてもよい。アシスト機構Cは、人力駆動車Aの後輪A4に駆動力を伝達するチェーンB4を走行させる。アシスト機構Cは、チェーンB4の走行をアシストするための信号制御によって制御可能なコンポーネントの一部である。 The assist mechanism C assists the human-powered vehicle A in propulsion. In one example, assist mechanism C assists in propulsion of human powered vehicle A by transmitting torque to first sprocket assembly B2. Assist mechanism C includes an electric motor. The assist mechanism C may include a speed reducer. The assist mechanism C causes the chain B4 that transmits the driving force to the rear wheel A4 of the manpowered vehicle A to run. The assist mechanism C is part of a signal controllable component for assisting the running of the chain B4.

操作装置Dは、ユーザが操作する操作部D1を含む。操作部D1の一例は、1または複数のボタンである。操作部D1は他の例では、ブレーキレバーであってよい。他の例において操作部D1はブレーキ操作を受け付けるのみならず、操作部D1にて、変速機Eに関する操作を受け付ける。ブレーキレバーを左右に倒す都度に、変速機Eにおける変速段数または変速比を変更することができる。操作装置Dは、操作部D1の操作に応じた信号を送受信できるように、コンポーネントと通信接続される。第1例では、操作装置Dは、通信線、または、PLC(Power Line Communication)が可能な電線によってコンポーネントと通信接続される。第2例では、操作装置Dは、無線通信が可能な無線通信ユニットによってコンポーネントと通信接続される。 The operation device D includes an operation unit D1 operated by a user. An example of the operation unit D1 is one or more buttons. In another example, the operating part D1 may be a brake lever. In another example, the operating unit D1 not only accepts a brake operation, but also accepts an operation related to the transmission E at the operating unit D1. Each time the brake lever is tilted to the left or right, the number of gear stages or gear ratio in the transmission E can be changed. The operation device D is communicatively connected to the components so as to transmit and receive signals according to the operation of the operation unit D1. In the first example, the operation device D is connected to the component for communication by a communication line or an electric wire capable of PLC (Power Line Communication). In a second example, the operating device D is communicatively connected to the component by a wireless communication unit capable of wireless communication.

変速機Eは種々の形態を取り得る。第1例では、変速機Eは、第2スプロケット組立体B3とチェーンB4との連結の状態を変速する外装変速機である。第2例では、変速機Eは、第1スプロケット組立体B2とチェーンB4との連結の状態を変速する外装変速機である。第3例では、変速機Eは、内装変速機である。第3例では、変速機Eの可動部は、内装変速機のスリーブおよび爪の少なくとも一方を含む。第4例では、変速機Eは、無段変速機である。第4例では、変速機Eの可動部は、無段変速機のボールプラネタリー(遊星転動体)を含む。変速機Eは、変速段数を変更するための信号制御によって制御可能なコンポーネントの一部である。 The transmission E can take various forms. In the first example, the transmission E is an exterior transmission that changes the state of connection between the second sprocket assembly B3 and the chain B4. In the second example, the transmission E is an external transmission that changes the state of connection between the first sprocket assembly B2 and the chain B4. In a third example, transmission E is an internal transmission. In a third example, the moving parts of transmission E include at least one of the sleeve and pawl of the internal transmission. In the fourth example, the transmission E is a continuously variable transmission. In a fourth example, the movable portion of the transmission E includes ball planetaries (planetary rolling elements) of a continuously variable transmission. The transmission E is part of a component controllable by signal control for changing the number of gears.

変速機Eは、フロントディレーラE1およびリアディレーラE2を含む。フロントディレーラE1は、フレームA12のシートチューブA121に取り付けられる。フロントディレーラE1は、チェーンガイド、駆動モータE11、および段数センサを備える。フロントディレーラE1は駆動モータE11によって、第1スプロケット組立体B2のスプロケットB22に掛かるチェーンB4のチェーンガイドをシフトアップおよびシフトダウン方向に駆動する。フロントディレーラE1は駆動モータE11によってチェーンガイドを、操作部D1に基づく操作装置Dからの変速指示、または図示しない制御ユニットからの自動変速指示に基づいていずれかの変速位置に位置決めする。 The transmission E includes a front derailleur E1 and a rear derailleur E2. The front derailleur E1 is attached to the seat tube A121 of the frame A12. The front derailleur E1 has a chain guide, a drive motor E11, and a step number sensor. The front derailleur E1 drives the chain guide of the chain B4 hanging on the sprocket B22 of the first sprocket assembly B2 in the upshift and downshift directions by the drive motor E11. The front derailleur E1 positions the chain guide by the drive motor E11 to any shift position based on a shift command from the operation device D based on the operation part D1 or an automatic shift command from a control unit (not shown).

フロントディレーラE1のチェーンガイドは、組立のエンジニア、またはユーザ自身による取り付け時に位置決めされる。第4実施形態におけるフロントディレーラE1は、駆動モータE11によって、チェーンガイドを適切な位置とすることができる。 The chain guide of the front derailleur E1 is positioned during installation by the assembly engineer or the user himself. The front derailleur E1 in the fourth embodiment can set the chain guide to an appropriate position by the drive motor E11.

リアディレーラE2は、後輪A4のクランク軸の端部を支持するフレームA12の一部であるチェーンステーA17にディレーラハンガを介して取り付けられる。リアディレーラE2はチェーンガイド、駆動モータE21、および段数センサを備える。リアディレーラE2は駆動モータE21によって、第2スプロケット組立体B3のスプロケットB31に掛かるチェーンB4のチェーンガイドをシフトアップおよびシフトダウン方向に駆動する。リアディレーラE2は駆動モータE21によってチェーンガイドを、操作部D1に基づく操作装置Dからの変速指示、または図示しない制御ユニットからの自動変速指示に基づいていずれかの変速位置に位置決めする。 The rear derailleur E2 is attached via a derailleur hanger to a chain stay A17 that is part of the frame A12 that supports the end of the crankshaft of the rear wheel A4. The rear derailleur E2 has a chain guide, a drive motor E21, and a step number sensor. The rear derailleur E2 drives the chain guide of the chain B4 hanging on the sprocket B31 of the second sprocket assembly B3 in shift-up and shift-down directions by the drive motor E21. The rear derailleur E2 positions the chain guide by the drive motor E21 to any shift position based on a shift instruction from the operation device D based on the operation unit D1 or an automatic shift instruction from a control unit (not shown).

リアディレーラE2のチェーンガイドは、組立のエンジニア、またはユーザ自身による取り付け時に位置決めされる。第4実施形態におけるリアディレーラE2は、駆動モータE21によって、チェーンガイドを適切な位置とすることができる。 The chain guide of the rear derailleur E2 is positioned during installation by the assembly engineer or by the user himself. The rear derailleur E2 in the fourth embodiment can set the chain guide to an appropriate position by the drive motor E21.

ディスクロータGは、ディスクブレーキを構成する部品であり、前輪A3および後輪A4の軸の周囲に設けられる。ディスクブレーキは操作部D1に基づく操作装置Dからの制動指示、または図示しない制御ユニットからの自動制動指示に基づいて動作する。ディスクロータGは、組立のエンジニア、またはユーザ自身による取り付け時に位置決めされる。転倒、接触、摩耗または消耗によってディスクロータGの位置に変動が起こり得る。 The disc rotor G is a component that constitutes a disc brake, and is provided around the shafts of the front wheel A3 and the rear wheel A4. The disc brake operates based on a braking instruction from the operating device D based on the operating section D1 or an automatic braking instruction from a control unit (not shown). The disk rotor G is positioned during installation by an assembly engineer or by the user himself/herself. The position of the disk rotor G can change due to overturning, contact, wear or wear.

ディスプレイHは、乗り手であるユーザ向けにハンドルバーA2に取り付けられている。ディスプレイHは一例では、液晶ディスプレイである。ディスプレイHは他の例では、有機ELディスプレイである。ディスプレイHは、変速機Eとの通信により取得した変速段数を表示することができる。ディスプレイHは、出力装置4と接続されており、出力装置1から出力される情報を表示出力する。 The display H is attached to the handlebar A2 for the user who is the rider. The display H is, in one example, a liquid crystal display. Another example of the display H is an organic EL display. The display H can display the number of gears acquired through communication with the transmission E. FIG. The display H is connected to the output device 4 and displays information output from the output device 1 .

加速度センサS1は、フレームA12のシートチューブA121に取り付けられるフロントディレーラE1に内蔵されている。加速度センサS1は、フレームA12の振動に対応する加速度を示す信号を出力する。加速度センサS1は、フロントディレーラE1のみならずリアディレーラE2に内蔵されてよい。加速度センサS1は、ディスクロータGの近傍例えばフロントフォークA5に取り付けられてもよい。 The acceleration sensor S1 is built in the front derailleur E1 attached to the seat tube A121 of the frame A12. The acceleration sensor S1 outputs a signal indicating acceleration corresponding to the vibration of the frame A12. The acceleration sensor S1 may be incorporated not only in the front derailleur E1 but also in the rear derailleur E2. The acceleration sensor S1 may be attached near the disk rotor G, for example, on the front fork A5.

集音器S2は、フロントディレーラE1に内蔵されている。集音器S2は周囲の音声を集音して出力する。集音器S2はマイクロフォンを含んでよい。フロントディレーラE1に内蔵された集音器S2は、フロントディレーラE1のチェーンガイドの駆動音、チェーンB4とチェーンガイドとの接触音、チェーンB4とスプロケットB22との間の接触音等を集音できる。 The sound collector S2 is built in the front derailleur E1. The sound collector S2 collects and outputs surrounding sounds. Sound collector S2 may include a microphone. A sound collector S2 built in the front derailleur E1 can collect the driving sound of the chain guide of the front derailleur E1, the contact sound between the chain B4 and the chain guide, the contact sound between the chain B4 and the sprocket B22, and the like.

集音器S2は、フロントディレーラE1に内蔵されるのみならず、リアディレーラE2にも内蔵されてよい。リアディレーラE2に内蔵された集音器S2は、リアディレーラE2のチェーンガイドの駆動音、チェーンB4とチェーンガイドとの接触音、チェーンB4とスプロケットB31との間の接触音等を集音できる。 The sound collector S2 may be incorporated not only in the front derailleur E1 but also in the rear derailleur E2. The sound collector S2 built into the rear derailleur E2 can collect the driving sound of the chain guide of the rear derailleur E2, the contact sound between the chain B4 and the chain guide, the contact sound between the chain B4 and the sprocket B31, and the like.

第4実施形態における出力装置4は、フロントディレーラE1と共にシートチューブA121に取り付けられている。出力装置4はフロントディレーラE1の駆動制御部を兼任してもよい。図17は、第4実施形態における出力装置4の構成を示すブロック図である。出力装置4は、フロントディレーラE1、リアディレーラE2、ディスクロータGを含むディスクブレーキシステム、ディスプレイHおよび操作装置Dと有線、または無線により通信接続されている。出力装置4は、処理部40、記憶部42、入出力部46を含む。 The output device 4 in the fourth embodiment is attached to the seat tube A121 together with the front derailleur E1. The output device 4 may also serve as a drive control section for the front derailleur E1. FIG. 17 is a block diagram showing the configuration of the output device 4 in the fourth embodiment. The output device 4 is connected to a front derailleur E1, a rear derailleur E2, a disc brake system including a disc rotor G, a display H and an operation device D by wire or wirelessly. The output device 4 includes a processing section 40 , a storage section 42 and an input/output section 46 .

処理部40は、CPUまたはGPUを用いたプロセッサであり、内蔵するROMおよびRAM等のメモリを用い、後述する学習アルゴリズムおよび人力駆動車Aに設けられるコンポーネントを制御して処理を実行する。 The processing unit 40 is a processor using a CPU or GPU, and uses built-in memories such as ROM and RAM to control learning algorithms and components provided in the human-powered vehicle A to execute processing.

記憶部42は、例えばフラッシュメモリ等の不揮発性メモリを含む。記憶部42は、制御プログラム40Pおよび学習モデル40Mを記憶する。制御プログラム40Pおよび学習モデル40Mは、記憶媒体9に記憶された制御プログラム9Pおよび学習モデル90Mを読み出して記憶部42に複製されたものであってもよい。 The storage unit 42 includes, for example, nonvolatile memory such as flash memory. Storage unit 42 stores control program 40P and learning model 40M. The control program 40</b>P and the learning model 40</b>M may be the control program 9</b>P and the learning model 90</b>M stored in the storage medium 9 that are read out and duplicated in the storage unit 42 .

入出力部44は、人力駆動車Aに設けられたセンサS1,集音器S2、操作装置D、制御対象の変速機EのフロントディレーラE1の駆動モータE11、およびリアディレーラE2の駆動モータE21に接続される。処理部40は入出力部44によって、加速度センサS1から速度を示す信号を取得する。処理部40は入出力部44によって集音器S2から音声信号を取得する。入出力部44は、ディスプレイHへ表示用の信号を出力する。 The input/output unit 44 is connected to the sensor S1, the sound collector S2, the operation device D, the drive motor E11 of the front derailleur E1 of the transmission E to be controlled, and the drive motor E21 of the rear derailleur E2 provided in the human-powered vehicle A. be done. The processing unit 40 uses the input/output unit 44 to acquire a signal indicating the speed from the acceleration sensor S1. The processing unit 40 acquires the audio signal from the sound collector S2 through the input/output unit 44 . The input/output unit 44 outputs a display signal to the display H. FIG.

このような人力駆動車Aに取り付けられた出力装置1は、学習モデル10Mを用いて、人力駆動車の部品の取り付け状態に関するセンサS1,集音器S2から取得できる入力情報に応じた取り付け状態の適否を取得し、駆動モータE11へ調整指示信号を出力するか、ディスプレイHへユーザに向けて調整指示を出力する。ディスクロータGについては、適否の取り付け、および消耗についてディスプレイHへユーザに向けて交換の提案を行なう。 The output device 1 attached to such a manpowered vehicle A uses the learning model 10M to determine the mounting state according to the input information that can be obtained from the sensor S1 and the sound collector S2 regarding the mounting state of the parts of the manpowered vehicle. Appropriateness is acquired, and an adjustment instruction signal is output to the drive motor E11, or an adjustment instruction is output to the display H toward the user. As for the disk rotor G, the user is suggested to replace it on the display H as to whether it is installed properly or not, and whether it is worn out.

第4実施形態における学習モデル40Mについて説明する。学習モデル40Mは、コンポーネントメーカによって予め生成される。図18は、第4実施形態における学習モデル40Mの生成方法の一例を示すフローチャートである。学習モデル40Mは、NNを用いた教師ありの深層学習アルゴリズムによって人力駆動車の部品の取り付け状態に関する入力情報に対する出力情報を出力するように生成される。 A learning model 40M in the fourth embodiment will be described. The learning model 40M is generated in advance by the component manufacturer. FIG. 18 is a flow chart showing an example of a method of generating the learning model 40M in the fourth embodiment. The learning model 40M is generated by a supervised deep learning algorithm using a neural network to output output information in response to input information regarding the mounting state of parts of the human powered vehicle.

教師データは、予め試験環境下で、またはモデルとなるユーザが実際に人力駆動車Aを運転している間に加速度センサS1および集音器S2から得られる入力情報と、その入力情報に対応する人力駆動車Aにおける部品の取り付け状態への適否の情報とを含む。教師データは、適否の判定の対象となる部品毎、例えばフロントディレーラE1についての教師データ、リアディレーラE2についての教師データ、および、ディスクロータGについての教師データと分別されている。加速度センサS1から得られる入力情報は、加速度センサS1から出力される信号に基づく振動に関するデータである。振動に関して振幅、周波数、またはパワー値が所定のサンプリング期間毎に収集される。集音器S2から得られる入力情報は、集音器S2にて集音される音声の音声データを含む。音声データは、音声の波形、振幅、または周波数の情報が所定のサンプリング期間毎に収集される。適否の判定の主体は、組立のエンジニア、メーカのエンジニア等である。判定の主体は、ユーザであってもよい。入力情報はその他、部品の識別情報、車体情報、および、ユーザの身体情報を含んでもよい。 The teacher data is input information obtained in advance from the acceleration sensor S1 and the sound collector S2 under a test environment or while a model user is actually driving the human-powered vehicle A, and corresponds to the input information. and information on suitability for the mounting state of the parts in the manpowered vehicle A. The teaching data is divided into, for example, teaching data about the front derailleur E1, teaching data about the rear derailleur E2, and teaching data about the disk rotor G, for each part to be judged as appropriate. The input information obtained from the acceleration sensor S1 is data regarding vibration based on the signal output from the acceleration sensor S1. Amplitude, frequency, or power values for the vibration are collected every predetermined sampling period. The input information obtained from the sound collector S2 includes audio data of sounds collected by the sound collector S2. For audio data, information on audio waveform, amplitude, or frequency is collected for each predetermined sampling period. Assembling engineers, manufacturer engineers, etc. are responsible for judging suitability. The subject of determination may be the user. The input information may also include part identification information, vehicle body information, and user physical information.

コンポーネントメーカが管理する生成装置は、収集済みの人力駆動車の部品の取り付け状態に関し、人力駆動車の駆動中に取得された振動に関するデータを取得する(ステップS301)。生成装置は、ステップS301で取得した振動に関するデータと同一の人力駆動車から同一のサンプリング期間に収集された音声データを取得する(ステップS303)。 A generating device managed by a component manufacturer acquires data related to vibrations acquired while the manpower-driven vehicle is being driven, relating to the mounting state of parts of the manpower-driven vehicle that have already been collected (step S301). The generator acquires voice data collected during the same sampling period from the same human-powered vehicle as the vibration-related data acquired in step S301 (step S303).

生成装置は、ステップS301およびステップS303で取得した入力情報に、予め与えられた対象部品の取り付け状態の適否の判定結果のラベルを付与することで教師データを作成する(ステップS305)。生成装置は、入力情報として振動データ及び音声データに加えて、取り付けられている対象部品の識別情報、車体情報、及びユーザの身体情報の内のいずれかを取得してもよい。 The generation device creates teacher data by adding a label indicating the result of determining whether the attachment state of the target component is appropriate or not, given in advance, to the input information acquired in steps S301 and S303 (step S305). The generation device may acquire, as input information, any one of identification information of an attached target part, vehicle body information, and physical information of the user, in addition to vibration data and sound data.

生成装置は、収集された全ての情報群から教師データを作成したか否かを判断する(ステップS307)。ステップS307で全ての情報群から教師データを作成していないと判断された場合(S307:NO)、生成装置は処理をステップS301へ処理を戻す。 The generation device determines whether or not teacher data has been created from all collected information groups (step S307). If it is determined in step S307 that teacher data has not been created from all information groups (S307: NO), the generating device returns the process to step S301.

全ての情報群から教師データを作成したと判断された場合(S307:YES)、生成装置は作成した教師データをNNへ与える(ステップS309)。生成装置は、与えられた教師データによってNNの中間層における重みおよびバイアスの少なくとも一方を含むパラメータを学習し(ステップS311)、処理を終了する。 If it is determined that the teacher data has been created from all the information groups (S307: YES), the generator gives the created teacher data to the NN (step S309). The generator learns parameters including at least one of weight and bias in the hidden layer of the NN from the given teacher data (step S311), and ends the process.

図19は、第4実施形態における学習モデル40Mの概要を示す図である。学習モデル40Mは、人力駆動車Aの部品に関する入力情報を入力する入力層31と、人力駆動車Aの部品の取り付け状態に対する適否に関する出力情報を出力する出力層32とを備える。学習モデル40Mは、入力情報が入力された場合に適否を出力するように教師データによって学習済みのパラメータを有する中間層33を備える。入力層31に、部品に関する入力情報が入力された場合、学習済みパラメータによって中間層33で演算が行なわれ、出力層32から入力された部品の適否に関する出力情報が出力される。 FIG. 19 is a diagram showing an overview of the learning model 40M in the fourth embodiment. The learning model 40M includes an input layer 31 for inputting input information about parts of the manpowered vehicle A, and an output layer 32 for outputting output information about the suitability of the mounting state of the parts of the manpowered vehicle A. The learning model 40M includes an intermediate layer 33 having parameters that have been learned by teacher data so as to output suitability when input information is input. When input information about a part is input to the input layer 31 , computation is performed in the intermediate layer 33 using learned parameters, and output information about the propriety of the input part is output from the output layer 32 .

図19の具体例では入力層31には、対象の部品の取り付け状態の適否に関し、人力駆動車Aが駆動中に得られた振動に関するデータ、および音声データが与えられる。入力層31には、第1実施形態に示したような入力情報、例えば部品の識別情報、車体情報、およびユーザの身体情報のいずれか、または全部が与えられてもよい。 In the specific example of FIG. 19, the input layer 31 is provided with data on vibrations obtained while the human-powered vehicle A is driving, and audio data on whether or not the mounting state of the target part is appropriate. The input layer 31 may be provided with any or all of the input information shown in the first embodiment, such as part identification information, vehicle body information, and user physical information.

振動および音声は、図19に示すように、データそのものではなくサンプル期間中の変動をグラフ化した画像として入力されてもよい。 Vibration and sound may be input as an image graphing the variation during the sample period rather than the data itself, as shown in FIG.

図19では、学習モデル40Mから出力情報として、適切であるか、または不適切な場合にはいずれのタイプの不適切な状態であるのか夫々の確率が出力される。処理部40は、出力される適切である状態、タイプAの不適切な状態、タイプBの不適切な状態の確率によっていずれの状態であるかを特定する。 In FIG. 19, as output information from the learning model 40M, respective probabilities are output as to whether it is appropriate or, if inappropriate, what type of inappropriate state it is. The processing unit 40 identifies the appropriate state, the type A inappropriate state, and the type B inappropriate state based on the output probabilities of the appropriate state.

このように学習された学習モデル40Mは、新たに加速度センサS1から得られる振動データ、および集音器S2から得られる音声データが入力された場合に、駆動中の人力駆動車Aにおける部品の取り付け状態の適否に関する状態の確率を出力する。 The learning model 40M that has been learned in this way is used to install parts in the human-powered vehicle A that is being driven when newly inputting vibration data obtained from the acceleration sensor S1 and voice data obtained from the sound collector S2. Outputs the probabilities of the states regarding whether the states pass or fail.

図20は、第4実施形態における取り付け状態の適否の判断に関する処理手順の一例を示すフローチャートである。出力装置4は、予め記憶部42に記憶された学習モデル40Mを用い、人力駆動車Aが駆動中に逐次、サンプリング期間毎に以下の処理を実行する。 FIG. 20 is a flow chart showing an example of a processing procedure for judging whether the mounting state is appropriate in the fourth embodiment. The output device 4 uses the learning model 40M stored in the storage unit 42 in advance, and sequentially executes the following processing during each sampling period while the human-powered vehicle A is driving.

出力装置4の処理部40は、加速度センサS1から、駆動中の人力駆動車Aから発せられる振動に関するデータを取得する(ステップS401)。処理部40はステップS401において、振動の振幅、周波数を取得してもよいし、パワー値を算出してもよい。 The processing unit 40 of the output device 4 acquires, from the acceleration sensor S1, data relating to vibrations generated from the manpower-driven vehicle A being driven (step S401). In step S401, the processing unit 40 may acquire the vibration amplitude and frequency, or may calculate the power value.

処理部40は、集音器S2から、駆動中の人力駆動車Aで集音される音声データを取得する(ステップS403)。処理部40はステップS403において、集音器S2から得られる集音信号に対し所定のフィルター処理を施し、A/D変換後に取得してもよい。 The processing unit 40 acquires sound data collected by the manpowered vehicle A in operation from the sound collector S2 (step S403). In step S403, the processing unit 40 may perform predetermined filtering on the collected sound signal obtained from the sound collector S2, and acquire the signal after A/D conversion.

処理部40は、ステップS401およびステップS403で取得した入力情報を、学習モデル40Mへ与える(ステップS405)。処理部40は、入力情報を学習モデル40Mに与えた場合に学習モデル40Mから出力される取り付け状態の適否の情報を特定する(ステップS407)。 The processing unit 40 gives the input information acquired in steps S401 and S403 to the learning model 40M (step S405). The processing unit 40 specifies the information about the propriety of the attachment state output from the learning model 40M when the input information is given to the learning model 40M (step S407).

処理部40は、ステップS407で特定された適否の情報に基づいて、対象部品の取り付け状態を調整するための情報を出力し(ステップS409)、処理を終了する。 The processing unit 40 outputs information for adjusting the mounting state of the target component based on the information on the suitability specified in step S407 (step S409), and ends the process.

ステップS409における出力は、アクチュエータである駆動モータE11または駆動モータE21への調整信号の出力であってもよいし、ディスプレイHへの表示出力であってもよい。 The output in step S409 may be an adjustment signal output to the drive motor E11 or drive motor E21, which is an actuator, or may be a display output to the display H.

このようにして第4実施形態では、人力駆動車Aの駆動中に取得される振動データまたは音声データを学習モデル40Mに入力し、走行中の状態に応じた部品の適切な取り付け状態の提案が可能になる。 In this way, in the fourth embodiment, the vibration data or voice data acquired while the human-powered vehicle A is being driven is input to the learning model 40M, and an appropriate mounting state of parts according to the running state is proposed. be possible.

第4実施形態における出力装置4は、ユーザ向けにディスプレイHへ取り付け状態の適否に関する情報を表示出力した。出力装置4はユーザが所有する第3実施形態における端末装置2のような通信端末装置と通信する通信部を備え、通信部を介して端末装置2へ適否に関する情報、部品の取り付け状態の調整の提案、または交換の提案が可能な構成としてもよい。 The output device 4 in the fourth embodiment displays and outputs information on the propriety of the attachment state to the display H for the user. The output device 4 includes a communication unit that communicates with a communication terminal device such as the terminal device 2 in the third embodiment owned by the user. The configuration may be such that a proposal or a proposal for exchange can be made.

第4実施形態では主に、フロントディレーラE1の近傍に設けられた出力装置4にてフロントディレーラE1における振動および音声を学習モデル40Mへ入力して適否の状態を出力した。勿論、取り付け状態の適否を特定する対象は、フロントディレーラE1に限られない。対象はリアディレーラE2およびギアに関する距離であってもよいし、フレームA12のヘッドチューブに取り付けられたステム、ステムに取り付けられるハンドルバーA2であってもよく、出力装置4は、それぞれの取り付け位置、角度の適否を特定してもよい。対象は、サドルA6のシートポストの位置、角度、サドルA6のシート部分の位置であってもよい。対象は、ブレーキパッドであってもよく、出力装置4は、ブレーキにおける振動、音声から形状の適否を特定してもよい。対象は、ボトムブラケット、ペダルの取り付け位置であってもよい。対象はその他、パーツの曲げ、欠陥を含んでもよい。これらの対象における適否を特定するために学習モデル4Mに入力される情報を取得するためのセンサは適宜選択され、センサ毎に適切な場所に取り付けられる。 In the fourth embodiment, mainly, the output device 4 provided near the front derailleur E1 inputs the vibration and sound of the front derailleur E1 to the learning model 40M to output the suitability state. Of course, the object for specifying the appropriateness of the mounting state is not limited to the front derailleur E1. The target may be the distance related to the rear derailleur E2 and the gear, or the stem attached to the head tube of the frame A12 and the handlebar A2 attached to the stem. You may specify the suitability of The object may be the position and angle of the seat post of saddle A6 and the position of the seat portion of saddle A6. The object may be a brake pad, and the output device 4 may specify the propriety of the shape from the vibration and sound of the brake. The target may be the bottom bracket and the mounting position of the pedals. Objects may also include part bends, defects. Sensors for acquiring information to be input to the learning model 4M to specify suitability for these targets are appropriately selected and attached to appropriate locations for each sensor.

1,4…出力装置、10,40…処理部、11,42…記憶部、1P…学習プログラム、1M,12M,30M,32M,40M,50M,90M…学習モデル、2…端末装置、20…処理部、22…記憶部、24…通信部、26…表示部、28…操作部、2P…メンテナンスアプリプログラム、3,5,9…記憶媒体、A12…フレーム、A5…フロントフォーク、E…変速機、E1…フロントディレーラ、E2…リアディレーラ、E11,E21…駆動モータ、G…ディスクロータ、H…ディスプレイ、S1…加速度センサ、S2…集音器 Reference Signs List 1, 4 output device 10, 40 processing unit 11, 42 storage unit 1P learning program 1M, 12M, 30M, 32M, 40M, 50M, 90M learning model 2 terminal device 20 Processing unit 22 Storage unit 24 Communication unit 26 Display unit 28 Operation unit 2P Maintenance application program 3, 5, 9 Storage medium A12 Frame A5 Front fork E Shift gear machine, E1... front derailleur, E2... rear derailleur, E11, E21... drive motor, G... disk rotor, H... display, S1... acceleration sensor, S2... sound collector

Claims (14)

学習アルゴリズムによって学習された学習モデルを用いて、人力駆動車の複数の部品の取り付け状態に関する入力情報に応じて、前記複数の部品の組み合わせとしての前記取り付け状態の適否を示す適否情報を含む前記取り付け状態に関する出力情報を出力する処理部を備え
前記入力情報は、前記複数の部品のそれぞれの品番データを含む、出力装置。
Using a learning model learned by a learning algorithm, the mounting including propriety information indicating propriety of the mounting state as a combination of the plurality of parts according to input information regarding the mounting state of the plurality of parts of the human-powered vehicle. A processing unit that outputs output information about the state ,
The output device , wherein the input information includes product number data for each of the plurality of components .
前記入力情報は、前記人力駆動車の車体に関する情報を含む、請求項1に記載の出力装置。 2. The output device according to claim 1 , wherein said input information includes information relating to the vehicle body of said manpowered vehicle. 前記入力情報は、前記人力駆動車の車体の品番またはサイズのデータを更に含む、請求項2に記載の出力装置。3. The output device according to claim 2, wherein said input information further includes data on the product number or size of the body of said manpowered vehicle. 前記入力情報は、前記人力駆動車のユーザの身体情報を含む、請求項1から3のいずれか一項に記載の出力装置。 4. The output device according to any one of claims 1 to 3, wherein said input information includes physical information of a user of said manpowered vehicle. 前記入力情報は、前記人力駆動車の静止画像データおよび前記人力駆動車の動画像データの少なくともいずれか1つを含む、請求項1から4のいずれか一項に記載の出力装置。 5. The output device according to claim 1, wherein said input information includes at least one of still image data of said manpowered vehicle and moving image data of said manpowered vehicle. 前記入力情報は、前記人力駆動車から発せられる振動に関するデータを含む、請求項1から5のいずれか一項に記載の出力装置。 6. The output device according to any one of claims 1 to 5, wherein said input information includes data relating to vibrations emitted from said manpowered vehicle. 前記振動に関するデータは、音声データを含む、請求項6に記載の出力装置。 7. The output device according to claim 6, wherein said vibration-related data includes audio data. 前記出力情報は、前記取り付け状態に対する提案に関する提案情報を含む、請求項1から7のいずれか1項に記載の出力装置。 8. The output device according to any one of claims 1 to 7, wherein said output information includes proposal information regarding proposals for said mounting state. 前記提案情報は、前記部品の取り付け方に関する情報、前記部品の調整に関する情報、および、前記部品の交換に関する情報の少なくともいずれか1つを含む、請求項8に記載の出力装置。 9. The output device according to claim 8, wherein said proposal information includes at least one of information on how to install said part, information on adjustment of said part, and information on replacement of said part. 人力駆動車の複数の部品の取り付け状態に関する入力情報に応じて、前記複数の部品の組み合わせとしての前記取り付け状態の適否を示す適否情報を含む前記取り付け状態に関する出力情報を出力するように構成されるニューラルネットワークを用いて学習モデルを生成する、学習モデルの生成方法であって、
前記入力情報は、前記複数の部品のそれぞれの品番データを含み、
前記入力情報に対する評価をラベル付けした教師データに応じて前記ニューラルネットワークの中間層におけるパラメータをコンピュータによって調整する、学習モデルの生成方法。
configured to output output information regarding the mounting state including suitability information indicating suitability of the mounting state as a combination of the plurality of parts in response to input information regarding the mounting state of the plurality of parts of the manpowered vehicle. A learning model generation method for generating a learning model using a neural network,
the input information includes product number data for each of the plurality of parts;
A method of generating a learning model, wherein a computer adjusts parameters in an intermediate layer of the neural network in accordance with teacher data labeled with evaluations of the input information.
前記入力情報を前記ニューラルネットワークへ与えることによって出力された出力情報に対する評価をラベル付けした追加教師データに基づいて、前記学習モデルをコンピュー
タによって更新する、請求項10に記載の学習モデルの生成方法。
11. The method of generating a learning model according to claim 10, wherein said learning model is updated by a computer based on additional teacher data labeled with an evaluation of output information outputted by giving said input information to said neural network.
人力駆動車の複数の部品の取り付け状態に関する入力情報に応じて、前記複数の部品の組み合わせとしての前記取り付け状態の適否を示す適否情報を含む前記取り付け状態に関する出力情報を出力するように構成されるニューラルネットワークを用いて学習モデルを生成する、学習モデルの生成方法であって、
前記入力情報は、前記複数の部品のそれぞれの品番データを含み、
前記入力情報を前記ニューラルネットワークへ与えることによって出力された出力情報に対する評価をラベル付けした教師データに応じて前記ニューラルネットワークの中間層におけるパラメータをコンピュータによって調整する、学習モデルの生成方法。
configured to output output information regarding the mounting state including suitability information indicating suitability of the mounting state as a combination of the plurality of parts in response to input information regarding the mounting state of the plurality of parts of the manpowered vehicle. A learning model generation method for generating a learning model using a neural network,
the input information includes product number data for each of the plurality of parts;
A method of generating a learning model, wherein parameters in an intermediate layer of the neural network are adjusted by a computer according to teacher data labeled with evaluations of output information outputted by giving the input information to the neural network.
人力駆動車の複数の部品の取り付け状態に関する入力情報に応じて、前記複数の部品の組み合わせとしての前記取り付け状態の適否を示す適否情報を含む前記取り付け状態に関する出力情報を出力するように学習アルゴリズムによって学習された学習モデルに、取得した入力情報を与えて、
前記入力情報は、前記複数の部品のそれぞれの品番データを含み、
前記学習モデルから出力される出力情報に基づいて前記人力駆動車における部品の取り付け状態の適否を示す適否情報を含む取り付け状態に関する情報を前記人力駆動車の画像を表示する表示部に前記画像に重畳および並べて表示する処理をコンピュータに実行させる、コンピュータプログラム。
A learning algorithm for outputting output information regarding the mounting state including propriety information indicating the propriety of the mounting state as a combination of the plurality of parts according to input information regarding the mounting state of the plurality of parts of the manpowered vehicle. Giving the acquired input information to the trained learning model,
the input information includes product number data for each of the plurality of parts;
Based on the output information output from the learning model, information relating to the mounting state including propriety information indicating the propriety of the mounting state of the parts in the manpowered vehicle is superimposed on the image on a display unit for displaying the image of the manpowered vehicle. and a computer program that causes a computer to perform the process of displaying side by side.
請求項13に記載のコンピュータプログラムが記憶される記憶媒体。 14. A storage medium storing the computer program according to claim 13.
JP2019024853A 2019-02-14 2019-02-14 Output device, learning model generation method, computer program, and storage medium Active JP7337510B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019024853A JP7337510B2 (en) 2019-02-14 2019-02-14 Output device, learning model generation method, computer program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019024853A JP7337510B2 (en) 2019-02-14 2019-02-14 Output device, learning model generation method, computer program, and storage medium

Publications (2)

Publication Number Publication Date
JP2020131813A JP2020131813A (en) 2020-08-31
JP7337510B2 true JP7337510B2 (en) 2023-09-04

Family

ID=72277444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019024853A Active JP7337510B2 (en) 2019-02-14 2019-02-14 Output device, learning model generation method, computer program, and storage medium

Country Status (1)

Country Link
JP (1) JP7337510B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171800A1 (en) * 2022-03-10 2023-09-14 本田技研工業株式会社 Management method for vehicle, management program for vehicle, storage medium, and information processing device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084237A (en) 1999-09-14 2001-03-30 Yamaha Motor Co Ltd Real-time optimization method for controller provided with fuzzy inference system
JP2013032028A (en) 2011-07-29 2013-02-14 Shimano Inc Bicycle electrical system diagnostic device
JP2014516007A (en) 2011-06-08 2014-07-07 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Method and apparatus for identifying wear in an electric bicycle
WO2017073192A1 (en) 2015-10-27 2017-05-04 株式会社カーメイト Roof carrier attachment condition detection system
WO2017168466A1 (en) 2016-03-30 2017-10-05 川崎重工業株式会社 Setting assistance device for saddle-type vehicle
US20180046869A1 (en) 2016-08-10 2018-02-15 Surround.IO Corporation Method and Apparatus for Providing Information Via Collected and Stored Metadata Using Inferred Attentional Model
JP2019012328A (en) 2017-06-29 2019-01-24 株式会社 日立産業制御ソリューションズ Person action estimation system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084237A (en) 1999-09-14 2001-03-30 Yamaha Motor Co Ltd Real-time optimization method for controller provided with fuzzy inference system
JP2014516007A (en) 2011-06-08 2014-07-07 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Method and apparatus for identifying wear in an electric bicycle
JP2013032028A (en) 2011-07-29 2013-02-14 Shimano Inc Bicycle electrical system diagnostic device
WO2017073192A1 (en) 2015-10-27 2017-05-04 株式会社カーメイト Roof carrier attachment condition detection system
WO2017168466A1 (en) 2016-03-30 2017-10-05 川崎重工業株式会社 Setting assistance device for saddle-type vehicle
US20180046869A1 (en) 2016-08-10 2018-02-15 Surround.IO Corporation Method and Apparatus for Providing Information Via Collected and Stored Metadata Using Inferred Attentional Model
JP2019012328A (en) 2017-06-29 2019-01-24 株式会社 日立産業制御ソリューションズ Person action estimation system

Also Published As

Publication number Publication date
JP2020131813A (en) 2020-08-31

Similar Documents

Publication Publication Date Title
KR101864860B1 (en) Diagnosis method of automobile using Deep Learning
JP6985217B2 (en) Control data creation device, component control device, control data creation method, component control method, and computer program
JP7324632B2 (en) Output device, learning model generation method, and computer program
CN104340324B (en) Bicycle control
JP6989452B2 (en) Creation device, component control device, creation method, component control method, and computer program
JP2023091087A (en) Control device, learning method of learning model, learning model, computer program, and storage medium
JP6499682B2 (en) Information provision system
CN104802801B (en) Automobile driver Intelligent worn device, evaluating method and system
JP2020006836A (en) Creation apparatus, component control apparatus, creation method, component control method, computer program, and learning model
JP7337510B2 (en) Output device, learning model generation method, computer program, and storage medium
CN109969329B (en) Control device for human-powered vehicle
CN110505837A (en) Information processing equipment, information processing method and program
CN106537111A (en) Machine component diagnosis system and server thereof
US20150198442A1 (en) Information collection system, information processing system, information display device, and non-transitory, tangible computer-readable medium
US20170316625A1 (en) Method of operating a motor vehicle
DE102019118281A1 (en) Generation device, component control device, generation method, component control method, computer program
US20220161890A1 (en) Motor controller for electric bicycles
WO2022071114A1 (en) Machine learning device, slide surface diagnosis device, inference device, machine learning method, machine learning program, slide surface diagnosis method, slide surface diagnosis program, inference method, and inference program
JP2020097340A (en) Electronic device and system for man-power drive vehicle
US20230331341A1 (en) Method for Determining a Driver State of a Motor-Assisted Vehicle; Method for Training a Machine Learning System; Motor-Assisted Vehicle
CN117087801A (en) Method for diagnosing a bicycle
JP7457458B2 (en) Output device, computer program, and storage medium
CN106660606A (en) Device and method for generating a gradient value
JP5182579B2 (en) Motorcycle shift simulator
JP2023085935A (en) Device, method, and system for processing human power drive vehicle information and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230823

R150 Certificate of patent or registration of utility model

Ref document number: 7337510

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150