JP6966131B1 - Orthotic device discrimination system - Google Patents

Orthotic device discrimination system Download PDF

Info

Publication number
JP6966131B1
JP6966131B1 JP2021049317A JP2021049317A JP6966131B1 JP 6966131 B1 JP6966131 B1 JP 6966131B1 JP 2021049317 A JP2021049317 A JP 2021049317A JP 2021049317 A JP2021049317 A JP 2021049317A JP 6966131 B1 JP6966131 B1 JP 6966131B1
Authority
JP
Japan
Prior art keywords
orthotic device
image data
orthotic
analysis unit
discrimination system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021049317A
Other languages
Japanese (ja)
Other versions
JP2022147869A (en
Inventor
太郎 見木
Original Assignee
株式会社P.O.イノベーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社P.O.イノベーション filed Critical 株式会社P.O.イノベーション
Priority to JP2021049317A priority Critical patent/JP6966131B1/en
Application granted granted Critical
Publication of JP6966131B1 publication Critical patent/JP6966131B1/en
Publication of JP2022147869A publication Critical patent/JP2022147869A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】バンドが設けられた複数種類の装具を高精度で判別する装具判別システムを提供すること。【解決手段】装具判別システム10は、バンドが設けられた装具50の画像データ11から装具50の種類を判別するであり、教師データ作成部20と、対象データ入力・結果表示部30と、解析部40と、を備えている。解析部40は、対象データ入力・結果表示部30から送信された画像データ11より判別対象装具50の輪郭とバンドの形状及び本数を表現する特徴量を抽出し、ライブラリ41に保存されたあらかじめ登録された装具との類似度を算出、出力する。【選択図】図1PROBLEM TO BE SOLVED: To provide an orthotic device discrimination system for discriminating a plurality of types of orthotic devices provided with a band with high accuracy. SOLUTION: The orthotic device discrimination system 10 discriminates the type of the orthotic device 50 from the image data 11 of the orthotic device 50 provided with a band, and analyzes the teacher data creation unit 20, the target data input / result display unit 30, and the analysis. It is provided with a unit 40. The analysis unit 40 extracts the feature amount expressing the contour, the shape and the number of the band of the discrimination target device 50 from the image data 11 transmitted from the target data input / result display unit 30, and registers them in advance stored in the library 41. Calculates and outputs the degree of similarity with the attached equipment. [Selection diagram] Fig. 1

Description

本発明は、バンドが設けられた装具の写真の画像データから装具の種類を判別する装具判別システムに関するものである。 The present invention relates to an orthotic device discrimination system that discriminates a type of orthotic device from image data of a photograph of an orthotic device provided with a band.

従来、歩行に障害のある患者は、足に装具を装着し、歩行の補助やリハビリを行う。治療用の装具は比較的高価なものであり、装具を購入したいわゆる健康保険の被保険者が療養費の支給申請をすれば、保険者の判断により保険が適用され、後日療養費として還付が受けられる。保険者への療養費の支給申請にあたり、療養費申請されたものの見積りが被保険者(患者など)に渡したものと一致しているか保険者が審査を行うために、申請書に装具の写真の添付が義務付けられるようになってきている。 Conventionally, patients with walking disabilities wear orthotics on their feet to assist walking and rehabilitate. Treatment equipment is relatively expensive, and if the so-called health insurance insured person who purchased the equipment applies for medical treatment expenses, the insurance will be applied at the discretion of the insurer and will be refunded as medical treatment expenses at a later date. You can receive it. When applying for medical expenses to the insurer, make sure that the estimate of the medical expenses applied for is the same as the one given to the insured (patient, etc.). Is becoming obligatory to attach.

保険者は、療養費支給申請の申請書に添付された装具の写真と、申請書とともに提出される領収書(装具等の名称、種類、およびその内訳別の費用額が記載されているもので明細書部分を含む)に記載の装具の型番が正しいか否か確かめる必要がある。しかし、装具には複数の種類があり、装具全体の輪郭、装具のバンドの数、位置などが異なり判別が難しい。そのうえ、保険者内で審査を行う担当者の多くが装具の知識がない事務職が大半であることから、厚生労働省等に登録された装具のカタログの写真と申請書の写真とを見比べて同一の装具か否か判別することは大変な労力を要し、人件費などのコスト負担が増加する。 The insurer should have a photo of the orthotic device attached to the application for medical treatment expenses and a receipt (name and type of orthotic device, etc., and the cost amount by breakdown) submitted with the application. It is necessary to confirm whether the model number of the orthotic device described in (including the specification part) is correct. However, there are a plurality of types of orthotic devices, and it is difficult to distinguish them because the contour of the entire orthotic device, the number of bands of the orthotic device, the position, and the like are different. In addition, most of the insurers who conduct examinations are clerical workers who do not have knowledge of orthotic devices, so the photos of the orthotic device catalogs registered with the Ministry of Health, Labor and Welfare are the same as the photos of the application form. Determining whether or not it is an orthotic device requires a great deal of labor, and the cost burden such as labor costs increases.

そこで、判別対象となるものが正しいものか、いかなるものかなどを判断するために、近年では人工知能(AI)を用いた画像による判別システムが様々な分野で使用されている。このような人工知能を用いた画像による判別システムの一例として特許文献1に示す技術が知られている。 Therefore, in recent years, an image discrimination system using artificial intelligence (AI) has been used in various fields in order to determine whether the object to be discriminated is correct or what it is. The technique shown in Patent Document 1 is known as an example of such an image discrimination system using artificial intelligence.

特許文献1の判別システムでは、調味料や調理用の具材などの食品が封入された対象ワークを判別して移載する対象ワークの判別システムであり、撮像部と、制御部と、アームロボットを備え、撮像部は、無造作に積まれた複数の対象ワークを撮像し、制御部は、撮像部で撮像された情報から捕捉対象ワークを検出する捕捉対象ワーク検出機能と、捕捉対象ワークを移載させるようにアームロボットを制御するアームロボット制御機能を有する。無造作に積まれた複数の対象ワークから、人工知能(AI)によって得られた情報を基に対象ワークを判別し、移載用のアームロボットからの距離を勘案して捕捉対象ワークとして検出し、捕捉対象ワークの向き、傾きに応じてアームロボットを制御して捕捉・移載するものである。 The discrimination system of Patent Document 1 is a discrimination system for a target work in which foods such as seasonings and cooking ingredients are enclosed and transferred, and is an imaging unit, a control unit, and an arm robot. The imaging unit captures a plurality of target works randomly stacked, and the control unit transfers the capture target work detection function that detects the capture target work from the information captured by the imaging unit and the capture target work. It has an arm robot control function that controls the arm robot so that it can be mounted. From a plurality of target works randomly piled up, the target work is discriminated based on the information obtained by artificial intelligence (AI), and the target work is detected as the target work to be captured in consideration of the distance from the arm robot for transfer. The arm robot is controlled and captured / transferred according to the orientation and inclination of the work to be captured.

しかし、特許文献1の判別システムは、調味料や調理用の具材などの食品が封入されたものが対象ワークであるところ、装具を構成する輪郭、支柱、バンド、このバンドの数、位置など装具特有の構成に対して、特許文献1の判別システムを適用することが難しい。特に、装具は、本体部分や支柱などの支持部と、身体への固定などのためのバンドとから構成されている。バンドの中には身体への固定以外に、身体の矯正などに用いられるものもあり、写真などの画像を見ただけでは、そのバンドが装具の機能や種類を左右するものなのか、それとも単なる固定に使われているものなのか、判別が難しい。 However, in the discrimination system of Patent Document 1, the target work is one in which foods such as seasonings and cooking ingredients are enclosed, and the contours, columns, bands, the number and positions of the bands, etc. It is difficult to apply the discrimination system of Patent Document 1 to the configuration peculiar to the orthotic device. In particular, the orthotic device is composed of a support portion such as a main body portion and a support column, and a band for fixing to the body. Some bands are used not only for fixing to the body but also for correcting the body, and just by looking at images such as photographs, does the band influence the function and type of the orthotic device, or is it just? It is difficult to determine whether it is used for fixing.

このような理由から、単純に機械学習を行うニューラルネットワークの分析手法に装具の画像データを入力しても、実用に足る高精度の判別結果を得ることができない。 For this reason, even if the image data of the orthotic device is input to the analysis method of the neural network that simply performs machine learning, it is not possible to obtain a highly accurate discrimination result that is practical.

特開2020−192677号公報Japanese Unexamined Patent Publication No. 2020-192677

本発明は、以上の点に鑑み、バンドが設けられた複数種類の装具を高精度で判別する装具判別システムを提供することを課題とする。 In view of the above points, it is an object of the present invention to provide an orthotic device discrimination system that discriminates a plurality of types of orthotic devices provided with bands with high accuracy.

[1]バンドが設けられた装具の画像データから前記装具の種類を判別する装具判別システムであって、
教師データ作成部と、対象データ入力・結果表示部と、解析部と、を備え、
前記教師データ作成部は、所定の型番および仕様(以下型番とする)の前記装具を撮影して前記型番と撮影した写真の前記画像データから前記型番毎に教師データを作成し、この教師データを前記解析部に送信するものであり、
前記対象データ入力・結果表示部は、判別対象となる判別対象装具の写真の画像データを入力すると共に前記解析部に送信し、前記解析部で判別された前記判別対象装具の型番の判別結果を表示するものであり、
前記解析部は、前記教師データ作成部から送信された前記教師データの前記画像データより所定の型番の前記装具の輪郭とバンドの形状及び本数を表現する特徴量を抽出し、前記特徴量から型番を推定する推定モデルを機械学習により生成し、前記型番の前記推定モデルをライブラリに保存し、
また、対象データ入力・結果表示部から送信された前記画像データより前記判別対象装具の輪郭とバンドの形状及び本数を表現する特徴量を抽出し、前記ライブラリに保存されたあらかじめ登録された前記装具との類似度を算出、出力し、判別結果のデータとして前記対象データ入力・結果表示部に送信するものであることを特徴とする。
[1] An orthotic device discrimination system that discriminates the type of the orthotic device from the image data of the orthotic device provided with the band.
It has a teacher data creation unit, a target data input / result display unit, and an analysis unit.
The teacher data creation unit photographs the equipment having a predetermined model number and specifications (hereinafter referred to as a model number), creates teacher data for each model number from the image data of the model number and the photograph taken, and creates the teacher data for each model number. It is transmitted to the analysis unit.
The target data input / result display unit inputs image data of a photograph of the discrimination target device to be discriminated and transmits the image data to the analysis unit, and determines the discrimination result of the model number of the discrimination target device determined by the analysis unit. To display
The analysis unit extracts a feature amount expressing the contour of the device of a predetermined model number, the shape and the number of bands from the image data of the teacher data transmitted from the teacher data creation unit, and the model number from the feature amount. An estimation model for estimating the above is generated by machine learning, and the estimation model of the model number is stored in the library.
In addition, the feature amount expressing the contour of the discriminant target device, the shape and the number of bands is extracted from the image data transmitted from the target data input / result display unit, and the pre-registered device stored in the library is used. It is characterized in that the degree of similarity with is calculated and output, and is transmitted to the target data input / result display unit as the data of the discrimination result.

かかる構成によれば、装具判別システムは、教師データ作成部と、対象データ入力・結果表示部と、解析部と、を備えている。解析部は、教師データの画像データより所定の型番の装具の輪郭とバンドの形状及び本数を表現する特徴量を抽出し、特徴量から型番を推定する推定モデルを機械学習により生成する。また、対象データ入力・結果表示部から送信された画像データより判別対象装具の輪郭とバンドの形状及び本数を表現する特徴量を抽出し、ライブラリにあらかじめ登録された装具との類似度を算出、出力する。解析部は、教師データの所定の型番の装具及び判別対象装具の輪郭の特徴量に加え、バンドの形状及び本数を表現する特徴量を抽出して判別するので、バンドが設けられた複数種類の装具を高精度で判別することができる。 According to this configuration, the orthotic device discrimination system includes a teacher data creation unit, a target data input / result display unit, and an analysis unit. The analysis unit extracts a feature amount expressing the contour of the orthotic device of a predetermined model number, the shape and the number of bands from the image data of the teacher data, and generates an estimation model for estimating the model number from the feature amount by machine learning. In addition, from the image data transmitted from the target data input / result display unit, the feature amount expressing the contour of the discriminant target device and the shape and number of bands is extracted, and the similarity with the device registered in advance in the library is calculated. Output. Since the analysis unit extracts and discriminates the feature amount expressing the shape and number of the band in addition to the feature amount of the contour of the device of the predetermined model number and the device to be discriminated in the teacher data, a plurality of types of bands are provided. The orthotic device can be identified with high accuracy.

[2]好ましくは、前記解析部は、前記教師データの前記画像データより所定の型番の前記装具の支柱の形状とこの支柱に対する前記バンドの位置及び角度を表現する特徴量を抽出し、
また、前記判別対象装具の支柱の形状とこの支柱に対する前記バンドの位置及び角度を表現する特徴量を抽出するものである。
[2] Preferably, the analysis unit extracts a feature amount expressing the shape of the support column of the orthotic device of a predetermined model number and the position and angle of the band with respect to the support column from the image data of the teacher data.
In addition, the shape of the support column of the device to be discriminated and the feature amount expressing the position and angle of the band with respect to the support column are extracted.

かかる構成によれば、解析部は、教師データの所定の型番の装具及び判別対象装具の支柱の形状とこの支柱に対するバンドの位置及び角度を表現する特徴量を抽出して判別するので、バンドが設けられた複数種類の装具をより高精度で判別することができる。 According to such a configuration, the analysis unit extracts and discriminates the shape of the support column of the orthotic device of the predetermined model number and the device to be discriminated from the teacher data and the feature amount expressing the position and angle of the band with respect to the support column, so that the band can be determined. It is possible to discriminate a plurality of types of provided equipment with higher accuracy.

[3]好ましくは、前記解析部は、色調によらない前記特徴量を抽出するものである。 [3] Preferably, the analysis unit extracts the feature amount regardless of the color tone.

かかる構成によれば、解析部は、色調によらない特徴量を抽出して判別するので、模様が付された装具であっても形状のみから特徴量を抽出し、バンドが設けられた複数種類の装具をより高精度で判別することができる。 According to this configuration, the analysis unit extracts and discriminates the feature amount regardless of the color tone. Therefore, even if the orthotic device has a pattern, the feature amount is extracted only from the shape, and a plurality of types provided with bands. It is possible to discriminate the orthotic device with higher accuracy.

[4]好ましくは、前記解析部は、あらかじめ登録された装具に対する前記判別対象装具の前記特徴量の一致の度合いを演算して類似する前記登録された装具を出力する。 [4] Preferably, the analysis unit calculates the degree of matching of the feature amounts of the discrimination target device with respect to the pre-registered device and outputs a similar registered device.

かかる構成によれば、解析部は、あらかじめ登録された装具に対する判別対象装具の特徴量の一致の度合いを演算して類似する前記登録された装具を出力するので、登録された装具の中から最も近い装具を判別することができる。 According to such a configuration, the analysis unit calculates the degree of matching of the feature amounts of the discrimination target equipment with respect to the pre-registered equipment and outputs the similar registered equipment. It is possible to identify close equipment.

[5]好ましくは、前記教師データ作成部、前記対象データ入力・結果表示部、及び前記解析部は、インターネットによるネットワークを介してそれぞれが接続されている。 [5] Preferably, the teacher data creation unit, the target data input / result display unit, and the analysis unit are connected to each other via a network via the Internet.

かかる構成によれば、教師データ作成部、対象データ入力・結果表示部、及び解析部は、インターネットによるネットワークを介してそれぞれが接続されているので、離れた場所であっても容易にバンドが設けられた複数種類の装具を高精度で判別することができる。 According to this configuration, the teacher data creation unit, the target data input / result display unit, and the analysis unit are connected to each other via a network via the Internet, so that a band can be easily provided even at a remote location. It is possible to discriminate a plurality of types of equipment with high accuracy.

[6]好ましくは、前記対象データ入力・結果表示部は、健康保険の保険者に使用される。 [6] Preferably, the target data input / result display unit is used by an insurer of health insurance.

かかる構成によれば、保険者内で審査を行う担当者の多くが装具の知識がない事務職が大半であるところ、装具の目利きではない者であっても、バンドが設けられた複数種類の装具をより高精度で判別することができる。 According to this configuration, most of the persons in charge of examination within the insurer are clerical workers who do not have knowledge of orthotic devices, but even those who are not connoisseurs of orthotic devices have multiple types of orthotic devices with bands. Can be discriminated with higher accuracy.

[7]好ましくは、前記対象データ入力・結果表示部は、カメラ付き携帯端末を備え、
判別対象となる前記判別対象装具の前記画像データは、申請者から紙で送られた申請書に添付された写真を前記カメラ付き携帯端末で撮影したもの、又は、申請者から電子データで送られた申請書に添付されたものである。
[7] Preferably, the target data input / result display unit includes a mobile terminal with a camera.
The image data of the device to be discriminated is the photograph attached to the application form sent by the applicant on paper with the camera-equipped mobile terminal, or sent electronically by the applicant. It is attached to the application form.

かかる構成によれば、判別対象装具の画像データは、申請者から紙で送られた申請書に添付された写真をカメラ付き携帯端末で撮影したもの、又は、申請者から電子データで送られた申請書に添付されたものであるので、申請書が紙であっても電子データであっても対応でき、装具をより高精度で判別することができる。 According to such a configuration, the image data of the equipment to be discriminated is a photograph taken by a mobile terminal with a camera attached to the application form sent by the applicant on paper, or sent by the applicant as electronic data. Since it is attached to the application form, it can be handled whether the application form is paper or electronic data, and the equipment can be identified with higher accuracy.

バンドが設けられた複数種類の装具を高精度で判別することができる。 It is possible to discriminate a plurality of types of orthotic devices provided with bands with high accuracy.

本発明に係る装具判別システムの説明図である。It is explanatory drawing of the equipment discriminating system which concerns on this invention. 教師データを用いて推定モデルを生成して保存するまでのフローである。This is the flow from generating an estimation model using teacher data to saving it. 申請書に添付された写真の画像データを用いて判別対象装具の型番を判別して結果を表示するまでのフローである。This is the flow from determining the model number of the device to be discriminated using the image data of the photograph attached to the application form and displaying the result. 脚部に固定する様々な種類の装具を説明する図である。It is a figure explaining various kinds of orthotics fixed to a leg. 足部に固定する様々な種類の装具を説明する図である。It is a figure explaining various kinds of orthotics fixed to a foot. 太腿から足部にかけて固定する様々な種類の装具を説明する図である。It is a figure explaining various kinds of orthotics which are fixed from the thigh to the foot. 装具形状による分類及び装具の代金を算出するフローである。This is a flow for classifying by the shape of the orthotic device and calculating the price of the orthotic device.

本発明の実施の形態を添付図に基づいて以下に説明する。なお、装具判別システムの説明図は任意の装具の判別の一例を概念的(模式的)に示すものとする。 Embodiments of the present invention will be described below with reference to the accompanying drawings. It should be noted that the explanatory diagram of the orthotic device discrimination system conceptually (schematically) shows an example of discrimination of an arbitrary orthotic device.

図1、図4、図5に示されるように、装具判別システム10は、装具50(50a、50b、50c、50d、50e、50f)の種類を写真などの画像データ11から判別するシステムである。なお、装具50の種類は実施例に示した装具50a、50b、50c、50d、50e、50fに限定されず、さらに多くの種類がある。 As shown in FIGS. 1, 4, and 5, the orthotic device discrimination system 10 is a system that discriminates the type of the orthotic device 50 (50a, 50b, 50c, 50d, 50e, 50f) from image data 11 such as a photograph. .. The type of the orthotic device 50 is not limited to the orthotic devices 50a, 50b, 50c, 50d, 50e, and 50f shown in the examples, and there are many more types.

装具50には複数の種類があり、一例として図4の(A)に示されるように、膝用の装具50aは、脚70の上下方向に沿って配置され本体部分となる左右の支柱51と、この支柱51に設けられ脚70を覆う布状のストラップ52と、膝71の上方で支柱51に設けられ装具50aを脚70に固定する幅が広い固定バンド53と、膝71の下方で支柱51に設けられ脚70の前側をクロスして掛け渡された機能バンド54と、膝71の下方で支柱51に設けられ脚70の前側を左右方向に掛け渡された機能バンド55と、を備えている。 There are a plurality of types of the orthotic device 50, and as shown in FIG. 4A as an example, the orthotic device 50a for the knee is arranged along the vertical direction of the leg 70 with the left and right support columns 51 which are the main body portions. A cloth-like strap 52 provided on the support column 51 to cover the leg 70, a wide fixing band 53 provided on the support column 51 above the knee 71 to fix the orthotic device 50a to the leg 70, and a support column below the knee 71. A functional band 54 provided on the 51 and hung across the front side of the leg 70, and a functional band 55 provided on the support column 51 below the knee 71 and hung on the front side of the leg 70 in the left-right direction are provided. ing.

固定バンド53は、単に装具50aを脚70に固定するためのものであり、支柱51に対して所定の位置(例えば、帯幅の中央が支柱51の上端から下方へ9cmの位置)から脚70の前側の途中まで左右方向(例えば、90度)に延びている。これに対し、機能バンド54は膝71の下部を抑える機能を有するものであり左右の支柱51に掛け渡されている。また、機能バンド54は、支柱51に対して所定の位置(例えば、帯幅の中央が支柱51の下端から上方へ3cmの位置と15cmの位置)及び所定の角度(例えば、60度)で配置されている。機能バンド55は、支柱51に対して所定の位置(例えば、帯幅の中央が支柱51の下端から上方へ9cmの位置)及び所定の角度(例えば、90度)で配置されている。 The fixing band 53 is simply for fixing the orthotic device 50a to the leg 70, and the leg 70 is provided from a predetermined position with respect to the support column 51 (for example, the center of the band width is 9 cm downward from the upper end of the support column 51). It extends in the left-right direction (for example, 90 degrees) to the middle of the front side of. On the other hand, the functional band 54 has a function of holding down the lower part of the knee 71 and is hung on the left and right columns 51. Further, the functional band 54 is arranged at a predetermined position (for example, a position where the center of the band width is 3 cm and a position 15 cm upward from the lower end of the support column 51) and a predetermined angle (for example, 60 degrees) with respect to the support column 51. Has been done. The functional band 55 is arranged at a predetermined position (for example, a position where the center of the band width is 9 cm upward from the lower end of the support column 51) and a predetermined angle (for example, 90 degrees) with respect to the support column 51.

図1に示されるように、装具判別システム10は、バンド54(図4参照)等が設けられた装具50の画像データ11から装具50の種類を判別するものであり、申請書作成部12と、教師データ作成部20と、対象データ入力・結果表示部30と、解析部40と、を備えている。 As shown in FIG. 1, the orthotic device discrimination system 10 discriminates the type of the orthotic device 50 from the image data 11 of the orthotic device 50 provided with the band 54 (see FIG. 4) and the like. A teacher data creation unit 20, a target data input / result display unit 30, and an analysis unit 40 are provided.

申請書作成部12、教師データ作成部20、対象データ入力・結果表示部30、及び解析部40は、インターネットによるネットワーク15を介してそれぞれが接続されている。 The application form creation unit 12, the teacher data creation unit 20, the target data input / result display unit 30, and the analysis unit 40 are each connected via a network 15 via the Internet.

申請書作成部12について説明する。
申請書作成部12は、例えば、装具50を購入したいわゆる健康保険の被保険者(申請者)が療養費の支給申請をするための申請書13を作成するものであり、申請用端末14を備えている。現時点では、保険者によっては正式な電子申請に対応しているわけではなく、電子的に画像データを提出する場合には電子メールなどが主な方法である。将来的にはWEB上のストレージにアップロードし、所定の者の所有するプラットフォーム上で、申請者と保険者と画像データを共有する方法も考えられる。ここではそういった画像の電子的な提出方法を包括して申請書作成部と表現する。申請者は、申請用端末14により装具50の写真の画像データ11を添付した申請書13を作成する。この申請書13は、紙に出力して保険者のいる対象データ入力・結果表示部30に送るか(ルート1)、または電子データとしてネットワーク15を介して保険者のいる対象データ入力・結果表示部30に送る(ルート2)。なお、申請書13を紙で送る場合(ルート1)、申請用端末14を用意せずに、元から紙で用意された申請書に装具50の写真を添付する形でもよい。
The application form preparation unit 12 will be described.
The application form preparation unit 12 prepares, for example, an application form 13 for a so-called health insurance insured person (applicant) who has purchased the orthotic device 50 to apply for payment of medical expenses. I have. At present, some insurers do not support formal electronic applications, and e-mail is the main method for submitting image data electronically. In the future, it is possible to upload the image data to the storage on the WEB and share the image data with the applicant and the insurer on the platform owned by the specified person. Here, the electronic submission method of such images is comprehensively expressed as the application preparation department. The applicant creates an application form 13 to which the image data 11 of the photograph of the device 50 is attached by the application terminal 14. This application form 13 is output to paper and sent to the target data input / result display unit 30 with the insurer (route 1), or as electronic data, the target data input / result display with the insurer is performed via the network 15. Send to section 30 (route 2). When the application form 13 is sent on paper (route 1), a photograph of the orthotic device 50 may be attached to the application form originally prepared on paper without preparing the application terminal 14.

次に教師データ作成部20について説明する。
教師データ作成部20は、ネットワーク15に接続可能な登録用端末21を備えている。正式な元データとして、例えば厚生労働省等で認められている所定の型番の装具50を登録用端末21で撮影して、型番(登録済製品名、登録装具名)と撮影した写真の画像データ22から型番毎に教師データ23を複数(大量に)作成する。さらに、教師データ作成部20は、作成した教師データ23を、ネットワーク15を介して解析部40に送信する。装具20の撮影は、多方向から複数の写真を、条件を変える等して撮影し、複数の画像データ21を用意して教師データ23とすることが好ましい。
Next, the teacher data creation unit 20 will be described.
The teacher data creation unit 20 includes a registration terminal 21 that can be connected to the network 15. As formal original data, for example, an orthotic device 50 having a predetermined model number approved by the Ministry of Health, Labor and Welfare is photographed by a registration terminal 21, and the model number (registered product name, registered orthotic device name) and image data 22 of the photographed photograph are taken. Create a plurality (large amount) of teacher data 23 for each model number. Further, the teacher data creation unit 20 transmits the created teacher data 23 to the analysis unit 40 via the network 15. It is preferable that the device 20 is photographed by taking a plurality of photographs from multiple directions by changing the conditions or the like, and preparing a plurality of image data 21 to be the teacher data 23.

また、教師データ作成部20では、図4、図5に示すような複数種類の所定の型番(登録済製品名)の装具50a、50b、50c、50d、50e、50fなどを基にして、複数種類の教師データ23を作成する。なお、教師データ23の作成は、申請書に使われた画像データ11を新たに教師データ23に加え、未来に向かってさらに教師データ23の精度を高めてもよい。これにより、仮に当初は後述する推定モデルの精度が不十分であることで類似度の精度が低い場合であっても、申請書に使われた画像データ11を新たに教師データ23に加えることで再学習させて推定モデルの精度を高め、類似度の精度を高めることができる。 Further, in the teacher data creation unit 20, a plurality of types of orthotic devices 50a, 50b, 50c, 50d, 50e, 50f, etc. of a plurality of types of predetermined model numbers (registered product names) as shown in FIGS. Create type teacher data 23. To create the teacher data 23, the image data 11 used in the application form may be newly added to the teacher data 23 to further improve the accuracy of the teacher data 23 toward the future. As a result, even if the accuracy of the estimation model, which will be described later, is insufficient at the beginning and the accuracy of the similarity is low, the image data 11 used in the application form can be newly added to the teacher data 23. It can be retrained to improve the accuracy of the estimation model and the accuracy of similarity.

次に対象データ入力・結果表示部30について説明する。
対象データ入力・結果表示部30は、例えば、健康保険の保険者に使用されるものである。また、対象データ入力・結果表示部30は、判別対象となる判別対象装具50の写真の画像データ11を入力すると共に解析部40に送信し、解析部40で判別された判別対象装具50の型番(登録製品名)の判別結果を表示するものである。
Next, the target data input / result display unit 30 will be described.
The target data input / result display unit 30 is used, for example, by an insurer of health insurance. Further, the target data input / result display unit 30 inputs the image data 11 of the photograph of the discrimination target device 50 to be discriminated and transmits it to the analysis unit 40, and the model number of the discrimination target device 50 discriminated by the analysis unit 40. The determination result of (registered product name) is displayed.

対象データ入力・結果表示部30は、申請書作成部12から送信された申請書の13の電子データを、ネットワーク15を介して受信するとともに保存するサーバ31と、このサーバ31に有線又は無線で接続可能な審査用端末32(デスクトップPCやカメラ付携帯端末)と、を備えている。なお、審査用端末32は、サーバ31を介さずにネットワーク15に接続可能である。 The target data input / result display unit 30 receives and stores the electronic data of the application form 13 transmitted from the application form creation unit 12 via the network 15, and the server 31 and the server 31 by wire or wirelessly. It is equipped with a connectable examination terminal 32 (desktop PC or mobile terminal with a camera). The examination terminal 32 can be connected to the network 15 without going through the server 31.

判別対象となる判別対象装具50の画像データ11は、申請者から紙で送られた申請書13に添付された写真を審査用端末32で撮影したものである。審査用端末32は、紙で送られてきた画像のデジタル化の役割、そして画像データ11の送信と判別結果の表示の役割をおこなう。画像のデジタル化では、審査用端末は、紙で送られてきた画像を、携帯端末のカメラ機能やデジタルカメラ、もしくはスキャナー等の機器を活用しデジタル化をおこなう。判別対象となる判別対象装具50の画像データ11は、申請者から電子データで送られた申請書13に添付されたものである。この場合は審査用端末32でデジタル化を行う必要はない。また、審査用端末32の画像データ11の送信と判別結果の表示は、スマートフォン等の携帯情報端末やデスクトップPC等でもおこなうことができる。 The image data 11 of the discrimination target device 50 to be discriminated is a photograph taken by the examination terminal 32 attached to the application form 13 sent by the applicant on paper. The examination terminal 32 plays a role of digitizing an image sent on paper, and also plays a role of transmitting image data 11 and displaying a discrimination result. In the digitization of images, the examination terminal digitizes the images sent on paper by utilizing the camera function of the mobile terminal, a digital camera, or a device such as a scanner. The image data 11 of the discrimination target device 50 to be discriminated is attached to the application form 13 sent by the applicant as electronic data. In this case, it is not necessary to digitize the examination terminal 32. Further, the transmission of the image data 11 of the examination terminal 32 and the display of the determination result can also be performed by a mobile information terminal such as a smartphone, a desktop PC, or the like.

判別対象装具50の画像データ11が電子データで送られた申請書13に添付されている場合は、審査用端末のうち、カメラ付き携帯やデスクトップPCを利用してもよい。カメラ付き携帯端末を使用してもよいが、代わりにデスクトップ型PCなどのカメラのない端末を使用してもよい。 When the image data 11 of the identification target device 50 is attached to the application form 13 sent as electronic data, a camera-equipped mobile phone or desktop PC may be used among the examination terminals. A mobile terminal with a camera may be used, but instead, a terminal without a camera such as a desktop PC may be used.

このように、保険者は、紙で申請書が送られてきた場合は、スマートフォンなどのカメラ付き携帯端末を審査用端末32として使用して申請書の判別対象装具50の写真を撮影して画像データ11を解析部40に送り、解析部40から返信された判別結果や類似度などを見ることができる。また、保険者は、電子データで申請書が送られてきた場合は、ネットワーク15を介してWeb上のサーバ31にアップロードされた申請書の判別対象装具50の画像データ11を、デスクトップ型PCを審査用端末32として使用し、いわゆるコピー&ペーストして判別画面に貼り付ける方法や選択する方法で、画像データ11を解析部に送り、解析部40から返信された判別結果や類似度などを見ることができる。 In this way, when the application form is sent on paper, the insurer uses a mobile terminal with a camera such as a smartphone as the examination terminal 32 to take a picture of the device 50 to be discriminated in the application form and take an image. The data 11 is sent to the analysis unit 40, and the discrimination result and the degree of similarity returned from the analysis unit 40 can be viewed. In addition, when the application form is sent by electronic data, the insurer uses the image data 11 of the identification target device 50 of the application form uploaded to the server 31 on the Web via the network 15 to the desktop PC. The image data 11 is sent to the analysis unit by the so-called copy and paste method of pasting on the discrimination screen or the selection method, which is used as the examination terminal 32, and the discrimination result and the degree of similarity returned from the analysis unit 40 are viewed. be able to.

判別対象装具50の種類又は型番を判別するには、保険者が、審査用端末32から判別対象装具50の画像データ11を解析部40に送信する。そして、解析部40からの判別結果を審査用端末32に表示する。 In order to discriminate the type or model number of the discriminating device 50, the insurer transmits the image data 11 of the discriminating device 50 from the examination terminal 32 to the analysis unit 40. Then, the determination result from the analysis unit 40 is displayed on the examination terminal 32.

判別結果の表示例として、表示欄33には、申請写真の画像データ11、申請された型番と同じ登録装具の画像データ22(メーカーのカタログ画像等でいつも固定)、型番(登録済製品名)、類似度(判別精度)「%」などが表示される。なお、表示欄33はこれに限定されず、前述の他、申請者名や必要な情報a’判別された装具の金額、なども表示してよい。 As an example of displaying the discrimination result, in the display column 33, the image data 11 of the application photograph, the image data 22 of the registered orthotic device same as the applied model number (always fixed in the manufacturer's catalog image, etc.), and the model number (registered product name). , Similarity (discrimination accuracy) "%" etc. are displayed. The display field 33 is not limited to this, and in addition to the above, the applicant name and the necessary information a'determined amount of the orthotic device may be displayed.

次に解析部40について説明する。
解析部40は、人工知能(AI:Artificial Intelligence )を備え、機械学習を用いて画像データ11を判別する。一般的には、機械学習とは、データから規則性や判断基準を学習し、学習した規則性や判断基準に基づき未知のものを予測、判断する技術と、人工知能に関わる分析技術をいう。機械学習に包含される関係にあるディープラーニングを用いてもよく、ディープラーニングはより基礎的で広範な機械学習の手法であるニューラルネットワークの分析手法を拡張したものであり、高精度の分析や活用を可能する手法である。本発明の一実施例では、いわゆる教師あり学習といわれる正解にあたる教師データが与えられる機械学習を用いている。なお、教師あり学習の分析手法として、回帰分析や決定木などある。
Next, the analysis unit 40 will be described.
The analysis unit 40 has artificial intelligence (AI) and discriminates the image data 11 by using machine learning. In general, machine learning refers to a technique of learning regularity and judgment criteria from data and predicting and judging unknown things based on the learned regularity and judgment criteria, and an analysis technique related to artificial intelligence. Deep learning, which is included in machine learning, may be used. Deep learning is an extension of the neural network analysis method, which is a more basic and wide-ranging machine learning method, and is highly accurate analysis and utilization. It is a method that enables. In one embodiment of the present invention, machine learning is used in which teacher data corresponding to the correct answer, so-called supervised learning, is given. Regression analysis and decision trees are examples of analysis methods for supervised learning.

また、ニューラルネットワークは、画像認識の分野にも応用されており、中間層(隠れ層)を2層以上に多層化したニューラルネットワークがディープラーニングと言われている。ディープラーニングは、与えられたデータのどこに着目すればよいか、具体的な特徴量を人間が指示せずとも自らそのデータの特徴づける特徴量を抽出し、データに含まれるルールや規則性を学習する手法である。 A neural network is also applied in the field of image recognition, and a neural network in which an intermediate layer (hidden layer) is layered into two or more layers is called deep learning. Deep learning learns the rules and regularities contained in the data by extracting the features that characterize the data by itself without humans instructing the specific features to focus on in the given data. It is a method to do.

解析部40は、教師データ作成部20から送信された教師データ23の画像データ22より所定の型番の装具50の輪郭とバンド53、54、55(図4参照)の形状及び本数を表現する特徴量を抽出し、この特徴量から型番を推定する推定モデルを機械学習により生成し、型番の推定モデルをライブラリ41に保存する。 The analysis unit 40 is a feature that expresses the contour of the equipment 50 of a predetermined model number and the shapes and numbers of the bands 53, 54, 55 (see FIG. 4) from the image data 22 of the teacher data 23 transmitted from the teacher data creation unit 20. The quantity is extracted, an estimation model for estimating the model number from this feature quantity is generated by machine learning, and the estimation model for the model number is stored in the library 41.

また、解析部40は、対象データ入力・結果表示部30から送信された画像データ11より判別対象装具50の輪郭とバンド53、54、55の形状及び本数を表現する特徴量を抽出し、あらかじめライブラリ41登録された装具との類似度を算出、出力し、判別結果のデータとして対象データ入力・結果表示部30に送信するものである。なお、あらかじめライブラリ41に保存された推定モデルのうち特徴量が判別対象装具50の特徴量と最も近い推定モデルの画像データ22を型番と共に出力し、判別結果のデータとしてもよい。 Further, the analysis unit 40 extracts in advance the contour of the discrimination target device 50 and the feature amount expressing the shape and number of the bands 53, 54, 55 from the image data 11 transmitted from the target data input / result display unit 30. The degree of similarity with the equipment registered in the library 41 is calculated and output, and is transmitted to the target data input / result display unit 30 as the data of the discrimination result. The image data 22 of the estimated model whose feature amount is closest to the feature amount of the discrimination target device 50 among the estimated models stored in the library 41 in advance may be output together with the model number and used as the data of the discrimination result.

また、解析部40は、教師データ23の画像データ11より所定の型番の装具50の支柱51(図4参照)の形状とこの支柱51に対するバンド53、54、55の位置及び角度を表現する特徴量を抽出する。また、解析部40は、判別対象装具50の支柱51の形状とこの支柱51に対するバンド53、54、55の位置及び角度を表現する特徴量を抽出するものである。 Further, the analysis unit 40 is a feature that expresses the shape of the support column 51 (see FIG. 4) of the orthotic device 50 of a predetermined model number and the positions and angles of the bands 53, 54, 55 with respect to the support column 51 from the image data 11 of the teacher data 23. Extract the amount. Further, the analysis unit 40 extracts a feature amount expressing the shape of the support column 51 of the discrimination target orthotic device 50 and the positions and angles of the bands 53, 54, 55 with respect to the support column 51.

また、解析部40は、あらかじめ登録された装具(製品)の画像データ11の特徴量に対する判別対象装具50の特徴量の一致の度合いを演算して出力する。さらに、解析部40は、色調によらない特徴量を抽出するものとしてもよい。なお、解析部40は、最も近い推定モデルの特徴量に対する判別対象装具50の特徴量の一致の度合いを演算して出力するものとしてもよい。 Further, the analysis unit 40 calculates and outputs the degree of matching of the feature amounts of the discrimination target device 50 with the feature amounts of the image data 11 of the device (product) registered in advance. Further, the analysis unit 40 may extract a feature amount that does not depend on the color tone. The analysis unit 40 may calculate and output the degree of coincidence of the feature amounts of the discriminant target device 50 with respect to the feature amounts of the closest estimated model.

次に教師データを用いて推定モデルを生成して保存するまでのフローについて説明する。 Next, the flow from generating the estimation model using the teacher data to saving it will be described.

図2に示されるように、装具判別システム10は、教師データ作成部20において、STEP1(図ではSTEPをSと表記する)で登録者が装具50の型番毎の多方向の写真を複数撮影する。STEP2で装具50の型番と画像データ22を教師データ23として解析部40(AI端末)に送信する。 As shown in FIG. 2, in the orthotic device discrimination system 10, the registrant takes a plurality of multi-directional photographs for each model number of the orthotic device 50 in STEP 1 (STEP is referred to as S in the figure) in the teacher data creation unit 20. .. In STEP 2, the model number of the device 50 and the image data 22 are transmitted to the analysis unit 40 (AI terminal) as teacher data 23.

解析部40において、STEP3ではAI端末(人工知能)で教師データ23である画像データ22から装具50の輪郭と支柱51の形状を表現する特徴量を抽出する。STEP4でバンド53、54、55の形状、本数、位置、角度を表現する特徴量を抽出する。STEP5で教師データ23の特徴量から型番を推定する推定モデルを機械学習により生成する。STEP6で登録装具名(登録された装具、型番)の教師データ23と紐づけて生成した推定モデルをライブラリ41に保存する。 In STEP3, in the analysis unit 40, the feature amount expressing the contour of the orthotic device 50 and the shape of the support column 51 is extracted from the image data 22 which is the teacher data 23 by the AI terminal (artificial intelligence). In STEP4, the feature quantities expressing the shapes, numbers, positions, and angles of the bands 53, 54, and 55 are extracted. In STEP 5, an estimation model that estimates the model number from the features of the teacher data 23 is generated by machine learning. The estimated model generated in association with the teacher data 23 of the registered orthotic device name (registered orthotic device, model number) in STEP 6 is stored in the library 41.

図3に示されるように、申請書作成部12において、STEP7で申請者が判別対象装具50の写真付申請書13を紙又はデータで提出する(送る)。対象データ入力・結果表示部30において、STEP8で申請書13が紙による提出か否か判別する。STEP8で判別がNOの場合(申請書が電子データで送られてきた場合)、STEP9で申請書に記載された登録装具の名称から、審査用端末32ではその名称をもとに登録装具の教師データ23を自動的に選択(準備)する。 As shown in FIG. 3, in STEP 7, the applicant submits (sends) the application form 13 with a photograph of the device to be discriminated 50 in paper or data in the application form preparation unit 12. In the target data input / result display unit 30, it is determined in STEP 8 whether or not the application form 13 is submitted by paper. If the discrimination is NO in STEP8 (when the application form is sent as electronic data), the registered equipment teacher will be based on the name of the registered equipment described in the application form in STEP9. Data 23 is automatically selected (prepared).

STEP8で判別がYESの場合(申請書が紙の場合)、STEP10で保険者が申請書13の装具50の写真を撮影して画像データ11にし、または、保険者が申請書13の装具50の写真をスキャンして画像データ11にする。STEP11で保険者は申請書に記入された登録装具の名称を、審査用端末32上で登録装具名(型番)の中から選択し、登録装具の教師データ23を選択(準備)する。STEP12で申請された判別対象装具50の画像データ11と共に選択(準備)した登録装具名の情報を解析部40(AI端末)に送信する。 If the determination is YES in STEP 8 (when the application form is paper), the insurer takes a picture of the equipment 50 of the application form 13 and uses it as image data 11 in STEP 10, or the insurer takes a picture of the equipment 50 of the application form 13. The photograph is scanned into image data 11. In STEP 11, the insurer selects the name of the registered device entered in the application form from the registered device name (model number) on the examination terminal 32, and selects (prepares) the teacher data 23 of the registered device. The information of the registered equipment name selected (prepared) together with the image data 11 of the discrimination target equipment 50 applied in STEP 12 is transmitted to the analysis unit 40 (AI terminal).

解析部40において、STEP13で判別対象装具50の画像データ11と共に選択(準備)した登録装具名の情報を受信する。STEP14ではAI端末(人工知能)で申請者の画像データ11から判別対象装具50の輪郭と支柱51の形状を表現する特徴量を抽出する。STEP15で申請者の画像データ11からバンド53、54、55の形状、本数、位置、角度を表現する特徴量を抽出する。 The analysis unit 40 receives the information of the registered equipment name selected (prepared) together with the image data 11 of the equipment 50 to be discriminated in STEP 13. In STEP 14, the AI terminal (artificial intelligence) extracts the feature amount expressing the contour of the identification target device 50 and the shape of the support column 51 from the image data 11 of the applicant. In STEP 15, feature quantities expressing the shapes, numbers, positions, and angles of bands 53, 54, and 55 are extracted from the applicant's image data 11.

STEP16で選択(準備)した登録装具名に紐づいた登録装具の教師データ23(の画像データ22)と、申請された判別対象装具50の画像データ11との比較を開始する。申請者の判別対象装具50の画像データ11の特徴量から、類似する登録製装具を算出してもよい。 The comparison between the teacher data 23 (image data 22) of the registered device associated with the registered device name selected (prepared) in STEP 16 and the image data 11 of the applied discrimination target device 50 is started. A similar registered orthotic device may be calculated from the feature amount of the image data 11 of the orthotic device 50 to be discriminated by the applicant.

STEP17で登録装具名(登録された装具)の画像データ22と判別対象装具50の画像データ11の類似度(%)を算出する。STEP18で登録装具名(登録された装具)とその画像データ22と類似度を出力し、対象データ入力・結果表示部30(保険者)に返信する。 In STEP 17, the similarity (%) between the image data 22 of the registered device name (registered device) and the image data 11 of the device to be discriminated 50 is calculated. In STEP 18, the registered equipment name (registered equipment), its image data 22, and the similarity are output, and the data is returned to the target data input / result display unit 30 (insurer).

対象データ入力・結果表示部30において、STEP19で保険者の審査用端末32で判別結果を表示する。 In the target data input / result display unit 30, the determination result is displayed on the insurer's examination terminal 32 in STEP 19.

次に装具50の種類についていくつか説明する。
図4の(A)に示す装具50aは前述の通りであり、ここでは説明を省略する。
Next, some types of the orthotic device 50 will be described.
The orthotic device 50a shown in FIG. 4A is as described above, and description thereof will be omitted here.

図4の(B)に示されるように、膝用の装具50bは、脚70の上下方向に沿って配置され本体部分となる左右の支柱51と、この支柱51に設けられ脚70を覆う布状のストラップ52と、膝71の下方で支柱51に設けられ装具50bを脚70に固定する幅が広い固定バンド53と、膝71の上方で支柱51に設けられ脚70の前側をクロスして掛け渡された機能バンド54と、膝71の上方で支柱51に設けられ脚70の前側を左右方向に掛け渡された機能バンド55と、を備えている。 As shown in FIG. 4B, the knee orthotic device 50b is arranged along the vertical direction of the legs 70 and serves as a main body portion of the left and right columns 51, and a cloth provided on the columns 51 to cover the legs 70. A shaped strap 52, a wide fixing band 53 provided on the support column 51 below the knee 71 and fixing the orthotic device 50b to the leg 70, and a wide fixing band 53 provided on the support column 51 above the knee 71 and crossing the front side of the leg 70. It includes a functional band 54 that is hung, and a functional band 55 that is provided on the support column 51 above the knee 71 and is hung on the front side of the leg 70 in the left-right direction.

固定バンド53は、単に装具50bを脚70に固定するためのものであり、支柱51に対して所定の位置(例えば、帯幅の中央が支柱51の下端から上方へ9cmの位置)から脚70の前側の途中まで左右方向(例えば、90度)に延びている。これに対し、機能バンド54は膝71の上部を抑える機能を有するものであり左右の支柱51に掛け渡されている。また、機能バンド54は、支柱51に対して所定の位置(例えば、帯幅の中央が支柱51の上端から下方へ3cmの位置と15cmの位置)及び所定の角度(例えば、45度)で配置されている。機能バンド55は、支柱51に対して所定の位置(例えば、帯幅の中央が支柱51の上端から下方へ9cmの位置)及び所定の角度(例えば、90度)で配置されている。 The fixing band 53 is simply for fixing the orthotic device 50b to the leg 70, and the leg 70 is provided from a predetermined position with respect to the support column 51 (for example, the center of the band width is 9 cm upward from the lower end of the support column 51). It extends in the left-right direction (for example, 90 degrees) to the middle of the front side of. On the other hand, the functional band 54 has a function of holding down the upper part of the knee 71 and is hung on the left and right columns 51. Further, the functional band 54 is arranged at a predetermined position (for example, a position where the center of the band width is 3 cm and a position 15 cm downward from the upper end of the support column 51) and a predetermined angle (for example, 45 degrees) with respect to the support column 51. Has been done. The functional band 55 is arranged at a predetermined position (for example, a position where the center of the band width is 9 cm downward from the upper end of the support column 51) and a predetermined angle (for example, 90 degrees) with respect to the support column 51.

図4の(C)に示されるように、膝用の装具50cは、脚70の上下方向に沿って配置され本体部分となる左右の支柱51と、この支柱51に設けられ脚70を覆う布状のストラップ52と、膝71の上方及び下方で支柱51に設けられ脚70の前側を斜めに掛け渡された機能バンド54と、膝71の下方で支柱51に設けられ脚70の前側を左右方向に掛け渡された機能バンド55と、を備えている。 As shown in FIG. 4C, the knee orthotic device 50c is arranged along the vertical direction of the legs 70 and serves as a main body portion of the left and right columns 51, and a cloth provided on the columns 51 to cover the legs 70. The shaped strap 52, the functional band 54 provided on the support column 51 above and below the knee 71 and diagonally hung on the front side of the leg 70, and the left and right sides of the front side of the leg 70 provided on the support column 51 below the knee 71. It includes a functional band 55 that is hung in the direction.

機能バンド54は膝71の上部及び下部を抑える機能を有するものであり左右の支柱51に斜めに掛け渡されている。また、機能バンド54は、支柱51に対して所定の位置(例えば、帯幅の中央が支柱51の上下方向中間の位置)及び所定の角度(例えば、45度)で配置されている。機能バンド55は、支柱51に対して所定の位置(例えば、帯幅の中央が支柱51の下端から上方へ9cmの位置)及び所定の角度(例えば、90度)で配置されている。 The functional band 54 has a function of holding down the upper part and the lower part of the knee 71, and is obliquely hung on the left and right columns 51. Further, the functional band 54 is arranged at a predetermined position (for example, a position where the center of the band width is intermediate in the vertical direction of the support column 51) and a predetermined angle (for example, 45 degrees) with respect to the support column 51. The functional band 55 is arranged at a predetermined position (for example, a position where the center of the band width is 9 cm upward from the lower end of the support column 51) and a predetermined angle (for example, 90 degrees) with respect to the support column 51.

図5の(A)に示されるように、短下肢用の装具50dは、足72を入れる靴部56と、足首73の外側を覆い内側に斜めに延びるストラップ57と、このストラップ57を留めるための固定バンド57aと、靴部56に設けられた鐙58と、この鐙58に足継手59を介して脚70に沿って延びている支柱61と、これらの支柱61の上端部に設けられ脚70を固定するカフバンド62と、を備えている。 As shown in FIG. 5A, the orthotic device 50d for the ankle foot 72 is used to fasten the shoe portion 56 into which the foot 72 is inserted, the strap 57 that covers the outside of the ankle 73 and extends diagonally inward, and the strap 57. The fixing band 57a of the above, the iron 58 provided on the shoe portion 56, the support 61 extending from the iron 58 along the leg 70 via the foot joint 59, and the leg provided on the upper end of these support 61. It is provided with a cuff band 62 for fixing the 70.

図5の(B)に示されるように、短下肢用の装具50eは、足72に巻かれ足72の先端側から足首73に向かって斜めに覆う覆い部63と、足首73の前側でクロスするように巻き付けられた覆い部63を固定するとともに斜めに延びる固定バンド63aと、を備えている。 As shown in FIG. 5B, the orthotic device 50e for the ankle foot 72 is wrapped around the foot 72 and crosses the covering portion 63 that diagonally covers from the tip side of the foot 72 toward the ankle 73 and the front side of the ankle 73. It is provided with a fixing band 63a that fixes the covering portion 63 that is wound so as to be wound and extends diagonally.

図6に示されるように、長下肢用の装具50fは、脚70全体に装着するものであり、足72から脚70(短下肢)に位置するプラスチック製のシューホンブレース64と、このシューホンブレース64の上端部から脚70に沿って延びている下部支柱65と、この下部支柱65に膝継手66を介して上方に延びている上部支柱67と、この上部支柱67及び下部支柱65に設けられ膝71を抑える膝当て68と、上部支柱67装具50fを脚70に固定するカフバンド69と、を備えている。 As shown in FIG. 6, the equipment 50f for the long leg is attached to the entire leg 70, and the plastic shoe phone brace 64 located from the foot 72 to the leg 70 (short leg) and the shoe phone brace 64. A lower strut 65 extending from the upper end of the race 64 along the leg 70, an upper strut 67 extending upward through the lower strut 65 via a knee joint 66, and the upper strut 67 and the lower strut 65 are provided. It is provided with a knee pad 68 that holds down the knee 71, and a cuff band 69 that fixes the upper strut 67 device 50f to the leg 70.

次にニューラルネットワークに基づく装具形状による分類のフローについて説明する。
図7の(A)に示されるように、STEP20で装具の形状による分類を行う。バンドは固定のみの場合(STEP21)、そのまま分類を採用する(STEP22)。また、バンドは機能や製品名に影響する場合(STEP23)、こちらの採用した名前を出力する(STEP24)。
Next, the flow of classification based on the orthotic device shape based on the neural network will be described.
As shown in (A) of FIG. 7, STEP 20 is used to classify by the shape of the orthotic device. When the band is fixed only (STEP21), the classification is adopted as it is (STEP22). If the band affects the function or product name (STEP23), the adopted name is output (STEP24).

背景として、近年の既製品の装具(サポーター類)でも保険適用が拡大され始めたことで、既製品の膝サポーターが多く出回るようになっており、既製品の膝サポーターはメーカーごとに、工夫を凝らしオリジナリティを出すべく、それぞれに本体の形やデザインをデザインしている。商品ラインナップが増えたことで、保険の申請に装具の写真が添付され、その画像をもとにカタログ写真と実物の同一性を審査する保険者の負担が増えることが懸念される。 As a background, as insurance coverage has begun to expand even for ready-made equipment (supporters) in recent years, many ready-made knee supporters are on the market, and ready-made knee supporters are devised for each manufacturer. The shape and design of the main body are designed for each to give elaborate originality. As the product lineup increases, there is concern that a photo of the orthotic device will be attached to the insurance application, and the burden on the insurer to examine the identity of the catalog photo and the actual product based on the photo will increase.

そこで、本発明ではあらかじめ厚生労働省等に登録された装具の画像を教師データとして、既製品の商品カタログ画像や実物画像を読み込んでいく。それをもとに、保険に申請する人間が装着している画像が登録されたものかを判別していくシステムを作ることにより、保険者がより効率的な審査ができることをサポートする仕組みを提供することを目的とする。 Therefore, in the present invention, the image of the equipment registered in advance by the Ministry of Health, Labor and Welfare or the like is used as the teacher data, and the ready-made product catalog image or the actual image is read. Based on that, we provide a mechanism to support insurers to perform more efficient examinations by creating a system that determines whether the image worn by the person applying for insurance is registered. The purpose is to do.

装具は、本体部分となる支持部と身体に固定するためのバンドによって構成されている。しかし、バンドの中には身体への固定以外の用途、つまり身体の矯正などに用いるものもあり、写真を見ただけでは、そのバンドが装具の機能や種類を左右するのか、それとも(目的の機能が本体部分によって得られているので)単なる固定のために使われているのかわからない。このような理由から、単純に機械学習をおこなうニューラルネットワークに入力しても、実用に足る結果は得られない。 The orthotic device is composed of a support portion which is a main body portion and a band for fixing to the body. However, some bands are used for purposes other than fixing to the body, that is, for correcting the body, and just by looking at the pictures, does the band influence the function and type of the orthotic device, or (the purpose). I don't know if it's used just for fixing (because the function is obtained by the main body part). For this reason, simply inputting into a neural network that performs machine learning does not give practical results.

そこで本発明の実施例に係る装具判別システムでは、従来の装具の形からみた分類をおこなうのではなく、装具本体とバンドの関係に着目して、本体の情報(支持部の形状)とバンドを分けて考え、その組み合わせにより装具の種類を導き出すニューラルネットワークを構築するものとした。前述のように、構築されたニューラルネットワークは、画像から商品を識別できるようになる。 Therefore, in the orthotic device discrimination system according to the embodiment of the present invention, the information (shape of the support portion) and the band of the main body are focused on the relationship between the orthotic device main body and the band, instead of classifying from the shape of the conventional orthotic device. We decided to think separately and build a neural network that derives the type of orthotic device from the combination. As mentioned above, the constructed neural network will be able to identify the product from the image.

さらに、その後は、オーダーメイド製品も実物写真をもとに教師データとして読み込んでいく。既製品に関しては、保険者は厚生労働省等に登録されている商品かどうかを判別し、登録された商品に定められた商品の分を支払えばよい。しかし、それに対し、オーダーメイドの装具では、保険適用となる基準の「形」が定められておらず、保険者は主に保険の還付請求をおこなってくる患者さんが使用している実際の装具の画像と保険請求されてきた金額の見積もりの詳細の整合性を確認することとなる。 Furthermore, after that, custom-made products are also read as teacher data based on actual photographs. For ready-made products, the insurer may determine whether the product is registered with the Ministry of Health, Labor and Welfare, etc., and pay for the product specified for the registered product. However, on the other hand, for custom-made orthotic devices, the "shape" of the standard for insurance coverage is not defined, and the insurer mainly uses the actual orthotic devices used by patients who make insurance refund claims. The details of the image and the estimate of the amount of the insurance claim will be confirmed.

装具の価格は積算方式で決まるため、支持部や部品についてどのように装具を構成しているか確認する必要があるが装具に関して知識のない保険者の審査係が正確な審査をおこなうことは大変難しいと考えられる。また、さらに前述の通り、装具に設置されたバンドの問題が見積もりを難しくしている。これは、装具は、本体部分となる支持部と身体に固定するためのバンドによって構成されており、オーダーメイド装具には価格を構成する部品として、積算できるバンドと積算できないバンドがあることによる。このような理由から、従来のように画像の全体像から単純に機械学習をおこなうニューラルネットワークに入力しても、実用に足る結果は得られない。 Since the price of the orthotic device is determined by the integration method, it is necessary to confirm how the orthotic device is configured for the support and parts, but it is very difficult for an insurer who has no knowledge of the orthotic device to perform an accurate examination. it is conceivable that. Further, as mentioned above, the problem of the band installed on the orthotic device makes it difficult to estimate. This is because the orthotic device is composed of a support portion which is a main body part and a band for fixing to the body, and the custom-made orthotic device has a band that can be integrated and a band that cannot be integrated as parts constituting the price. For this reason, even if input is performed into a neural network that simply performs machine learning from the entire image as in the conventional case, practical results cannot be obtained.

そこで本システムでは、従来の装具の形からみた分類をおこなうのではなく、装具本体とバンドの関係に着目して、本体の情報(支持部の形状)とバンドを分けて考え、またさらに装具価格に加算される付属部品の検出もおこない、画像の内容と提出された装具の明細書との整合性を確認できる人工知能の実現を目指したものとした。 Therefore, in this system, instead of classifying based on the shape of the conventional orthotic device, we focus on the relationship between the orthotic device body and the band, consider the information on the main body (shape of the support part) and the band separately, and further consider the orthotic device price. We also detected the accessory parts added to the above, aiming to realize artificial intelligence that can confirm the consistency between the contents of the image and the submitted specification of the orthotic device.

次に装具の代金を算出するフローについて説明する。
図7の(B)に示されるように、装具画像において、STEP25で価格となるバンドの分類を行い、バンド代を加算する場合(STEP26)と、バンド代なしの場合(ATEP27)とに分類する。加えて、STEP28で他の付属部品の分類を行い、付属品代を加算する場合(STEP29)と、付属品第なしの場合(STEP30)とに分類し、最終的に検出された加算要素となる部と装具の明細書を照合する(STEP31)。
Next, the flow for calculating the price of the orthotic device will be described.
As shown in (B) of FIG. 7, in the orthotic device image, the band to be priced is classified in STEP 25, and the band fee is added (STEP 26) and the band fee is not included (ATEP 27). .. In addition, other accessory parts are classified in STEP 28, and the case where the accessory cost is added (STEP 29) and the case where there is no accessory (STEP 30) are classified, and the final detected addition element is obtained. The description of the part and the equipment are collated (STEP31).

次に以上に述べた装具判別システム10の作用、効果を説明する。
本発明の実施例では、装具判別システム10は、教師データ作成部20と、対象データ入力・結果表示部30と、解析部40と、を備えている。解析部40は、教師データ23の画像データ22より所定の型番の装具50の輪郭とバンドの形状及び本数を表現する特徴量を抽出し、特徴量から型番を推定する推定モデルを機械学習により生成する。また、対象データ入力・結果表示部30から送信された画像データ11より判別対象装具50の輪郭とバンドの形状及び本数を表現する特徴量を抽出し、あらかじめ登録された装具との類似度を算出、出力する。解析部40は、教師データ23の所定の型番の装具及び判別対象装具50の輪郭の特徴量に加え、バンドの形状及び本数を表現する特徴量を抽出して判別するので、バンドが設けられた複数種類の装具50を高精度で判別することができる。さらに、解析部40は、最も近い推定モデルの特徴量に対する判別対象装具50の特徴量の一致の度合いを演算して出力するので、例えば一致の度合いを%表示することで、判別の目安を得ることでより高精度で判別することができる。
Next, the operation and effect of the orthotic device discrimination system 10 described above will be described.
In the embodiment of the present invention, the orthotic device discrimination system 10 includes a teacher data creation unit 20, a target data input / result display unit 30, and an analysis unit 40. The analysis unit 40 extracts a feature amount expressing the contour of the device 50 of a predetermined model number, the shape and the number of bands from the image data 22 of the teacher data 23, and generates an estimation model for estimating the model number from the feature amount by machine learning. do. Further, from the image data 11 transmitted from the target data input / result display unit 30, the feature amount expressing the contour of the discriminant target device 50 and the shape and number of bands is extracted, and the degree of similarity with the pre-registered device is calculated. ,Output. Since the analysis unit 40 extracts and discriminates the feature amount expressing the shape and number of the band in addition to the feature amount of the contour of the device of the predetermined model number of the teacher data 23 and the device to be discriminated 50, the band is provided. It is possible to discriminate a plurality of types of orthotic devices 50 with high accuracy. Further, since the analysis unit 40 calculates and outputs the degree of matching of the feature amounts of the discrimination target device 50 with respect to the feature amount of the closest estimated model, for example, by displaying the degree of matching in%, a guideline for discrimination can be obtained. Therefore, it is possible to discriminate with higher accuracy.

さらに、本発明の実施例では、解析部40は、教師データ23の所定の型番の装具50及び判別対象装具50の支柱の形状とこの支柱に対するバンドの位置及び角度を表現する特徴量を抽出して判別するので、バンドが設けられた複数種類の装具50をより高精度で判別することができる。 Further, in the embodiment of the present invention, the analysis unit 40 extracts the feature amount expressing the shape of the support of the orthotic device 50 of the predetermined model number of the teacher data 23 and the orthotic device 50 to be discriminated, and the position and angle of the band with respect to the support. Therefore, it is possible to discriminate a plurality of types of orthotic devices 50 provided with a band with higher accuracy.

さらに、本発明の実施例では、解析部40は、色調によらない特徴量を抽出して判別するので、模様が付された装具であっても形状のみから特徴量を抽出し、バンドが設けられた複数種類の装具50をより高精度で判別することができる。 Further, in the embodiment of the present invention, the analysis unit 40 extracts and discriminates the feature amount regardless of the color tone. Therefore, even if the orthotic device has a pattern, the feature amount is extracted only from the shape and a band is provided. It is possible to discriminate the plurality of types of orthotic devices 50 with higher accuracy.

さらに、本発明の実施例では、解析部40は、あらかじめ登録された装具50に対する判別対象装具50の特徴量の一致の度合いを演算して類似する登録製装具50を出力するので、登録された装具50の中から最も近い装具50を判別することができる。
Further, in the embodiment of the present invention, the analysis unit 40 calculates the degree of matching of the feature amounts of the discrimination target equipment 50 with respect to the pre-registered equipment 50 and outputs a similar registered orthotic device 50, so that the device is registered. The closest device 50 can be identified from the device 50.

さらに、本発明の実施例では、教師データ作成部20、対象データ入力・結果表示部30、及び解析部40は、インターネットによるネットワーク15を介してそれぞれが接続されているので、離れた場所であっても容易にバンドが設けられた複数種類の装具50を高精度で判別することができる。 Further, in the embodiment of the present invention, the teacher data creation unit 20, the target data input / result display unit 30, and the analysis unit 40 are connected to each other via the network 15 via the Internet, so that they are located at remote locations. However, it is possible to easily discriminate a plurality of types of orthotic devices 50 provided with bands with high accuracy.

さらに、本発明の実施例では、保険者内で審査を行う担当者の多くが装具の知識がない事務職が大半であるところ、装具50の目利きではない者であっても、バンドが設けられた複数種類の装具50をより高精度で判別することができる。 Further, in the embodiment of the present invention, most of the persons in charge of examination within the insurer are clerical workers who do not have knowledge of the orthotic device, and even a person who is not a connoisseur of the orthotic device 50 is provided with a band. It is possible to discriminate a plurality of types of orthotic devices 50 with higher accuracy.

さらに、本発明の実施例では、判別対象装具50の画像データ11は、申請者から紙で送られた申請書に添付された写真を審査用端末32のうちカメラ付き携帯端末等で撮影したもの、又は、申請者から電子データで送られた申請書に添付されたものであるので、申請書が紙であっても電子データであっても対応でき、装具50をより高精度で判別することができる。 Further, in the embodiment of the present invention, the image data 11 of the discrimination target device 50 is a photograph of a photograph attached to an application form sent by the applicant on paper, taken by a camera-equipped mobile terminal or the like among the examination terminals 32. Or, since it is attached to the application form sent by the applicant as electronic data, it can be handled whether the application form is paper or electronic data, and the equipment 50 can be discriminated with higher accuracy. Can be done.

尚、実施例では、脚用の装具について判別するものとしたが、これに限定されず、バンドが設けられていれば、上肢用、下肢用の装具いずれでもよく、さらには義肢であっても差し支えない。さらには、バンドだけではなく、膝当て等の付属部品も判別の要素に含めてもよい。 In the embodiment, the leg orthotic device is determined, but the present invention is not limited to this, and any orthotic device for the upper limbs or lower limbs may be used as long as a band is provided, and even a prosthetic limb may be used. There is no problem. Further, not only the band but also an accessory part such as a knee pad may be included in the discriminating element.

即ち、本発明の作用及び効果を奏する限りにおいて、本発明は、実施例に限定されるものではない。 That is, the present invention is not limited to the examples as long as the actions and effects of the present invention are exhibited.

本発明の技術は、バンドが設けられた装具の画像データから装具の種類を判別する装具判別システムに好適である。 The technique of the present invention is suitable for an orthotic device discrimination system that discriminates a type of orthotic device from image data of an orthotic device provided with a band.

10…装具判別システム、11…画像データ、20…教師データ作成部、21…登録用端末、22…画像データ、23…教師データ、30…対象データ入力・結果表示部、31…サーバ、32…審査用端末(デスクトップPC、カメラ付携帯端末)、40…解析部、41…ライブラリ、50、50a、50b、50c、50d、50e、50f…装具(判別対象装具、登録装具、義肢)、51、61…支柱、53、57a、63a…固定バンド、54、55…機能バンド、62、69…カフバンド、65…下部支柱、67…上部支柱、68…膝当て、70…脚、71…膝、72…足、73…足首。 10 ... Equipment discrimination system, 11 ... Image data, 20 ... Teacher data creation unit, 21 ... Registration terminal, 22 ... Image data, 23 ... Teacher data, 30 ... Target data input / result display unit, 31 ... Server, 32 ... Examination terminal (desktop PC, portable terminal with camera), 40 ... Analysis unit, 41 ... Library, 50, 50a, 50b, 50c, 50d, 50e, 50f ... Equipment (discrimination target equipment, registered equipment, artificial limbs), 51, 61 ... struts, 53, 57a, 63a ... fixed bands, 54, 55 ... functional bands, 62, 69 ... cuff bands, 65 ... lower struts, 67 ... upper struts, 68 ... knee pads, 70 ... legs, 71 ... knees, 72 ... feet, 73 ... ankles.

Claims (7)

バンドが設けられた装具の画像データから前記装具の種類を判別する装具判別システムであって、
教師データ作成部と、対象データ入力・結果表示部と、解析部と、を備え、
前記教師データ作成部は、所定の型番の前記装具を撮影して前記型番と撮影した写真の前記画像データから前記型番毎に教師データを作成し、この教師データを前記解析部に送信するものであり、
前記対象データ入力・結果表示部は、判別対象となる判別対象装具の写真の画像データを入力すると共に前記解析部に送信し、前記解析部で判別された前記判別対象装具の型番の判別結果を表示するものであり、
前記解析部は、前記教師データ作成部から送信された前記教師データの前記画像データより所定の型番の前記装具の輪郭とバンドの形状及び本数を表現する特徴量を抽出し、前記特徴量から型番を推定する推定モデルを機械学習により生成し、前記型番の前記推定モデルをライブラリに保存し、
また、対象データ入力・結果表示部から送信された前記画像データより前記判別対象装具の輪郭とバンドの形状及び本数を表現する特徴量を抽出し、前記ライブラリに保存されたあらかじめ登録された前記装具との類似度を算出、出力し、判別結果のデータとして前記対象データ入力・結果表示部に送信するものであることを特徴とする装具判別システム。
It is an orthotic device discrimination system that discriminates the type of the orthotic device from the image data of the orthotic device provided with the band.
It has a teacher data creation unit, a target data input / result display unit, and an analysis unit.
The teacher data creation unit creates teacher data for each model number from the image data of the model number and the photograph taken by photographing the orthotic device of a predetermined model number, and transmits the teacher data to the analysis unit. can be,
The target data input / result display unit inputs image data of a photograph of the discrimination target device to be discriminated and transmits the image data to the analysis unit, and determines the discrimination result of the model number of the discrimination target device determined by the analysis unit. To display
The analysis unit extracts a feature amount expressing the contour of the device of a predetermined model number, the shape and the number of bands from the image data of the teacher data transmitted from the teacher data creation unit, and the model number from the feature amount. An estimation model for estimating the above is generated by machine learning, and the estimation model of the model number is stored in the library.
In addition, the feature amount expressing the contour of the discriminant target device, the shape and the number of bands is extracted from the image data transmitted from the target data input / result display unit, and the pre-registered device stored in the library is stored. A device discrimination system characterized in that the degree of similarity with and is calculated and output, and the data of the discrimination result is transmitted to the target data input / result display unit.
請求項1記載の装具判別システムであって、
前記解析部は、前記教師データの前記画像データより所定の型番の前記装具の支柱の形状とこの支柱に対する前記バンドの位置及び角度を表現する特徴量を抽出し、
また、前記判別対象装具の支柱の形状とこの支柱に対する前記バンドの位置及び角度を表現する特徴量を抽出するものであることを特徴とする装具判別システム。
The orthotic device discrimination system according to claim 1.
The analysis unit extracts from the image data of the teacher data a feature amount expressing the shape of the support column of the orthotic device of a predetermined model number and the position and angle of the band with respect to the support column.
Further, the orthotic device discrimination system is characterized in that the shape of the support column of the device to be discriminated and the feature amount expressing the position and angle of the band with respect to the support column are extracted.
請求項1又は請求項2記載の装具判別システムであって、
前記解析部は、色調によらない前記特徴量を抽出するものであることを特徴とする装具判別システム。
The orthotic device discrimination system according to claim 1 or 2.
The analysis unit is an orthotic device discrimination system characterized in that it extracts the feature amount regardless of the color tone.
請求項1から請求項3のいずれか1項記載の装具判別システムであって、
前記解析部は、あらかじめ登録された装具に対する前記判別対象装具の前記特徴量の一致の度合いを演算して類似する前記登録された装具を出力することを特徴とする装具判別システム。
The orthotic device discrimination system according to any one of claims 1 to 3.
The analysis unit is an orthotic device discrimination system characterized in that the analysis unit calculates the degree of matching of the feature amounts of the orthotic device to be discriminated with respect to the orthotic device registered in advance and outputs a similar registered orthotic device.
請求項1から請求項4のいずれか1項記載の装具判別システムであって、
前記教師データ作成部、前記対象データ入力・結果表示部、及び前記解析部は、インターネットによるネットワークを介してそれぞれが接続されていることを特徴とする装具判別システム。
The orthotic device discrimination system according to any one of claims 1 to 4.
The equipment discrimination system characterized in that the teacher data creation unit, the target data input / result display unit, and the analysis unit are connected to each other via a network via the Internet.
請求項1から請求項5のいずれか1項記載の装具判別システムあって、
前記対象データ入力・結果表示部は、健康保険の保険者に使用されることを特徴とする装具判別システム。
The orthotic device discrimination system according to any one of claims 1 to 5.
The target data input / result display unit is an orthotic device discrimination system characterized in that it is used by an insurer of health insurance.
請求項6記載の装具判別システムあって、
前記対象データ入力・結果表示部は、カメラ付き携帯端末を備え、
判別対象となる前記判別対象装具の前記画像データは、申請者から紙で送られた申請書に添付された写真を前記カメラ付き携帯端末で撮影したもの、又は、申請者から電子データで送られた申請書に添付されたものであることを特徴とする装具判別システム。

The orthotic device discrimination system according to claim 6
The target data input / result display unit is provided with a mobile terminal with a camera.
The image data of the orthotic device to be discriminated is a photograph taken by the camera-equipped mobile terminal attached to the application form sent by the applicant on paper, or sent electronically by the applicant. An orthotic device discrimination system characterized by being attached to an application form.

JP2021049317A 2021-03-23 2021-03-23 Orthotic device discrimination system Active JP6966131B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021049317A JP6966131B1 (en) 2021-03-23 2021-03-23 Orthotic device discrimination system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021049317A JP6966131B1 (en) 2021-03-23 2021-03-23 Orthotic device discrimination system

Publications (2)

Publication Number Publication Date
JP6966131B1 true JP6966131B1 (en) 2021-11-10
JP2022147869A JP2022147869A (en) 2022-10-06

Family

ID=78466283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021049317A Active JP6966131B1 (en) 2021-03-23 2021-03-23 Orthotic device discrimination system

Country Status (1)

Country Link
JP (1) JP6966131B1 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012055429A (en) * 2010-09-07 2012-03-22 Global Academy:Kk Medical knee supporter
JP5797703B2 (en) * 2013-08-08 2015-10-21 東芝テック株式会社 Information processing apparatus, store system, and program
US20160117632A1 (en) * 2014-10-23 2016-04-28 Toshiba Tec Kabushiki Kaisha Information processing apparatus, commodity sales system, and commodity sales method
WO2016076021A1 (en) * 2014-11-11 2016-05-19 富士フイルム株式会社 Product searching device and product searching method
JP6524276B1 (en) * 2018-01-16 2019-06-05 ヤフー株式会社 Terminal program, terminal device, information providing method and information providing system
JP7347930B2 (en) * 2018-12-25 2023-09-20 ナブテスコ株式会社 Analysis system and information recording method
JP7277153B2 (en) * 2019-01-22 2023-05-18 株式会社Lixil Support system and program

Also Published As

Publication number Publication date
JP2022147869A (en) 2022-10-06

Similar Documents

Publication Publication Date Title
US20230382049A1 (en) Customized, wearable 3d printed articles and methods of manufacturing same
KR102290040B1 (en) Imaging a body
US8571698B2 (en) Simple techniques for three-dimensional modeling
KR20030071771A (en) System and method for automated biomechanical analysis and the detection and correction of postural deviations
JP2017533606A (en) Method and apparatus for creating a photography template database and providing photography recommendation information
JP7178423B2 (en) Guidance method and system for teledental imaging
KR20200144991A (en) Exercise assistant device and exercise assistant method
US10996474B2 (en) Virtual reality system and information processing system
JP2021191423A (en) Diagnosis support device, method for image processing in diagnosis support device, and program
JP2018019843A (en) Portable information device, dimension measuring method, and computer program
JP7162613B2 (en) Information processing device, program
JP6788180B2 (en) Size estimation program, information processing device and size estimation method
KR20190109455A (en) Method for generating three-dimensional virtual representation of a person
KR102077186B1 (en) Customized exercise prescription system and its method
JP6808254B1 (en) System and method for immediate interpretation of metacarpal age with personal device
CN113239220A (en) Image recommendation method and device, terminal and readable storage medium
JP6966131B1 (en) Orthotic device discrimination system
JP7309506B2 (en) Image processing system, machine learning device, imaging device and learning method
JP7266397B2 (en) Imaging information management system, control method for imaging information management system, and imaging information management program
US11386615B2 (en) Creating a custom three-dimensional body shape model
CN112102451B (en) Wearable virtual live broadcast method and equipment based on common camera
Wen et al. Artificial intelligence technologies for more flexible recommendation in uniforms
JPWO2020059716A1 (en) Size measurement system
JP7259313B2 (en) Attribute determination device, attribute determination system, attribute determination method, program and recording medium
JP7397282B2 (en) Stationary determination system and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210405

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211014

R150 Certificate of patent or registration of utility model

Ref document number: 6966131

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150