JP6966131B1 - Orthotic device discrimination system - Google Patents
Orthotic device discrimination system Download PDFInfo
- Publication number
- JP6966131B1 JP6966131B1 JP2021049317A JP2021049317A JP6966131B1 JP 6966131 B1 JP6966131 B1 JP 6966131B1 JP 2021049317 A JP2021049317 A JP 2021049317A JP 2021049317 A JP2021049317 A JP 2021049317A JP 6966131 B1 JP6966131 B1 JP 6966131B1
- Authority
- JP
- Japan
- Prior art keywords
- orthotic device
- image data
- orthotic
- analysis unit
- discrimination system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 claims abstract description 66
- 239000000284 extract Substances 0.000 claims abstract description 20
- 238000010801 machine learning Methods 0.000 claims description 14
- 238000010586 diagram Methods 0.000 abstract description 2
- 210000002414 leg Anatomy 0.000 description 29
- 210000003127 knee Anatomy 0.000 description 21
- 238000013473 artificial intelligence Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 238000000034 method Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 9
- 210000002683 foot Anatomy 0.000 description 8
- 210000003423 ankle Anatomy 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 239000004278 EU approved seasoning Substances 0.000 description 2
- XEEYBQQBJWHFJM-NJFSPNSNSA-N Iron-58 Chemical compound [58Fe] XEEYBQQBJWHFJM-NJFSPNSNSA-N 0.000 description 2
- 238000010411 cooking Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000003414 extremity Anatomy 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 235000011194 food seasoning agent Nutrition 0.000 description 2
- 239000004615 ingredient Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 210000003108 foot joint Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 210000000629 knee joint Anatomy 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 210000001364 upper extremity Anatomy 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】バンドが設けられた複数種類の装具を高精度で判別する装具判別システムを提供すること。【解決手段】装具判別システム10は、バンドが設けられた装具50の画像データ11から装具50の種類を判別するであり、教師データ作成部20と、対象データ入力・結果表示部30と、解析部40と、を備えている。解析部40は、対象データ入力・結果表示部30から送信された画像データ11より判別対象装具50の輪郭とバンドの形状及び本数を表現する特徴量を抽出し、ライブラリ41に保存されたあらかじめ登録された装具との類似度を算出、出力する。【選択図】図1PROBLEM TO BE SOLVED: To provide an orthotic device discrimination system for discriminating a plurality of types of orthotic devices provided with a band with high accuracy. SOLUTION: The orthotic device discrimination system 10 discriminates the type of the orthotic device 50 from the image data 11 of the orthotic device 50 provided with a band, and analyzes the teacher data creation unit 20, the target data input / result display unit 30, and the analysis. It is provided with a unit 40. The analysis unit 40 extracts the feature amount expressing the contour, the shape and the number of the band of the discrimination target device 50 from the image data 11 transmitted from the target data input / result display unit 30, and registers them in advance stored in the library 41. Calculates and outputs the degree of similarity with the attached equipment. [Selection diagram] Fig. 1
Description
本発明は、バンドが設けられた装具の写真の画像データから装具の種類を判別する装具判別システムに関するものである。 The present invention relates to an orthotic device discrimination system that discriminates a type of orthotic device from image data of a photograph of an orthotic device provided with a band.
従来、歩行に障害のある患者は、足に装具を装着し、歩行の補助やリハビリを行う。治療用の装具は比較的高価なものであり、装具を購入したいわゆる健康保険の被保険者が療養費の支給申請をすれば、保険者の判断により保険が適用され、後日療養費として還付が受けられる。保険者への療養費の支給申請にあたり、療養費申請されたものの見積りが被保険者(患者など)に渡したものと一致しているか保険者が審査を行うために、申請書に装具の写真の添付が義務付けられるようになってきている。 Conventionally, patients with walking disabilities wear orthotics on their feet to assist walking and rehabilitate. Treatment equipment is relatively expensive, and if the so-called health insurance insured person who purchased the equipment applies for medical treatment expenses, the insurance will be applied at the discretion of the insurer and will be refunded as medical treatment expenses at a later date. You can receive it. When applying for medical expenses to the insurer, make sure that the estimate of the medical expenses applied for is the same as the one given to the insured (patient, etc.). Is becoming obligatory to attach.
保険者は、療養費支給申請の申請書に添付された装具の写真と、申請書とともに提出される領収書(装具等の名称、種類、およびその内訳別の費用額が記載されているもので明細書部分を含む)に記載の装具の型番が正しいか否か確かめる必要がある。しかし、装具には複数の種類があり、装具全体の輪郭、装具のバンドの数、位置などが異なり判別が難しい。そのうえ、保険者内で審査を行う担当者の多くが装具の知識がない事務職が大半であることから、厚生労働省等に登録された装具のカタログの写真と申請書の写真とを見比べて同一の装具か否か判別することは大変な労力を要し、人件費などのコスト負担が増加する。 The insurer should have a photo of the orthotic device attached to the application for medical treatment expenses and a receipt (name and type of orthotic device, etc., and the cost amount by breakdown) submitted with the application. It is necessary to confirm whether the model number of the orthotic device described in (including the specification part) is correct. However, there are a plurality of types of orthotic devices, and it is difficult to distinguish them because the contour of the entire orthotic device, the number of bands of the orthotic device, the position, and the like are different. In addition, most of the insurers who conduct examinations are clerical workers who do not have knowledge of orthotic devices, so the photos of the orthotic device catalogs registered with the Ministry of Health, Labor and Welfare are the same as the photos of the application form. Determining whether or not it is an orthotic device requires a great deal of labor, and the cost burden such as labor costs increases.
そこで、判別対象となるものが正しいものか、いかなるものかなどを判断するために、近年では人工知能(AI)を用いた画像による判別システムが様々な分野で使用されている。このような人工知能を用いた画像による判別システムの一例として特許文献1に示す技術が知られている。 Therefore, in recent years, an image discrimination system using artificial intelligence (AI) has been used in various fields in order to determine whether the object to be discriminated is correct or what it is. The technique shown in Patent Document 1 is known as an example of such an image discrimination system using artificial intelligence.
特許文献1の判別システムでは、調味料や調理用の具材などの食品が封入された対象ワークを判別して移載する対象ワークの判別システムであり、撮像部と、制御部と、アームロボットを備え、撮像部は、無造作に積まれた複数の対象ワークを撮像し、制御部は、撮像部で撮像された情報から捕捉対象ワークを検出する捕捉対象ワーク検出機能と、捕捉対象ワークを移載させるようにアームロボットを制御するアームロボット制御機能を有する。無造作に積まれた複数の対象ワークから、人工知能(AI)によって得られた情報を基に対象ワークを判別し、移載用のアームロボットからの距離を勘案して捕捉対象ワークとして検出し、捕捉対象ワークの向き、傾きに応じてアームロボットを制御して捕捉・移載するものである。 The discrimination system of Patent Document 1 is a discrimination system for a target work in which foods such as seasonings and cooking ingredients are enclosed and transferred, and is an imaging unit, a control unit, and an arm robot. The imaging unit captures a plurality of target works randomly stacked, and the control unit transfers the capture target work detection function that detects the capture target work from the information captured by the imaging unit and the capture target work. It has an arm robot control function that controls the arm robot so that it can be mounted. From a plurality of target works randomly piled up, the target work is discriminated based on the information obtained by artificial intelligence (AI), and the target work is detected as the target work to be captured in consideration of the distance from the arm robot for transfer. The arm robot is controlled and captured / transferred according to the orientation and inclination of the work to be captured.
しかし、特許文献1の判別システムは、調味料や調理用の具材などの食品が封入されたものが対象ワークであるところ、装具を構成する輪郭、支柱、バンド、このバンドの数、位置など装具特有の構成に対して、特許文献1の判別システムを適用することが難しい。特に、装具は、本体部分や支柱などの支持部と、身体への固定などのためのバンドとから構成されている。バンドの中には身体への固定以外に、身体の矯正などに用いられるものもあり、写真などの画像を見ただけでは、そのバンドが装具の機能や種類を左右するものなのか、それとも単なる固定に使われているものなのか、判別が難しい。 However, in the discrimination system of Patent Document 1, the target work is one in which foods such as seasonings and cooking ingredients are enclosed, and the contours, columns, bands, the number and positions of the bands, etc. It is difficult to apply the discrimination system of Patent Document 1 to the configuration peculiar to the orthotic device. In particular, the orthotic device is composed of a support portion such as a main body portion and a support column, and a band for fixing to the body. Some bands are used not only for fixing to the body but also for correcting the body, and just by looking at images such as photographs, does the band influence the function and type of the orthotic device, or is it just? It is difficult to determine whether it is used for fixing.
このような理由から、単純に機械学習を行うニューラルネットワークの分析手法に装具の画像データを入力しても、実用に足る高精度の判別結果を得ることができない。 For this reason, even if the image data of the orthotic device is input to the analysis method of the neural network that simply performs machine learning, it is not possible to obtain a highly accurate discrimination result that is practical.
本発明は、以上の点に鑑み、バンドが設けられた複数種類の装具を高精度で判別する装具判別システムを提供することを課題とする。 In view of the above points, it is an object of the present invention to provide an orthotic device discrimination system that discriminates a plurality of types of orthotic devices provided with bands with high accuracy.
[1]バンドが設けられた装具の画像データから前記装具の種類を判別する装具判別システムであって、
教師データ作成部と、対象データ入力・結果表示部と、解析部と、を備え、
前記教師データ作成部は、所定の型番および仕様(以下型番とする)の前記装具を撮影して前記型番と撮影した写真の前記画像データから前記型番毎に教師データを作成し、この教師データを前記解析部に送信するものであり、
前記対象データ入力・結果表示部は、判別対象となる判別対象装具の写真の画像データを入力すると共に前記解析部に送信し、前記解析部で判別された前記判別対象装具の型番の判別結果を表示するものであり、
前記解析部は、前記教師データ作成部から送信された前記教師データの前記画像データより所定の型番の前記装具の輪郭とバンドの形状及び本数を表現する特徴量を抽出し、前記特徴量から型番を推定する推定モデルを機械学習により生成し、前記型番の前記推定モデルをライブラリに保存し、
また、対象データ入力・結果表示部から送信された前記画像データより前記判別対象装具の輪郭とバンドの形状及び本数を表現する特徴量を抽出し、前記ライブラリに保存されたあらかじめ登録された前記装具との類似度を算出、出力し、判別結果のデータとして前記対象データ入力・結果表示部に送信するものであることを特徴とする。
[1] An orthotic device discrimination system that discriminates the type of the orthotic device from the image data of the orthotic device provided with the band.
It has a teacher data creation unit, a target data input / result display unit, and an analysis unit.
The teacher data creation unit photographs the equipment having a predetermined model number and specifications (hereinafter referred to as a model number), creates teacher data for each model number from the image data of the model number and the photograph taken, and creates the teacher data for each model number. It is transmitted to the analysis unit.
The target data input / result display unit inputs image data of a photograph of the discrimination target device to be discriminated and transmits the image data to the analysis unit, and determines the discrimination result of the model number of the discrimination target device determined by the analysis unit. To display
The analysis unit extracts a feature amount expressing the contour of the device of a predetermined model number, the shape and the number of bands from the image data of the teacher data transmitted from the teacher data creation unit, and the model number from the feature amount. An estimation model for estimating the above is generated by machine learning, and the estimation model of the model number is stored in the library.
In addition, the feature amount expressing the contour of the discriminant target device, the shape and the number of bands is extracted from the image data transmitted from the target data input / result display unit, and the pre-registered device stored in the library is used. It is characterized in that the degree of similarity with is calculated and output, and is transmitted to the target data input / result display unit as the data of the discrimination result.
かかる構成によれば、装具判別システムは、教師データ作成部と、対象データ入力・結果表示部と、解析部と、を備えている。解析部は、教師データの画像データより所定の型番の装具の輪郭とバンドの形状及び本数を表現する特徴量を抽出し、特徴量から型番を推定する推定モデルを機械学習により生成する。また、対象データ入力・結果表示部から送信された画像データより判別対象装具の輪郭とバンドの形状及び本数を表現する特徴量を抽出し、ライブラリにあらかじめ登録された装具との類似度を算出、出力する。解析部は、教師データの所定の型番の装具及び判別対象装具の輪郭の特徴量に加え、バンドの形状及び本数を表現する特徴量を抽出して判別するので、バンドが設けられた複数種類の装具を高精度で判別することができる。 According to this configuration, the orthotic device discrimination system includes a teacher data creation unit, a target data input / result display unit, and an analysis unit. The analysis unit extracts a feature amount expressing the contour of the orthotic device of a predetermined model number, the shape and the number of bands from the image data of the teacher data, and generates an estimation model for estimating the model number from the feature amount by machine learning. In addition, from the image data transmitted from the target data input / result display unit, the feature amount expressing the contour of the discriminant target device and the shape and number of bands is extracted, and the similarity with the device registered in advance in the library is calculated. Output. Since the analysis unit extracts and discriminates the feature amount expressing the shape and number of the band in addition to the feature amount of the contour of the device of the predetermined model number and the device to be discriminated in the teacher data, a plurality of types of bands are provided. The orthotic device can be identified with high accuracy.
[2]好ましくは、前記解析部は、前記教師データの前記画像データより所定の型番の前記装具の支柱の形状とこの支柱に対する前記バンドの位置及び角度を表現する特徴量を抽出し、
また、前記判別対象装具の支柱の形状とこの支柱に対する前記バンドの位置及び角度を表現する特徴量を抽出するものである。
[2] Preferably, the analysis unit extracts a feature amount expressing the shape of the support column of the orthotic device of a predetermined model number and the position and angle of the band with respect to the support column from the image data of the teacher data.
In addition, the shape of the support column of the device to be discriminated and the feature amount expressing the position and angle of the band with respect to the support column are extracted.
かかる構成によれば、解析部は、教師データの所定の型番の装具及び判別対象装具の支柱の形状とこの支柱に対するバンドの位置及び角度を表現する特徴量を抽出して判別するので、バンドが設けられた複数種類の装具をより高精度で判別することができる。 According to such a configuration, the analysis unit extracts and discriminates the shape of the support column of the orthotic device of the predetermined model number and the device to be discriminated from the teacher data and the feature amount expressing the position and angle of the band with respect to the support column, so that the band can be determined. It is possible to discriminate a plurality of types of provided equipment with higher accuracy.
[3]好ましくは、前記解析部は、色調によらない前記特徴量を抽出するものである。 [3] Preferably, the analysis unit extracts the feature amount regardless of the color tone.
かかる構成によれば、解析部は、色調によらない特徴量を抽出して判別するので、模様が付された装具であっても形状のみから特徴量を抽出し、バンドが設けられた複数種類の装具をより高精度で判別することができる。 According to this configuration, the analysis unit extracts and discriminates the feature amount regardless of the color tone. Therefore, even if the orthotic device has a pattern, the feature amount is extracted only from the shape, and a plurality of types provided with bands. It is possible to discriminate the orthotic device with higher accuracy.
[4]好ましくは、前記解析部は、あらかじめ登録された装具に対する前記判別対象装具の前記特徴量の一致の度合いを演算して類似する前記登録された装具を出力する。 [4] Preferably, the analysis unit calculates the degree of matching of the feature amounts of the discrimination target device with respect to the pre-registered device and outputs a similar registered device.
かかる構成によれば、解析部は、あらかじめ登録された装具に対する判別対象装具の特徴量の一致の度合いを演算して類似する前記登録された装具を出力するので、登録された装具の中から最も近い装具を判別することができる。 According to such a configuration, the analysis unit calculates the degree of matching of the feature amounts of the discrimination target equipment with respect to the pre-registered equipment and outputs the similar registered equipment. It is possible to identify close equipment.
[5]好ましくは、前記教師データ作成部、前記対象データ入力・結果表示部、及び前記解析部は、インターネットによるネットワークを介してそれぞれが接続されている。 [5] Preferably, the teacher data creation unit, the target data input / result display unit, and the analysis unit are connected to each other via a network via the Internet.
かかる構成によれば、教師データ作成部、対象データ入力・結果表示部、及び解析部は、インターネットによるネットワークを介してそれぞれが接続されているので、離れた場所であっても容易にバンドが設けられた複数種類の装具を高精度で判別することができる。 According to this configuration, the teacher data creation unit, the target data input / result display unit, and the analysis unit are connected to each other via a network via the Internet, so that a band can be easily provided even at a remote location. It is possible to discriminate a plurality of types of equipment with high accuracy.
[6]好ましくは、前記対象データ入力・結果表示部は、健康保険の保険者に使用される。 [6] Preferably, the target data input / result display unit is used by an insurer of health insurance.
かかる構成によれば、保険者内で審査を行う担当者の多くが装具の知識がない事務職が大半であるところ、装具の目利きではない者であっても、バンドが設けられた複数種類の装具をより高精度で判別することができる。 According to this configuration, most of the persons in charge of examination within the insurer are clerical workers who do not have knowledge of orthotic devices, but even those who are not connoisseurs of orthotic devices have multiple types of orthotic devices with bands. Can be discriminated with higher accuracy.
[7]好ましくは、前記対象データ入力・結果表示部は、カメラ付き携帯端末を備え、
判別対象となる前記判別対象装具の前記画像データは、申請者から紙で送られた申請書に添付された写真を前記カメラ付き携帯端末で撮影したもの、又は、申請者から電子データで送られた申請書に添付されたものである。
[7] Preferably, the target data input / result display unit includes a mobile terminal with a camera.
The image data of the device to be discriminated is the photograph attached to the application form sent by the applicant on paper with the camera-equipped mobile terminal, or sent electronically by the applicant. It is attached to the application form.
かかる構成によれば、判別対象装具の画像データは、申請者から紙で送られた申請書に添付された写真をカメラ付き携帯端末で撮影したもの、又は、申請者から電子データで送られた申請書に添付されたものであるので、申請書が紙であっても電子データであっても対応でき、装具をより高精度で判別することができる。 According to such a configuration, the image data of the equipment to be discriminated is a photograph taken by a mobile terminal with a camera attached to the application form sent by the applicant on paper, or sent by the applicant as electronic data. Since it is attached to the application form, it can be handled whether the application form is paper or electronic data, and the equipment can be identified with higher accuracy.
バンドが設けられた複数種類の装具を高精度で判別することができる。 It is possible to discriminate a plurality of types of orthotic devices provided with bands with high accuracy.
本発明の実施の形態を添付図に基づいて以下に説明する。なお、装具判別システムの説明図は任意の装具の判別の一例を概念的(模式的)に示すものとする。 Embodiments of the present invention will be described below with reference to the accompanying drawings. It should be noted that the explanatory diagram of the orthotic device discrimination system conceptually (schematically) shows an example of discrimination of an arbitrary orthotic device.
図1、図4、図5に示されるように、装具判別システム10は、装具50(50a、50b、50c、50d、50e、50f)の種類を写真などの画像データ11から判別するシステムである。なお、装具50の種類は実施例に示した装具50a、50b、50c、50d、50e、50fに限定されず、さらに多くの種類がある。
As shown in FIGS. 1, 4, and 5, the orthotic
装具50には複数の種類があり、一例として図4の(A)に示されるように、膝用の装具50aは、脚70の上下方向に沿って配置され本体部分となる左右の支柱51と、この支柱51に設けられ脚70を覆う布状のストラップ52と、膝71の上方で支柱51に設けられ装具50aを脚70に固定する幅が広い固定バンド53と、膝71の下方で支柱51に設けられ脚70の前側をクロスして掛け渡された機能バンド54と、膝71の下方で支柱51に設けられ脚70の前側を左右方向に掛け渡された機能バンド55と、を備えている。
There are a plurality of types of the
固定バンド53は、単に装具50aを脚70に固定するためのものであり、支柱51に対して所定の位置(例えば、帯幅の中央が支柱51の上端から下方へ9cmの位置)から脚70の前側の途中まで左右方向(例えば、90度)に延びている。これに対し、機能バンド54は膝71の下部を抑える機能を有するものであり左右の支柱51に掛け渡されている。また、機能バンド54は、支柱51に対して所定の位置(例えば、帯幅の中央が支柱51の下端から上方へ3cmの位置と15cmの位置)及び所定の角度(例えば、60度)で配置されている。機能バンド55は、支柱51に対して所定の位置(例えば、帯幅の中央が支柱51の下端から上方へ9cmの位置)及び所定の角度(例えば、90度)で配置されている。
The fixing
図1に示されるように、装具判別システム10は、バンド54(図4参照)等が設けられた装具50の画像データ11から装具50の種類を判別するものであり、申請書作成部12と、教師データ作成部20と、対象データ入力・結果表示部30と、解析部40と、を備えている。
As shown in FIG. 1, the orthotic
申請書作成部12、教師データ作成部20、対象データ入力・結果表示部30、及び解析部40は、インターネットによるネットワーク15を介してそれぞれが接続されている。
The application
申請書作成部12について説明する。
申請書作成部12は、例えば、装具50を購入したいわゆる健康保険の被保険者(申請者)が療養費の支給申請をするための申請書13を作成するものであり、申請用端末14を備えている。現時点では、保険者によっては正式な電子申請に対応しているわけではなく、電子的に画像データを提出する場合には電子メールなどが主な方法である。将来的にはWEB上のストレージにアップロードし、所定の者の所有するプラットフォーム上で、申請者と保険者と画像データを共有する方法も考えられる。ここではそういった画像の電子的な提出方法を包括して申請書作成部と表現する。申請者は、申請用端末14により装具50の写真の画像データ11を添付した申請書13を作成する。この申請書13は、紙に出力して保険者のいる対象データ入力・結果表示部30に送るか(ルート1)、または電子データとしてネットワーク15を介して保険者のいる対象データ入力・結果表示部30に送る(ルート2)。なお、申請書13を紙で送る場合(ルート1)、申請用端末14を用意せずに、元から紙で用意された申請書に装具50の写真を添付する形でもよい。
The application
The application
次に教師データ作成部20について説明する。
教師データ作成部20は、ネットワーク15に接続可能な登録用端末21を備えている。正式な元データとして、例えば厚生労働省等で認められている所定の型番の装具50を登録用端末21で撮影して、型番(登録済製品名、登録装具名)と撮影した写真の画像データ22から型番毎に教師データ23を複数(大量に)作成する。さらに、教師データ作成部20は、作成した教師データ23を、ネットワーク15を介して解析部40に送信する。装具20の撮影は、多方向から複数の写真を、条件を変える等して撮影し、複数の画像データ21を用意して教師データ23とすることが好ましい。
Next, the teacher
The teacher
また、教師データ作成部20では、図4、図5に示すような複数種類の所定の型番(登録済製品名)の装具50a、50b、50c、50d、50e、50fなどを基にして、複数種類の教師データ23を作成する。なお、教師データ23の作成は、申請書に使われた画像データ11を新たに教師データ23に加え、未来に向かってさらに教師データ23の精度を高めてもよい。これにより、仮に当初は後述する推定モデルの精度が不十分であることで類似度の精度が低い場合であっても、申請書に使われた画像データ11を新たに教師データ23に加えることで再学習させて推定モデルの精度を高め、類似度の精度を高めることができる。
Further, in the teacher
次に対象データ入力・結果表示部30について説明する。
対象データ入力・結果表示部30は、例えば、健康保険の保険者に使用されるものである。また、対象データ入力・結果表示部30は、判別対象となる判別対象装具50の写真の画像データ11を入力すると共に解析部40に送信し、解析部40で判別された判別対象装具50の型番(登録製品名)の判別結果を表示するものである。
Next, the target data input /
The target data input /
対象データ入力・結果表示部30は、申請書作成部12から送信された申請書の13の電子データを、ネットワーク15を介して受信するとともに保存するサーバ31と、このサーバ31に有線又は無線で接続可能な審査用端末32(デスクトップPCやカメラ付携帯端末)と、を備えている。なお、審査用端末32は、サーバ31を介さずにネットワーク15に接続可能である。
The target data input /
判別対象となる判別対象装具50の画像データ11は、申請者から紙で送られた申請書13に添付された写真を審査用端末32で撮影したものである。審査用端末32は、紙で送られてきた画像のデジタル化の役割、そして画像データ11の送信と判別結果の表示の役割をおこなう。画像のデジタル化では、審査用端末は、紙で送られてきた画像を、携帯端末のカメラ機能やデジタルカメラ、もしくはスキャナー等の機器を活用しデジタル化をおこなう。判別対象となる判別対象装具50の画像データ11は、申請者から電子データで送られた申請書13に添付されたものである。この場合は審査用端末32でデジタル化を行う必要はない。また、審査用端末32の画像データ11の送信と判別結果の表示は、スマートフォン等の携帯情報端末やデスクトップPC等でもおこなうことができる。
The
判別対象装具50の画像データ11が電子データで送られた申請書13に添付されている場合は、審査用端末のうち、カメラ付き携帯やデスクトップPCを利用してもよい。カメラ付き携帯端末を使用してもよいが、代わりにデスクトップ型PCなどのカメラのない端末を使用してもよい。
When the
このように、保険者は、紙で申請書が送られてきた場合は、スマートフォンなどのカメラ付き携帯端末を審査用端末32として使用して申請書の判別対象装具50の写真を撮影して画像データ11を解析部40に送り、解析部40から返信された判別結果や類似度などを見ることができる。また、保険者は、電子データで申請書が送られてきた場合は、ネットワーク15を介してWeb上のサーバ31にアップロードされた申請書の判別対象装具50の画像データ11を、デスクトップ型PCを審査用端末32として使用し、いわゆるコピー&ペーストして判別画面に貼り付ける方法や選択する方法で、画像データ11を解析部に送り、解析部40から返信された判別結果や類似度などを見ることができる。
In this way, when the application form is sent on paper, the insurer uses a mobile terminal with a camera such as a smartphone as the
判別対象装具50の種類又は型番を判別するには、保険者が、審査用端末32から判別対象装具50の画像データ11を解析部40に送信する。そして、解析部40からの判別結果を審査用端末32に表示する。
In order to discriminate the type or model number of the discriminating
判別結果の表示例として、表示欄33には、申請写真の画像データ11、申請された型番と同じ登録装具の画像データ22(メーカーのカタログ画像等でいつも固定)、型番(登録済製品名)、類似度(判別精度)「%」などが表示される。なお、表示欄33はこれに限定されず、前述の他、申請者名や必要な情報a’判別された装具の金額、なども表示してよい。
As an example of displaying the discrimination result, in the display column 33, the
次に解析部40について説明する。
解析部40は、人工知能(AI:Artificial Intelligence )を備え、機械学習を用いて画像データ11を判別する。一般的には、機械学習とは、データから規則性や判断基準を学習し、学習した規則性や判断基準に基づき未知のものを予測、判断する技術と、人工知能に関わる分析技術をいう。機械学習に包含される関係にあるディープラーニングを用いてもよく、ディープラーニングはより基礎的で広範な機械学習の手法であるニューラルネットワークの分析手法を拡張したものであり、高精度の分析や活用を可能する手法である。本発明の一実施例では、いわゆる教師あり学習といわれる正解にあたる教師データが与えられる機械学習を用いている。なお、教師あり学習の分析手法として、回帰分析や決定木などある。
Next, the
The
また、ニューラルネットワークは、画像認識の分野にも応用されており、中間層(隠れ層)を2層以上に多層化したニューラルネットワークがディープラーニングと言われている。ディープラーニングは、与えられたデータのどこに着目すればよいか、具体的な特徴量を人間が指示せずとも自らそのデータの特徴づける特徴量を抽出し、データに含まれるルールや規則性を学習する手法である。 A neural network is also applied in the field of image recognition, and a neural network in which an intermediate layer (hidden layer) is layered into two or more layers is called deep learning. Deep learning learns the rules and regularities contained in the data by extracting the features that characterize the data by itself without humans instructing the specific features to focus on in the given data. It is a method to do.
解析部40は、教師データ作成部20から送信された教師データ23の画像データ22より所定の型番の装具50の輪郭とバンド53、54、55(図4参照)の形状及び本数を表現する特徴量を抽出し、この特徴量から型番を推定する推定モデルを機械学習により生成し、型番の推定モデルをライブラリ41に保存する。
The
また、解析部40は、対象データ入力・結果表示部30から送信された画像データ11より判別対象装具50の輪郭とバンド53、54、55の形状及び本数を表現する特徴量を抽出し、あらかじめライブラリ41登録された装具との類似度を算出、出力し、判別結果のデータとして対象データ入力・結果表示部30に送信するものである。なお、あらかじめライブラリ41に保存された推定モデルのうち特徴量が判別対象装具50の特徴量と最も近い推定モデルの画像データ22を型番と共に出力し、判別結果のデータとしてもよい。
Further, the
また、解析部40は、教師データ23の画像データ11より所定の型番の装具50の支柱51(図4参照)の形状とこの支柱51に対するバンド53、54、55の位置及び角度を表現する特徴量を抽出する。また、解析部40は、判別対象装具50の支柱51の形状とこの支柱51に対するバンド53、54、55の位置及び角度を表現する特徴量を抽出するものである。
Further, the
また、解析部40は、あらかじめ登録された装具(製品)の画像データ11の特徴量に対する判別対象装具50の特徴量の一致の度合いを演算して出力する。さらに、解析部40は、色調によらない特徴量を抽出するものとしてもよい。なお、解析部40は、最も近い推定モデルの特徴量に対する判別対象装具50の特徴量の一致の度合いを演算して出力するものとしてもよい。
Further, the
次に教師データを用いて推定モデルを生成して保存するまでのフローについて説明する。 Next, the flow from generating the estimation model using the teacher data to saving it will be described.
図2に示されるように、装具判別システム10は、教師データ作成部20において、STEP1(図ではSTEPをSと表記する)で登録者が装具50の型番毎の多方向の写真を複数撮影する。STEP2で装具50の型番と画像データ22を教師データ23として解析部40(AI端末)に送信する。
As shown in FIG. 2, in the orthotic
解析部40において、STEP3ではAI端末(人工知能)で教師データ23である画像データ22から装具50の輪郭と支柱51の形状を表現する特徴量を抽出する。STEP4でバンド53、54、55の形状、本数、位置、角度を表現する特徴量を抽出する。STEP5で教師データ23の特徴量から型番を推定する推定モデルを機械学習により生成する。STEP6で登録装具名(登録された装具、型番)の教師データ23と紐づけて生成した推定モデルをライブラリ41に保存する。
In STEP3, in the
図3に示されるように、申請書作成部12において、STEP7で申請者が判別対象装具50の写真付申請書13を紙又はデータで提出する(送る)。対象データ入力・結果表示部30において、STEP8で申請書13が紙による提出か否か判別する。STEP8で判別がNOの場合(申請書が電子データで送られてきた場合)、STEP9で申請書に記載された登録装具の名称から、審査用端末32ではその名称をもとに登録装具の教師データ23を自動的に選択(準備)する。
As shown in FIG. 3, in STEP 7, the applicant submits (sends) the
STEP8で判別がYESの場合(申請書が紙の場合)、STEP10で保険者が申請書13の装具50の写真を撮影して画像データ11にし、または、保険者が申請書13の装具50の写真をスキャンして画像データ11にする。STEP11で保険者は申請書に記入された登録装具の名称を、審査用端末32上で登録装具名(型番)の中から選択し、登録装具の教師データ23を選択(準備)する。STEP12で申請された判別対象装具50の画像データ11と共に選択(準備)した登録装具名の情報を解析部40(AI端末)に送信する。
If the determination is YES in STEP 8 (when the application form is paper), the insurer takes a picture of the
解析部40において、STEP13で判別対象装具50の画像データ11と共に選択(準備)した登録装具名の情報を受信する。STEP14ではAI端末(人工知能)で申請者の画像データ11から判別対象装具50の輪郭と支柱51の形状を表現する特徴量を抽出する。STEP15で申請者の画像データ11からバンド53、54、55の形状、本数、位置、角度を表現する特徴量を抽出する。
The
STEP16で選択(準備)した登録装具名に紐づいた登録装具の教師データ23(の画像データ22)と、申請された判別対象装具50の画像データ11との比較を開始する。申請者の判別対象装具50の画像データ11の特徴量から、類似する登録製装具を算出してもよい。
The comparison between the teacher data 23 (image data 22) of the registered device associated with the registered device name selected (prepared) in STEP 16 and the
STEP17で登録装具名(登録された装具)の画像データ22と判別対象装具50の画像データ11の類似度(%)を算出する。STEP18で登録装具名(登録された装具)とその画像データ22と類似度を出力し、対象データ入力・結果表示部30(保険者)に返信する。
In STEP 17, the similarity (%) between the
対象データ入力・結果表示部30において、STEP19で保険者の審査用端末32で判別結果を表示する。
In the target data input /
次に装具50の種類についていくつか説明する。
図4の(A)に示す装具50aは前述の通りであり、ここでは説明を省略する。
Next, some types of the
The
図4の(B)に示されるように、膝用の装具50bは、脚70の上下方向に沿って配置され本体部分となる左右の支柱51と、この支柱51に設けられ脚70を覆う布状のストラップ52と、膝71の下方で支柱51に設けられ装具50bを脚70に固定する幅が広い固定バンド53と、膝71の上方で支柱51に設けられ脚70の前側をクロスして掛け渡された機能バンド54と、膝71の上方で支柱51に設けられ脚70の前側を左右方向に掛け渡された機能バンド55と、を備えている。
As shown in FIG. 4B, the knee
固定バンド53は、単に装具50bを脚70に固定するためのものであり、支柱51に対して所定の位置(例えば、帯幅の中央が支柱51の下端から上方へ9cmの位置)から脚70の前側の途中まで左右方向(例えば、90度)に延びている。これに対し、機能バンド54は膝71の上部を抑える機能を有するものであり左右の支柱51に掛け渡されている。また、機能バンド54は、支柱51に対して所定の位置(例えば、帯幅の中央が支柱51の上端から下方へ3cmの位置と15cmの位置)及び所定の角度(例えば、45度)で配置されている。機能バンド55は、支柱51に対して所定の位置(例えば、帯幅の中央が支柱51の上端から下方へ9cmの位置)及び所定の角度(例えば、90度)で配置されている。
The fixing
図4の(C)に示されるように、膝用の装具50cは、脚70の上下方向に沿って配置され本体部分となる左右の支柱51と、この支柱51に設けられ脚70を覆う布状のストラップ52と、膝71の上方及び下方で支柱51に設けられ脚70の前側を斜めに掛け渡された機能バンド54と、膝71の下方で支柱51に設けられ脚70の前側を左右方向に掛け渡された機能バンド55と、を備えている。
As shown in FIG. 4C, the knee
機能バンド54は膝71の上部及び下部を抑える機能を有するものであり左右の支柱51に斜めに掛け渡されている。また、機能バンド54は、支柱51に対して所定の位置(例えば、帯幅の中央が支柱51の上下方向中間の位置)及び所定の角度(例えば、45度)で配置されている。機能バンド55は、支柱51に対して所定の位置(例えば、帯幅の中央が支柱51の下端から上方へ9cmの位置)及び所定の角度(例えば、90度)で配置されている。
The
図5の(A)に示されるように、短下肢用の装具50dは、足72を入れる靴部56と、足首73の外側を覆い内側に斜めに延びるストラップ57と、このストラップ57を留めるための固定バンド57aと、靴部56に設けられた鐙58と、この鐙58に足継手59を介して脚70に沿って延びている支柱61と、これらの支柱61の上端部に設けられ脚70を固定するカフバンド62と、を備えている。
As shown in FIG. 5A, the
図5の(B)に示されるように、短下肢用の装具50eは、足72に巻かれ足72の先端側から足首73に向かって斜めに覆う覆い部63と、足首73の前側でクロスするように巻き付けられた覆い部63を固定するとともに斜めに延びる固定バンド63aと、を備えている。
As shown in FIG. 5B, the
図6に示されるように、長下肢用の装具50fは、脚70全体に装着するものであり、足72から脚70(短下肢)に位置するプラスチック製のシューホンブレース64と、このシューホンブレース64の上端部から脚70に沿って延びている下部支柱65と、この下部支柱65に膝継手66を介して上方に延びている上部支柱67と、この上部支柱67及び下部支柱65に設けられ膝71を抑える膝当て68と、上部支柱67装具50fを脚70に固定するカフバンド69と、を備えている。
As shown in FIG. 6, the
次にニューラルネットワークに基づく装具形状による分類のフローについて説明する。
図7の(A)に示されるように、STEP20で装具の形状による分類を行う。バンドは固定のみの場合(STEP21)、そのまま分類を採用する(STEP22)。また、バンドは機能や製品名に影響する場合(STEP23)、こちらの採用した名前を出力する(STEP24)。
Next, the flow of classification based on the orthotic device shape based on the neural network will be described.
As shown in (A) of FIG. 7,
背景として、近年の既製品の装具(サポーター類)でも保険適用が拡大され始めたことで、既製品の膝サポーターが多く出回るようになっており、既製品の膝サポーターはメーカーごとに、工夫を凝らしオリジナリティを出すべく、それぞれに本体の形やデザインをデザインしている。商品ラインナップが増えたことで、保険の申請に装具の写真が添付され、その画像をもとにカタログ写真と実物の同一性を審査する保険者の負担が増えることが懸念される。 As a background, as insurance coverage has begun to expand even for ready-made equipment (supporters) in recent years, many ready-made knee supporters are on the market, and ready-made knee supporters are devised for each manufacturer. The shape and design of the main body are designed for each to give elaborate originality. As the product lineup increases, there is concern that a photo of the orthotic device will be attached to the insurance application, and the burden on the insurer to examine the identity of the catalog photo and the actual product based on the photo will increase.
そこで、本発明ではあらかじめ厚生労働省等に登録された装具の画像を教師データとして、既製品の商品カタログ画像や実物画像を読み込んでいく。それをもとに、保険に申請する人間が装着している画像が登録されたものかを判別していくシステムを作ることにより、保険者がより効率的な審査ができることをサポートする仕組みを提供することを目的とする。 Therefore, in the present invention, the image of the equipment registered in advance by the Ministry of Health, Labor and Welfare or the like is used as the teacher data, and the ready-made product catalog image or the actual image is read. Based on that, we provide a mechanism to support insurers to perform more efficient examinations by creating a system that determines whether the image worn by the person applying for insurance is registered. The purpose is to do.
装具は、本体部分となる支持部と身体に固定するためのバンドによって構成されている。しかし、バンドの中には身体への固定以外の用途、つまり身体の矯正などに用いるものもあり、写真を見ただけでは、そのバンドが装具の機能や種類を左右するのか、それとも(目的の機能が本体部分によって得られているので)単なる固定のために使われているのかわからない。このような理由から、単純に機械学習をおこなうニューラルネットワークに入力しても、実用に足る結果は得られない。 The orthotic device is composed of a support portion which is a main body portion and a band for fixing to the body. However, some bands are used for purposes other than fixing to the body, that is, for correcting the body, and just by looking at the pictures, does the band influence the function and type of the orthotic device, or (the purpose). I don't know if it's used just for fixing (because the function is obtained by the main body part). For this reason, simply inputting into a neural network that performs machine learning does not give practical results.
そこで本発明の実施例に係る装具判別システムでは、従来の装具の形からみた分類をおこなうのではなく、装具本体とバンドの関係に着目して、本体の情報(支持部の形状)とバンドを分けて考え、その組み合わせにより装具の種類を導き出すニューラルネットワークを構築するものとした。前述のように、構築されたニューラルネットワークは、画像から商品を識別できるようになる。 Therefore, in the orthotic device discrimination system according to the embodiment of the present invention, the information (shape of the support portion) and the band of the main body are focused on the relationship between the orthotic device main body and the band, instead of classifying from the shape of the conventional orthotic device. We decided to think separately and build a neural network that derives the type of orthotic device from the combination. As mentioned above, the constructed neural network will be able to identify the product from the image.
さらに、その後は、オーダーメイド製品も実物写真をもとに教師データとして読み込んでいく。既製品に関しては、保険者は厚生労働省等に登録されている商品かどうかを判別し、登録された商品に定められた商品の分を支払えばよい。しかし、それに対し、オーダーメイドの装具では、保険適用となる基準の「形」が定められておらず、保険者は主に保険の還付請求をおこなってくる患者さんが使用している実際の装具の画像と保険請求されてきた金額の見積もりの詳細の整合性を確認することとなる。 Furthermore, after that, custom-made products are also read as teacher data based on actual photographs. For ready-made products, the insurer may determine whether the product is registered with the Ministry of Health, Labor and Welfare, etc., and pay for the product specified for the registered product. However, on the other hand, for custom-made orthotic devices, the "shape" of the standard for insurance coverage is not defined, and the insurer mainly uses the actual orthotic devices used by patients who make insurance refund claims. The details of the image and the estimate of the amount of the insurance claim will be confirmed.
装具の価格は積算方式で決まるため、支持部や部品についてどのように装具を構成しているか確認する必要があるが装具に関して知識のない保険者の審査係が正確な審査をおこなうことは大変難しいと考えられる。また、さらに前述の通り、装具に設置されたバンドの問題が見積もりを難しくしている。これは、装具は、本体部分となる支持部と身体に固定するためのバンドによって構成されており、オーダーメイド装具には価格を構成する部品として、積算できるバンドと積算できないバンドがあることによる。このような理由から、従来のように画像の全体像から単純に機械学習をおこなうニューラルネットワークに入力しても、実用に足る結果は得られない。 Since the price of the orthotic device is determined by the integration method, it is necessary to confirm how the orthotic device is configured for the support and parts, but it is very difficult for an insurer who has no knowledge of the orthotic device to perform an accurate examination. it is conceivable that. Further, as mentioned above, the problem of the band installed on the orthotic device makes it difficult to estimate. This is because the orthotic device is composed of a support portion which is a main body part and a band for fixing to the body, and the custom-made orthotic device has a band that can be integrated and a band that cannot be integrated as parts constituting the price. For this reason, even if input is performed into a neural network that simply performs machine learning from the entire image as in the conventional case, practical results cannot be obtained.
そこで本システムでは、従来の装具の形からみた分類をおこなうのではなく、装具本体とバンドの関係に着目して、本体の情報(支持部の形状)とバンドを分けて考え、またさらに装具価格に加算される付属部品の検出もおこない、画像の内容と提出された装具の明細書との整合性を確認できる人工知能の実現を目指したものとした。 Therefore, in this system, instead of classifying based on the shape of the conventional orthotic device, we focus on the relationship between the orthotic device body and the band, consider the information on the main body (shape of the support part) and the band separately, and further consider the orthotic device price. We also detected the accessory parts added to the above, aiming to realize artificial intelligence that can confirm the consistency between the contents of the image and the submitted specification of the orthotic device.
次に装具の代金を算出するフローについて説明する。
図7の(B)に示されるように、装具画像において、STEP25で価格となるバンドの分類を行い、バンド代を加算する場合(STEP26)と、バンド代なしの場合(ATEP27)とに分類する。加えて、STEP28で他の付属部品の分類を行い、付属品代を加算する場合(STEP29)と、付属品第なしの場合(STEP30)とに分類し、最終的に検出された加算要素となる部と装具の明細書を照合する(STEP31)。
Next, the flow for calculating the price of the orthotic device will be described.
As shown in (B) of FIG. 7, in the orthotic device image, the band to be priced is classified in STEP 25, and the band fee is added (STEP 26) and the band fee is not included (ATEP 27). .. In addition, other accessory parts are classified in STEP 28, and the case where the accessory cost is added (STEP 29) and the case where there is no accessory (STEP 30) are classified, and the final detected addition element is obtained. The description of the part and the equipment are collated (STEP31).
次に以上に述べた装具判別システム10の作用、効果を説明する。
本発明の実施例では、装具判別システム10は、教師データ作成部20と、対象データ入力・結果表示部30と、解析部40と、を備えている。解析部40は、教師データ23の画像データ22より所定の型番の装具50の輪郭とバンドの形状及び本数を表現する特徴量を抽出し、特徴量から型番を推定する推定モデルを機械学習により生成する。また、対象データ入力・結果表示部30から送信された画像データ11より判別対象装具50の輪郭とバンドの形状及び本数を表現する特徴量を抽出し、あらかじめ登録された装具との類似度を算出、出力する。解析部40は、教師データ23の所定の型番の装具及び判別対象装具50の輪郭の特徴量に加え、バンドの形状及び本数を表現する特徴量を抽出して判別するので、バンドが設けられた複数種類の装具50を高精度で判別することができる。さらに、解析部40は、最も近い推定モデルの特徴量に対する判別対象装具50の特徴量の一致の度合いを演算して出力するので、例えば一致の度合いを%表示することで、判別の目安を得ることでより高精度で判別することができる。
Next, the operation and effect of the orthotic
In the embodiment of the present invention, the orthotic
さらに、本発明の実施例では、解析部40は、教師データ23の所定の型番の装具50及び判別対象装具50の支柱の形状とこの支柱に対するバンドの位置及び角度を表現する特徴量を抽出して判別するので、バンドが設けられた複数種類の装具50をより高精度で判別することができる。
Further, in the embodiment of the present invention, the
さらに、本発明の実施例では、解析部40は、色調によらない特徴量を抽出して判別するので、模様が付された装具であっても形状のみから特徴量を抽出し、バンドが設けられた複数種類の装具50をより高精度で判別することができる。
Further, in the embodiment of the present invention, the
さらに、本発明の実施例では、解析部40は、あらかじめ登録された装具50に対する判別対象装具50の特徴量の一致の度合いを演算して類似する登録製装具50を出力するので、登録された装具50の中から最も近い装具50を判別することができる。
Further, in the embodiment of the present invention, the
さらに、本発明の実施例では、教師データ作成部20、対象データ入力・結果表示部30、及び解析部40は、インターネットによるネットワーク15を介してそれぞれが接続されているので、離れた場所であっても容易にバンドが設けられた複数種類の装具50を高精度で判別することができる。
Further, in the embodiment of the present invention, the teacher
さらに、本発明の実施例では、保険者内で審査を行う担当者の多くが装具の知識がない事務職が大半であるところ、装具50の目利きではない者であっても、バンドが設けられた複数種類の装具50をより高精度で判別することができる。
Further, in the embodiment of the present invention, most of the persons in charge of examination within the insurer are clerical workers who do not have knowledge of the orthotic device, and even a person who is not a connoisseur of the
さらに、本発明の実施例では、判別対象装具50の画像データ11は、申請者から紙で送られた申請書に添付された写真を審査用端末32のうちカメラ付き携帯端末等で撮影したもの、又は、申請者から電子データで送られた申請書に添付されたものであるので、申請書が紙であっても電子データであっても対応でき、装具50をより高精度で判別することができる。
Further, in the embodiment of the present invention, the
尚、実施例では、脚用の装具について判別するものとしたが、これに限定されず、バンドが設けられていれば、上肢用、下肢用の装具いずれでもよく、さらには義肢であっても差し支えない。さらには、バンドだけではなく、膝当て等の付属部品も判別の要素に含めてもよい。 In the embodiment, the leg orthotic device is determined, but the present invention is not limited to this, and any orthotic device for the upper limbs or lower limbs may be used as long as a band is provided, and even a prosthetic limb may be used. There is no problem. Further, not only the band but also an accessory part such as a knee pad may be included in the discriminating element.
即ち、本発明の作用及び効果を奏する限りにおいて、本発明は、実施例に限定されるものではない。 That is, the present invention is not limited to the examples as long as the actions and effects of the present invention are exhibited.
本発明の技術は、バンドが設けられた装具の画像データから装具の種類を判別する装具判別システムに好適である。 The technique of the present invention is suitable for an orthotic device discrimination system that discriminates a type of orthotic device from image data of an orthotic device provided with a band.
10…装具判別システム、11…画像データ、20…教師データ作成部、21…登録用端末、22…画像データ、23…教師データ、30…対象データ入力・結果表示部、31…サーバ、32…審査用端末(デスクトップPC、カメラ付携帯端末)、40…解析部、41…ライブラリ、50、50a、50b、50c、50d、50e、50f…装具(判別対象装具、登録装具、義肢)、51、61…支柱、53、57a、63a…固定バンド、54、55…機能バンド、62、69…カフバンド、65…下部支柱、67…上部支柱、68…膝当て、70…脚、71…膝、72…足、73…足首。 10 ... Equipment discrimination system, 11 ... Image data, 20 ... Teacher data creation unit, 21 ... Registration terminal, 22 ... Image data, 23 ... Teacher data, 30 ... Target data input / result display unit, 31 ... Server, 32 ... Examination terminal (desktop PC, portable terminal with camera), 40 ... Analysis unit, 41 ... Library, 50, 50a, 50b, 50c, 50d, 50e, 50f ... Equipment (discrimination target equipment, registered equipment, artificial limbs), 51, 61 ... struts, 53, 57a, 63a ... fixed bands, 54, 55 ... functional bands, 62, 69 ... cuff bands, 65 ... lower struts, 67 ... upper struts, 68 ... knee pads, 70 ... legs, 71 ... knees, 72 ... feet, 73 ... ankles.
Claims (7)
教師データ作成部と、対象データ入力・結果表示部と、解析部と、を備え、
前記教師データ作成部は、所定の型番の前記装具を撮影して前記型番と撮影した写真の前記画像データから前記型番毎に教師データを作成し、この教師データを前記解析部に送信するものであり、
前記対象データ入力・結果表示部は、判別対象となる判別対象装具の写真の画像データを入力すると共に前記解析部に送信し、前記解析部で判別された前記判別対象装具の型番の判別結果を表示するものであり、
前記解析部は、前記教師データ作成部から送信された前記教師データの前記画像データより所定の型番の前記装具の輪郭とバンドの形状及び本数を表現する特徴量を抽出し、前記特徴量から型番を推定する推定モデルを機械学習により生成し、前記型番の前記推定モデルをライブラリに保存し、
また、対象データ入力・結果表示部から送信された前記画像データより前記判別対象装具の輪郭とバンドの形状及び本数を表現する特徴量を抽出し、前記ライブラリに保存されたあらかじめ登録された前記装具との類似度を算出、出力し、判別結果のデータとして前記対象データ入力・結果表示部に送信するものであることを特徴とする装具判別システム。 It is an orthotic device discrimination system that discriminates the type of the orthotic device from the image data of the orthotic device provided with the band.
It has a teacher data creation unit, a target data input / result display unit, and an analysis unit.
The teacher data creation unit creates teacher data for each model number from the image data of the model number and the photograph taken by photographing the orthotic device of a predetermined model number, and transmits the teacher data to the analysis unit. can be,
The target data input / result display unit inputs image data of a photograph of the discrimination target device to be discriminated and transmits the image data to the analysis unit, and determines the discrimination result of the model number of the discrimination target device determined by the analysis unit. To display
The analysis unit extracts a feature amount expressing the contour of the device of a predetermined model number, the shape and the number of bands from the image data of the teacher data transmitted from the teacher data creation unit, and the model number from the feature amount. An estimation model for estimating the above is generated by machine learning, and the estimation model of the model number is stored in the library.
In addition, the feature amount expressing the contour of the discriminant target device, the shape and the number of bands is extracted from the image data transmitted from the target data input / result display unit, and the pre-registered device stored in the library is stored. A device discrimination system characterized in that the degree of similarity with and is calculated and output, and the data of the discrimination result is transmitted to the target data input / result display unit.
前記解析部は、前記教師データの前記画像データより所定の型番の前記装具の支柱の形状とこの支柱に対する前記バンドの位置及び角度を表現する特徴量を抽出し、
また、前記判別対象装具の支柱の形状とこの支柱に対する前記バンドの位置及び角度を表現する特徴量を抽出するものであることを特徴とする装具判別システム。 The orthotic device discrimination system according to claim 1.
The analysis unit extracts from the image data of the teacher data a feature amount expressing the shape of the support column of the orthotic device of a predetermined model number and the position and angle of the band with respect to the support column.
Further, the orthotic device discrimination system is characterized in that the shape of the support column of the device to be discriminated and the feature amount expressing the position and angle of the band with respect to the support column are extracted.
前記解析部は、色調によらない前記特徴量を抽出するものであることを特徴とする装具判別システム。 The orthotic device discrimination system according to claim 1 or 2.
The analysis unit is an orthotic device discrimination system characterized in that it extracts the feature amount regardless of the color tone.
前記解析部は、あらかじめ登録された装具に対する前記判別対象装具の前記特徴量の一致の度合いを演算して類似する前記登録された装具を出力することを特徴とする装具判別システム。 The orthotic device discrimination system according to any one of claims 1 to 3.
The analysis unit is an orthotic device discrimination system characterized in that the analysis unit calculates the degree of matching of the feature amounts of the orthotic device to be discriminated with respect to the orthotic device registered in advance and outputs a similar registered orthotic device.
前記教師データ作成部、前記対象データ入力・結果表示部、及び前記解析部は、インターネットによるネットワークを介してそれぞれが接続されていることを特徴とする装具判別システム。 The orthotic device discrimination system according to any one of claims 1 to 4.
The equipment discrimination system characterized in that the teacher data creation unit, the target data input / result display unit, and the analysis unit are connected to each other via a network via the Internet.
前記対象データ入力・結果表示部は、健康保険の保険者に使用されることを特徴とする装具判別システム。 The orthotic device discrimination system according to any one of claims 1 to 5.
The target data input / result display unit is an orthotic device discrimination system characterized in that it is used by an insurer of health insurance.
前記対象データ入力・結果表示部は、カメラ付き携帯端末を備え、
判別対象となる前記判別対象装具の前記画像データは、申請者から紙で送られた申請書に添付された写真を前記カメラ付き携帯端末で撮影したもの、又は、申請者から電子データで送られた申請書に添付されたものであることを特徴とする装具判別システム。
The orthotic device discrimination system according to claim 6
The target data input / result display unit is provided with a mobile terminal with a camera.
The image data of the orthotic device to be discriminated is a photograph taken by the camera-equipped mobile terminal attached to the application form sent by the applicant on paper, or sent electronically by the applicant. An orthotic device discrimination system characterized by being attached to an application form.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021049317A JP6966131B1 (en) | 2021-03-23 | 2021-03-23 | Orthotic device discrimination system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021049317A JP6966131B1 (en) | 2021-03-23 | 2021-03-23 | Orthotic device discrimination system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6966131B1 true JP6966131B1 (en) | 2021-11-10 |
JP2022147869A JP2022147869A (en) | 2022-10-06 |
Family
ID=78466283
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021049317A Active JP6966131B1 (en) | 2021-03-23 | 2021-03-23 | Orthotic device discrimination system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6966131B1 (en) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012055429A (en) * | 2010-09-07 | 2012-03-22 | Global Academy:Kk | Medical knee supporter |
JP5797703B2 (en) * | 2013-08-08 | 2015-10-21 | 東芝テック株式会社 | Information processing apparatus, store system, and program |
US20160117632A1 (en) * | 2014-10-23 | 2016-04-28 | Toshiba Tec Kabushiki Kaisha | Information processing apparatus, commodity sales system, and commodity sales method |
WO2016076021A1 (en) * | 2014-11-11 | 2016-05-19 | 富士フイルム株式会社 | Product searching device and product searching method |
JP6524276B1 (en) * | 2018-01-16 | 2019-06-05 | ヤフー株式会社 | Terminal program, terminal device, information providing method and information providing system |
JP7347930B2 (en) * | 2018-12-25 | 2023-09-20 | ナブテスコ株式会社 | Analysis system and information recording method |
JP7277153B2 (en) * | 2019-01-22 | 2023-05-18 | 株式会社Lixil | Support system and program |
-
2021
- 2021-03-23 JP JP2021049317A patent/JP6966131B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2022147869A (en) | 2022-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230382049A1 (en) | Customized, wearable 3d printed articles and methods of manufacturing same | |
KR102290040B1 (en) | Imaging a body | |
US8571698B2 (en) | Simple techniques for three-dimensional modeling | |
KR20030071771A (en) | System and method for automated biomechanical analysis and the detection and correction of postural deviations | |
JP2017533606A (en) | Method and apparatus for creating a photography template database and providing photography recommendation information | |
JP7178423B2 (en) | Guidance method and system for teledental imaging | |
KR20200144991A (en) | Exercise assistant device and exercise assistant method | |
US10996474B2 (en) | Virtual reality system and information processing system | |
JP2021191423A (en) | Diagnosis support device, method for image processing in diagnosis support device, and program | |
JP2018019843A (en) | Portable information device, dimension measuring method, and computer program | |
JP7162613B2 (en) | Information processing device, program | |
JP6788180B2 (en) | Size estimation program, information processing device and size estimation method | |
KR20190109455A (en) | Method for generating three-dimensional virtual representation of a person | |
KR102077186B1 (en) | Customized exercise prescription system and its method | |
JP6808254B1 (en) | System and method for immediate interpretation of metacarpal age with personal device | |
CN113239220A (en) | Image recommendation method and device, terminal and readable storage medium | |
JP6966131B1 (en) | Orthotic device discrimination system | |
JP7309506B2 (en) | Image processing system, machine learning device, imaging device and learning method | |
JP7266397B2 (en) | Imaging information management system, control method for imaging information management system, and imaging information management program | |
US11386615B2 (en) | Creating a custom three-dimensional body shape model | |
CN112102451B (en) | Wearable virtual live broadcast method and equipment based on common camera | |
Wen et al. | Artificial intelligence technologies for more flexible recommendation in uniforms | |
JPWO2020059716A1 (en) | Size measurement system | |
JP7259313B2 (en) | Attribute determination device, attribute determination system, attribute determination method, program and recording medium | |
JP7397282B2 (en) | Stationary determination system and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210405 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210405 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210820 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211012 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211014 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6966131 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |