WO2019111327A1 - 技工料金自動算出システム、技工料金自動算出方法及びプログラム - Google Patents

技工料金自動算出システム、技工料金自動算出方法及びプログラム Download PDF

Info

Publication number
WO2019111327A1
WO2019111327A1 PCT/JP2017/043670 JP2017043670W WO2019111327A1 WO 2019111327 A1 WO2019111327 A1 WO 2019111327A1 JP 2017043670 W JP2017043670 W JP 2017043670W WO 2019111327 A1 WO2019111327 A1 WO 2019111327A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
learning
prosthesis
basis
data
Prior art date
Application number
PCT/JP2017/043670
Other languages
English (en)
French (fr)
Inventor
佐藤 浩志
Original Assignee
株式会社DSi
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社DSi filed Critical 株式会社DSi
Priority to US16/769,348 priority Critical patent/US20200311702A1/en
Priority to EP17933918.9A priority patent/EP3723030A4/en
Priority to JP2019557904A priority patent/JP7082352B2/ja
Priority to CN201780097466.XA priority patent/CN111433802A/zh
Priority to PCT/JP2017/043670 priority patent/WO2019111327A1/ja
Priority to KR1020207018653A priority patent/KR20200095506A/ko
Publication of WO2019111327A1 publication Critical patent/WO2019111327A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/14Payment architectures specially adapted for billing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/04Billing or invoicing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C13/00Dental prostheses; Making same
    • A61C13/0003Making bridge-work, inlays, implants or the like
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0283Price estimation or determination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30052Implant; Prosthesis

Definitions

  • the present invention relates to a technology fee automatic calculation issue system, a technology fee automatic calculation method, and a program, and more particularly to a technology for estimating a basis for a request or a charge from an image of a prosthesis.
  • the instruction sheet is a document issued by the dental clinic, and includes, for example, the patient's name, technical item name, quantity, and technical item specifications (which may include instructions on materials used and preparation methods, etc.) The name of the dental laboratory, etc. of the supplier is described.
  • dental clinics prepare instructions by hand-writing required items on ready-made instruction sheets.
  • Patent Document 1 describes a computer system capable of ordering and receiving a prosthesis (corresponding to the above-mentioned technical product) between a plurality of dental clinics and a plurality of dental laboratory.
  • Patent Document 1 improves the convenience by computerizing the conventional document-based ordering business.
  • the dental laboratory produces a prosthesis based on the instruction issued by the system as described in Patent Document 1 or handwritten on a ready-made sheet. Then, for the completed prosthesis, the billing amount is calculated based on the name of the prosthesis, the number, the type and amount of the materials used, the preparation method, etc. (hereinafter referred to as the basis of the claim), and requested to the dental clinic.
  • the basis of the request or the amount of the claim depends solely on the self-report of the dental laboratory. If the dental laboratory can keep a record of the specific materials used and processes, it is possible to calculate the basis or the amount of the request based on the record, but it is not easy. Although it is possible to calculate the basis of the request or the amount of the request based on the instruction, it is also possible to prepare a prosthesis because the dental laboratory may process the matters not clearly described in the instruction. It is not always appropriate. Therefore, in practice, the dental laboratory often accounts for the basis or the amount of a claim that seems appropriate based on experience etc. while referring to the completed prosthesis and the photograph thereof.
  • the present invention has been made to solve such problems, and it is an automatic calculation method of technical fee that can estimate the basis or amount of a claim from an image of a prosthesis, a technical fee automatic calculation method, and The purpose is to provide a program.
  • an image data input unit for inputting image data of a prosthesis, and a basis data input for inputting basis data as a basis for calculating a charge for the prosthesis.
  • a learning unit that inputs the image data and the base data and constructs a learning model that indicates the correlation between the image data and the base data.
  • the learning unit inputs the image data, and outputs the basis data having high correlation with the image data based on the learning model.
  • a billing amount estimation unit configured to estimate the billing amount based on the basis data.
  • the image data input unit inputs image data of the prosthesis and image data regarding an instruction sheet
  • the learning unit inputs image data of the prosthesis.
  • the learning unit updates the learning model using the description of the instruction.
  • the image data input unit inputs image data of the prosthesis and image data regarding an instruction sheet
  • the learning unit inputs image data of the prosthesis. If the basis data to be output based on the content of the instruction is different from the description content of the instruction, the billing amount estimation unit outputs the different matter.
  • a computer inputs an image data input step of inputting image data of a prosthesis, and ground data which becomes a basis for calculating a charge for the prosthesis. It comprises a ground data input step, and a learning step of inputting the image data and the ground data to construct a learning model that indicates the correlation between the image data and the ground data.
  • the learning step the image data is input, and the basis data having high correlation with the image data is output based on the learning model.
  • the method further comprises a charge amount estimation step of estimating the charge amount based on the basis data.
  • the image data input step in the image data input step, the image data of the prosthesis and the image data regarding the instruction sheet are input, and in the learning step, the image data of the prosthesis is input.
  • the method further includes the step of updating the learning model using the written content of the instruction sheet when the basis data output based on the difference between the written content of the instruction sheet and the written content of the instruction sheet.
  • the image data input step in the image data input step, the image data of the prosthesis and the image data regarding the instruction sheet are input, and in the learning step, the image data of the prosthesis is input.
  • the method further includes the step of outputting the different matter when the basis data to be output based on the difference is between the described content of the instruction sheet.
  • a program according to an embodiment of the present invention is a program for causing a computer to execute the above method.
  • an image data input unit for inputting image data of a prosthesis a basis data input unit for inputting an amount charged for the prosthesis, and the image data
  • the engineering fee automatic calculation system includes a learning unit that inputs the billed amount and constructs a learning model that indicates the correlation between the image data and the billed amount.
  • the present invention it is possible to provide a technology fee automatic calculation system, a technology fee automatic calculation method, and a program capable of estimating the basis or the amount of a claim from an image of a prosthesis.
  • FIG. 2 is a block diagram showing a configuration of a technology fee automatic calculation system 100.
  • FIG. 2 is a block diagram showing a configuration of a technology fee automatic calculation system 100.
  • 5 is a flowchart showing the operation of the engineering fee automatic calculation system 100 in the first embodiment. It is a figure which shows an example of a charge table.
  • 15 is a flowchart showing the operation of the engineering fee automatic calculation system 100 in the second embodiment. 15 is a flowchart showing the operation of the engineering fee automatic calculation system 100 in the third embodiment.
  • the technology fee automatic calculation system 100 is an information processing apparatus that learns the correlation between the image of the prosthesis and the ground of the claim by machine learning by itself.
  • the engineering fee automatic calculation system 100 is typically an information processing system that implements predetermined processing by executing software (a learning algorithm or the like) read from a storage device by a central processing unit (CPU).
  • the engineering fee automatic calculation system 100 may be configured by one information processing apparatus, or may be configured as a plurality of information processing apparatuses perform processing in a distributed manner.
  • the engineering fee automatic calculation system 100 includes an image data input unit 110 for acquiring image data of a prosthesis, a basis data input unit 120 for acquiring basis data indicating a part of the basis of a claim on the prosthesis, and image data It comprises a learning unit 130 that learns the correlation with the ground data, and a charged amount estimation unit 140 that estimates the charged amount.
  • the image data input unit 110 may be realized by hardware (CPU or the like), or may be logically realized by the hardware executing a function defined by software.
  • the image data input to the image data input unit 110 is typically two-dimensional image data obtained by photographing a prosthesis created by a dental laboratory with a camera.
  • three-dimensional image data obtained by adding depth information to two-dimensional image data, or three-dimensional model data generated by a three-dimensional scanner or the like may be used as image data.
  • the image data input unit 110 can extract the feature amount from the input image data.
  • deep learning deep learning
  • Deep learning is a machine learning method using multiple layers of neural networks.
  • learning is performed so as to minimize an output error when input data is input to a multilayer neural network by using a method called error back propagation (back propagation).
  • back propagation error back propagation
  • the image data input unit 110 may input the image data of the prosthesis along with the image data of the instruction sheet concerning the prosthesis.
  • the image data of the prosthesis and the image data of the instruction sheet may be separate or identical (that is, the prosthesis and the instruction sheet may be imprinted in one image).
  • the image data input unit 110 extracts the description items of the instruction sheet from the image data of the instruction sheet. For example, the image data input unit 110 reads a bar code or a QR code described in the instruction sheet, acquires identification information included in the bar code or the QR code, and manages the instruction sheet (not illustrated) using the identification information as a key It is possible to acquire information as the basis of a request from a system or the like.
  • the image data input unit 110 may obtain information based on the request described in the instruction sheet using a known technique such as optical character recognition (OCR). These pieces of information obtained from the instruction sheet can be used as basis data in the learning mode. Alternatively, it can be used to verify the validity of the judgment result in the judgment mode.
  • OCR optical character recognition
  • the ground data input unit 120 may be realized by hardware (CPU or the like), or may be logically realized by the hardware executing a function defined by software.
  • the basis data input to the basis data input unit 120 is, for example, the type of prosthesis (that is, the name of a prosthesis) included in the image data, and the number of prosthesis. In addition, it may include the name of the material used in making the prosthesis, the amount of material used, the method of making, and the like. That is, one or more pieces of information constituting the basis of the request are basis data.
  • the basis data constituting the basis of the request may differ depending on the type of prosthesis. For example, if the type of prosthesis is "dentures", the amount of material used is not used as the basis for the claim. On the other hand, in other prosthesis types, the amount of material used may be used as the basis for the claim.
  • the basis data input unit 120 may have a function of outputting only necessary basis data out of the input basis data to the learning unit 130.
  • the basis data input unit 120 includes a table in which the type of prosthesis and the necessary basis data are associated. If the basis data is input, the basis data input unit 120 can refer to the table and can output only the basis data corresponding to the type of the prosthesis.
  • the learning unit 130 may be realized by hardware (such as a CPU), or may be logically realized by the hardware executing a function defined by software.
  • the learning unit 130 receives a learning mode for learning the correlation between image data (including feature quantities of image data but hereinafter simply referred to as image data) and ground data according to any known machine learning algorithm, and There is a determination mode in which base data highly correlated with image data is output using a learning result in the learning mode.
  • the learning unit 130 In the learning mode, the learning unit 130 repeatedly inputs various sets of image data and ground data, and repeatedly executes the learning process. By repeatedly executing the learning process in this manner, a learning model that indicates the correlation between the image data and the base data is constructed. The correlations shown by the learning model gradually become more reliable as the learning process progresses. Once a sufficiently reliable learning model is built, it can be used to determine what basis data is most correlated with the input image data. .
  • FIG. 2 is a block diagram showing the configuration of a technology fee automatic calculation system 100 including a learning unit 130 that executes supervised learning as a learning algorithm.
  • supervised learning a large amount of data set (hereinafter referred to as teacher data) consisting of inputs and corresponding outputs is input, and a correlation between inputs and outputs is identified from a large amount of teacher data to construct a learning model.
  • teacher data a large amount of data set
  • teacher data a large amount of data set
  • a correlation between inputs and outputs is identified from a large amount of teacher data to construct a learning model.
  • It is a method of Supervised learning can be realized, for example, using a neural network, but since it is a known technique, the detailed description thereof will be omitted here.
  • the learning unit 130 reduces an error E by an error calculation unit 131 that calculates an error E between a correlation model M derived from image data and base data and a correlation feature identified from teacher data T prepared in advance. And the model updating unit 132 that updates the correlation model M so that The learning unit 130 learns the correlation between the image data and the base data as the model updating unit 132 repeatedly updates the correlation model M.
  • the initial value of the correlation model M is, for example, a simplified (for example, a linear function) correlation between the image data and the ground data, and is given to the learning unit 130 before the start of supervised learning.
  • the teacher data T is, for example, a data set of an image of a prosthesis created in the past and the basis of a claim accurately recorded when the prosthesis was created.
  • the error calculation unit 131 identifies a correlation feature that indicates the correlation between the image data and the base data from the large amount of teacher data T given to the learning unit 130, and this correlation feature, the image data in the current state, and the base An error E with the correlation model M corresponding to the data is determined.
  • the model update unit 132 updates the correlation model M in the direction in which the error E becomes smaller according to a predetermined update rule. By repeating this process, the correlation model M is gradually adjusted to accurately show the correlation between the image data and the base data.
  • the learning unit 130 can automatically and accurately obtain basis data corresponding to image data based on the learning model constructed in the learning mode. That is, by providing the image data of the prosthesis as an input to the learning model, the learning model can automatically and automatically set the basis (claim name, quantity, type and amount of materials used, preparation method, etc.) of the claim on the prosthesis. Accurately output.
  • the billing amount estimation unit 140 calculates the billing amount based on the basis of the billing output by the learning unit 130 in the determination mode.
  • the charge amount estimation unit 140 has a charge table that defines the correspondence between the base of the charge and the charge unit price, the calculation rule of the charge amount, and the like.
  • the charge table defines the unit price per unit amount of material for each material name, defines the technical charge for each creation method, and defines the charge accumulation rule for each type of prosthesis. It is good.
  • the billing amount estimation unit 140 integrates the billing amount using the basis of the billing output by the learning unit 130 and the description content of the billing table.
  • the unit price of materials, the unit price of labor, etc. may fluctuate depending on the social situation etc.
  • the rules for calculating the bill amount may be changed as the laws and regulations change. Even in such a case, according to the present embodiment, it is possible to continue to calculate the correct bill amount by correcting the described contents of the charge table. That is, there is no need to execute the learning process again to re-create the learning model.
  • Example 1 The first embodiment relates to a technology fee automatic calculation system 100 for automatically calculating a charge amount for a prosthesis using a learning model.
  • the operation of the engineering fee automatic calculation system 100 according to the first embodiment will be described using the flowchart of FIG. 3.
  • the image data input unit 110 acquires image data of a prosthesis. For example, the dental technician photographs the prosthesis created by himself / herself with a smartphone provided with a camera as a component of the image data input unit 110. The image data input unit 110 extracts the feature amount from the image data.
  • the image data input unit 110 inputs the feature amount of the image data acquired in S101 to the learning unit 130.
  • the learning unit 130 inputs the feature amount of the image data to the learning model, and obtains ground data having high correlation with the image data as an output.
  • the basis data obtained here includes, for example, the type of prosthesis (ie, the name of the prosthesis), the number of prostheses, the name of the material used, the amount of material used, and the like.
  • the charge amount estimation unit 140 calculates the charge amount based on the basis data obtained in S102 and the charge table held in advance.
  • FIG. 4 shows an example of the charge table.
  • a unit price is defined for each material name, and a preparation technology fee is defined for each type of prosthesis.
  • the billed amount estimation unit 140 can calculate the billed amount by equation (1).
  • Charge amount quantity of prosthesis * (price of material name used * amount used + preparation fee for type of prosthesis) ⁇ ⁇ ⁇ (1)
  • the number of prostheses is 1, the type of prosthesis is A, the number of prostheses is 1, the name of material used is P, and the amount of material used is 10 Do.
  • the unit price of the material P is 100 yen, and the preparation technology fee of the prosthesis A is 1000 yen.
  • the billing amount estimation unit 140 outputs the billing amount calculated in S103.
  • the billed amount can be displayed on a display device (not shown).
  • the billing amount can be provided to a billing system (not shown) and used when the billing system issues a bill.
  • Example 2 The second embodiment relates to an automatic calculation system 100 capable of updating a learning model as needed and continuously maintaining and improving estimation accuracy.
  • the operation of the engineering fee automatic calculation system 100 according to the second embodiment will be described using the flowchart of FIG. 5.
  • the image data input unit 110 acquires image data.
  • a prosthesis and an instruction sheet are incorporated.
  • the image data input unit 110 When the image data input unit 110 recognizes the feature of the instruction (bar code, QR code, document title, etc.) in the image, the image data input unit 110 acquires information as the basis of the request in the instruction. When the barcode or the QR code is recognized, the image data input unit 110 acquires unique identification information included in the barcode or the QR code. And information that becomes the basis of the request stored in association with the identification information from the management system of the instruction sheet (not shown) (type of prosthesis, number of prosthesis, name of material used, amount of material used, etc.) To get Alternatively, if the information on the basis of the request is directly described in the instruction sheet, the image data input unit 110 can read the information on the basis of the request using a known technique such as OCR.
  • a known technique such as OCR.
  • the image data input unit 110 extracts the feature amount of the prosthesis from the image data as in S101 of the first embodiment.
  • the image data input unit 110 inputs, to the learning unit 130, the feature amount of the image data acquired in S101.
  • the learning unit 130 inputs the feature amount of the image data to the learning model, and obtains, as an output, the basis data estimated to be highly correlated with the image data.
  • the billing amount estimation unit 140 compares the basis data obtained from the learning model in S202 with the information serving as the basis for the request obtained from the instruction in S201. If the two match, the accuracy of the learning model is considered to be appropriate, and thus the process transitions to S204. On the other hand, if the two do not match, the process transitions to step S205 to perform processing to improve the accuracy of the learning model.
  • the billing amount estimation unit 140 calculates the billing amount based on the ground data obtained in S202 and the charge table held in advance, as in S103 of the first embodiment.
  • S205 In order to maintain and improve the accuracy of the learning model, it is effective to add new learning data and update the learning model.
  • batch processing for recreating learning models by giving past learning data and new learning data at one time, and updating only existing learning models by sequentially giving only new learning data There is additional learning (also called online learning).
  • the learning model is updated by online learning that can reduce the load and time required for calculation.
  • the image data input unit 110 outputs the feature amount of the image data of the prosthesis acquired in S201 to the learning unit 130. Further, the basis data input unit 120 outputs the information serving as the basis of the request obtained from the instruction sheet in S201 to the learning unit 130 as basis data.
  • the learning unit 130 performs online learning using the set of the image data and the basis data, and updates the learning model. In addition, about the specific process for implementing online learning, since it is a well-known technique, as described, for example in the following literature, detailed description is abbreviate
  • the billing amount estimation unit 140 calculates the billing amount based on the information serving as the basis of the billing obtained from the instruction in S201 and the charge table held in advance, as in S103 of the first embodiment. .
  • the billing amount estimation unit 140 outputs the billing amount calculated in S204 or S206.
  • Example 3 The third embodiment relates to an automatic calculation system 100 capable of checking the accuracy of an instruction sheet using a sufficiently advanced learning (that is, having a sufficient estimation accuracy) a learning model.
  • the operation of the engineering fee automatic calculation system 100 according to the third embodiment will be described with reference to the flowchart of FIG.
  • the image data input unit 110 acquires image data.
  • image data of this embodiment a prosthesis and an instruction sheet are incorporated.
  • the image data input unit 110 acquires information on the basis of the request in the instruction as in S201 of the second embodiment.
  • the image data input unit 110 inputs the feature amount of the image data acquired in S301 to the learning unit 130.
  • the learning unit 130 inputs the feature amount of the image data to the learning model, and obtains, as an output, the basis data estimated to be highly correlated with the image data.
  • the billing amount estimation unit 140 calculates the billing amount based on the basis data obtained in S302 and the charge table held in advance, as in S103 of the first embodiment.
  • S304 The billing amount estimation unit 140 outputs the billing amount calculated in S303.
  • the billing amount estimation unit 140 compares the basis data obtained from the learning model in S302 with the information serving as the basis for the request obtained from the instruction in S301. If the two match, the contents of the instruction are considered correct. On the other hand, if the two do not match, the process proceeds to S306.
  • the billing amount estimation unit 150 outputs, of the information serving as the basis of the billing obtained from the instruction in S301, a portion which is different from the basis data obtained from the learning model in S302. For example, different items can be displayed on a display device (not shown).
  • the present invention is not limited to the above embodiment, and can be appropriately modified without departing from the scope of the present invention.
  • the example in which the ground data forming the ground of the request is input to the ground data input unit 120, and the learning unit 130 learns the correlation between the image data and the ground data.
  • the present invention is not limited to this.
  • the charge amount may be input to the basis data input unit 120.
  • the learning unit 130 learns the correlation between the image data and the billed amount in the learning mode. Then, in the determination mode, when the image data of the prosthesis is given as an input, the learning unit 130 outputs a charge amount corresponding to the prosthesis.
  • the engineering fee automatic calculation system 100 can output the billed amount without providing the billed amount estimation unit 140.
  • the basis data input unit 120 outputs all the basis data constituting the basis of the claim of the prosthesis.
  • the learning unit 130 learned the correlativity between the image data and all the input basis data.
  • the present invention is not limited to this. That is, in the learning mode, the basis data input unit 120 may output only a part of the basis data constituting the basis of the claim for the prosthesis.
  • the learning unit 130 may learn the correlation between the image data and the part of the input basis data.
  • the learning unit 130 has a learning model a showing correlation between image data and the ground data group A, a learning model b showing correlation between the image data and the ground data group B, and image data and the ground data group C in the learning mode.
  • Each of the learning models c may be constructed to show the correlation with.
  • the billed amount estimation unit 140 is similar to the above-described embodiment after collecting the basis data estimated by the learning unit 130 in the estimation mode using the learning model a, the learning model b, and the learning model c. Calculate the billed amount by the method.
  • the engineering fee automatic calculation system 100 can tune, reconstruct, or replace only the learning model relating to the specific basis data, as needed. In this case, there is an advantage that learning models for other basis data can be used continuously.
  • the learning unit 130 learns the correlation between the image data and the ground data by supervised learning, but the learning is performed by another machine learning method, for example, unsupervised learning or reinforcement learning. I don't care.
  • each processing means constituting the present invention may be configured by hardware, and an arbitrary process is logically realized by causing a central processing unit (CPU) to execute a computer program.
  • the computer program can be stored using various types of non-transitory computer readable medium and supplied to the computer.
  • the programs may be supplied to the computer by various types of transitory computer readable media.
  • Transient computer readable media include electrical signals, optical signals, and electromagnetic waves.
  • the temporary computer readable medium can provide the program to the computer via a wired communication path such as electric wire and optical fiber, or a wireless communication path.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Development Economics (AREA)
  • Theoretical Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • Finance (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Economics (AREA)
  • Public Health (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Software Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Human Resources & Organizations (AREA)
  • Evolutionary Computation (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Child & Adolescent Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Life Sciences & Earth Sciences (AREA)

Abstract

補綴物の画像から請求の根拠又は請求額を推定することが可能な技工料金自動算出システム、技工料金自動算出方法及びプログラムを提供する。技工料金自動算出システム100は、補綴物の画像データを入力する画像データ入力部110と、補綴物にかかる請求金額の算定根拠となる根拠データを入力する根拠データ入力部120と、画像データと根拠データとを入力して、画像データと根拠データとの相関性を示す学習モデルを構築する学習部130と、を備える。

Description

技工料金自動算出システム、技工料金自動算出方法及びプログラム
 本発明は技工料金自動算出発行システム、技工料金自動算出方法及びプログラムに関し、特に補綴物の画像から請求の根拠又は請求額を推定する技術に関する。
 従来より、歯科医院と歯科技工所との間の受発注は指示書を介して行われている。指示書は、歯科医院が発行する書面であって、例えば患者の氏名、技工物名、数量及び技工物の仕様(使用材料や作成方法等に関する指示を含み得る)、発注元の歯科医院名、発注先の歯科技工所名等が記載される。一般に、歯科医院は既製の指示書用紙に必要事項を手書きで記入して指示書を作成する。
 特許文献1には、複数の歯科医院と複数の歯科技工所との間で補綴物(上記技工物に相当)の受発注を行うことのできるコンピュータシステムが記載されている。
特開2016-071784号公報
 特許文献1記載のシステムは、従来の書面ベースの受発注業務をコンピュータシステム化することにより、利便性を向上させるものである。歯科技工所は、特許文献1記載のようなシステムで発行され又は既成の用紙に手書きされた指示書に基づいて、補綴物を作成する。そして完成した補綴物について、補綴物の名称、数量、使用材料の種類及び量並びに作成方法等(以下、請求の根拠という)に基づく請求金額を計算し、歯科医院に請求する。
 ここで請求の根拠又は請求額は、もっぱら歯科技工所の自己申告に依存している。歯科技工所が具体的な使用材料や工程に関する記録を残すことができれば、その記録に基づいて請求の根拠又は請求額を計算することも可能であるが、容易なことではない。指示書に基づいて請求の根拠又は請求額を計算することも可能であるが、歯科技工所は指示書に明確に記載されない事項を忖度して補綴物を作成する場合もあるので、この方法も必ずしも適切ではない。そこで実際には、歯科技工所は、完成した補綴物やその写真を参照しながら、妥当と思われる請求の根拠又は請求額を経験等に基づいて計上することが少なくない。
 しかしながら、このようにして算出された請求の根拠又は請求額は、客観的に正確性を裏付けることが困難である。歯科技工所、歯科医院又は監査機関等それぞれにとって、請求の根拠又は請求額の妥当性は重大な関心事である。そのため、個々の補綴物の請求の根拠又は請求額について、その妥当性を客観的に裏付けるための手段を提供することが望まれる。
 本発明は、このような問題点を解決するためになされたものであり、補綴物の画像から請求の根拠又は請求額を推定することが可能な技工料金自動算出システム、技工料金自動算出方法及びプログラムを提供することを目的とする。
 本発明の一実施の形態に係る技工料金自動算出システムは、補綴物の画像データを入力する画像データ入力部と、前記補綴物にかかる請求金額の算定根拠となる根拠データを入力する根拠データ入力部と、前記画像データと前記根拠データとを入力して、前記画像データと前記根拠データとの相関性を示す学習モデルを構築する学習部と、を備える。
 本発明の一実施の形態に係る技工料金自動算出システムは、前記学習部は、前記画像データを入力して、前記学習モデルに基づき、前記画像データとの相関性が高い前記根拠データを出力し、前記根拠データに基づいて前記請求金額を推定する請求金額推定部を更に備える。
 本発明の一実施の形態に係る技工料金自動算出システムは、前記画像データ入力部は、前記補綴物の画像データ及び指示書に関する画像データを入力し、前記学習部が前記補綴物の画像データに基づいて出力する前記根拠データと、前記指示書の記載内容と、が相違する場合に、前記学習部は、前記指示書の記載内容を用いて前記学習モデルを更新する。
 本発明の一実施の形態に係る技工料金自動算出システムは、前記画像データ入力部は、前記補綴物の画像データ及び指示書に関する画像データを入力し、前記学習部が前記補綴物の画像データに基づいて出力する前記根拠データと、前記指示書の記載内容と、が相違する場合に、前記請求金額推定部は、前記相違した事項を出力する。
 本発明の一実施の形態に係る技工料金自動算出方法は、コンピュータが、補綴物の画像データを入力する画像データ入力ステップと、前記補綴物にかかる請求金額の算定根拠となる根拠データを入力する根拠データ入力ステップと、前記画像データと前記根拠データとを入力して、前記画像データと前記根拠データとの相関性を示す学習モデルを構築する学習ステップと、を備える。
 本発明の一実施の形態に係る技工料金自動算出システムは、前記学習ステップでは、前記画像データを入力して、前記学習モデルに基づき、前記画像データとの相関性が高い前記根拠データを出力し、前記根拠データに基づいて前記請求金額を推定する請求金額推定ステップを更に備える。
 本発明の一実施の形態に係る技工料金自動算出システムは、前記画像データ入力ステップでは、前記補綴物の画像データ及び指示書に関する画像データを入力し、前記学習ステップにおいて前記補綴物の画像データに基づいて出力される前記根拠データと、前記指示書の記載内容と、が相違する場合に、前記指示書の記載内容を用いて前記学習モデルを更新するステップをさらに有する。
 本発明の一実施の形態に係る技工料金自動算出システムは、前記画像データ入力ステップでは、前記補綴物の画像データ及び指示書に関する画像データを入力し、前記学習ステップにおいて前記補綴物の画像データに基づいて出力する前記根拠データと、前記指示書の記載内容と、が相違する場合に、前記相違した事項を出力するステップをさらに有する。
 本発明の一実施の形態に係るプログラムは、上記方法をコンピュータに実行させるためのプログラムである。
 本発明の一実施の形態に係る技工料金自動算出システムは、補綴物の画像データを入力する画像データ入力部と、前記補綴物にかかる請求金額を入力する根拠データ入力部と、前記画像データと前記請求金額とを入力して、前記画像データと前記請求金額との相関性を示す学習モデルを構築する学習部と、を備える技工料金自動算出システムである。
 本発明により、補綴物の画像から請求の根拠又は請求額を推定することが可能な技工料金自動算出システム、技工料金自動算出方法及びプログラムを提供することができる。
技工料金自動算出システム100の一構成を示すブロック図である。 技工料金自動算出システム100の一構成を示すブロック図である。 実施例1における技工料金自動算出システム100の動作を示すフローチャートである。 料金テーブルの一例を示す図である。 実施例2における技工料金自動算出システム100の動作を示すフローチャートである。 実施例3における技工料金自動算出システム100の動作を示すフローチャートである。
 以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。まず、図1のブロック図を用いて、本発明の実施の形態にかかる技工料金自動算出システム100の構成について説明する。
 技工料金自動算出システム100は、補綴物の画像と請求の根拠との相関関係を機械学習により自ら学習する情報処理装置である。技工料金自動算出システム100は、典型的には中央処理装置(CPU)が記憶装置から読み出したソフトウェア(学習アルゴリズム等)を実行することにより所定の処理を実現する情報処理システムである。技工料金自動算出システム100は、1つの情報処理装置により構成されても良く、複数の情報処理装置が分散的に処理を行うことにより構成されても良い。
 技工料金自動算出システム100は、補綴物の画像データを取得する画像データ入力部110と、補綴物にかかる請求の根拠の一部を示す根拠データを取得する根拠データ入力部120と、画像データと根拠データとの相関性を学習する学習部130と、請求金額を推定する請求金額推定部140とを備える。
 画像データ入力部110は、ハードウェア(CPU等)により実現されても良く、ソフトウェアにより定義された機能をハードウェアが実行することにより論理的に実現されるものであっても良い。画像データ入力部110に入力される画像データは、典型的には歯科技工所により作成された補綴物をカメラで撮影して得られた2次元画像データである。又は、2次元画像データに奥行情報を加えた3次元画像データや、3次元スキャナ等により生成された3次元モデルデータを画像データとして用いても良い。
 画像データ入力部110は、入力された画像データから特徴量を抽出することができる。画像データからの特徴量抽出手法として典型的なものに深層学習(ディープラーニング)がある。深層学習は、多層のニューラルネットワークを用いた機械学習手法である。深層学習では、誤差逆伝播法(バックプロパゲーション)と称される手法を用いることにより、入力データを多層ニューラルネットワークに入力した際の出力誤差が最小となるように学習を行う。これにより、多層ニューラルネットワークは入力データの特徴量を抽出可能に調整される。
 また画像データ入力部110は、補綴物の画像データとともに、その補綴物にかかる指示書の画像データを入力しても良い。補綴物の画像データと指示書の画像データとは別体であってもよく、同一であっても(すなわち1つの画像に補綴物と指示書とが写し込まれていても)良い。画像データ入力部110は、指示書の画像データから指示書の記載事項を抽出する。例えば画像データ入力部110は、指示書に記載されているバーコードやQRコード等を読み取り、バーコードやQRコード等に含まれる識別情報を取得し、識別情報をキーとして図示しない指示書の管理システム等から請求の根拠となる情報を取得することができる。あるいは画像データ入力部110は、OCR(Optical Character Recognition)等の公知技術を利用して、指示書に記載されている請求の根拠となる情報を取得しても良い。指示書から取得されたこれらの情報は、学習モードにおいて根拠データとして使用できる。あるいは、判定モードにおいて判定結果の妥当性を検証するために使用することができる。
 根拠データ入力部120は、ハードウェア(CPU等)により実現されても良く、ソフトウェアにより定義された機能をハードウェアが実行することにより論理的に実現されるものであっても良い。根拠データ入力部120に入力される根拠データは、例えば画像データに含まれる補綴物の種類(すなわち補綴物の名称)、補綴物の数量である。加えて、補綴物を作成する際に使用された材料名、材料の使用量、作成方法等を含んでも良い。すなわち請求の根拠を構成する1又は複数の情報が根拠データである。
 なお、商慣行等によっては、補綴物の種類ごとに、請求の根拠を構成する根拠データが異なる場合がある。例えば補綴物の種類が「入れ歯」である場合、材料の使用量は請求の根拠として用いられない。一方、他の補綴物の種類においては、材料の使用量が請求の根拠として用いられることがある。このような場合に対応するため、根拠データ入力部120は、入力された根拠データのうち、必要な根拠データのみを学習部130に出力する機能を備えていても良い。例えば根拠データ入力部120は、補綴物の種類と、必要な根拠データと、を対応付けたテーブルを備える。根拠データ入力部120は、根拠データが入力されたならば当該テーブルを参照し、補綴物の種類に対応する根拠データのみを出力することができる。
 学習部130は、ハードウェア(CPU等)により実現されても良く、ソフトウェアにより定義された機能をハードウェアが実行することにより論理的に実現されるものであっても良い。学習部130は、公知の任意の機械学習アルゴリズムに従って、画像データ(画像データの特徴量を含むが、以下単に画像データと称する)と根拠データとの相関関係を学習する学習モードと、入力された画像データに相関の高い根拠データを、学習モードでの学習結果を用いて出力する判定モードとを有する。
 学習モードにおいて、学習部130は、様々な画像データと根拠データとの組を繰り返し入力し、学習過程を繰り返し実行する。このように学習過程を繰り返し実行することにより、画像データと根拠データとの相関性を示す学習モデルが構築される。学習モデルが示す相関性は、学習過程が進むにつれて徐々に信頼性を増してゆく。十分に信頼できる水準の学習モデルが構築されると、その学習モデルは、入力された画像データに対して、どのような根拠データが最も相関性が高いのかを判定するために使用できるものとなる。
 図2は、学習アルゴリズムとして教師あり学習を実行する学習部130を備えた技工料金自動算出システム100の構成を示すブロック図である。教師あり学習とは、入力とそれに対応する出力とからなるデータセット(以下、教師データ)を大量に入力し、大量の教師データから入力と出力との相関性を識別して学習モデルを構築してゆく手法である。教師あり学習は、例えばニューラルネットワークを用いて実現することができるが、公知技術であるためここではその詳細な構成に関しては説明を省略する。
 学習部130は、画像データ及び根拠データから導かれる相関性モデルMと、予め用意された教師データTから識別される相関性特徴との誤差Eを計算する誤差計算部131と、誤差Eを縮小するように相関性モデルMを更新するモデル更新部132とを備える。学習部130は、モデル更新部132が相関性モデルMの更新を繰り返すことによって画像データと根拠データとの相関関係を学習していく。
 相関性モデルMの初期値は、例えば、画像データと根拠データとの相関性を単純化して(例えば一次関数で)表現したものであり、教師あり学習の開始前に学習部130に与えられる。教師データTは、例えば、過去に作成された補綴物の画像と、その補綴物を作製した際に正確に記録した請求の根拠とのデータセットである。誤差計算部131は、学習部130に与えられた大量の教師データTから画像データと根拠データとの相関性を示す相関性特徴を識別し、この相関性特徴と、現在状態における画像データ及び根拠データに対応する相関性モデルMとの誤差Eを求める。モデル更新部132は、予め定めた更新ルールに従い、誤差Eが小さくなる方向へ相関性モデルMを更新する。この過程を繰り返すことにより、相関性モデルMは画像データと根拠データとの相関性を正確に示すものとなるよう徐々に調整される。
 判定モードにおいて、学習部130は、学習モードにおいて構築された学習モデルに基づき、画像データに対応する根拠データを自動的かつ正確に求めることができる。すなわち補綴物の画像データを学習モデルに入力として与えることにより、学習モデルがその補綴物にかかる請求の根拠(補綴物の名称、数量、使用材料の種類及び量並びに作成方法等)を自動的かつ正確に出力する。
 請求金額推定部140は、判定モードにおいて学習部130が出力した請求の根拠に基づいて、請求金額を算出する。例えば請求金額推定部140は、請求の根拠と請求単価との対応関係や、請求金額の算出ルール等を定義した料金テーブルを有する。例えば料金テーブルは、材料の単位量あたりの単価を材料名毎に定義したものや、作成方法毎に技術料金を定義したもの、補綴物の種類毎に請求金額の積算ルールを定義したものであって良い。請求金額推定部140は、学習部130が出力した請求の根拠と、料金テーブルの記載内容とを用いて、請求金額を積算する。
 材料単価や工賃単価等は、社会情勢等に応じ変動することがある。また請求金額の算出ルール等も、法令の改変等に伴い変更されることがある。このような場合にも、本実施の形態によれば、料金テーブルの記載内容を修正することで引続き正しい請求金額を算出することが可能である。すなわち、改めて学習過程を実行して学習モデルを作成し直す必要がない。
 以下、実施例として、上述の学習過程を経て生成された学習モデルを利用する方法について幾つかの例を開示する。
<実施例1>
 実施例1は、学習モデルを利用して、補綴物にかかる請求金額を自動算出する技工料金自動算出システム100に関する。図3のフローチャートを用いて、実施例1にかかる技工料金自動算出システム100の動作について説明する。
 S101:画像データ入力部110が、補綴物の画像データを取得する。例えば歯科技工士が、自らが作成した補綴物を、画像データ入力部110の構成要素としてのカメラを備えたスマートフォンで撮影する。画像データ入力部110は、画像データから特徴量を抽出する。
 S102:画像データ入力部110が、S101で取得された画像データの特徴量を学習部130に入力する。学習部130は、画像データの特徴量を学習モデルに入力し、画像データと相関性の高い根拠データを出力として得る。ここで得られる根拠データは、例えば補綴物の種類(すなわち補綴物の名称)、補綴物の数量、使用した材料名、材料の使用量等を含む。
 S103:請求金額推定部140が、S102で得られた根拠データと、予め保持している料金テーブルと、に基づき請求金額を算定する。
 図4に、料金テーブルの一例を示す。この料金テーブルでは、材料名ごとに単価が、補綴物の種類ごとに作成技術料がそれぞれ定義されている。この場合、請求金額推定部140は式(1)により請求金額を算定できる。
 請求金額 = 補綴物の数量 * (使用した材料名の単価 * 使用量 + 補綴物の種類の作成技術料)   ・・・(1)
 例えば、S102で得られた根拠データによれば、補綴物の数量が1、補綴物の種類がA、補綴物の数量が1、使用した材料名がP、材料の使用量が10であるとする。また料金テーブルによれば、材料Pの単価は100円、補綴物Aの作成技術料は1000円であるとする。この場合の請求金額は、
 1 * (100円 * 10 + 1000円) = 2000円
となる。
 S104:請求金額推定部140が、S103で算定した請求金額を出力する。例えば、図示しない表示装置に請求金額を表示することができる。あるいは、図示しない請求システムに対して請求金額を提供し、請求システムが請求書を発行する際に利用することもできる。
<実施例2>
 実施例2は、学習モデルを随時更新し、推定精度を継続的に維持及び向上させることができる自動算出システム100に関する。図5のフローチャートを用いて、実施例2にかかる技工料金自動算出システム100の動作について説明する。
 S201:実施例1のS101と同様に、画像データ入力部110が画像データを取得する。本実施例の画像データには、補綴物と、指示書とが写し込まれているものとする。
 画像データ入力部110は、画像中に指示書の特徴(バーコード、QRコード、書類のタイトル等)を認識したならば、指示書中の請求の根拠となる情報を取得する。バーコードやQRコード等が認識された場合、画像データ入力部110は、バーコードやQRコード等に含まれる一意の識別情報を取得する。そして、図示しない指示書の管理システム等から、識別情報に対応付けて保存されている請求の根拠となる情報(補綴物の種類、補綴物の数量、使用した材料名、材料の使用量等)を取得する。又は、指示書に請求の根拠となる情報が直接記載されていれば、画像データ入力部110はOCR等の公知技術を利用して、請求の根拠となる情報を読み取ることができる。
 また、画像データ入力部110は、実施例1のS101と同様に、画像データから補綴物の特徴量を抽出する。
 S202:実施例1のS102と同様に、画像データ入力部110が、S101で取得された画像データの特徴量を学習部130に入力する。学習部130は、画像データの特徴量を学習モデルに入力し、画像データと相関性が高いと推定される根拠データを出力として得る。
 S203:請求金額推定部140は、S202で学習モデルから得られた根拠データと、S201で指示書から得られた請求の根拠となる情報と、を比較する。両者が一致している場合、学習モデルの精度は適切と考えられるので、S204に遷移する。一方、両者が一致していなければ、学習モデルの精度を向上させる処理を行うためS205に遷移する。
 S204:請求金額推定部140が、実施例1のS103と同様に、S202で得られた根拠データと、予め保持している料金テーブルと、に基づき請求金額を算定する。
 S205:学習モデルの精度を維持及び向上させるためには、新たな学習用データを加えて学習モデルを更新することが有効である。学習モデルの典型的な更新方法として、過去の学習データと新たな学習データを一度に与えて新たに学習モデルを作り直すバッチ処理と、新たな学習データのみを与えて既存の学習モデルを逐次更新する追加学習(オンライン学習とも称される)とがある。本実施例では、計算にかかる負荷や時間を抑制可能なオンライン学習により学習モデルを更新する。
 画像データ入力部110は、S201で取得した補綴物の画像データの特徴量を学習部130に出力する。また根拠データ入力部120は、S201で指示書から得られた請求の根拠となる情報を、根拠データとして学習部130に出力する。学習部130は、これらの画像データと根拠データとのセットを使用してオンライン学習を行い、学習モデルを更新する。なおオンライン学習を実施するための具体的処理については、例えば下記文献に記載されているように公知技術であるから、ここでは詳細な説明を省略する。
 Shai Shalev-Shwartz,「Online Learning and Online Convex Optimization」,Foundations and Trends in Machine Learning,2011年,Vol.4,No.2,第107-194頁
 S206:請求金額推定部140が、実施例1のS103と同様に、S201で指示書から得られた請求の根拠となる情報と、予め保持している料金テーブルと、に基づき請求金額を算定する。
 S207:請求金額推定部140が、S204又はS206で算定した請求金額を出力する。
<実施例3>
 実施例3は、十分に学習が進んだ(すなわち十分な推定精度を有する)学習モデルを用いて指示書の正確さをチェックすることができる自動算出システム100に関する。図6のフローチャートを用いて、実施例3にかかる技工料金自動算出システム100の動作について説明する。
 S301:実施例1のS101と同様に、画像データ入力部110が画像データを取得する。本実施例の画像データには、補綴物と、指示書とが写し込まれているものとする。画像データ入力部110は、実施例2のS201と同様に、指示書中の請求の根拠となる情報を取得する。
 S302:実施例1のS102と同様に、画像データ入力部110が、S301で取得された画像データの特徴量を学習部130に入力する。学習部130は、画像データの特徴量を学習モデルに入力し、画像データと相関性が高いと推定される根拠データを出力として得る。
 S303:請求金額推定部140が、実施例1のS103と同様に、S302で得られた根拠データと、予め保持している料金テーブルと、に基づき請求金額を算定する。
 S304:請求金額推定部140が、S303で算定した請求金額を出力する。
 S305:請求金額推定部140は、S302で学習モデルから得られた根拠データと、S301で指示書から得られた請求の根拠となる情報と、を比較する。両者が一致している場合、指示書の内容は正確と考えられる。一方、両者が一致していなければS306に遷移する。
 S306:請求金額推定部150は、S301で指示書から得られた請求の根拠となる情報のうち、S302で学習モデルから得られた根拠データと相違する部分を出力する。例えば、図示しない表示装置に相違した項目を表示することができる。
 なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上述の実施の形態では、根拠データ入力部120には請求の根拠を構成する根拠データが入力され、学習部130は画像データと根拠データとの相関性を学習する例を説明した。しかしながら、本発明はこれに限定されるものではない。例えば、根拠データ入力部120には、請求金額が入力されても良い。この場合、学習部130は学習モードにおいて、画像データと請求金額との相関性を学習する。そして判定モードにおいて、学習部130は、補綴物の画像データが入力として与えられると、その補綴物に対応する請求金額を出力する。
 この手法によれば、技工料金自動算出システム100は、請求金額推定部140を備えることなく、請求金額を出力することが可能である。
 また、上述の実施の形態では、学習モードにおいて、根拠データ入力部120は補綴物の請求の根拠を構成する根拠データを全て出力した。学習部130は画像データと、入力された全ての根拠データと、の相関性を学習した。しかしながら、本発明はこれに限定されるものではない。すなわち学習モードにおいて、根拠データ入力部120は補綴物の請求の根拠を構成する根拠データの一部のみを出力しても良い。学習部130は画像データと、入力された一部の根拠データと、の相関性を学習しても良い。
 例えば請求の根拠をA,B,C・・という複数の根拠データ群に分割できる場合(ここで根拠データ群A,B,C・・にはそれぞれ1又は複数の根拠データが含まれて良い)、学習部130は学習モードにおいて、画像データと根拠データ群Aとの相関性を示す学習モデルa、画像データと根拠データ群Bとの相関性を示す学習モデルb、画像データと根拠データ群Cとの相関性を示す学習モデルcをそれぞれ構築しても良い。この場合、請求金額推定部140は、推定モードの学習部130が学習モデルa、学習モデルb、学習モデルcを用いてそれぞれ推定した根拠データを取りまとめたうえで、上述の実施の形態と同様の手法で請求金額を算出する。
 この手法によれば、技工料金自動算出システム100は、必要に応じ、特定の根拠データに関する学習モデルのみをチューニングしたり、再構築したり、差替えたりすることができる。この場合、その他の根拠データに関する学習モデルは継続して使用できるという利点がある。
 また、上述の実施の形態では、学習部130は教師あり学習により画像データと根拠データとの相関性を学習したが、学習は他の機械学習手法、例えば教師なし学習や強化学習等によりなされても構わない。
 また、本発明を構成する各処理手段は、ハードウェアにより構成されるものであってもよく、任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより論理的に実現するものであってもよい。この場合、コンピュータプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 100 技工料金自動算出システム
 110 画像データ入力部
 120 根拠データ入力部
 130 学習部
 131 誤差計算部
 132 モデル更新部
 140 請求金額推定部

Claims (10)

  1.  補綴物の画像データを入力する画像データ入力部と、
     前記補綴物にかかる請求金額の算定根拠となる根拠データを入力する根拠データ入力部と、
     前記画像データと前記根拠データとを入力して、前記画像データと前記根拠データとの相関性を示す学習モデルを構築する学習部と、を備える
     技工料金自動算出システム。
  2.  前記学習部は、前記画像データを入力して、前記学習モデルに基づき、前記画像データとの相関性が高い前記根拠データを出力し、
     前記根拠データに基づいて前記請求金額を推定する請求金額推定部を更に備える
     請求項1記載の技工料金自動算出システム。
  3.  前記画像データ入力部は、前記補綴物の画像データ及び指示書に関する画像データを入力し、
     前記学習部が前記補綴物の画像データに基づいて出力する前記根拠データと、前記指示書の記載内容と、が相違する場合に、前記学習部は、前記指示書の記載内容を用いて前記学習モデルを更新する
     請求項1記載の技工料金自動算出システム。
  4.  前記画像データ入力部は、前記補綴物の画像データ及び指示書に関する画像データを入力し、
     前記学習部が前記補綴物の画像データに基づいて出力する前記根拠データと、前記指示書の記載内容と、が相違する場合に、前記請求金額推定部は、前記相違した事項を出力する
     請求項1記載の技工料金自動算出システム。
  5.  コンピュータが、
     補綴物の画像データを入力する画像データ入力ステップと、
     前記補綴物にかかる請求金額の算定根拠となる根拠データを入力する根拠データ入力ステップと、
     前記画像データと前記根拠データとを入力して、前記画像データと前記根拠データとの相関性を示す学習モデルを構築する学習ステップと、を備える
     技工料金自動算出方法。
  6.  前記学習ステップでは、前記画像データを入力して、前記学習モデルに基づき、前記画像データとの相関性が高い前記根拠データを出力し、
     前記根拠データに基づいて前記請求金額を推定する請求金額推定ステップを更に備える
     請求項5記載の技工料金自動算出方法。
  7.  前記画像データ入力ステップでは、前記補綴物の画像データ及び指示書に関する画像データを入力し、
     前記学習ステップにおいて前記補綴物の画像データに基づいて出力される前記根拠データと、前記指示書の記載内容と、が相違する場合に、前記指示書の記載内容を用いて前記学習モデルを更新するステップをさらに有する
     請求項5記載の技工料金自動算出方法。
  8.  前記画像データ入力ステップでは、前記補綴物の画像データ及び指示書に関する画像データを入力し、
     前記学習ステップにおいて前記補綴物の画像データに基づいて出力する前記根拠データと、前記指示書の記載内容と、が相違する場合に、前記相違した事項を出力するステップをさらに有する
     請求項5記載の技工料金自動算出方法。
  9.  請求項5乃至8いずれか1項記載の方法をコンピュータに実行させるためのプログラム。
  10.  補綴物の画像データを入力する画像データ入力部と、
     前記補綴物にかかる請求金額を入力する根拠データ入力部と、
     前記画像データと前記請求金額とを入力して、前記画像データと前記請求金額との相関性を示す学習モデルを構築する学習部と、を備える
     技工料金自動算出システム。
PCT/JP2017/043670 2017-12-05 2017-12-05 技工料金自動算出システム、技工料金自動算出方法及びプログラム WO2019111327A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
US16/769,348 US20200311702A1 (en) 2017-12-05 2017-12-05 Dental technical fee automatic calculation system, dental technical fee automatic calculation method, and program
EP17933918.9A EP3723030A4 (en) 2017-12-05 2017-12-05 AUTOMATIC TECHNICAL COST CALCULATION SYSTEM, AUTOMATIC TECHNICAL COST CALCULATION PROCESS AND PROGRAM
JP2019557904A JP7082352B2 (ja) 2017-12-05 2017-12-05 技工料金自動算出システム、技工料金自動算出方法及びプログラム
CN201780097466.XA CN111433802A (zh) 2017-12-05 2017-12-05 技工费用自动计算系统、技工费用自动计算方法和程序
PCT/JP2017/043670 WO2019111327A1 (ja) 2017-12-05 2017-12-05 技工料金自動算出システム、技工料金自動算出方法及びプログラム
KR1020207018653A KR20200095506A (ko) 2017-12-05 2017-12-05 기공 요금 자동 산출 시스템, 기공 요금 자동 산출 방법 및 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/043670 WO2019111327A1 (ja) 2017-12-05 2017-12-05 技工料金自動算出システム、技工料金自動算出方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2019111327A1 true WO2019111327A1 (ja) 2019-06-13

Family

ID=66750834

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/043670 WO2019111327A1 (ja) 2017-12-05 2017-12-05 技工料金自動算出システム、技工料金自動算出方法及びプログラム

Country Status (6)

Country Link
US (1) US20200311702A1 (ja)
EP (1) EP3723030A4 (ja)
JP (1) JP7082352B2 (ja)
KR (1) KR20200095506A (ja)
CN (1) CN111433802A (ja)
WO (1) WO2019111327A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023016929A (ja) * 2019-08-26 2023-02-02 エフ.ホフマン-ラ ロシュ アーゲー 医療データの自動化された検証

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102240597B1 (ko) * 2020-09-23 2021-04-15 박성만 치과 진료 맞춤형 중개 서비스 제공 시스템
KR102521892B1 (ko) * 2020-12-10 2023-04-14 주식회사 지엠에스하이테크 인공지능 기반의 자동 견적 산출 방법 및 시스템
KR102523144B1 (ko) * 2022-04-20 2023-04-25 주식회사 커스토먼트 치과용 임플란트 온라인 의뢰 서비스 제공 시스템 및 그 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002197197A (ja) * 2000-12-27 2002-07-12 Masterworks:Kk 歯科医院紹介サービス支援システム及びその紹介サービス方法
JP2004522489A (ja) * 2000-12-29 2004-07-29 ノベル バイオケアー アーベー (パブル) 補綴装具のための方法、装置、およびプログラム
JP2007156706A (ja) * 2005-12-02 2007-06-21 Fujitsu Ltd 歯科治療を支援するシミュレーション方法
JP2012033161A (ja) * 2010-07-07 2012-02-16 Robert Reid Inc インプラント受注製造システム、インプラント受注出荷システム及び管理サーバ
JP2016071784A (ja) 2014-10-01 2016-05-09 京セラメディカル株式会社 歯科用補綴物受発注システムおよび歯科用補綴物受発注方法
JP2017000550A (ja) * 2015-06-12 2017-01-05 国立大学法人 東京大学 人工関節置換術支援装置及び方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106133790B (zh) * 2014-03-28 2020-09-29 皇家飞利浦有限公司 用于在组织种类分离的帮助下基于磁共振图像生成一幅或多幅计算机断层摄影图像的方法和设备
US10269114B2 (en) * 2015-06-12 2019-04-23 International Business Machines Corporation Methods and systems for automatically scoring diagnoses associated with clinical images
DE102015217429A1 (de) * 2015-09-11 2017-03-16 Siemens Healthcare Gmbh Diagnosesystem und Diagnoseverfahren

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002197197A (ja) * 2000-12-27 2002-07-12 Masterworks:Kk 歯科医院紹介サービス支援システム及びその紹介サービス方法
JP2004522489A (ja) * 2000-12-29 2004-07-29 ノベル バイオケアー アーベー (パブル) 補綴装具のための方法、装置、およびプログラム
JP2007156706A (ja) * 2005-12-02 2007-06-21 Fujitsu Ltd 歯科治療を支援するシミュレーション方法
JP2012033161A (ja) * 2010-07-07 2012-02-16 Robert Reid Inc インプラント受注製造システム、インプラント受注出荷システム及び管理サーバ
JP2016071784A (ja) 2014-10-01 2016-05-09 京セラメディカル株式会社 歯科用補綴物受発注システムおよび歯科用補綴物受発注方法
JP2017000550A (ja) * 2015-06-12 2017-01-05 国立大学法人 東京大学 人工関節置換術支援装置及び方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
See also references of EP3723030A4
SHAI SHALEV-SHWARTZ: "Online Learning and Online Convex Optimization", vol. 4, 2011, FOUNDATIONS AND TRENDS IN MACHINE LEARNING, pages: 107 - 194

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023016929A (ja) * 2019-08-26 2023-02-02 エフ.ホフマン-ラ ロシュ アーゲー 医療データの自動化された検証
JP7361187B2 (ja) 2019-08-26 2023-10-13 エフ. ホフマン-ラ ロシュ アーゲー 医療データの自動化された検証

Also Published As

Publication number Publication date
EP3723030A1 (en) 2020-10-14
KR20200095506A (ko) 2020-08-10
CN111433802A (zh) 2020-07-17
JPWO2019111327A1 (ja) 2020-12-24
US20200311702A1 (en) 2020-10-01
JP7082352B2 (ja) 2022-06-08
EP3723030A4 (en) 2021-06-16

Similar Documents

Publication Publication Date Title
WO2019111327A1 (ja) 技工料金自動算出システム、技工料金自動算出方法及びプログラム
WO2018098039A1 (en) Distributed clinical workflow training of deep learning neural networks
CN107767152B (zh) 产品购买倾向分析方法及服务器
CN115564642B (zh) 图像变换方法、装置、电子设备、存储介质及程序产品
JP2018500686A (ja) マーチャントのビジネスサークル情報の確定
JP2018173742A (ja) 支払支援システム、支払支援方法及び支払支援プログラム
CN113705792A (zh) 基于深度学习模型的个性化推荐方法、装置、设备及介质
CN112288342B (zh) 一种提高多中心协作质量控制的数据处理方法和系统
CN112836033B (zh) 业务模型的管理方法、装置、设备及存储介质
CN110473092B (zh) 一种高效阅读智能合约辅助方法
CN111797590B (zh) 数据核对方法、装置和设备
CN109324963A (zh) 自动测试收益结果的方法及终端设备
JP2019105887A (ja) 情報処理装置、情報処理方法及びプログラム
CN113435986A (zh) 财务数据管理方法
CN112256689A (zh) 业务数据清洗方法、装置、电子设备
CN112257450A (zh) 数据处理方法、装置、可读存储介质及设备
CN112053058A (zh) 指标模型的生成方法及装置
CN113496468A (zh) 深度图像的修复方法、装置和存储介质
CN110942389A (zh) 金融单据和业务单据的挂接方法及终端设备
CN114817004B (zh) 测试用例生成方法、装置、设备及可读存储介质
CN109584057A (zh) 交易明细数据获取方法、装置以及服务器
CN111882419B (zh) 质检文件的方法、装置及服务器
CN110969325A (zh) 获取法律案件的审理期限的方法及装置
CN110414186B (zh) 数据资产切分校验方法以及装置
CN116226053B (zh) 一种文本处理方法、装置及设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17933918

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019557904

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20207018653

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2017933918

Country of ref document: EP

Effective date: 20200706