WO2021068617A1 - 任务处理时间自动预测方法、装置、电子设备及介质 - Google Patents

任务处理时间自动预测方法、装置、电子设备及介质 Download PDF

Info

Publication number
WO2021068617A1
WO2021068617A1 PCT/CN2020/106287 CN2020106287W WO2021068617A1 WO 2021068617 A1 WO2021068617 A1 WO 2021068617A1 CN 2020106287 W CN2020106287 W CN 2020106287W WO 2021068617 A1 WO2021068617 A1 WO 2021068617A1
Authority
WO
WIPO (PCT)
Prior art keywords
task
estimated
processing time
time
target
Prior art date
Application number
PCT/CN2020/106287
Other languages
English (en)
French (fr)
Inventor
徐欣星
Original Assignee
平安国际智慧城市科技股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 平安国际智慧城市科技股份有限公司 filed Critical 平安国际智慧城市科技股份有限公司
Publication of WO2021068617A1 publication Critical patent/WO2021068617A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • G06F11/3419Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment by assessing time
    • G06F11/3423Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment by assessing time where the assessed time is active or idle time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3452Performance evaluation by statistical analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • This application relates to the smart medical field in the field of digital medical technology, and in particular to a method, device, electronic equipment, and medium for automatically predicting task processing time.
  • an object of the present application is to provide a method, device, electronic device, and medium for automatically predicting task processing time.
  • an apparatus for automatically predicting task processing time includes: an acquisition module configured to acquire key information of a task, acquire the number of times the task appears from the key information, and compare the first occurrence of the task As the first task, the task that appears for the second time or more is taken as the follow-up task; the first sending module is configured to send the key information in the follow-up task to the second machine learning model for a follow-up task.
  • an electronic device includes: a processor; and
  • the memory is configured to store the user feature optimization program in the user feature group of the processor; wherein the processor is configured to execute the task processing described above by executing the user feature optimization program in the user feature group Time automatic forecasting method.
  • a computer-readable storage medium stores a user feature optimization program in a user feature group, and the user feature optimization program in the user feature group is executed by a processor to achieve the task processing time as described above Automatic prediction method.
  • a computer program product includes a non-transitory computer-readable storage medium storing a computer program, and the computer program is operable to cause a computer to execute as described in the first aspect of the embodiments of the present application Methods.
  • the number of occurrences of the task is obtained from the key information, the task that appears for the first time is regarded as the first task, and the task that appears more than the second time is regarded as the follow-up task.
  • the key information in the subsequent task is sent to the second machine learning model to obtain the first estimated subsequent task processing time T 1 .
  • the estimated processing time of the subsequent task is related to the processing time when the subsequent task appears for the first time
  • T 2 T 0 (n-1) ⁇ n-1
  • the first estimated processing time and the second estimated processing time obtained by the two methods are integrated, and the obtained estimated task processing time can estimate the time spent on task processing.
  • Fig. 1 shows a schematic diagram of an exemplary system architecture to which the technical solutions of the embodiments of the present application can be applied.
  • Fig. 2 schematically shows a flowchart of a method for automatically predicting task processing time according to an embodiment of the present application.
  • Fig. 3 schematically shows a flowchart of a method for automatically predicting task processing time according to an embodiment of the present application.
  • Fig. 4 schematically shows a flow chart of the adjustment of the task processing time automatic prediction method according to an embodiment of the present application.
  • Fig. 5 schematically shows a block diagram of a device for automatically predicting task processing time.
  • Fig. 6 shows a block diagram of an electronic device for implementing the above-mentioned task processing time automatic prediction method according to an exemplary embodiment.
  • Fig. 7 shows a schematic diagram of a computer-readable storage medium for implementing the above-mentioned task processing time automatic prediction method according to an exemplary embodiment.
  • FIG. 1 shows a schematic diagram of an exemplary system architecture 100 to which the technical solutions of the embodiments of the present application can be applied.
  • the system architecture 100 may include a terminal device 101 (the terminal device may be one or more of a smart phone, a tablet computer, a portable computer, a desktop computer, and a registration machine), a network 102, a server 103, and a triage. ⁇ 104.
  • the network 102 is used to provide a medium of a communication link between the terminal device 101 and the server 103.
  • the network 102 may include various connection types, such as wired communication links, wireless communication links, and so on.
  • the numbers of the terminal device 101, the network 102, the server 103, and the triage station 104 in FIG. 1 are only illustrative. According to implementation needs, there may be any number of terminal devices 101, network 102, server 103, and triage station 104.
  • the server 103 may be a server cluster composed of multiple servers.
  • the triage station 104 can obtain the tasks assigned by the user from the terminal device 101 and key information of the tasks. These tasks may be tasks that take time to process, such as program testing, registration and consultation, etc.
  • the triage station 104 These tasks and their key information are sent to the server 103.
  • the user can assign tasks through the client or web page in the terminal device 101.
  • the server 103 acquires the number of occurrences of the task from the key information by acquiring the key information of the task, and regards the task that appears for the first time as the first task, and the task that appears more than the second time as the subsequent tasks. For a subsequent task, the server 103 sends the key information in the subsequent task to the second machine learning model to obtain the first estimated subsequent task processing time T 1 .
  • the server 103 integrates the first estimated processing time and the second estimated processing time obtained by the two methods, and the obtained estimated task processing time can estimate the time spent on task processing.
  • the task processing time automatic prediction method provided by the embodiment of the present application is generally executed by the server 103, and accordingly, the task processing time automatic prediction device is generally set in the server 103.
  • the terminal device 101 may also have similar functions as the server 103, so as to execute the task processing time automatic prediction method provided in the embodiments of the present application.
  • FIG. 2 schematically shows a flowchart of a method for automatically predicting task processing time according to an embodiment of the present application.
  • the execution subject of the method for automatically predicting task processing time may be a server, for example, the server 103 shown in FIG. 1 .
  • the method for automatically predicting task processing time includes at least step S210 to step S240, which are described in detail as follows:
  • step S210 the key information of the task is acquired, the number of occurrences of the task is acquired from the key information, the task that appears for the first time is regarded as the first task, and the task that appears for the second time or more is regarded as the subsequent task.
  • the key information of the task may be characters included in the task that are consistent with the words in the preset keyword comparison table.
  • the key information of the task may be the characters included in the task and corresponding to the characters in the preset keyword comparison table.
  • the task may be a program test
  • the key information of the task may include the program name, test items, test methods, test times, and so on. According to the number of tests, the number of occurrences of the program test task can be obtained.
  • the program test performed by this method for the first time is regarded as the first task, and the program test performed for the second time or more is regarded as the follow-up task.
  • the task may be a registered visit
  • the key information of the task may include the name of the user, the registered department, the visiting doctor, the number of visits, etc., where the number of visits is the number of times the user visits the disease this time.
  • the first visit will be the first task, and the second or more visits will be taken as follow-up tasks.
  • the task may be to register for a doctor, and the key information of the task may include the user's name, the registered department, the doctor who is visiting, the time of the doctor, and so on.
  • the user’s medical records can be searched based on the user’s name, and the medical records can be compared with the registered department and doctor in the current registration visit. If the registered department and doctor are the same, then obtain the medical condition description in the medical record and obtain the medical condition description Comparing the return visit time interval with the current registration time recorded in the return visit time interval. If the current visit is within the return visit time interval, confirm that the current appointment visit is a follow-up task.
  • step S220 for a subsequent task, the key information in the subsequent task is sent to the second machine learning model to obtain the first estimated subsequent task processing time T 1 .
  • the second machine learning model is pre-trained in the following manner: acquiring a task sample set, and the first estimated subsequent task processing time corresponding to each task sample in the task sample set is known; For each task sample in the task sample set, the key information of the task sample is obtained; the key information is input to the second machine learning model, and the first estimated subsequent task processing time output by the second machine learning model is obtained.
  • the historical task, the key information of the historical task, and the actual processing time of the historical task can be acquired first.
  • the task sample set may be a historical task set, and the first estimated subsequent task processing time corresponding to each historical task may be the actual processing time of the historical task.
  • the task may be program testing.
  • program testing the time it takes to test the program for the first time is T 0.
  • T the time spent when testing the program for the first time.
  • the follow-up test can only test the parts that have problems during the previous test, as the number of tests increases, the parts that have problems are less and less. , It takes less and less time. Therefore, the time spent in the subsequent test procedure is reduced relative to the time spent in the first test procedure, and the loss factor ⁇ can be set according to historical data.
  • the task may be to register for a doctor.
  • the time spent on the first consultation is T 0.
  • the time spent on the follow-up consultation is T 0. It takes less time than the first visit.
  • the results of the last visit can be used to screen out the diseases that will not occur in the patient during the period from the last visit to the current visit, screening for diseases that do not occur to the patient is eliminated, and the time spent on subsequent visits for the same disease is eliminated.
  • the time spent on the first visit will also be reduced.
  • the compromise factor ⁇ can be set based on historical data.
  • the number of times that the task appears is obtained from the key information, and the task that appears for the first time is regarded as the first task, and the task that appears more than the second time As a follow-up task.
  • the key information in the subsequent task is sent to the second machine learning model to obtain the first estimated subsequent task processing time T 1 .
  • the estimated processing time of the subsequent task is related to the processing time when the subsequent task appears for the first time
  • T 2 T 0 (n-1) ⁇ n-1
  • the first estimated processing time and the second estimated processing time obtained by the two methods are integrated, and the obtained estimated task processing time T can estimate the time spent on task processing.
  • the key information in the first task is sent to the first machine learning model to obtain the estimated task processing time T.
  • the first machine learning model is pre-trained in the following way: obtaining a task sample set, and the estimated task processing time corresponding to each task sample in the task sample set is known; for the task sample set For each task sample in, obtain the key information of the task sample; input the key information into the first machine learning model to obtain the estimated task processing time output by the first machine learning model.
  • the historical task, the key information of the historical task, and the actual processing time of the historical task can be acquired first.
  • the task sample set may be a historical task set, and the estimated task processing time corresponding to each historical task may be the actual processing time of the historical task.
  • FIG. 3 schematically shows a flowchart of a method for automatically predicting task processing time according to an embodiment of the present application.
  • the execution subject of the method for automatically predicting task processing time may be a server, for example, the server 103 shown in FIG. 1 .
  • the method for automatically predicting task processing time includes at least step S310 to step S370, which are described in detail as follows:
  • step S310 the key information of each task between the current task and the target task in the task list is obtained, and the number of occurrences of each task is obtained according to the key information;
  • step S320 it is judged whether the task is the first task or the follow-up task according to the number of occurrences of the task, the task that appears for the first time is regarded as the first task, and the task that appears for the second time or more is regarded as the subsequent task;
  • step S330 for a subsequent task, the key information in the subsequent task is sent to the second machine learning model to obtain the first estimated subsequent task processing time T 1 ;
  • step S360 for a first task, the key information in the first task is sent to the first machine learning model to obtain the estimated task processing time T;
  • step S370 the estimated start time of the target task is determined based on the sum of the estimated task processing time T of each task between the current task and the target task.
  • the prediction of each task between the current task and the target task is estimated Processing time, by summing the estimated processing time of each task between the current task and the target task, the estimated start time of the target task can be determined.
  • the estimated start time may be sent to the user, so that the user can know the start processing time of the target task.
  • a reminder can be sent to the user within a set period of time before the estimated start time.
  • the user can also set the reminder time as needed. Avoid missing the processing of the target task.
  • the target program test reminder is sent to the user. After the user receives the reminder, he waits to observe the target program test. This can prevent the user from missing the target program test process. Minimize the user's waiting time and optimize the user's experience.
  • the target user when the task is to register for a doctor, the target user’s register for a doctor is the target task.
  • the target user registers through a client terminal such as a mobile phone or a registration machine to obtain the key to the user between the current user and the target user.
  • the estimated start time of the target user's visit is estimated based on the key information between the current user and the target user.
  • a medical visit reminder is sent to the target user.
  • the target user receives the medical reminder, he then goes to the hospital and other medical areas to wait for medical treatment. This can prevent the user from missing the medical treatment while avoiding the user from waiting in the hospital and other areas with more patients, preventing the user from being infected with other diseases while waiting. Alleviated the pressure of the flow of people in the hospital.
  • the task processing time automatic prediction method can also be adjusted through the following steps:
  • step S380 a notification of the completion of execution of a task between the current task and the target task is received; the execution time of the task is obtained from the notification; the difference between the execution time and the estimated task processing time T of the task is determined; the difference is used , Adjust the estimated start time of the target task.
  • the estimated start time of the target task is adjusted in time, so that the obtained estimated start time of the target task is more accurate.
  • FIG. 3 only schematically shows the steps of the task processing time automatic prediction method according to an embodiment of the present application.
  • Step S380 can be performed before step S370, and step S380 can also be performed after step S370.
  • the server 103 in the method for automatically predicting task processing time can also be adjusted through the following steps:
  • step S410 the key information of each task between the current task and the target task in the task list is obtained, and the number of occurrences of each task is obtained according to the key information;
  • step S420 a notification of completion of execution of a task between the current task and the target task is received; the execution time of the task is obtained from the notification; the difference between the execution time and the estimated task processing time T of the task is determined;
  • step S430 according to the number of occurrences of the completed task, it is determined whether the completed task is the first task or the subsequent task;
  • step S440 if the task is the first task and the difference is not 0, use the key information in the first task and the execution time of the task as a sample to retrain the first machine learning model;
  • Estimate the subsequent task processing time T 2 take the key information in the subsequent task and the second estimated subsequent task processing time T 2 that the second machine learning model should output as a sample to retrain the second machine learning model.
  • the first machine learning model and the second machine learning model are retrained according to the difference between the execution time of the task and the estimated task processing time, so that the obtained estimated task processing time becomes more and more accurate.
  • the estimated processing time of the target task can be obtained. Add the estimated start time of the target task to the estimated task processing time of the target task to get the estimated end time of the target task; compare the estimated end time with the set time, and send a reminder to the user when the estimated end time exceeds the set time, Let the user know in advance when the task will end.
  • the target task is the target program test
  • the user can choose another time to test the target program. Users can also choose other programs for testing based on the estimated end time of other programs.
  • the target task is to register for a doctor
  • the target user knows that the expected end time of his consultation will exceed the doctor’s working hours, he can choose another time for the doctor to prevent two registrations for one visit Circumstances, to avoid wasting registration fees.
  • the user can also arrange the itinerary according to the estimated end time of the medical treatment.
  • Fig. 5 schematically shows a block diagram of a task processing time device according to an embodiment of the present application.
  • a task processing time device 500 includes an acquiring module 501, a first sending module 502, and a calculating module 503.
  • the acquiring module 501 is configured to acquire key information of the task, acquire the number of times the task appears from the key information, and regard the first occurrence of the task as the first task, and the second occurrence of the task.
  • the first sending module 502 is configured to send key information in the follow-up task to the second machine learning model for a follow-up task to obtain the first estimated follow-up task processing time T 1 ;
  • the obtaining module 501 is also configured to obtain the actual time spent T 0 of the first task corresponding to the subsequent task;
  • the device for automatically predicting task processing time further includes: a second sending module configured to send key information in the first task to the first machine learning model for a first task Get the estimated task processing time T.
  • the obtaining module 501 is configured to: obtain key information of each task between the current task and the target task in the task list; after obtaining the estimated task processing time T,
  • the task processing time automatic prediction device further includes: an estimating module configured to determine the estimated start time of the target task based on the sum of the estimated task processing time T of each task between the current task and the target task.
  • the device for automatically predicting task processing time further includes: a determining module configured to receive a notification of completion of execution of a task between the current task and the target task; and obtain from the notification The execution time of the task; determine the difference between the execution time and the estimated task processing time T of the task; use the difference to adjust the estimated start time of the target task.
  • the determining module is configured to: if the task is the first task and the difference is not 0, use the key information in the first task and the execution time of the task as a sample, and re Train the first machine learning model.
  • the obtaining module 501 is further configured to: obtain each task between the current task and the target task in the task list, and the key information of the target task; the estimation module is also configured to Configured as: is configured to add the estimated task processing time T of the target task to the estimated start time of the target task to obtain the estimated end time of the target task; compare the estimated end time with the set time, when the estimated end time When the time exceeds the set time, a reminder is sent to the user.
  • the electronic device 60 according to this embodiment of the present application will be described below with reference to FIG. 6.
  • the electronic device 60 shown in FIG. 6 is only an example, and should not bring any limitation to the function and scope of use of the embodiments of the present application.
  • the electronic device 60 is represented in the form of a general-purpose computing device.
  • the components of the electronic device 60 may include, but are not limited to: the aforementioned at least one processing unit 61, the aforementioned at least one storage unit 62, a bus 63 connecting different system components (including the storage unit 62 and the processing unit 61), and a display unit 64.
  • the storage unit stores program code, and the program code can be executed by the processing unit 61, so that the processing unit 61 executes the various exemplary methods described in the above-mentioned "Embodiment Method" section of this specification. Steps of implementation.
  • the storage unit 62 may include a readable medium in the form of a volatile storage unit, such as a random access storage unit (RAM) 621 and/or a cache storage unit 622, and may further include a read-only storage unit (ROM) 623.
  • RAM random access storage unit
  • ROM read-only storage unit
  • the storage unit 62 may also include a program/utility tool 624 having a set of (at least one) program module 625.
  • program module 625 includes but is not limited to: an operating system, one or more application programs, other program modules, and program data, Each of these examples or some combination may include the implementation of a network environment.
  • the bus 63 may represent one or more of several types of bus structures, including a storage unit bus or a storage unit controller, a peripheral bus, a graphics acceleration port, a processing unit, or a local area using any bus structure among multiple bus structures. bus.
  • the electronic device 60 can also communicate with one or more external devices (such as keyboards, pointing devices, Bluetooth devices, etc.), and can also communicate with one or more devices that enable a user to interact with the electronic device 60, and/or communicate with
  • the electronic device 60 can communicate with any device (such as a router, modem, etc.) that communicates with one or more other computing devices. This communication can be performed through an input/output (I/O) interface 65.
  • the electronic device 60 may also communicate with one or more networks (for example, a local area network (LAN), a wide area network (WAN), and/or a public network, such as the Internet) through the network adapter 66. As shown in the figure, the network adapter 66 communicates with other modules of the electronic device 60 through the bus 63.
  • LAN local area network
  • WAN wide area network
  • public network such as the Internet
  • the example embodiments described here can be implemented by software, or can be implemented by combining software with necessary hardware. Therefore, the technical solution according to the embodiments of the present application can be embodied in the form of a software product, which can be stored in a non-volatile storage medium (which can be a CD-ROM, U disk, mobile hard disk, etc.) or on the network , Including several instructions to make a computing device (which can be a personal computer, a server, a terminal device, or a network device, etc.) execute the method according to the embodiment of the present application.
  • a computing device which can be a personal computer, a server, a terminal device, or a network device, etc.
  • a computer-readable storage medium is also provided.
  • the computer-readable storage medium may be non-volatile or volatile, and a program product capable of implementing the above method of this specification is stored thereon.
  • various aspects of the present application can also be implemented in the form of a program product, which includes program code.
  • the program product runs on a terminal device, the program code is used to make the The terminal device executes the steps according to various exemplary embodiments of the present application described in the above-mentioned "Exemplary Method" section of this specification.
  • a program product 70 for implementing the above method according to an embodiment of the present application is described. It can adopt a portable compact disk read-only memory (CD-ROM) and include program code, and can be installed in a terminal device, For example, running on a personal computer.
  • CD-ROM compact disk read-only memory
  • the program product of this application is not limited to this.
  • the readable storage medium can be any tangible medium that contains or stores a program, and the program can be used by or in combination with an instruction execution system, device, or device.
  • the program product can use any combination of one or more readable media.
  • the readable medium may be a readable signal medium or a readable storage medium.
  • the readable storage medium may be, for example, but not limited to, an electrical, magnetic, optical, electromagnetic, infrared, or semiconductor system, device, or device, or a combination of any of the above. More specific examples (non-exhaustive list) of readable storage media include: electrical connections with one or more wires, portable disks, hard disks, random access memory (RAM), read-only memory (ROM), erasable Type programmable read only memory (EPROM or flash memory), optical fiber, portable compact disk read only memory (CD-ROM), optical storage device, magnetic storage device, or any suitable combination of the above.
  • the computer-readable signal medium may include a data signal propagated in baseband or as a part of a carrier wave, and readable program code is carried therein. This propagated data signal can take many forms, including but not limited to electromagnetic signals, optical signals, or any suitable combination of the foregoing.
  • the readable signal medium may also be any readable medium other than a readable storage medium, and the readable medium may send, propagate, or transmit a program for use by or in combination with the instruction execution system, apparatus, or device.
  • the program code contained on the readable medium can be transmitted by any suitable medium, including but not limited to wireless, wired, optical cable, RF, etc., or any suitable combination of the above.
  • the program code used to perform the operations of the present application can be written in any combination of one or more programming languages.
  • the programming languages include object-oriented programming languages—such as Java, C++, etc., as well as conventional procedural programming languages. Programming language-such as "C" language or similar programming language.
  • the program code can be executed entirely on the user's computing device, partly on the user's device, executed as an independent software package, partly on the user's computing device and partly executed on the remote computing device, or entirely on the remote computing device or server Executed on.
  • the remote computing device can be connected to a user computing device through any kind of network, including a local area network (LAN) or a wide area network (WAN), or it can be connected to an external computing device (for example, using Internet service providers). Business to connect via the Internet).
  • LAN local area network
  • WAN wide area network
  • Internet service providers for example, using Internet service providers.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Debugging And Monitoring (AREA)

Abstract

本申请提供了一种任务处理时间自动预测方法、装置、电子设备及介质,属于数字医疗技术领域,该方法包括:获取任务的关键信息,从关键信息获取任务出现的次数,第一次出现的任务作为首次任务,第二次以上出现的任务作为后续任务;对于一个后续任务,将该后续任务中的关键信息发送至第二机器学习模型得到第一预估后续任务处理时间T 1;获取该后续任务对应的首次任务实际花费时间T 0,将该后续任务出现的次数n、实际花费时间T 0带入公式T 2=T 0(n-1)λ n-1得到第二预估后续任务处理时间T 2,其中,λ为折损系数;将第一预估处理时间和第二预估处理时间带入公式T=T 1α 1+T 2α 2得到预估任务处理时间T,其中,α 12=1,α 1为第一预估处理时间权重,α 2为第二预估处理时间权重。

Description

任务处理时间自动预测方法、装置、电子设备及介质
本申请要求2019年10月12日递交、发明名称为“任务处理时间自动预测方法、装置、介质及电子设备”的中国专利申请201910969526.3的优先权,在此通过引用将其全部内容合并于此。
技术领域
本申请涉及数字医疗技术领域中的智慧医疗领域,尤其涉及一种任务处理时间自动预测方法、装置、电子设备及介质。
背景技术
由于当今各行各业的信息化、智能化建设越来越普及,人们对办事效率的要求越来越高,对时间的规划也越来越具体。在处理任务时,给用户提供花费时间参考可以帮助人们更好的规划时间,因此,本申请的发明人意识到,能够自动估计出处理任务花费的时间具有十分重要的意义。
发明内容
为了解决上述技术问题,本申请的一个目的在于提供一种任务处理时间自动预测方法、装置、电子设备及介质。
其中,本申请所采用的技术方案为:
第一方面,一种任务处理时间自动预测方法,包括:获取任务的关键信息,从所述关键信息获取所述任务出现的次数,并将第一次出现的所述任务作为首次任务,将第二次以上出现的所述任务作为后续任务;对于一个后续任务,将该后续任务中的所述关键信息发送至第二机器学习模型得到第一预估后续任务处理时间T 1;获取该后续任务对应的首次任务实际花费时间T 0,将该后续任务出现的次数n、所述实际花费时间T 0带入公式T 2=T 0(n-1)λ n-1得到第二预估后续任务处理时间T 2,其中,λ为折损系数;将所述第一预估处理时间和所述第二预估处理时间带入公式T=T 1α 1+T 2α 2得到预估任务处理时间T,其中,α 12=1,α 1为所述第一预估处理时间所占权重,α 2为所述第二预估处理时间所占权重。
第二方面,一种任务处理时间自动预测装置,包括:获取模块,被配置为获取任务的关键信息,从所述关键信息获取所述任务出现的次数,并将第一次出现的所述任务作为首次任务,将第二次以上出现的所述任务作为后续任务;第一发送模块,被配置为对于一个后续任务,将该后续任务中的所述关键信息发送至第二机器学习模型得到第一预估后续任务处理时间T 1;所述获取模块还被配置为获取该后续任务对应的首次任务实际花费时间T 0;计算模块,被配置为将所述任务出现的次数n、所述实际花费时间T 0带入公式 T 2=T 0(n-1)λ n-1得到第二预估后续任务处理时间T 2,其中,λ为折损系数;将所述第一预估处理时间和所述第二预估处理时间带入公式T=T 1α 1+T 2α 2得到预估任务处理时间T,其中,α 12=1,α 1为所述第一预估处理时间所占权重,α 2为所述第二预估处理时间所占权重。
第三方面,一种电子设备,包括:处理器;以及
存储器,被配置为存储所述处理器的用户特征群中用户特征寻优程序;其中,所述处理器配置为经由执行所述用户特征群中用户特征寻优程序来执行如上所述的任务处理时间自动预测方法。
第四方面,一种计算机可读存储介质,其上存储有用户特征群中用户特征寻优程序,所述用户特征群中用户特征寻优程序被处理器执行时实现如上所述的任务处理时间自动预测方法。
第五方面,一种计算机程序产品,所述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,所述计算机程序可操作来使计算机执行如本申请实施例第一方面所述的方法。
在上述技术方案中,通过获取任务的关键信息,从关键信息获取任务出现的次数,并将第一次出现的任务作为首次任务,将第二次以上出现的任务作为后续任务。对于一个后续任务,将该后续任务中的关键信息发送至第二机器学习模型得到第一预估后续任务处理时间T 1。由于后续任务的预估处理时间与该后续任务第一次出现时的处理时间相关,因此再获取该后续任务对应的首次任务实际花费时间T 0,将该后续任务出现的次数n、实际花费时间T 0带入公式T 2=T 0(n-1)λ n-1得到第二预估后续任务处理时间T 2,其中,λ为折损系数。该后续任务出现的次数越多,处理该后续任务所花的时间越少。再将第一预估处理时间和第二预估处理时间带入公式T=T 1α 1+T 2α 2得到预估任务处理时间T,其中,α 12=1,α 1为第一预估处理时间所占权重,α 2为第二预估处理时间所占权重。将通过两种方法求得的第一预估处理时间和第二预估处理时间进行整合处理,得到的预估任务处理时间能够估计出任务处理花费的时间。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并于说明书一起用于解释本申请的原理。
图1示出了可以应用本申请实施例的技术方案的示例性系统架构的示意图。
图2示意性示出了根据本申请的一个实施例的任务处理时间自动预测方法的流程图。
图3示意性示出了根据本申请的一个实施例的任务处理时间自动预测方法的流程图。
图4示意性示出了根据本申请的一个实施例的任务处理时间自动预测方法调整的流 程图。
图5示意性示出一种任务处理时间自动预测装置的方框图。
图6示出根据示例性实施例的用于实现上述任务处理时间自动预测方法的电子设备的框图。
图7示出根据示例性实施例的用于实现上述任务处理时间自动预测方法的计算机可读存储介质的示意图。
通过上述附图,已示出本申请明确的实施例,后文中将有更详细的描述,这些附图和文字描述并不是为了通过任何方式限制本申请构思的范围,而是通过参考特定实施例为本领域技术人员说明本申请的概念。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本申请将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本申请的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本申请的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本申请的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
图1示出了可以应用本申请实施例的技术方案的示例性系统架构100的示意图。
如图1所示,系统架构100可以包括终端设备101(终端设备可以为智能手机、平板电脑、便携式计算机、台式计算机、挂号机中的一种或多种)、网络102、服务器103和分诊台104。网络102用以在终端设备101和服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线通信链路、无线通信链路等等。
应该理解,图1中的终端设备101、网络102、服务器103和分诊台104的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备101、网络102、服务器103和分诊台104。比如服务器103可以是多个服务器组成的服务器集群等。
在本申请的一个实施例中,分诊台104可以获取用户从终端设备101分配的任务和任务的关键信息,这些任务可以是程序测试、挂号就诊等需要花费时间处理的任务,分诊台 104将这些任务和任务的关键信息发送给服务器103。用户可以通过终端设备101中的客户端或网页分配任务。服务器103通过获取任务的关键信息,从关键信息获取任务出现的次数,并将第一次出现的任务作为首次任务,将第二次以上出现的任务作为后续任务。对于一个后续任务,服务器103将该后续任务中的关键信息发送至第二机器学习模型得到第一预估后续任务处理时间T 1。由于后续任务的预估处理时间与该后续任务第一次出现时的处理时间相关,并且该后续任务出现的次数越多,处理该后续任务所花的时间越少。因此服务器103再获取该后续任务对应的首次任务实际花费时间T 0,将该后续任务出现的次数n、实际花费时间T 0带入公式T 2=T 0(n-1)λ n-1得到第二预估后续任务处理时间T 2,其中,λ为折损系数。服务器103再将第一预估处理时间和第二预估处理时间带入公式T=T 1α 1+T 2α 2得到预估任务处理时间T,其中,α 12=1,α 1为第一预估处理时间所占权重,α 2为第二预估处理时间所占权重。服务器103将通过两种方法求得的第一预估处理时间和第二预估处理时间进行整合处理,得到的预估任务处理时间能够估计出任务处理花费的时间。
需要说明的是,本申请实施例所提供的任务处理时间自动预测方法一般由服务器103执行,相应地,任务处理时间自动预测装置一般设置于服务器103中。但是,在本申请的其它实施例中,终端设备101也可以与服务器103具有相似的功能,从而执行本申请实施例所提供的任务处理时间自动预测方法。
以下对本申请实施例的技术方案的实现细节进行详细阐述:
图2示意性示出了根据本申请的一个实施例的任务处理时间自动预测方法的流程图,该任务处理时间自动预测方法的执行主体可以是服务器,比如可以是图1中所示的服务器103。
参照图2所示,该任务处理时间自动预测方法至少包括步骤S210至步骤S240,详细介绍如下:
在步骤S210中,获取任务的关键信息,从关键信息获取任务出现的次数,并将第一次出现的任务作为首次任务,将第二次以上出现的任务作为后续任务。
在本申请的一个实施例中,任务的关键信息可以为任务中包含的、与预设关键字对照表中的字一致的字符。任务的关键信息可以为任务中包含的、与预设关键字对照表中的字一致的字符所对应的字符。
在本申请的一个实施例中,任务可以是程序测试,任务的关键信息可以包括程序名称、测试项目、测试方法、测试次数等。根据测试次数可以获取该程序测试任务出现的次数,将第一次使用该种方法进行该项测试的该程序测试作为首次任务,将第二次以上测试该程序测试作为后续任务。
在本申请的一个实施例中,任务可以是挂号就诊,任务的关键信息可以包括用户姓名、挂号科室、就诊医生、就诊次数等,其中,就诊次数为该用户就诊本次就诊疾病的次数。将第一次就诊为首次任务,将第二次以上就诊本次就诊疾病作为后续任务。
在本申请的一个实施例中,任务可以是挂号就诊,任务的关键信息可以包括用户姓名、挂号科室、就诊医生、挂号时间等。可以根据用户姓名查找用户的就诊记录,比较就诊记录与本次挂号看诊中的挂号科室、就诊医生是否相同,若挂号科室、就诊医生都相同,则获取就诊记录中的病情描述,获取病情描述中记录的复诊时间区间,比较复诊时间区间和本次挂号时间,若本次挂号在复诊时间区间内,则确认本次挂号就诊为后续任务。
在步骤S220中,对于一个后续任务,将该后续任务中的关键信息发送至第二机器学习模型得到第一预估后续任务处理时间T 1
在本申请的一个实施例中,第二机器学习模型通过以下方式预先训练而成:获取任务样本集合,任务样本集合中的每个任务样本对应的第一预估后续任务处理时间已知;对于任务样本集合中的每个任务样本,获取该任务样本的关键信息;将关键信息输入第二机器学习模型,获取第二机器学习模型输出的第一预估后续任务处理时间。
在该实施例中,可以先获取历史任务、历史任务关键信息和历史任务的实际处理时间。任务样本集合可以为历史任务集合,每个历史任务对应的第一预估后续任务处理时间可以为该历史任务的实际处理时间。
在步骤S230中,获取该后续任务对应的首次任务实际花费时间T 0,将该后续任务出现的次数n、实际花费时间T 0带入公式T 2=T 0(n-1)λ n-1得到第二预估后续任务处理时间T 2,其中,λ为折损系数。
在本申请的一个实施例中,任务可以是程序测试,在程序测试中,首次测试该程序时花费时间为T 0,在后续测试该程序时,由于相同的计算已经被完成并存储,再次测试该程序花费的时间相对于首次测试该程序时花费的时间少,同时,由于后续测试时可以只测试上一次测试时出现问题的部分,随着测试次数的增加,出现问题的部分越来越少,花费的时间就越来越少。因此后续测试程序花费的时间相对于首次测试程序花费的时间发生折损,折损系数λ可以根据历史数据设定。
在本申请的一个实施例中,任务可以是挂号就诊,在挂号就诊时,首次就诊花费时间为T 0,在后续就诊相同疾病时,由于医生已经对患者病情有所了解,后续就诊花费的时间相对于首次就诊花费的时间更少。并且,由于根据上一次就诊结果可以筛选出患者在上一次就诊到本次就诊时间段内不会发生的疾病,免去对患者不会发生的疾病的筛查,后续就诊相同疾病就诊花费的时间相对于首次就诊花费的时间也会减少。同时,由于随着患者的治疗,患者的疾病会逐渐减轻,患者就诊的次数越多,花费的时间就越少。因此后续挂号就诊花费的时间相对于首次就诊花费的时间发生折损,折损系数λ可以根据历史数据设定。
在步骤S240中,将第一预估处理时间和第二预估处理时间带入公式T=T 1α 1+T 2α 2得到预估任务处理时间T,其中,α 12=1,α 1为第一预估处理时间所占权重,α 2为第二预估处理时间所占权重。
在本申请的一些实施例所提供的技术方案中,通过获取任务的关键信息,从关键信息 获取任务出现的次数,并将第一次出现的任务作为首次任务,将第二次以上出现的任务作为后续任务。对于一个后续任务,将该后续任务中的关键信息发送至第二机器学习模型得到第一预估后续任务处理时间T 1。由于后续任务的预估处理时间与该后续任务第一次出现时的处理时间相关,因此再获取该后续任务对应的首次任务实际花费时间T 0,将该后续任务出现的次数n、实际花费时间T 0带入公式T 2=T 0(n-1)λ n-1得到第二预估后续任务处理时间T 2,其中,λ为折损系数。该后续任务出现的次数越多,处理该后续任务所花的时间越少。再将第一预估处理时间和第二预估处理时间带入公式T=T 1α 1+T 2α 2得到预估任务处理时间T,其中,α 12=1,α 1为第一预估处理时间所占权重,α 2为第二预估处理时间所占权重。将通过两种方法求得的第一预估处理时间和第二预估处理时间进行整合处理,得到的预估任务处理时间T能够估计出任务处理花费的时间。
在本申请的一个实施例中,对于一个首次任务,将首次任务中的关键信息发送至第一机器学习模型得到预估任务处理时间T。
在本申请的一个实施例中,第一机器学习模型通过以下方式预先训练而成:获取任务样本集合,任务样本集合中的每个任务样本对应的预估任务处理时间已知;对于任务样本集合中的每个任务样本,获取该任务样本的关键信息;将关键信息输入第一机器学习模型,获取第一机器学习模型输出的预估任务处理时间。
在该实施例中,可以先获取历史任务、历史任务关键信息和历史任务的实际处理时间。任务样本集合可以为历史任务集合,每个历史任务对应的预估任务处理时间可以为该历史任务的实际处理时间。
图3示意性示出了根据本申请的一个实施例的任务处理时间自动预测方法的流程图,该任务处理时间自动预测方法的执行主体可以是服务器,比如可以是图1中所示的服务器103。
参照图3所示,该任务处理时间自动预测方法至少包括步骤S310至步骤S370,详细介绍如下:
在步骤S310中,获取任务列表中在当前任务与目标任务之间的每个任务的关键信息,根据关键信息获取每个任务出现的次数;
在步骤S320中,根据任务出现的次数判断任务是首次任务还是后续任务,将第一次出现的任务作为首次任务,将第二次以上出现的任务作为后续任务;
在步骤S330中,对于一个后续任务,将该后续任务中的关键信息发送至第二机器学习模型得到第一预估后续任务处理时间T 1
在步骤S340中,获取该后续任务对应的首次任务实际花费时间T 0,将该后续任务出现的次数n、实际花费时间T 0带入公式T 2=T 0(n-1)λ n-1得到第二预估后续任务处理时间T 2,其中,λ为折损系数;
在步骤S350中,将第一预估处理时间和第二预估处理时间带入公式T=T 1α 1+T 2α 2得到预估任务处理时间T,其中,α 12=1,α 1为第一预估处理时间所占权重,α 2为第二 预估处理时间所占权重;
在步骤S360中,对于一个首次任务,将首次任务中的关键信息发送至第一机器学习模型得到预估任务处理时间T;
在步骤S370中,基于当前任务与目标任务之间的每个任务的预估任务处理时间T的和,确定目标任务的预计开始时间。
在本申请的一些实施例所提供的技术方案中,通过获取任务列表中在当前任务与目标任务之间每个任务的关键信息,预估出在当前任务与目标任务之间每个任务的预计处理时间,将当前任务与目标任务之间每个任务的预计处理时间求和,就能够确定目标任务的预计开始时间。
在本申请的一个实施例中,确定目标任务的预计开始时间之后,可以向用户发送该预计开始时间,使用户能够获知目标任务的开始处理时间。
在本申请的一个实施例中,确定目标任务的预计开始时间之后,可以在距离预计开始时间之前设定时间内,向用户发送提醒,用户也可以根据需要设定提醒时间,通过提醒用户使用户避免错过目标任务的处理。
在本申请的一个实施例中,当任务是程序测试时,当用户需要观察目标程序测试过程时,获取目标程序测试之前的其他程序测试关键信息,根据其他程序测试关键信息预估出目标程序测试的预计开始时间,当距离预计开始时间间隔小于设定时间间隔时,向用户发送目标程序测试提醒,用户接收到提醒后再等待观察目标程序测试,可以在避免用户错过目标程序测试过程的同时,尽量减少用户的等待时间,优化用户的体验。
在本申请的一个实施例中,当任务是挂号就诊时,目标用户的挂号就诊是目标任务,目标用户通过客户终端如手机或挂号机进行挂号,获得当前用户和目标用户之间的用户的关键信息后,根据当前用户和目标用户之间的用户的关键信息预估出目标用户就诊的预计开始时间,当距离预计开始时间间隔小于设定时间间隔时,向目标用户发送就诊提醒。目标用户接收到就诊提醒后再到医院等就诊区域等待就诊,可以在防止用户错过就诊的同时,避免用户在医院等病患较多的区域内等待,防止用户在等待时被感染其他疾病,也缓解了医院的人流压力。
继续参照图3,在本申请的一个实施例中,该任务处理时间自动预测方法还可以通过以下步骤进行调整:
在步骤S380中,接收到当前任务与目标任务之间的一个任务执行完成的通知;从通知中获取任务的执行时间;确定执行时间与任务的预估任务处理时间T的差值;利用差值,调整目标任务的预计开始时间。
在该实施例中,通过在当前任务与目标任务之间的一个任务执行完成后,及时调整目标任务的预计开始时间,使获得的目标任务预计开始时间更加准确。
需要说明的是,图3只是示意性的给出了本申请一个实施例的任务处理时间自动预测方法的步骤,步骤S380可以在步骤S370前执行,步骤S380也可以在步骤S370之后执行。
在本申请的一个实施例中,参照图4所示,该任务处理时间自动预测方法中服务器103还可以通过以下步骤进行调整:
在步骤S410中,获取任务列表中在当前任务与目标任务之间的每个任务的关键信息,根据关键信息获取每个任务出现的次数;
在步骤S420中,接收到当前任务与目标任务之间的一个任务执行完成的通知;从通知中获取任务的执行时间;确定执行时间与任务的预估任务处理时间T的差值;
在步骤S430中,根据完成的任务出现的次数,确定完成的任务是首次任务还是后续任务;
在步骤S440中,如果任务是首次任务、且差值不为0,用首次任务中的关键信息、和任务的执行时间作为一个样本,重新训练第一机器学习模型;
在步骤S450中,如果任务是后续任务、且差值不为0,将任务的执行时间作为T代入T=T 1α 1+T 2α 2求得第二机器学习模型应当输出的第二预估后续任务处理时间T 2;将后续任务中的关键信息、第二机器学习模型应当输出的第二预估后续任务处理时间T 2作为一个样本,重新训练第二机器学习模型。
在该实施例中,通过根据任务的执行时间和预估任务处理时间之间的差值对第一机器学习模型和第二机器学习模型重新训练,使获得的预估任务处理时间越来越准确。
在本申请的一个实施例中,在获得目标任务的预计开始时间基础上,可以获得目标任务的预计处理时间。将目标任务的预计开始加上目标任务的预估任务处理时间,得到目标任务的预计结束时间;将预计结束时间与设定时间比较,当预计结束时间超出设定时间时,向用户发送提醒,使用户提前获知任务何时结束。
在本申请的一个实施例中,当目标任务是目标程序测试时,若目标程序测试的预计结束时间超出用户原本预计的观察时间时,用户可以另外选择时间进行测试目标程序。用户也可以根据其他程序测试的预计结束时间合理选择其他程序进行测试。
在本申请的一个实施例中,当目标任务是挂号就诊时,若目标用户得知自己的看诊预计结束时间会超过医生的工作时间时,可以另外选择时间进行就诊,防止一次就诊两次挂号的情况,避免浪费挂号费用。用户提前得知就诊预计结束时间后,用户也可以根据就诊预计结束时间合理安排行程。
以下介绍本申请的装置实施例,可以用于执行本申请上述实施例中的任务处理时间方法。对于本申请装置实施例中未披露的细节,请参照本申请上述的任务处理时间方法的实施例。
图5示意性示出了根据本申请的一个实施例的任务处理时间装置的框图。
参照图5所示,根据本申请的一个实施例的任务处理时间装置500,包括获取模块501、第一发送模块502和计算模块503。
在本申请的一些实施例中,基于前述方案,获取模块501被被配置为获取任务的关键信息,从关键信息获取任务出现的次数,并将第一次出现的任务作为首次任务,将第二次 以上出现的任务作为后续任务;第一发送模块502被被配置为对于一个后续任务,将该后续任务中的关键信息发送至第二机器学习模型得到第一预估后续任务处理时间T 1;获取模块501还被被配置为获取该后续任务对应的首次任务实际花费时间T 0;计算模块503被被配置为将任务出现的次数n、实际花费时间T 0带入公式T 2=T 0(n-1)λ n-1得到第二预估后续任务处理时间T 2,其中,λ为折损系数;将第一预估处理时间和第二预估处理时间带入公式T=T 1α 1+T 2α 2得到预估任务处理时间T,其中,α 12=1,α 1为第一预估处理时间所占权重,α 2为第二预估处理时间所占权重。
在本申请的一些实施例中,基于前述方案,任务处理时间自动预测装置还包括:第二发送模块,被被配置为对于一个首次任务,将首次任务中的关键信息发送至第一机器学习模型得到预估任务处理时间T。
在本申请的一些实施例中,基于前述方案,获取模块501被配置为:获取任务列表中在当前任务与目标任务之间的每个任务的关键信息;在得到预估任务处理时间T之后,任务处理时间自动预测装置还包括:预估模块,被被配置为基于当前任务与目标任务之间的每个任务的预估任务处理时间T的和,确定目标任务的预计开始时间。
在本申请的一些实施例中,基于前述方案,任务处理时间自动预测装置还包括:确定模块,被被配置为接收到当前任务与目标任务之间的一个任务执行完成的通知;从通知中获取任务的执行时间;确定执行时间与任务的预估任务处理时间T的差值;利用差值,调整目标任务的预计开始时间。
在本申请的一些实施例中,基于前述方案,确定模块被配置为:如果任务是首次任务、且差值不为0,用首次任务中的关键信息、和任务的执行时间作为一个样本,重新训练第一机器学习模型。
在本申请的一些实施例中,基于前述方案,确定模块还被配置为:如果任务是后续任务、且差值不为0,将任务的执行时间作为T代入T=T 1α 1+T 2α 2,求得第二机器学习模型应当输出的第二预估后续任务处理时间T 2;将后续任务中的关键信息、第二机器学习模型应当输出的第二预估后续任务处理时间T 2作为一个样本,重新训练第二机器学习模型。
在本申请的一些实施例中,基于前述方案,获取模块501还被配置为:获取任务列表中在当前任务与目标任务之间的每个任务、以及目标任务的关键信息;预估模块还被配置为:被被配置为在目标任务的预计开始时间基础上,加上目标任务的预估任务处理时间T,得到目标任务的预计结束时间;将预计结束时间与设定时间比较,当预计结束时间超出设定时间时,向用户发送提醒。
所属技术领域的技术人员能够理解,本申请的各个方面可以实现为系统、方法或程序产品。因此,本申请的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图6来描述根据本申请的这种实施方式的电子设备60。图6显示的电子设 备60仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,电子设备60以通用计算设备的形式表现。电子设备60的组件可以包括但不限于:上述至少一个处理单元61、上述至少一个存储单元62、连接不同系统组件(包括存储单元62和处理单元61)的总线63、显示单元64。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元61执行,使得所述处理单元61执行本说明书上述“实施例方法”部分中描述的根据本申请各种示例性实施方式的步骤。
存储单元62可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)621和/或高速缓存存储单元622,还可以进一步包括只读存储单元(ROM)623。
存储单元62还可以包括具有一组(至少一个)程序模块625的程序/实用工具624,这样的程序模块625包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线63可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备60也可以与一个或多个外部设备(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备60交互的设备通信,和/或与使得该电子设备60能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口65进行。并且,电子设备60还可以通过网络适配器66与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器66通过总线63与电子设备60的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备60使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本申请实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本申请实施方式的方法。
根据本申请一个实施例,还提供了一种计算机可读存储介质,计算机可读存储介质可以是非易失性,也可以是易失性,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本申请的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本申请各种示例性实施方式的步骤。
参考图7所示,描述了根据本申请的实施方式的用于实现上述方法的程序产品70,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本申请的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本申请操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本申请示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围执行各种修改和改变。本申请的范围仅由所附的权利要求来限制。

Claims (20)

  1. 一种任务处理时间自动预测方法,其中,包括:
    获取任务的关键信息,从所述关键信息获取所述任务出现的次数,并将第一次出现的所述任务作为首次任务,将第二次以上出现的所述任务作为后续任务;
    对于一个后续任务,将该后续任务中的所述关键信息发送至第二机器学习模型得到第一预估后续任务处理时间T 1
    获取该后续任务对应的首次任务实际花费时间T 0,将该后续任务出现的次数n、所述实际花费时间T 0带入公式T 2=T 0(n-1)λ n-1得到第二预估后续任务处理时间T 2,其中,λ为折损系数;
    将所述第一预估处理时间和所述第二预估处理时间带入公式T=T 1α 1+T 2α 2得到预估任务处理时间T,其中,α 12=1,α 1为所述第一预估处理时间所占权重,α 2为所述第二预估处理时间所占权重。
  2. 根据权利要求1所述的任务处理时间自动预测方法,其中,在所述获取任务的关键信息之后,所述方法还包括:
    对于一个首次任务,将所述首次任务中的所述关键信息发送至第一机器学习模型得到所述预估任务处理时间T。
  3. 根据权利要求2所述的任务处理时间自动预测方法,其中,所述获取任务的关键信息,包括:
    获取任务列表中在当前任务与目标任务之间的每个任务的关键信息;
    在得到所述预估任务处理时间T之后,所述方法还包括:
    基于所述当前任务与所述目标任务之间的每个所述任务的所述预估任务处理时间T的和,确定所述目标任务的预计开始时间。
  4. 根据权利要求3所述的任务处理时间自动预测方法,其中,在基于所述当前任务与所述目标任务之间的每所述个任务的预估任务处理时间T的和,确定所述目标任务的预计开始时间之后,所述方法还包括:
    接收到所述当前任务与所述目标任务之间的一个所述任务执行完成的通知;
    从所述通知中获取所述任务的执行时间;
    确定所述执行时间与所述任务的所述预估任务处理时间T的差值;
    利用所述差值,调整所述目标任务的所述预计开始时间。
  5. 根据权利要求4所述的任务处理时间自动预测方法,其中,在确定所述执行时间与所述任务的所述预估任务处理时间T的差值之后,所述方法还包括:
    如果所述任务是首次任务、且差值不为0,用所述首次任务中的所述关键信息、和所述任务的所述执行时间作为一个样本,重新训练所述第一机器学习模型。
  6. 根据权利要求4所述的任务处理时间自动预测方法,其中,在确定所述执行时间与 所述任务的所述预估任务处理时间T的差值之后,所述方法还包括:
    如果所述任务是后续任务、且所述差值不为0,将所述任务的执行时间作为T代入T=T 1α 1+T 2α 2
    求得所述第二机器学习模型应当输出的所述第二预估后续任务处理时间T 2
    将所述后续任务中的所述关键信息、所述第二机器学习模型应当输出的所述第二预估后续任务处理时间T 2作为一个样本,重新训练所述第二机器学习模型。
  7. 根据权利要求3所述的任务处理时间自动预测方法,其中,所述获取任务列表中在当前任务与目标任务之间的每个任务的关键信息,包括:获取所述任务列表中在所述当前任务与所述目标任务之间的每个所述任务、以及所述目标任务的所述关键信息;
    在基于所述当前任务与所述目标任务之间的每个所述任务的所述预估任务处理时间T的和,确定所述目标任务的所述预计开始时间之后,所述方法还包括:
    在所述目标任务的所述预计开始时间基础上,加上所述目标任务的所述预估任务处理时间T,得到所述目标任务的预计结束时间;
    将所述预计结束时间与设定时间比较,当所述预计结束时间超出所述设定时间时,向用户发送提醒。
  8. 一种任务处理时间自动预测装置,其中,包括:
    获取模块,被被配置为获取任务的关键信息,从所述关键信息获取所述任务出现的次数,并将第一次出现的所述任务作为首次任务,将第二次以上出现的所述任务作为后续任务;
    第一发送模块,被被配置为对于一个后续任务,将该后续任务中的所述关键信息发送至第二机器学习模型得到第一预估后续任务处理时间T 1
    所述获取模块还被被配置为获取该后续任务对应的首次任务实际花费时间T 0
    计算模块,被被配置为将所述任务出现的次数n、所述实际花费时间T 0带入公式T 2=T 0(n-1)λ n-1得到第二预估后续任务处理时间T 2,其中,λ为折损系数;将所述第一预估处理时间和所述第二预估处理时间带入公式T=T 1α 1+T 2α 2得到预估任务处理时间T,其中,α 12=1,α 1为所述第一预估处理时间所占权重,α 2为所述第二预估处理时间所占权重。
  9. 一种电子设备,其中,包括:处理器;以及存储器,被配置为存储所述处理器的任务处理时间自动预测程序;其中,所述处理器被配置为经由执行所述任务处理时间自动预测程序来执行以下处理:
    获取任务的关键信息,从所述关键信息获取所述任务出现的次数,并将第一次出现的所述任务作为首次任务,将第二次以上出现的所述任务作为后续任务;
    对于一个后续任务,将该后续任务中的所述关键信息发送至第二机器学习模型得到第一预估后续任务处理时间T 1
    获取该后续任务对应的首次任务实际花费时间T 0,将该后续任务出现的次数n、所述 实际花费时间T 0带入公式T 2=T 0(n-1)λ n-1得到第二预估后续任务处理时间T 2,其中,λ为折损系数;
    将所述第一预估处理时间和所述第二预估处理时间带入公式T=T 1α 1+T 2α 2得到预估任务处理时间T,其中,α 12=1,α 1为所述第一预估处理时间所占权重,α 2为所述第二预估处理时间所占权重。
  10. 根据权利要求9所述的电子设备,其中,
    在所述获取任务的关键信息之后,所述处理器还被配置为经由执行所述任务处理时间自动预测程序来执行以下处理:
    对于一个首次任务,将所述首次任务中的所述关键信息发送至第一机器学习模型得到所述预估任务处理时间T。
  11. 根据权利要求10所述的电子设备,其中,所述处理器被配置为经由执行所述任务处理时间自动预测程序来执行所述获取任务的关键信息,包括:
    获取任务列表中在当前任务与目标任务之间的每个任务的关键信息;
    在得到所述预估任务处理时间T之后,所述处理器还被配置为经由执行所述任务处理时间自动预测程序来执行以下处理:
    基于所述当前任务与所述目标任务之间的每个所述任务的所述预估任务处理时间T的和,确定所述目标任务的预计开始时间。
  12. 根据权利要求11所述的电子设备,其中,
    在基于所述当前任务与所述目标任务之间的每所述个任务的预估任务处理时间T的和,确定所述目标任务的预计开始时间之后,所述处理器还被配置为经由执行所述任务处理时间自动预测程序来执行以下处理:
    接收到所述当前任务与所述目标任务之间的一个所述任务执行完成的通知;
    从所述通知中获取所述任务的执行时间;
    确定所述执行时间与所述任务的所述预估任务处理时间T的差值;
    利用所述差值,调整所述目标任务的所述预计开始时间。
  13. 根据权利要求12所述的电子设备,其中,
    在确定所述执行时间与所述任务的所述预估任务处理时间T的差值之后,所述处理器还被配置为经由执行所述任务处理时间自动预测程序来执行以下处理:
    如果所述任务是首次任务、且差值不为0,用所述首次任务中的所述关键信息、和所述任务的所述执行时间作为一个样本,重新训练所述第一机器学习模型。
  14. 根据权利要求12所述的电子设备,其中,
    在确定所述执行时间与所述任务的所述预估任务处理时间T的差值之后,所述处理器还被配置为经由执行所述任务处理时间自动预测程序来执行以下处理:
    如果所述任务是后续任务、且所述差值不为0,将所述任务的执行时间作为T代入T=T 1α 1+T 2α 2
    求得所述第二机器学习模型应当输出的所述第二预估后续任务处理时间T 2
    将所述后续任务中的所述关键信息、所述第二机器学习模型应当输出的所述第二预估后续任务处理时间T 2作为一个样本,重新训练所述第二机器学习模型。
  15. 根据权利要求11所述的电子设备,其中,所述处理器被配置为经由执行所述任务处理时间自动预测程序来执行所述获取任务列表中在当前任务与目标任务之间的每个任务的关键信息,包括:
    获取所述任务列表中在所述当前任务与所述目标任务之间的每个所述任务、以及所述目标任务的所述关键信息;
    在基于所述当前任务与所述目标任务之间的每个所述任务的所述预估任务处理时间T的和,确定所述目标任务的所述预计开始时间之后,所述方法还包括:
    在所述目标任务的所述预计开始时间基础上,加上所述目标任务的所述预估任务处理时间T,得到所述目标任务的预计结束时间;
    将所述预计结束时间与设定时间比较,当所述预计结束时间超出所述设定时间时,向用户发送提醒。
  16. 一种计算机可读存储介质,其上存储有任务处理时间自动预测程序,其中,所述任务处理时间自动预测程序被处理器执行时实现以下处理:
    获取任务的关键信息,从所述关键信息获取所述任务出现的次数,并将第一次出现的所述任务作为首次任务,将第二次以上出现的所述任务作为后续任务;
    对于一个后续任务,将该后续任务中的所述关键信息发送至第二机器学习模型得到第一预估后续任务处理时间T 1
    获取该后续任务对应的首次任务实际花费时间T 0,将该后续任务出现的次数n、所述实际花费时间T 0带入公式T 2=T 0(n-1)λ n-1得到第二预估后续任务处理时间T 2,其中,λ为折损系数;
    将所述第一预估处理时间和所述第二预估处理时间带入公式T=T 1α 1+T 2α 2得到预估任务处理时间T,其中,α 12=1,α 1为所述第一预估处理时间所占权重,α 2为所述第二预估处理时间所占权重。
  17. 根据权利要求16所述的计算机可读存储介质,其中,在所述获取任务的关键信息之后,所述任务处理时间自动预测程序被处理器执行时还实现以下处理:
    对于一个首次任务,将所述首次任务中的所述关键信息发送至第一机器学习模型得到所述预估任务处理时间T。
  18. 根据权利要求17所述的计算机可读存储介质,其中,所述任务处理时间自动预测程序被处理器执行时实现所述获取任务的关键信息,包括:
    获取任务列表中在当前任务与目标任务之间的每个任务的关键信息;
    在得到所述预估任务处理时间T之后,所述任务处理时间自动预测程序被处理器执行时还实现以下处理:
    基于所述当前任务与所述目标任务之间的每个所述任务的所述预估任务处理时间T的和,确定所述目标任务的预计开始时间。
  19. 根据权利要求18所述的计算机可读存储介质,其中,
    在基于所述当前任务与所述目标任务之间的每所述个任务的预估任务处理时间T的和,确定所述目标任务的预计开始时间之后,所述任务处理时间自动预测程序被处理器执行时还实现以下处理:
    接收到所述当前任务与所述目标任务之间的一个所述任务执行完成的通知;
    从所述通知中获取所述任务的执行时间;
    确定所述执行时间与所述任务的所述预估任务处理时间T的差值;
    利用所述差值,调整所述目标任务的所述预计开始时间。
  20. 根据权利要求18所述的计算机可读存储介质,其中,所述任务处理时间自动预测程序被处理器执行时实现所述获取任务列表中在当前任务与目标任务之间的每个任务的关键信息,包括:
    获取所述任务列表中在所述当前任务与所述目标任务之间的每个所述任务、以及所述目标任务的所述关键信息;
    在基于所述当前任务与所述目标任务之间的每个所述任务的所述预估任务处理时间T的和,确定所述目标任务的所述预计开始时间之后,所述方法还包括:
    在所述目标任务的所述预计开始时间基础上,加上所述目标任务的所述预估任务处理时间T,得到所述目标任务的预计结束时间;
    将所述预计结束时间与设定时间比较,当所述预计结束时间超出所述设定时间时,向用户发送提醒。
PCT/CN2020/106287 2019-10-12 2020-07-31 任务处理时间自动预测方法、装置、电子设备及介质 WO2021068617A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910969526.3 2019-10-12
CN201910969526.3A CN110928751B (zh) 2019-10-12 2019-10-12 任务处理时间自动预测方法、装置、介质及电子设备

Publications (1)

Publication Number Publication Date
WO2021068617A1 true WO2021068617A1 (zh) 2021-04-15

Family

ID=69848860

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/106287 WO2021068617A1 (zh) 2019-10-12 2020-07-31 任务处理时间自动预测方法、装置、电子设备及介质

Country Status (2)

Country Link
CN (1) CN110928751B (zh)
WO (1) WO2021068617A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113485258A (zh) * 2021-06-10 2021-10-08 西安交通大学 一种燃煤电厂的控制逻辑最长执行时间的预测方法及系统
CN115396691A (zh) * 2021-05-21 2022-11-25 北京金山云网络技术有限公司 一种数据流处理方法、装置及电子设备
CN116757650A (zh) * 2023-08-21 2023-09-15 欧特朗(日照)云科技有限公司 一种基于机器学习的项目管理及资源调度的方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110928751B (zh) * 2019-10-12 2021-07-16 深圳赛安特技术服务有限公司 任务处理时间自动预测方法、装置、介质及电子设备
CN111736979A (zh) * 2020-08-06 2020-10-02 四川新网银行股份有限公司 一种评估银行批量作业健康状态与调整时间窗口的方法
CN112232649A (zh) * 2020-10-09 2021-01-15 杭州拼便宜网络科技有限公司 一种任务处理评估方法及其系统、设备
CN113360270B (zh) * 2021-06-30 2024-02-27 杭州数梦工场科技有限公司 一种数据清洗任务处理方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104239194A (zh) * 2014-09-12 2014-12-24 上海交通大学 基于bp神经网络的任务完成时间预测方法
JP2015170085A (ja) * 2014-03-06 2015-09-28 株式会社日立ソリューションズ ジョブ実行時間予測方法およびジョブ管理装置
CN109726092A (zh) * 2018-12-29 2019-05-07 深圳市联影医疗数据服务有限公司 总线处理效率评估方法、系统和计算机存储介质
CN110928751A (zh) * 2019-10-12 2020-03-27 平安国际智慧城市科技股份有限公司 任务处理时间自动预测方法、装置、介质及电子设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104123214B (zh) * 2013-04-26 2017-07-14 阿里巴巴集团控股有限公司 基于运行时数据的任务执行进度度量和展示的方法及系统
US9477523B1 (en) * 2013-06-25 2016-10-25 Amazon Technologies, Inc. Scheduling data access jobs based on job priority and predicted execution time using historical execution data
CN105955873A (zh) * 2016-04-27 2016-09-21 乐视控股(北京)有限公司 一种任务处理方法和装置
CN106970840A (zh) * 2017-02-28 2017-07-21 天津大学 一种结合任务调度的软硬件划分方法
CN110232492B (zh) * 2019-04-01 2021-06-18 南京邮电大学 一种基于改进离散粒子群算法的多无人机协同任务调度方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015170085A (ja) * 2014-03-06 2015-09-28 株式会社日立ソリューションズ ジョブ実行時間予測方法およびジョブ管理装置
CN104239194A (zh) * 2014-09-12 2014-12-24 上海交通大学 基于bp神经网络的任务完成时间预测方法
CN109726092A (zh) * 2018-12-29 2019-05-07 深圳市联影医疗数据服务有限公司 总线处理效率评估方法、系统和计算机存储介质
CN110928751A (zh) * 2019-10-12 2020-03-27 平安国际智慧城市科技股份有限公司 任务处理时间自动预测方法、装置、介质及电子设备

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115396691A (zh) * 2021-05-21 2022-11-25 北京金山云网络技术有限公司 一种数据流处理方法、装置及电子设备
CN113485258A (zh) * 2021-06-10 2021-10-08 西安交通大学 一种燃煤电厂的控制逻辑最长执行时间的预测方法及系统
CN113485258B (zh) * 2021-06-10 2022-10-25 西安交通大学 一种燃煤电厂的控制逻辑最长执行时间的预测方法及系统
CN116757650A (zh) * 2023-08-21 2023-09-15 欧特朗(日照)云科技有限公司 一种基于机器学习的项目管理及资源调度的方法
CN116757650B (zh) * 2023-08-21 2023-11-14 欧特朗(日照)云科技有限公司 一种基于机器学习的项目管理及资源调度的方法

Also Published As

Publication number Publication date
CN110928751B (zh) 2021-07-16
CN110928751A (zh) 2020-03-27

Similar Documents

Publication Publication Date Title
WO2021068617A1 (zh) 任务处理时间自动预测方法、装置、电子设备及介质
US9535775B2 (en) Session-based remote management system and load balance controlling method
US9619254B2 (en) Adaptive architecture for a mobile application based on rich application, process, and resource contexts and deployed in resource constrained environments
USRE47593E1 (en) Reliability estimator for ad hoc applications
KR101444726B1 (ko) 고객 맞춤형 피부 진단 및 관리 방법, 이를 구현하는 서버, 그 시스템 및 기록매체
CN111144658B (zh) 医疗风险预测方法、装置、系统、存储介质与电子设备
CN111783810B (zh) 用于确定用户的属性信息的方法和装置
CN112382406B (zh) 传染病的基本再生数的估算方法及装置、介质和设备
US11328820B2 (en) Decision engine based on disparate data sources
WO2021189949A1 (zh) 信息推荐方法、装置、电子设备及介质
CN110689137B (zh) 参数确定方法、系统、介质和电子设备
CN117334308A (zh) 医疗信息处理方法、装置、设备及存储介质
CN111125257B (zh) 词典更新方法、装置、设备和存储介质
JP7278256B2 (ja) 画像獲得ワークフローを最適化するためのデバイス、システム、及び方法
US11537589B2 (en) Methods and apparatus for event management
CN114093499A (zh) 就诊信息处理方法及系统、电子设备及存储介质
CN113539519A (zh) 视频问诊方法及服务器
WO2020140733A1 (zh) 用于评估设备环境噪声的方法、装置、介质及电子设备
CN112289396A (zh) 一种医疗数据转移系统的故障诊断方法
KR102293171B1 (ko) 외래 진료 프로세스 최적화 시스템, 방법 및 컴퓨터프로그램
EP4184328A1 (en) Medical imaging device fault handling
JP2019028687A (ja) サーバ装置及びパンデミック予測方法
US11593178B2 (en) ML-to-ML orchestration system and method for system wide information handling system (IHS) optimization
JP6908806B1 (ja) プログラム、情報処理装置、方法
CN110289935B (zh) 一种解码方法、装置、终端和存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20873941

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 180822)

122 Ep: pct application non-entry in european phase

Ref document number: 20873941

Country of ref document: EP

Kind code of ref document: A1