WO2017116215A1 - 평가지표 자율제안에 의한 연구개발과제 선정 시스템 및 방법 - Google Patents

평가지표 자율제안에 의한 연구개발과제 선정 시스템 및 방법 Download PDF

Info

Publication number
WO2017116215A1
WO2017116215A1 PCT/KR2016/015594 KR2016015594W WO2017116215A1 WO 2017116215 A1 WO2017116215 A1 WO 2017116215A1 KR 2016015594 W KR2016015594 W KR 2016015594W WO 2017116215 A1 WO2017116215 A1 WO 2017116215A1
Authority
WO
WIPO (PCT)
Prior art keywords
evaluation
research
performance
server
project
Prior art date
Application number
PCT/KR2016/015594
Other languages
English (en)
French (fr)
Inventor
박상호
Original Assignee
박상호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박상호 filed Critical 박상호
Priority to US15/772,807 priority Critical patent/US11068816B2/en
Publication of WO2017116215A1 publication Critical patent/WO2017116215A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06313Resource planning in a project environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/08Auctions

Definitions

  • the present invention relates to a method for selecting a research and development project, and more particularly, a system for selecting a research and development project by an evaluation index voluntary proposal that allows a bidder to select a research and development project by using an evaluation index proposed by a bidder. And to a method.
  • the existing R & D project selection method depends on the subjective and qualitative judgments of technical experts and is performed by the screening methodology that focuses on technical and growth. In other words, promising R & D projects are selected by using objective indicators of existing technology evaluations conducted by domestic and international technology evaluation agencies.
  • the method of selecting R & D projects remains at the level of using each indicator of technology evaluation individually, and does not reach the level of analyzing and evaluating the interrelationship between indicators.
  • the existing R & D project selection method is only at the level of supporting decision-making for deriving promising R & D projects.
  • the present invention has been made to solve the problems of the prior art, the object of the present invention proposes the evaluation indicators selected autonomously selected by the bidders R & D projects as the criteria for selecting R & D projects, divided by the evaluation indicators To provide a system and method for selecting R & D projects by autonomous proposals of evaluation indicators to enable fair competition and transparent selection among bidders.
  • a system for selecting a research and development project based on an evaluation index proposes a performance evaluation item which is a criterion for selecting a research and development project as an evaluation index, and a bidder terminal generating performance information for the evaluation index, and It includes a server for uploading the evaluation indicators and the performance information from the bidder terminal, storing them and performing a performance evaluation operation to select a bidder to perform the research and development projects.
  • the server may generate a group of evaluation indicators by grouping the plurality of evaluation indicators proposed by the bidder terminal.
  • the bidder terminal is characterized in that to propose at least one of the paper, patent, employment research fund execution history and total amount, whether the company technology transfer as the performance evaluation item.
  • the bidder terminal is a terminal that accesses the server through the Internet, characterized in that to access the server through a web browser or a dedicated application.
  • the server may include a performance evaluation item classification unit classifying at least one performance evaluation item constituting the evaluation indicator into an evaluation indicator group; A bidder grouping unit for grouping bidders by including bidders in the classified evaluation index groups; A performance calculation unit for calculating performance in response to the performance evaluation item for each group; And a research and development project selection unit for selecting a research and development project in response to a predetermined rule for each group.
  • the server receives the evaluation index generated by the bidder terminal and stores it in a database, wherein the database is updated each time the evaluation index is newly proposed in the bidder terminal.
  • the performance evaluation item classification unit is characterized by updating the evaluation index through the analysis of the evaluation index.
  • the performance evaluation item classification unit analyzes different evaluation index groups, integrates them into one evaluation index group, and resets the weight of the integrated evaluation index group.
  • the performance evaluation item classification unit analyzes different evaluation index groups, integrates them into one evaluation index group, and resets the evaluation period of the integrated evaluation index group.
  • the performance evaluation item classification unit analyzes one evaluation indicator group and divides it into two different evaluation indicator groups.
  • the server performs a performance evaluation operation by matching the performance information on the evaluation index generated by the bidder terminal to a plurality of evaluation index groups, and calculates a calculation result of a specific evaluation index group having the highest result. It is characterized in that it is provided to the bidder terminal.
  • the performance calculation unit the evaluation score calculation unit for calculating the evaluation score of the participating researchers put into the project; And a valuation amount ratio converting unit that adds valuation scores of participating researchers put into the project and converts the valuation amount ratio to the valuation amount ratio corresponding to the bid cost compared to the summed valuation points.
  • the evaluation score calculation unit characterized in that for calculating the evaluation score for each participating researcher from the participation rate of the participation of the participating researchers put into the project.
  • the evaluation score calculation unit is characterized by calculating the evaluation score for each participating researcher from the multiplication of the task participation rate of the participating research researchers put into the project and the performance share ratio of the performance evaluation item.
  • the bidder terminal proposes a weight for the proposed evaluation index, and the server also uploads the weight for the evaluation indicator from the bidder terminal.
  • the bidder terminal proposes an evaluation period for the proposed evaluation index, and the server also uploads the evaluation period for the evaluation index from the bidder terminal.
  • the R & D project selection unit calculates an operation result of the performance calculation unit as an evaluation score, and compares the calculated evaluation score with the average bid amount and the bid amount of the bidder terminal, respectively, and the bidder of the bidder terminal according to the calculated evaluation score It is characterized by calculating the probability and notifying the bidder terminal.
  • the R & D project selection unit calculates an operation result of the performance calculation unit as an evaluation score, and compares the calculated evaluation score with the average bid amount and the bid amount of the bidder terminal, respectively, and bids the bidder terminal according to the calculated evaluation score. It is characterized by calculating the possible bid amount and informing the bidder terminal.
  • the R & D project selection unit calculates an operation result of the performance calculation unit for a plurality of evaluation index groups as an evaluation score, and compares the calculated plurality of evaluation scores with the average bid amount and the bid amount of the bidder terminal, respectively, The bidding probability of the bidder terminal is calculated according to the evaluation score, and the bidder terminal is notified.
  • the performance calculation unit may calculate a calculation result of the performance calculation unit for a plurality of evaluation index groups as an evaluation score, and inform the bidder terminal of the evaluation index for which the maximum evaluation score is calculated.
  • the performance share ratio is given with the consent of the participating researchers and is stored in the server.
  • the sum of the earnings share ratio of one piece of performance information is 100% or less, and if the successful bid is awarded to the research and development project, the earnings share ratio is fixed and stored in the server.
  • the task participation rate is managed by any one of the annual unit, monthly unit, weekly unit, day unit for each participating researcher is stored in the server.
  • the results calculation unit is characterized in that it tells the bidder terminal the ratio of the optimal task participation rate that the maximum evaluation score is calculated according to the change in the ratio of each task participation rate for the various projects of the participating researchers.
  • the performance calculation unit is characterized in that it tells the bidder terminal the ratio of the plurality of task participation rate for the various projects of the participating researchers that the same evaluation score is calculated.
  • the sum of the task participation rate of one participating researcher is 100% or less, and if a successful bid is awarded to the research and development task, the task participation rate for the task is fixed and stored in the server.
  • the R & D project selection unit calculates an evaluation score for each researcher put into the project, sums up the evaluation scores of the researchers put into the project, and converts it into an evaluation amount ratio corresponding to the bid cost compared to the added evaluation score, The research and development task is selected based on the evaluation amount ratio.
  • a fee is paid to the bidder terminal which proposes the evaluation index used for selecting the bidder, and the fee is paid as a predetermined amount of the total research cost of the R & D project. Characterized in that.
  • the server pays a fee as a royalty fee to the bidder terminal suggesting the used evaluation index.
  • the server stores the feedback on the evaluation index used, the bidder terminal is characterized in that for updating the evaluation index based on the feedback.
  • a method for selecting a research and development project based on an evaluation index autonomous proposal includes a bidder terminal autonomously suggesting an evaluation index as a performance evaluation item and transmitting it to a server or selecting an evaluation index stored in the server; And sorting the evaluation indicators selected by the bidder terminals, grouping bidders who have selected the same or similar evaluation indicators, and calculating the performance according to the performance evaluation items for each group, and selecting a research and development task.
  • the performance evaluation items of the evaluation index may include any one of thesis, patent, employment, research budget execution and total amount, whether or not the transfer of corporate technology.
  • the bidder terminal is connected to the server through the Internet, it characterized in that to access the server through a web browser or a dedicated application.
  • the server classifies the evaluation indicators selected by each bidder terminal, groups bidders who have selected the same or similar evaluation indicators, and selects research and development tasks for each group; the server calculates the evaluation scores for each participating researcher input to the project. Calculating; Summing the evaluation scores of the participating researchers put into the project to the calculated evaluation scores; And converting the bidding cost to the sum of the evaluation scores into the evaluation value ratio and selecting the research and development task based on the ranking or the selection ratio based on the converted evaluation value ratio.
  • the server calculates the evaluation score for each participating researcher put into the project; characterized in that it is made by calculating the evaluation score for each participating researcher from the task participation rate of the participating researchers put into the project.
  • the server calculates an evaluation score for each participant in the project; calculating the evaluation score for each participant from the product of the participation rate of the participant in the project and the performance share of the performance evaluation item. It is characterized by being calculated.
  • the bidder terminal autonomously proposes an evaluation index as a performance evaluation item and transmits it to a server or selects an evaluation index stored in the server.
  • the bidder terminal groups a plurality of evaluation indicators as a grouping evaluation index. It is characterized in that it is made by selecting a grouped evaluation index sent to or stored in the server.
  • the server classifies the evaluation indicators selected by each bidder terminal, groups bidders who have selected the same or similar evaluation indicators, and calculates the performance according to the actual evaluation items for each group, and selects a research and development task.
  • the unit is characterized by including the bidder terminal in the grouped evaluation index.
  • the server classifying the evaluation indicators selected by each bidder terminal, grouping bidders who have selected the same or similar evaluation indicators, and selecting a research and development task by calculating performances according to performance evaluation items for each group; Thereafter, as the server transmits the grouped evaluation indexes to the server in the bidder terminal, updating the database for storing the grouped evaluation indexes.
  • the server classifies the evaluation indicators selected by each bidder terminal, groups bidders who have selected the same or similar evaluation indicators, and calculates the results according to the performance evaluation items for each group, and selects a research and development task. Characterized in that the analysis is performed for other evaluation indicators.
  • the server classifies the evaluation indicators selected by each bidder terminal, groups bidders who have selected the same or similar evaluation indicators, and calculates the results according to the performance evaluation items for each group, and selects a research and development task.
  • the analysis is performed by analyzing different evaluation indicators, and integrating them into one evaluation indicator, and resetting the weight of the integrated evaluation indicator group.
  • the server classifies the evaluation indicators selected by each bidder terminal, groups bidders who have selected the same or similar evaluation indicators, and calculates the results according to the performance evaluation items for each group, and selects a research and development task. It is characterized by performing the analysis of other evaluation indicators, integrating them into one evaluation indicator, and resetting the evaluation period of the integrated evaluation indicator group.
  • the server classifies the evaluation indicators selected by each bidder terminal, groups the bidders who have selected the same or similar evaluation indicators, and calculates the results according to the performance evaluation items for each group, and selects a research and development task.
  • the analysis of the different evaluation indexes is characterized by separating one evaluation index into different evaluation indexes.
  • the evaluation generated by the server in the bidder terminal Performance evaluation operation is performed by mapping the performance information on the index to a plurality of evaluation index groups, and the calculation result of a specific evaluation index group having the highest performance evaluation result is provided to the bidder terminal.
  • the bidder terminal proposes a weight for the proposed valuation index, and the server also uploads the weight for the valuation index from the bidder terminal.
  • the bidder terminal proposes an evaluation period for the proposed evaluation index, and the server also uploads the evaluation period for the evaluation indicator from the bidder terminal.
  • the server calculates the results of the performance calculation as the evaluation score, and calculates the calculated evaluation score and the bid amount of the bidder terminal In comparison, the operation of calculating the bid probability of the bidder terminal according to the calculated evaluation score and informing the bidder terminal is performed.
  • the server calculates the results of the performance calculation as the evaluation score, and calculates the calculated evaluation score and the bid amount of the bidder terminal In comparison, the bidding price of the bidder's terminal may be calculated according to the calculated evaluation score, and the operation of informing the bidder terminal may be performed.
  • the server calculates the results of the performance calculation for the plurality of evaluation index groups as the evaluation scores, and calculates the calculated plurality of evaluation scores for the average bid amount And comparing the bid amount of the bidder terminal with each other, calculating a bidable bid amount of the bidder terminal according to a plurality of evaluation scores, and notifying the bidder terminal.
  • the server calculates a total score by summing up the evaluation scores of the researchers, and informs the bidder terminal of the optimal evaluation index group in response to the evaluation score and the previous year and the current bid amount and evaluation index group.
  • the performance share ratio is given with the consent of the participating researchers and is stored in the server.
  • the sum of the earnings share ratio of one piece of performance information is 100% or less, and if the successful bid is awarded to the research and development project, the earnings share ratio is fixed and stored in the server.
  • the task participation rate is managed by any one of the annual unit, monthly unit, weekly unit, day unit for each participating researcher is stored in the server.
  • the server calculates an evaluation score by synthesizing the task participation rate for all the projects in which the participating researchers participated, with respect to the task participation rate for the project of the participating researchers.
  • the server may further include transmitting, to the bidder terminal, a ratio of the task participation rate that becomes the maximum evaluation score in response to the task participation rate change for the participating researchers.
  • the server further comprises the step of transmitting to the bidder terminal the ratio of the task participation rate of a plurality of participating researchers, the same evaluation score is calculated.
  • the sum of the task participation rate of one participating researcher is 100% or less, and if the successful bid is a research and development task, the task participation rate is fixed and stored in the server.
  • the selecting of the R & D project may include calculating an evaluation score of researchers to be put into the project, adding evaluation scores of the researchers to be put into the project, and converting it into an evaluation amount ratio corresponding to the bid cost compared to the added evaluation scores.
  • the research and development task is selected based on the evaluation amount ratio.
  • the server further comprises the step of transmitting the fee information for a certain percentage of the total research costs of the selected research and development projects to the bidder terminal.
  • the server may further include transmitting fee information on copyright of the evaluation index used in the selected research and development project to the bidder terminal and paying the evaluation index proposer.
  • the server stores the feedback for the evaluation indicators
  • the bidder terminal further comprises the step of updating the evaluation indicators based on the feedback.
  • the R & D projects are selected by the respective groups classified in response to the evaluation indicators selected autonomously, so that the fair competition and transparent selection among the bidders of the R & D projects can be made, and the equality of R & D projects Distribution can be made.
  • 1 is a cyclic algorithm for autonomous proposal of the evaluation index proposed by the present invention.
  • FIG. 2 is a block diagram of a system for selecting a research and development project based on an evaluation index autonomous proposal according to an embodiment of the present invention.
  • FIG. 3 is a block diagram of a server according to an embodiment of the present invention.
  • FIG. 4 is a block diagram of a performance calculation unit according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a method for selecting a research and development project according to an evaluation index autonomous proposal according to an embodiment of the present invention.
  • FIG. 6 is a table exemplifying performance evaluation items and weights as an embodiment of the present invention.
  • FIG. 7 is an exemplary diagram for calculating an evaluation score as an embodiment of the present invention.
  • FIG. 8 is an exemplary diagram for calculating an evaluation score for each project as an embodiment of the present invention.
  • 1 is a cyclic algorithm for autonomous proposal of the evaluation index proposed by the present invention.
  • the present invention when the evaluation index is autonomously proposed by the proposer, the present invention performs grouping for each evaluation index, calculates an evaluation score of the project for each group, and determines whether to select a project. Based on the results of the project selection, it is composed of a circular structure that can be used to propose autonomous proposals by analyzing and updating the evaluation indicators using feedback data.
  • the proposer autonomously suggesting the evaluation index may be a research project bidder terminal 1 (hereinafter referred to as a 'bidder terminal'), which will be described below with reference to FIG. 2, but is a terminal other than the bidder terminal 1.
  • a 'bidder terminal' a research project bidder terminal 1
  • the evaluation index grouping is not performed, and the evaluation index can be proposed and transmitted to the server 2.
  • the project in the present invention means a research and development project to propose and bid.
  • the evaluation index in the present invention includes a performance evaluation items, weights and evaluation period for quantitatively indicating the performance evaluation items.
  • the performance evaluation item is a criterion for selecting a research and development project, and may include a condition for a rule predetermined by an existing specific institution or an item that a bidder sets (selects) directly.
  • the performance evaluation items include the publication of a thesis, patent application, employment of supervised students, total research expenses and execution history, and technology transfer.
  • the weight is a number designated for the performance evaluation item
  • the evaluation period is a period in which the performance evaluation item is recognized, and is set for each performance evaluation item.
  • FIG. 2 is a block diagram of a system for selecting a research and development project based on an evaluation index autonomous proposal according to an embodiment of the present invention.
  • the R & D project selection system according to the evaluation index autonomous proposal of the present invention
  • the research and development project bidder terminal 1 for generating performance information in response to the selection of the performance evaluation items included in the evaluation index (hereinafter referred to as And a server 2 for storing and managing performance information and selecting research and development tasks for each bidder group classified according to the performance information.
  • the bidder terminal 1 may be a terminal possessed by a bidder, may be a computer or a portable terminal, or may be a terminal connected to the server 2 through the Internet remotely.
  • the bidder terminal 1 may access the server 2 through a web browser or a dedicated program, and may access the server 2 through an access account corresponding to one bidder.
  • the server 2 may receive the information from the bidder terminal 1 and store it, or may perform the processing according to the request received from the bidder terminal 1 to store the result or provide it to the bidder terminal 1.
  • the system for selecting a research and development project based on the evaluation index autonomous proposal configured as described above is included in the evaluation index in response to the evaluation index selected by the bidder at the bidder terminal 1 when the bidder terminal 1 and the server 2 are connected. Generates performance information for each performance evaluation item and transmits the result information to the server 2.
  • the server 2 stores the performance information, and selects a research and development project in response to the performance information.
  • the groups are classified according to the performance evaluation items selected by the bidders, and the research and development tasks are selected according to the ratio set for each group.
  • the bidder terminal 1 may access the server 2 and select an evaluation index already stored in the server 2. In another example, the bidder terminal 1 may use the bidder terminal 1.
  • the evaluation index proposed by the bidder may be uploaded and stored in the server 2 or may be uploaded and stored in the server 2 as a grouped evaluation index by grouping the evaluation index.
  • the performance information is generated in the bidder terminal 1, but the performance information may be generated in the server 2 in a real time connection state between the bidder terminal 1 and the server 2. .
  • FIG. 3 is a block diagram of a server according to an embodiment of the present invention.
  • the server 2 of the present invention includes a performance evaluation item classifying unit 21 for classifying a selected or newly input performance evaluation item into an evaluation index group and a bidder in the classified evaluation index group.
  • the EVM category 21 when the EVM category 21 selects or newly inputs EVM items into valuation indicator groups, the EVM category 21 is divided into two different metric groups.
  • a new evaluation indicator group may be created by merging evaluation indicator groups or by splitting one evaluation indicator group into two different evaluation indicator groups.
  • the valuation index group includes the valuation items, weights, and valuation periods.
  • the valuation indicators overlapped in two different valuation index groups to be merged. If an item exists, a new weight set in each valuation index group is assigned to the corresponding valuation item.
  • the bidder grouping unit 21 includes a bidder in a predetermined evaluation index group, and as a bidder is included in the evaluation index group, a plurality of bidders belonging to the evaluation index group are grouped.
  • the server 2 includes a database 25 for storing processing data and input / output data of the performance evaluation item classification unit 21, the bidder grouping unit 22, the performance calculation unit 23, and the research and development project selection unit 24. ) May be included.
  • the database 25 may store the performance evaluation items of the evaluation indicators, their weights and evaluation periods, the performance interest rate of the performance information corresponding to the performance evaluation items, and the task participation rate of participating researchers.
  • the performance interest rate is the performance interest for one performance evaluation item.
  • a performance evaluation item if there is an item named as a performance evaluation item and a paper A is registered as the performance for the item, the authors A and B Can each have 10% and 90% earnings, respectively, with a total of 100%.
  • the task participation rate is a ratio that indicates the degree to which a professor or student (hereinafter referred to as a 'participating researcher') who has a performance interest in the performance evaluation item participates in a task to bid on various performance evaluation items. If the author A participates in project A and project B, the task participation rate of author A will be allocated to project A and project B respectively.
  • the database 25 receives and stores the evaluation index proposed by the bidder terminal 1 from the bidder terminal 1, and provides the evaluation index proposed and grouped from the bidder terminal 1 from the bidder terminal 1 Take it and save it.
  • the database 25 provides the bidder terminal 1 with the stored evaluation index or the grouped evaluation index at the request of the bidder terminal 1.
  • the other bidder terminal 1 selects and uses the grouped evaluation index proposed by one bidder terminal 1 and uploaded to the server 2, the corresponding grouped evaluation index is proposed.
  • the revenue is distributed as a royalty fee to the bidder terminal 1 uploaded to the server 2 or the access account corresponding to the bidder terminal 1.
  • the server (2) adds as information to the database 25 that the grouped evaluation indicators stored in the database 25 were selected by another bidder terminal 1 or access account.
  • the database 25 receives means from the bidder terminal 1 or its access account, eg, an account number, to receive a bidder terminal ( 1) Or, it can be stored in correspondence with the information of its access account.
  • the server 2 may receive a portion of the research project development cost as a fee when the evaluation index or the evaluation index group formed of the evaluation indexes is used for selecting the research and development project at the bidder terminal 1. Can be.
  • the database 25 stores the evaluation indicators or grouped evaluation indicators, updates as new evaluation indicators or grouped evaluation indicators are input, and stores the selection as information as the grouped evaluation indicators are selected and used. Therefore, since the bidder terminal 1 extracts and uses evaluation indicators or grouped evaluation indicators from the server 2, the bidder can effectively use the grouped evaluation indicators suitable for selecting a research project.
  • the server 2 allocates revenue to the bidder terminal 1 or its access account that proposed the evaluation index group as the evaluation index group is selected, the server 2 selects the selected date of the selected evaluation index group, The number of selections can be stored in the database 25 as additional information.
  • the server 2 may store the score in the database 25 and reflect the score in the revenue distribution.
  • the score given to the evaluation indicator group generated by the bidder terminal 1 is confirmed by the bidder terminal 1 that generated the evaluation indicator group connected to the server (2), or to the evaluation indicator group It can be formed so that the bidder terminal 1 can be confirmed in real time that the score has been given. Accordingly, the bidder may improve the evaluation index group by changing the performance evaluation item or the weight of the evaluation index group by checking the score given to the evaluation index group generated by the bidder.
  • the performance share ratio is preferably given with the consent of the participating researchers, and the total performance share ratio of the performance information corresponding to one performance evaluation item is 100% or less.
  • the project participation rate is preferably managed by participating researchers by selecting any one of annual, monthly, weekly, and daily units, and the total participation rate of each participating researcher is 100% or less. If the bid is successful, the task participation rate is preferably fixed.
  • the bidder grouping unit 22 may include the group of evaluation indicators set in advance in response to the performance evaluation item, or generate a group of new evaluation indicators in response to the new performance evaluation item. In this case, it is desirable to update the evaluation index through analysis of the new evaluation index. In addition, the bidder grouping unit 22 may perform a task of combining one through the analysis of different evaluation indicators, or may perform a task of separating into two or more. In addition, the bidder grouping unit 22 may transmit a successful evaluation evaluation item to the bidder terminal.
  • the performance calculation unit 23 calculates the total score by summing the evaluation scores, and transmits the bidding probability or the bidding bidding amount to the bidder terminal in correspondence with the evaluation score and the previous year and the current bidding amount. You can also tell.
  • the server 2 configured as described above includes a bidder in the evaluation index group generated by the bidder terminal 1 so that bidders included in the evaluation index group are grouped, or the bidder inputs the performance information and the performance evaluation item corresponding thereto. If you select, grouping bidders by automatically selecting a pre-generated valuation index group according to the performance evaluation items extracted from the performance information, and the bidders are calculated. The research and development project is selected according to the bid cost to score.
  • FIG. 4 is a block diagram of a performance calculation unit according to an embodiment of the present invention.
  • the results calculation unit 23 of the present invention the evaluation score calculation unit for calculating the evaluation score for each participating researcher from the multiplication of the task participation rate of the participating researchers and the performance share ratio of the performance evaluation item ( 231), and an evaluation value ratio converting unit 232 for adding up evaluation scores of participating researchers put into the project and converting the evaluation scores into an evaluation value ratio corresponding to the bidding cost.
  • the performance calculation unit 23 of the present invention may further include a weight application unit 233 for applying a weight to quantitatively indicate each performance evaluation item set by the bidder when the performance evaluation item is two or more. Can be.
  • the weight applying unit 233 is applied when there are two or more performance evaluation items, and the weight applying unit 233 is selectively applied to the performance calculating unit 23.
  • the weight applying unit 233 is applied to the weight quantitatively indicated for the evaluation score calculated by the evaluation score calculation unit 231.
  • the results calculation unit 23 of the present invention configured as described above calculates the evaluation score for each participating researcher from the multiplication of the project participation rate of the participating research researchers put into the project and the performance share ratio of the performance evaluation item. At this time, a weight is applied to quantitatively indicate each performance evaluation item set by the bidder, and an evaluation score is calculated. Subsequently, the evaluation scores of the participating researchers put into the project are summed and converted into the evaluation value ratio corresponding to the bidding cost to the sum of the evaluation scores. The R & D project will be selected based on the rate of evaluation.
  • the server 2 may analyze the optimal evaluation indexes for the performance evaluation items entered by the bidders to present the optimal evaluation index group for bidding research and development projects.
  • the server may calculate the total score by summing the evaluation scores of the participating researchers, and may inform the successful bid or the bidable bid amount corresponding to the evaluation score and the previous year and the current bid amount.
  • the server may calculate the total score by summing the evaluation scores of the participating researchers, and may inform the optimum evaluation index group in response to the evaluation score and the previous year and the current bid amount and evaluation index group.
  • the server 2 calculates the optimal evaluation index group from the performance evaluation items input by the bidders
  • the server 2 uploads from the bidder terminal 1 to the server 2 and is already stored in the database 25.
  • Evaluation information group calculation is automatically performed using information, that is, information on performance evaluation items, performance share ratio, and task participation rate, and the bidder terminal 1 is not requested to perform a separate task in the process.
  • FIG. 5 is a flowchart illustrating a method for selecting a research and development project according to an evaluation index autonomous proposal according to an embodiment of the present invention.
  • the bidder terminal 1 and the server 2 is connected to the bidder terminal 1 via the Internet, the server 2, a dedicated app installed in a web browser or a portable terminal provided by the bidder terminal 1 (Application) can be performed, and can log in to the server 2 using the access account provided to one bidder.
  • a dedicated app installed in a web browser or a portable terminal provided by the bidder terminal 1 Application
  • the evaluation index may be proposed by accessing the server 2 through a bidder terminal 1 dedicated program.
  • the bidder who does not actually perform the bidding but proposes the evaluation index proposes the evaluation index through the bidder terminal 1 or a separate proposer terminal.
  • the proposer or the bidder proposes an evaluation index using the bidder terminal 1 as an example.
  • the bidder may create a new evaluation index and transmit it to the server 2, or group a plurality of evaluation indicators and send it to the server 2 as a grouped evaluation index, or, the server (2) Evaluation indicators or grouped evaluation indicators stored in the database 25 may be selected as the performance evaluation item.
  • step (S3) if the grouped evaluation index uploaded by the specific bidder to the server (2) is used by another bidder, the server 2 to the bidder who uploaded the used grouped evaluation indicators Profit is distributed and stored as information in the database 25 that the grouped valuation indicators were used.
  • the bidder terminal 1 suggests and uploads the evaluation index to the server 2, or using the evaluation index or the grouped evaluation index stored in the server 2, the bidder terminal 1 provides information about the evaluation index Upload it to the server 2.
  • the server 2 classifies the performance evaluation items selected by each bidder (S4) and performs grouping of bidders who have selected the same or similar performance evaluation items (S5).
  • the server 2 calculates the evaluation score for each participating researcher from the multiplication operation of the participation rate of the participating researchers in the project and the performance share ratio of the performance information corresponding to the performance evaluation item within the evaluation period (S6).
  • weights may be applied to quantitatively indicate the performance evaluation items for each group.
  • the evaluation scores of the participating researchers put into the project are summed (S7), and converted into an evaluation amount ratio corresponding to the bidding cost compared to the summed evaluation scores. Based on the evaluation rate ratio, the research and development task is selected in response to the ranking or selection ratio (S8).
  • evaluation items voluntary proposals and groupings database performance evaluation item performance share allocation, project project participation rate selection, research and development project bidding and selection processes will be described in detail.
  • the present invention relates to the selection of research and development projects based on the evaluation index voluntary proposal, and not only bidders who satisfy the relevant conditions with respect to regulations prescribed by a specific institution as in the existing method, bidders select the research and development projects, It is a method of bidding by setting the performance evaluation items (criteria for selecting R & D projects) included in the evaluation index.
  • a research and development project is a tender is made in companies, research institutes, universities, etc.
  • Bidding for research and development projects at universities is made by professors. In other words, the professor bids on research and development projects based on participating researchers including the master's and doctorate.
  • an evaluation index including 100 points in the thesis and 40 points in the supervised student employment, including the performance evaluation items and weights It is analyzed that the best scores can be obtained by selecting the score as the highest grade, so that thesis and supervised student employment can be bid as a criterion for selecting R & D projects. Similarly, similar performance evaluation items, weights, and evaluation periods can be bid on the basis of R & D project selection criteria.
  • the bidding may be made by setting different performance evaluation items, weights, and evaluation periods by other professors.
  • Professor B can bid as a criterion for selecting R & D projects with 100 points for supervising student employment, 50 points for patents and 50 points for papers.
  • Professor C can bid on the basis of R & D project selection criteria with 100 points for patent and 100 points for supervising student employment.
  • Professor D can bid on the basis of R & D project selection criteria, with 50 points for the thesis and 100 points for the patent application. In this way, each professor will self-evaluate the evaluation index internally, and determine the most favorable evaluation index autonomously, and present it as the criteria for selecting R & D projects.
  • group A may be composed of bidders who take the supervised student employment and thesis as performance evaluation items
  • group B may be composed of bidders whose supervisory student employment is determined by the performance evaluation items
  • group C may present the thesis presentation.
  • the bidder may be composed of performance evaluation items
  • the group D may be composed of bidders using patent application performance evaluation items.
  • various groups may be formed corresponding to a combination of various evaluation items, weights, and evaluation periods.
  • the group may be classified into subgroups in detail corresponding to the weighting ratio.
  • This grouping process can be omitted in the whole process, can be managed as a simple list in consideration of evaluation indicators, and the evaluation indicators required by the institution supporting the project can be added.
  • evaluation indexes are determined and derived in the group, and in this process, evaluation indexes may be added to the evaluation indexes submitted by bidders through face-to-face evaluation or evaluation indexes of institutions supporting research funds.
  • R & D field such as mechanical engineering field and production design field as the performance evaluation item
  • only the relevant papers are recognized as the performance, and bidders in the same field can compete.
  • research expenses such as prototype production costs as performance evaluation items, to extract only the research expenses used for the purpose of the project, and to assign weights in the same way as 1 point per 100,000 won.
  • the grouping may be performed in consideration of the weighting ratio.
  • the method expresses the weight as a percentage, and selects a smaller value among the percentages of the same weight and multiplies it to an integer.
  • the evaluation indicators of Professor B and Professor C are judged to be similar and grouped.
  • Professor B calculates the weight of 100 points for employment, 50 points for thesis, and 50 points for the patent as 50% for employment, 25% for thesis, and 25% for the patent.
  • Professor C calculates 100 points for employment and 100 points for patent to calculate 50% for employment and 50% for patent.
  • the percentages of each weight the smallest value of the common valuation index is taken, taking 50% for employment and 25% for patent. Since the evaluation index is a competition among bidders, the same effect is obtained when the ratio is the same.
  • the above evaluation index has the same effect as assigning 200 points for employment and 100 points for patent, or 50 points for employment and 25 points for patent. Among them, 50 points are assigned to 100-point patents for employment, which is an appropriate weight.
  • two different valuation index groups may be merged by taking a small weight as a percentage.
  • the bidder can extract a single metric group by extracting only a specific metric and its weight from one metric group, and simply create a new valuation group by taking the weight of the extracted metric as a percentage. Therefore, bidders can freely merge or separate evaluation index items to perform grouping.
  • evaluation index group assigned by assigning 50 points to a patent and 50 points in a paper is assigned to the evaluation index group assigned by assigning 100 points to a patent and 100 points to employment
  • the performance evaluation items can be selected to be weighted by the same multiple and merged into the evaluation index groups given 100 points for patents, 100 points for papers, and 100 points for employment.
  • one evaluation indicator group can be divided into a plurality of evaluation indicator groups.
  • Performance evaluation items should be able to be quantitatively evaluated based on specific evidence. If false or duplicate information is found in the data, it may be desirable to suspend or refund the research fund.
  • Performance evaluation items may include many factors such as thesis presentation, patent application, and supervising student employment.
  • thesis and supervising student employment are presented as the performance evaluation items.
  • evaluation scores can be determined.
  • supervised student employment also serves as another variable in the evaluation score evaluation.
  • the evaluation score is evaluated for each bidder and each participating researcher who makes up the bidder.
  • the numerical expression of this is the evaluation score.
  • the evaluation period refers to a period of time during which the performance evaluation items can be quantitatively and fairly evaluated before or after the bidding point for fair evaluation. Only evaluations made during the evaluation period are included in the evaluation index. The evaluation period should be before the bidding point to allow fair evaluation based on actual results. However, depending on the nature of the project and the characteristics of the evaluation indicators, the evaluation period may include the period after the bidding period, the research and development period, or the evaluation period may be extended. Older earnings can be reflected in the valuation score by reducing the weight of the valuation index.
  • Each participating researcher can be put into a variety of projects. That is, the A author may be put into the X project, the Y project, and the like, and the B author may be put into the Y project and the Z project.
  • the author A may assign a 30% task participation rate to the X project and a 10% task participation rate to the Y project.
  • the research director can request a participation rate of 30% or more for the participating researchers.
  • the A author can record the monthly participation rate of the project that he or she put into project X during the project evaluation period (for example, one year before the bidding date).
  • the project participation rate (theoretical task participation rate) of the evaluation period put into project X can be calculated on average. For example, if the bidding point is January 1, 2015, the evaluation period may be from January 1, 2014 to December 31. If 50% participated in January to June and 10% participated in July to December, the monthly task participation rate would be applied to the monthly task participation rate by the monthly task participation rate. can do.
  • the average task participation rate can be converted and applied to each evaluation period. During this period, if Professor A was selected to bid on Project X with a 30% project participation rate, 30% lecture, and 30% dean participation rate, then another Y project would have to accept bids within the 10% project participation rate. This does not exceed 100%.
  • author B can also assign assignments to projects in consideration of their roles.
  • authors B and C can create 20% and 10% X project participation rates as students.
  • the B and C authors may affect the evaluation score depending on whether or not the supervised student is described later.
  • the total amount of input can be estimated in the X project including 30% participation rate of the A author, 20% participation rate of the B author, and 10% participation rate of the C author.
  • the total input is defined as the sum of the evaluation scores of each participating researchers as described above.
  • the total evaluation scores of participating researchers in the X project are 21 points.
  • pre-determined evaluation indicators are also applied to the employment of supervised students. For example, based on the weight of 40 points, C authors are employed by local companies (this is called Q employment). If a 30% project participation rate is used, 12 points are calculated since the valuation score calculated from the author C is 40 points ⁇ 100% (performance share) ⁇ 30% (task participation rate).
  • the bidder may propose a bid amount based on the total evaluation score. For example, if the total evaluation score is 36, the bidder may bid on a research and development task having evaluation indicators of thesis and supervised student employment. Of course, the bid amount may be arbitrarily selected by the bidder of the R & D project.
  • the institution managing the system and the individual presenting the copyright have a copyright so that they can receive a royalty fee from the government or agency using the main evaluation indicators stored therein. It is preferable.
  • the evaluation period for the performance included in the evaluation indicator it should be separated from the period that can give the participant's task participation rate as a period for quantitatively evaluating the performance evaluation items, in the embodiment of the present invention It is described as being used together for convenience.
  • the evaluation period for calculating the project participation rate for a paper published in May is between July and August of the same year, the publication publication point is not during this period. It is necessary to decide whether to divide the evaluation period into two by setting the participation period calculator and the evaluation period, which is the period of recognition of the performance evaluation item.
  • the task participation rate calculator if the bidding point is July, the period before bidding can be determined quantitatively, but since August is the future after the bidding, the participation rate of the dean etc. cannot be calculated, but the task cannot be entered in other bidding. It is desirable to adjust the participation rate. In other words, if he served as dean in the past in June, he is 30%, X project 30%, Y project 30%, and in August, the dean is future, so it is unclear. You can only limit Bidding at the same time.
  • the evaluation score can be calculated from the project participation rate of the X project stored in the researcher A database without storing the information of the project participation rate of the researcher A.
  • the task participation rate should be stored only in one database where the sum does not exceed 100%.
  • the total participation rate of the participating researchers may not exceed 100%, and the higher the participation rate, the higher the evaluation score will eventually be.
  • the participating researchers should not exceed 100% of the participation rate of the participating projects and other dean items.
  • the X project researcher searches 100 databases and 40 employment points for the X project evaluation index group by searching the database from the researcher's performance share stored in the P thesis database and the project participation rate of the X project stored in the researcher's database. By monitoring all of the performance information, the other evaluation indicator groups can be selected or new evaluation indicators can be proposed autonomously.
  • each university professor selects a research group and bids. That is, each university professor will bid in consideration of the performance evaluation items and status (evaluation score, etc.) of participating researchers including masters and doctoral doctors corresponding to the evaluation indicators.
  • the evaluation index may be proposed at the same time as bidding, and the evaluation index grouping may be performed simultaneously among bidders, and an appropriate group may be automatically generated to perform the bidding.
  • the research director can calculate the evaluation score by selecting only the performance evaluation items necessary for bidding among all the performance evaluation items of participating researchers generated at the time of bidding. Of course, this metric can be used in other bids of participating researchers if it is excluded from this bid.
  • the total performance is also calculated by calculating the performance of the B and C authors who participate in the X project.
  • the bid is performed through the ratio of the budget to the total performance.
  • all the relevant results of participating researchers can be summed and evaluated during the evaluation period.
  • the system automatically finds a group with evaluation indicators that can generate the highest evaluation scores by adding the evaluation scores of all participating researchers, or displays the research expenses of the previous year (e.g., average and standard deviation) and current bidding status.
  • the bidder can choose which groups can bid.
  • the budget supported for the group may be preset or set in real time in response to the grouping result.
  • each university professor will perform bidding while predicting or real-time checking the budget and competition supported by each group.
  • the bid amount may be adjusted based on this performance and designated as a selector for the following year.
  • the bidding amount can be adjusted to improve the selection.
  • the bid amount will be determined in consideration of the evaluation score. For example, if a budget of 100 million is allocated to Group A, professor A will apply for 30 million won in consideration of the evaluation score, and professor B will apply for 50 million won in consideration of the evaluation score. Professor C can apply for 30 million won in consideration of the evaluation score, and Professor D can apply for 20 million won in consideration of the evaluation score.
  • the system can suggest an appropriate bid amount based on the bid amount of the previous year and the current situation.
  • the budget of 100 million is allocated to the A group, so that the screening and selection of the R & D projects is made.
  • the selection criteria may be determined in order of the lowest bid amount, may be determined by the ratio of the bid amount to the evaluation score, or may be determined using various methods.
  • the server may transmit the fee information for a certain ratio of the total research costs of the selected research and development projects to the bidder terminal.
  • Professor A has a rate of 50,000 won / point for the participating researchers
  • Professor B has a rate of 60,000 won / point
  • Professor C has a rate of 70,000 won / point
  • Professor D has a rate of evaluation If it is 90,000 won / score, the evaluation value ratio is sorted in descending order, that is, A professor B professor C professor D professor.
  • the number of top teams is determined in the sorted order in consideration of the distribution amount and the bid amount for the budget of 100 million.
  • the top team is selected immediately before the bid amount exceeds 100 million won for the first time. That is, a bid of 30 million won for Professor A and 50 million won for Professor B is selected.
  • the determination of the bid amount, in consideration of the evaluation amount ratio may be able to be supported the ratio.
  • the minimum and maximum amounts can be determined and assigned according to the total bid amount without changing the budget of the group in advance. For example, if the total bid amount is 100 million won and the total bid amount is 100 million won, an average of 50 million won can be allocated to maintain a 2: 1 competition rate.
  • the existing R & D project evaluation has undergone a selection evaluation and a result evaluation.
  • the evaluation of the result had to be re-evaluated fairly, but in many cases it was not. In other words, there was no way to protect project proponents who were not selected for the project by presenting appropriate goals without being exaggerated in the selection evaluation.
  • copyrights are applied according to various processes, such as unique or necessary and important evaluation indicators or evaluation indicator groups, autonomously proposed and important evaluation indicators, evaluation index groups or evaluation group groups that have received good scores through bidder surveys, and review process. It would also be desirable to ensure that the institution that administers the system, or the individual who presents it, for the evaluation indicators or groups of evaluation indicators deemed acceptable to receive the copyright fees from the government or agency that uses the stored key evaluation indicators.
  • Performance evaluation item classification unit 22 Bidder grouping unit

Abstract

본 발명은 평가지표 자율제안에 의한 연구개발과제 선정 시스템 및 방법에 관한 것으로서, 연구개발과제 입찰에 대한 실적평가항목의 선택에 대응하여 생성된 실적정보를 입찰자별로 구분하고, 구분된 입찰자 그룹별로 상기 연구개발과제를 선정한다. 본 발명에 따르면, 연구개발과제 선정기준인 평가지표를 연구개발과제 입찰자 스스로 선택할 수 있도록 함으로써, 자율성 보장뿐 아니라 모든 연구개발과제 입찰자들에게 공정한 입찰 기회를 제공할 수 있고, 또한 자율적으로 선택한 실적평가항목에 대응하여 구분된 해당 그룹별로 연구개발과제 선정이 이루어지므로 연구개발과제 입찰자들 간의 공정한 경쟁 및 투명한 선정이 이루어질 수 있을 뿐 아니라, 연구개발과제의 균등 분배가 이루어질 수 있다.

Description

평가지표 자율제안에 의한 연구개발과제 선정 시스템 및 방법
본 발명은 연구개발과제 선정 방식에 관한 것으로, 더욱 상세하게는 연구개발과제 입찰자 스스로가 자율적으로 제안한 평가지표를 이용하여 연구개발과제를 선정할 수 있도록 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템 및 방법에 관한 것이다.
기존 연구개발과제 선정 방식은 기술 전문가들의 주관적, 정성적 판단에 의존하고 있으며, 기술성 및 성장성에 초점을 둔 스크리닝 방법론에 의해 수행되고 있다. 즉, 국내외의 기술평가 기관들에 의해 수행된 기존 기술평가의 객관적인 지표들을 활용하여 유망 연구개발과제들을 선정하고 있는 것이다.
그러나, 이러한 연구개발과제 선정 방식은 기술평가의 각 지표를 개별적으로 활용하는 정도에 머물러 있을 뿐, 지표들 간의 상호 관계를 통합적으로 분석하여 평가하는 수준에는 이르지 못하고 있다. 즉, 기존 연구개발과제 선정 방식은 유망 연구개발과제의 도출을 위한 의사 결정을 지원하는 정도의 수준에 머무르고 있을 뿐이다.
또한, 기존 연구개발과제 선정 방식은 각 주어진 실적평가항목을 모두 만족하는 연구개발과제 입찰자들에게만 기회가 부여됨에 따라, 선정되는 연구개발과제가 특정 단체에 편중되는 현상이 발생하고 있다. 이는 실적평가항목이 특정 항목에 한정되기 때문이다. 일반적으로 실적평가항목에는 논문 수 등의 양적 지표가 많이 이용되고 있다. 즉, 논문을 제출하지 않는 학교 등에서는 연구개발과제에 선정되기 어려운 선정 방식이 적용되고 있는 것이다. 또한, 이러한 논문 수의 양적 지표의 문제점과 함께 하나의 논문이 다수의 입찰에 이용되고 있는 문제점도 안고 있다.
이에 연구개발과제 선정 방식에 있어, 자율성과 공정성을 높일 수 있을 뿐만 아니라 균등 분배가 가능한 새로운 연구개발과제 선정 방식이 필요한 실정이다.
[선행기술문헌]
[특허문헌]
대한민국 공개특허공보 제10-2011-0052189호(공개일 2011.05.18)
따라서, 본 발명은 상기한 종래 기술의 문제점을 해결하기 위해 이루어진 것으로서, 본 발명의 목적은 연구개발과제 입찰자가 자율적으로 선택한 평가지표를 연구개발과제 선정기준으로 제안하고, 평가지표별로 구분된 해당 그룹에서 연구개발과제 입찰자들 간의 공정한 경쟁 및 투명한 선정이 이루어질 수 있도록 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템 및 방법을 제공하는데 있다.
본 발명의 한 실시예에 따른 평가지표 자율제안에 의한 연구개발과제 선정 시스템은 연구개발과제 선정기준인 실적평가항목을 평가지표로서 제안하고, 상기 평가지표에 대해 실적정보를 생성하는 입찰자 단말, 그리고 상기 입찰자 단말로부터 상기 평가지표 및 이에 대한 실적정보를 업로드받아 이를 저장하고 실적평가연산을 수행하여 연구개발과제를 수행할 입찰자를 선정하는 서버를 포함한다.
한 예에서, 상기 서버는 상기 입찰자 단말에서 제안한 복수 개의 상기 평가지표를 그룹핑하여 평가지표 그룹으로 생성하는 것을 특징으로 한다.
상기 입찰자 단말은 상기 실적평가항목으로서 논문, 특허, 취업 연구비 집행내역 및 총액, 기업기술이전 여부 중 적어도 하나를 제안하는 것을 특징으로 한다.
상기 입찰자 단말은 인터넷을 통해 상기 서버에 접속하는 단말로서, 웹 브라우저 또는 전용 어플리케이션을 통해 상기 서버에 접속하는 것을 특징으로 한다.
한 예에서, 상기 서버는, 상기 평가지표를 구성하는 적어도 하나의 실적평가항목을 평가지표 그룹으로 분류하는 실적평가항목 분류부; 분류된 상기 평가지표 그룹에 입찰자를 포함시켜 입찰자를 그룹핑(Grouping)하는 입찰자 그룹핑부; 그룹별로 상기 실적평가항목에 대응하여 실적을 연산하는 실적 연산부; 및 상기 그룹별로 미리 설정된 규칙에 대응하여 연구개발과제를 선정하는 연구개발과제 선정부;를 포함하는 것을 특징으로 한다.
상기 입찰자 단말은 복수 개로서, 복수 개의 상기 입찰자 단말에서 제안된 평가지표가 상기 서버에 업로드되는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
상기 서버는 상기 입찰자 단말에서 생성한 상기 평가지표를 전달받아 데이터베이스에 저장하고, 상기 데이터베이스는 상기 입찰자 단말에서 상기 평가지표가 새롭게 제안될 때마다 업데이트되는 것을 특징으로 한다.
상기 실적평가항목 분류부는 상기 평가지표에 대한 분석을 통해 평가지표를 업데이트하는 것을 특징으로 한다.
그리고, 실적평가항목 분류부는 서로 다른 평가지표 그룹에 대한 분석을 수행하여 하나의 평가지표 그룹으로 통합하고, 통합된 평가지표 그룹의 가중치를 재설정하는 것을 특징으로 한다.
상기 실적평가항목 분류부는 서로 다른 평가지표 그룹에 대한 분석을 수행하여 하나의 평가지표 그룹으로 통합하고, 통합된 평가지표 그룹의 평가기간을 재설정하는 것을 특징으로 한다.
상기 실적평가항목 분류부는 하나의 평가지표 그룹을 분석하여 서로 다른 두 개의 평가지표 그룹으로 분리하는 것을 특징으로 한다.
상기 서버는 상기 입찰자 단말에서 생성한 상기 평가지표에 대한 실적정보를 복수 개의 평가지표 그룹에 대응시켜 실적평가연산을 수행하고, 실적평가연산결과가 가장 높은 결과를 갖는 특정 평가지표 그룹의 연산결과를 상기 입찰자 단말에게 제공하는 것을 특징으로 한다.
상기 실적 연산부는, 프로젝트에 투입되는 참여연구원의 평가점수를 산출하는 평가점수 산출부; 및 상기 프로젝트에 투입되는 참여연구원들의 평가점수를 합산하고, 합산된 평가점수 대비 입찰비용에 대응하는 평가금액비율로 환산하는 평가금액비율 환산부;를 포함하는 것을 특징으로 한다.
이때, 평가점수 산출부는, 프로젝트에 투입되는 참여연구원의 과제참여율으로부터 각 참여연구원별 평가점수를 산출하는 것을 특징으로 한다.
그리고 이때, 평가점수 산출부는, 프로젝트에 투입되는 참여연구원의 과제참여율과 상기 실적평가항목의 실적지분율의 곱연산으로부터 각 참여연구원별 평가점수를 산출하는 것을 특징으로 한다.
상기 입찰자 단말은 제안한 상기 평가지표에 대한 가중치를 제안하여, 상기 서버는 상기 입찰자 단말로부터 상기 평가지표에 대한 가중치도 업로드받는 것을 특징으로 한다.
상기 입찰자 단말은 제안한 상기 평가지표에 대한 평가기간을 제안하여, 상기 서버는 상기 입찰자 단말로부터 상기 평가지표에 대한 평가기간도 업로드받는 것을 특징으로 한다.
상기 연구개발과제 선정부는 상기 실적 연산부의 연산 결과를 평가점수로 산출하고, 산출된 평가점수를 예년 입찰금액과 상기 입찰자 단말의 입찰 금액과 각각 비교하여, 상기 산출된 평가점수에 따른 입찰자 단말의 낙찰 확률을 산출하고 이를 상기 입찰자 단말에 알려주는 것을 특징으로 한다.
상기 연구개발과제 선정부는 상기 실적 연산부의 연산 결과를 평가점수로 산출하고, 산출된 평가점수를 예년 입찰금액과 상기 입찰자 단말의 입찰 금액과 각각 비교하여, 상기 산출된 평가점수에 따라 입찰자 단말의 낙찰 가능한 입찰금액을 산출하고 이를 상기 입찰자 단말에 알려주는 것을 특징으로 한다.
상기 연구개발과제 선정부는 복수 개의 평가지표 그룹에 대해 상기 실적 연산부의 연산 결과를 평가점수로 산출하고, 산출된 복수 개의 평가점수를 예년 입찰금액과 상기 입찰자 단말의 입찰 금액과 각각 비교하여, 복수 개의 평가점수에 따라 입찰자 단말의 낙찰 확률을 산출하고 이를 상기 입찰자 단말에 알려주는 것을 특징으로 한다.
상기 실적 연산부는 복수 개의 평가지표 그룹에 대해 상기 실적 연산부의 연산 결과를 평가점수로 산출하고, 최대 평가점수가 산출된 평가지표를 상기 입찰자 단말에 알려주는 것을 특징으로 한다.
상기 실적지분율은 참여연구원의 동의를 얻어 부여되어 상기 서버에 저장되는 것을 특징으로 한다.
하나의 실적정보의 실적지분율의 총합은 100% 이하이며, 연구개발과제에 낙찰되면 상기 실적지분율은 고정되어 상기 서버에 저장되는 것을 특징으로 한다.
상기 과제참여율은 참여연구원별로 연 단위, 월 단위, 주 단위, 일 단위 중 어느 하나로 관리되어 상기 서버에 저장되는 것을 특징으로 한다.
상기 실적 연산부는 상기 참여연구원의 여러 프로젝트에 대한 각각의 과제참여율의 비율 변화에 따라 최대 평가점수가 산출되는 최적의 과제참여율의 비율을 상기 입찰자 단말에 알려주는 것을 특징으로 한다.
상기 실적 연산부는 동일한 평가점수가 산출되는 상기 참여연구원의 여러 프로젝트에 대한 복수 개의 과제참여율의 비율을 상기 입찰자 단말에 알려주는 것을 특징으로 한다.
한 명의 참여연구원의 과제참여율의 총합은 100% 이하이며, 연구개발과제에 낙찰되면 해당 과제에 대한 과제참여율은 고정되어 상기 서버에 저장되는 것을 특징으로 한다.
상기 연구개발과제 선정부는, 프로젝트에 투입되는 각 연구원별 평가점수를 산출하고, 상기 프로젝트에 투입되는 연구원들의 평가점수를 합산하여, 합산된 평가점수 대비 입찰비용에 대응하는 평가금액비율로 환산하고, 상기 평가금액비율에 근거하여 연구개발과제를 선정하는 것을 특징으로 한다.
상기 서버에서 연구개발과제를 수행할 입찰자를 선정함에 따라, 상기 입찰자의 선정에 사용된 평가지표를 제안한 상기 입찰자 단말로 수수료를 지급하고, 상기 수수료는 상기 연구개발과제의 총연구비의 일정 금액으로 지급하는 것을 특징으로 한다.
상기 입찰자 단말에서 제안한 상기 평가지표가 사용됨에 따라, 상기 서버는 사용된 평가지표를 제안한 상기 입찰자 단말에 저작권료로서 수수료를 지급하는 것을 특징으로 한다.
상기 서버는 사용된 평가지표에 대한 피드백을 저장하고, 상기 입찰자 단말은 상기 피드백을 바탕으로 평가지표를 업데이트하는 것을 특징으로 한다.
본 발명의 한 실시예예 따른 평가지표 자율제안에 의한 연구개발과제 선정 방법은 입찰자 단말이 실적평가항목으로서 평가지표를 자율적으로 제안하여 이를 서버로 전송하거나 서버에 저장된 평가지표를 선택하는 단계; 그리고 서버는 각 입찰자 단말에서 선택한 평가지표를 분류하고, 동일하거나 유사한 평가지표를 선택한 입찰자들을 그룹핑하며, 그룹별로 실적평가항목에 따라 실적을 연산하여 연구개발과제를 선정하는 단계;를 포함한다.
한 예에서, 상기 평가지표의 실적평가항목은 논문, 특허, 취업, 연구비 집행내역 및 총액, 기업기술이전 여부 중 어느 하나를 포함하는 것이 좋다.
상기 입찰자 단말은 인터넷을 통해 상기 서버에 접속하되, 웹 브라우저 또는 전용 어플리케이션을 통해 상기 서버에 접속하는 것을 특징으로 한다.
상기 입찰자 단말이 실적평가항목으로서 평가지표를 자율적으로 제안하여 이를 서버로 전송하거나 서버에 저장된 평가지표를 선택하는 단계; 이전에, 복수 개의 상기 입찰자 단말이 접속계정을 통해 상기 서버에 접속하는 단계;를 더 포함하는 것을 특징으로 한다.
서버는 각 입찰자 단말에서 선택한 평가지표를 분류하고, 동일하거나 유사한 평가지표를 선택한 입찰자들을 그룹핑하며, 그룹별로 연구개발과제를 선정하는 단계;는, 서버는 프로젝트에 투입되는 각 참여연구원별 평가점수를 산출하는 단계; 산출된 평가점수에 해당 프로젝트에 투입되는 참여연구원들의 평가점수를 합산하는 단계; 합산된 평가점수 대비 입찰비용을 평가금액비율로 환산하고, 환산된 평가금액비율에 근거하여 순위 또는 선정비율을 토대로 연구개발과제를 선정하는 단계;로 수행되는 것을 특징으로 한다.
이때, 서버는 프로젝트에 투입되는 각 참여연구원별 평가점수를 산출하는 단계;는, 프로젝트에 투입되는 참여연구원의 과제참여율으로부터 각 참여연구원별 평가점수를 산출하여 이루어지는 것을 특징으로 한다.
그리고 이때, 서버는 프로젝트에 투입되는 각 참여연구원별 평가점수를 산출하는 단계;는, 프로젝트에 투입되는 참여연구원의 과제참여율과 상기 실적평가항목의 실적지분율의 곱연산으로부터 각 참여연구원별 평가점수를 산출하여 이루어지는 것을 특징으로 한다.
상기 입찰자 단말이 실적평가항목으로서 평가지표를 자율적으로 제안하여 이를 서버로 전송하거나 서버에 저장된 평가지표를 선택하는 단계;에서, 상기 입찰자 단말은 복수 개의 평가지표를 그룹핑하여 그룹핑된 평가지표로서 상기 서버에 전송하거나 서버에 저장된 그룹핑된 평가지표를 선택하여 이루어지는 것을 특징으로 한다.
상기 서버는 각 입찰자 단말에서 선택한 평가지표를 분류하고, 동일하거나 유사한 평가지표를 선택한 입찰자들을 그룹핑하며, 그룹별로 실정평가항목에 따라 실적을 연산하여 연구개발과제를 선정하는 단계;에서, 상기 입찰자 그룹핑부는 그룹핑된 평가지표에 상기 입찰자 단말을 포함시키는 것을 특징으로 한다.
상기 서버는 각 입찰자 단말에서 선택한 평가지표를 분류하고, 동일하거나 유사한 평가지표를 선택한 입찰자들을 그룹핑하며, 그룹별로 실적평가항목에 따라 실적을 연산하여 연구개발과제를 선정하는 단계; 이후에, 서버는 상기 입찰자 단말에서 상기 그룹핑된 평가지표로서 상기 서버에 전송함에 따라, 그룹핑된 평가지표를 저장하는 데이터베이스를 업데이트하는 단계;를 더 포함하는 것을 특징으로 한다.
상기 서버는 각 입찰자 단말에서 선택한 평가지표를 분류하고, 동일하거나 유사한 평가지표를 선택한 입찰자들을 그룹핑하며, 그룹별로 실적평가항목에 따라 실적을 연산하여 연구개발과제를 선정하는 단계;는 상기 서버가 서로 다른 평가지표에 대한 분석을 수행하여 이루어지는 것을 특징으로 한다.
상기 서버는 각 입찰자 단말에서 선택한 평가지표를 분류하고, 동일하거나 유사한 평가지표를 선택한 입찰자들을 그룹핑하며, 그룹별로 실적평가항목에 따라 실적을 연산하여 연구개발과제를 선정하는 단계;는 상기 서버가 서로 다른 평가지표에 대한 분석을 수행하여 하나의 평가지표로 통합하고, 통합된 평가지표 그룹의 가중치를 재설정하여 이루어지는 것을 특징으로 한다.
상기 서버는 각 입찰자 단말에서 선택한 평가지표를 분류하고, 동일하거나 유사한 평가지표를 선택한 입찰자들을 그룹핑하며, 그룹별로 실적평가항목에 따라 실적을 연산하여 연구개발과제를 선정하는 단계;는 상기 서버가 서로 다른 평가지표에 대한 분석을 수행하여 하나의 평가지표로 통합하고, 통합된 평가지표 그룹의 평가기간을 재설정하여 이루어지는 것을 특징으로 한다.
서버는 각 입찰자 단말에서 선택한 평가지표를 분류하고, 동일하거나 유사한 평가지표를 선택한 입찰자들을 그룹핑하며, 그룹별로 실적평가항목에 따라 실적을 연산하여 연구개발과제를 선정하는 단계;에서, 상기 서버는 서로 다른 평가지표에 대한 분석을 수행하여 하나의 평가지표를 서로 다른 평가지표로 분리하는 것을 특징으로 한다.
합산된 평가점수 대비 입찰비용을 평가금액비율로 환산하고, 환산된 평가금액비율에 근거하여 순위 또는 선정비율을 토대로 연구개발과제를 선정하는 단계;는, 상기 서버가 상기 입찰자 단말에서 생성한 상기 평가지표에 대한 실적정보를 복수 개의 평가지표 그룹에 대응시켜 실적평가연산을 수행하고, 실적평가연산결과가 가장 높은 결과를 갖는 특정 평가지표 그룹의 연산결과를 상기 입찰자 단말에게 제공하여 이루어지는 것을 특징으로 한다.
상기 입찰자 단말은 제안한 상기 평가지표에 대한 가중치를 제안하고, 상기 서버는 상기 입찰자 단말로부터 상기 평가지표에 대한 가중치도 업로드받는 것을 특징으로 한다.
상기 입찰자 단말은 제안한 상기 평가지표에 대한 평가기간을 제안하고, 상기 서버는 상기 입찰자 단말로부터 상기 평가지표에 대한 평가기간도 업로드받는 것을 특징으로 한다.
상기 그룹별로 실적평가항목에 따라 실적을 연산하여 연구개발과제를 선정함에 있어서, 상기 서버는 실적 연산 결과를 평가점수로 산출하고, 산출된 평가점수를 예년 입찰금액과 상기 입찰자 단말의 입찰 금액과 각각 비교하여, 상기 산출된 평가점수에 따른 입찰자 단말의 낙찰 확률을 산출하고 이를 상기 입찰자 단말에 알려주는 동작을 수행하는 것을 특징으로 한다.
상기 그룹별로 실적평가항목에 따라 실적을 연산하여 연구개발과제를 선정함에 있어서, 상기 서버는 실적 연산 결과를 평가점수로 산출하고, 산출된 평가점수를 예년 입찰금액과 상기 입찰자 단말의 입찰 금액과 각각 비교하여, 상기 산출된 평가점수에 따라 입찰자 단말의 낙찰 가능한 입찰금액을 산출하고 이를 상기 입찰자 단말에 알려주는 동작을 수행하는 것을 특징으로 한다.
상기 그룹별로 실적평가항목에 따라 실적을 연산하여 연구개발과제를 선정함에 있어서, 상기 서버는 복수 개의 평가지표그룹에 대해 실적 연산 결과를 평가점수로 산출하고, 산출된 복수 개의 평가점수를 예년 입찰금액과 상기 입찰자 단말의 입찰 금액과 각각 비교하여, 복수 개의 평가점수에 따라 입찰자 단말의 낙찰 가능한 입찰금액을 산출하고 이를 상기 입찰자 단말에 알려주는 동작을 수행하는 것을 특징으로 한다.
상기 서버는 연구원들의 평가점수를 합산하여 총점을 산출하고, 평가점수 및 예년과 현재의 입찰금액 및 평가지표 그룹에 대응하여 입찰자 단말에 최적의 평가지표 그룹을 알려주는 것이 좋다.
상기 실적지분율은 참여연구원의 동의를 얻어 부여되어 상기 서버에 저장되는 것을 특징으로 한다.
하나의 실적정보의 실적지분율의 총합은 100% 이하이며, 연구개발과제에 낙찰되면 상기 실적지분율은 고정되어 상기 서버에 저장되는 것을 특징으로 한다.
상기 과제참여율은 참여연구원별로 연 단위, 월 단위, 주 단위, 일 단위 중 어느 하나로 관리되어 상기 서버에 저장되는 것을 특징으로 한다.
상기 서버는 상기참여연구원의 프로젝트에 대한 과제참여율에 대해서, 상기참여연구원이 참여한 모든 프로젝트에 대한 과제참여율을 종합하여 평가점수를 계산하는 것을 특징으로 한다.
상기 서버는 참여연구원에 대한 과제참여율 변화에 대응하여 최대 평가점수가 되는 과제참여율의 비율을 입찰자 단말에 전송하는 단계;를 더 포함하는 것을 특징으로 한다.
이때, 상기 서버는 동일한 평가점수가 산출되는 복수 개의 참여연구원의 과제참여율의 비율을 입찰자 단말에 전송하는 단계;를 더 포함하는 것이 좋다.
그리고, 한 명의 참여연구원의 과제참여율의 총합은 100% 이하이며, 연구개발과제에 낙찰되면 상기 과제참여율은 고정되어 상기 서버에 저장되는 것이 좋다.
상기 연구개발과제를 선정하는 단계는, 프로젝트에 투입되는 연구원의 평가점수를 산출하고, 상기 프로젝트에 투입되는 연구원들의 평가점수를 합산하고, 합산된 평가점수 대비 입찰비용에 대응하는 평가금액비율로 환산하고, 상기 평가금액비율에 근거하여 연구개발과제를 선정하여 이루어지는 것을 특징으로 한다.
상기 서버는 선정된 연구개발과제의 총연구비의 일정 비율에 대한 수수료 정보를 상기 입찰자 단말로 전송하는 단계;를 더 포함하는 것을 특징으로 한다.
상기 서버는 선정된 연구개발과제에서 사용한 평가지표의 저작권에 대한 수수료 정보를 상기 입찰자 단말로 전송하여 평가지표 제안자에게 지급하는 단계;를 더 포함하는 것을 특징으로 한다.
상기 서버는 평가지표에 대한 피드백을 저장하여, 상기 입찰자 단말은 상기 피드백을 바탕으로 상기 평가지표를 업데이트하는 단계;를 더 포함하는 것을 특징으로 한다.
상술한 바와 같이, 본 발명에 의한 평가지표 자율제안에 의한 연구개발과제 선정 시스템 및 방법에 따르면, 연구개발과제 선정기준을 연구개발과제 입찰자 스스로 선택할 수 있도록 함으로써, 자율성 보장뿐 아니라 모든 연구개발과제 입찰자들에게 공정한 입찰 기회를 제공할 수 있다.
또한, 본 발명에 따르면, 자율적으로 선택한 평가지표에 대응하여 구분된 해당 그룹별로 연구개발과제 선정이 이루어지므로 연구개발과제 입찰자들 간의 공정한 경쟁 및 투명한 선정이 이루어질 수 있을 뿐 아니라, 연구개발과제의 균등 분배가 이루어질 수 있다.
도 1은 본 발명에서 제안하는 평가지표의 자율제안을 위한 순환알고리즘이다.
도 2는 본 발명의 일 실시예에 의한 평가지표 자율제안에 의한 연구개발과제 선정 시스템의 구성도이다.
도 3은 본 발명의 일 실시예에 의한 서버의 구성도이다.
도 4는 본 발명의 일 실시예에 의한 실적 연산부의 구성도이다.
도 5는 본 발명의 일 실시예에 의한 평가지표 자율제안에 의한 연구개발과제 선정 방법의 흐름도이다.
도 6은 본 발명의 일 실시예로서, 실적평가항목 및 가중치를 예시한 표이다.
도 7은 본 발명의 일 실시예로서, 평가점수를 계산하는 예시도이다.
도 8은 본 발명의 일 실시예로서, 프로젝트별 평가점수를 계산하는 예시도이다.
이하, 본 발명의 평가지표 자율제안에 의한 연구개발과제 선정 시스템 및 방법에 대하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
도면 설명에 있어, 동일 기능을 수행하는 구성에 대해서는 동일 참조부호를 부여하기로 한다.
도 1은 본 발명에서 제안하는 평가지표의 자율제안을 위한 순환알고리즘이다.
도 1을 참조하면, 본 발명은, 제안자에 의해 자율적으로 평가지표가 제안되면, 평가지표별로 그룹핑(Grouping)을 수행하고, 해당 그룹별로 프로젝트의 평가점수를 산출하여 프로젝트의 선정 여부를 판단하고, 프로젝트의 선정 여부 결과를 바탕으로 그룹별 평가지표에 대한 피드백을 입력받아 제안자가 피드백 자료를 이용하여 평가지표를 분석하고 업데이트하여 자율적으로 제안하는 데 활용할 수 있는 순환구조로 구성되어 있다.
평가지표를 자율적으로 제안하는 제안자는 이하에서 도 2를 참고로 하여 설명할 연구과제 입찰자 단말(1)(이하, '입찰자 단말'이라 함)일 수 있으나, 입찰자 단말(1)이 아닌 다른 단말로서, 평가지표 그룹핑은 수행하지 않고 단지 평가지표를 제안하여 이를 서버(2)로 전달할 수 있다.
여기서, 본 발명에서 프로젝트는 제안하여 입찰하고자 하는 연구개발과제를 의미한다.
또한, 본 발명에서 평가지표는 실적평가항목과, 실적평가항목을 정량적으로 나타내기 위한 가중치와 평가기간을 포함한다.
이때, 실적평가항목은 연구개발과제 선정기준으로서, 기존 특정 기관에서 미리 정하여진 규정에 대한 조건이거나, 입찰자가 직접 설정(선택)하는 항목을 포함할 수 있다.
한 예에서, 실적평가항목에는 논문발표, 특허출원, 지도학생취업, 연구비 총액 및 집행내역, 기술이전 여부 등이 있다.
그리고 이때, 가중치는 실적평가항목에 대해 지정되는 수치이고, 평가기간은 실적평가항목을 인정할 수 있는 기간으로서, 각각의 실적평가항목에 대해 각각 설정된다.
도 2는 본 발명의 일 실시예에 의한 평가지표 자율제안에 의한 연구개발과제 선정 시스템의 구성도이다.
도 2를 참조하면, 본 발명의 평가지표 자율제안에 의한 연구개발과제 선정 시스템은, 평가지표에 포함된 실적평가항목의 선택에 대응하여 실적정보를 생성하는 연구개발과제 입찰자 단말(1)(이하, "입찰자 단말"이라 함)과, 실적정보를 저장 및 관리하고, 실적정보에 대응하여 구분된 입찰자 그룹별로 연구개발과제를 선정하는 서버(2)를 포함한다.
입찰자 단말(1)은 입찰자가 소지하는 단말로서, 컴퓨터 또는 휴대용 단말일 수 있고, 원격에서 인터넷을 통해 서버(2)에 접속하는 단말일 수 있다.
한 예에서, 입찰자 단말(1)은 웹 브라우저 또는 전용 프로그램을 통해 서버(2)에 접속할 수 있으며, 하나의 입찰자에 대응되는 접속계정을 통해 서버(2)에 접속할 수 있다.
서버(2)는 입찰자 단말(1)로부터 정보를 전달받아 이를 저장하거나, 입찰자 단말(1)로부터 전달받은 요청에 따른 처리를 수행하여 결과를 저장하거나 이를 입찰자 단말(1)에 제공할 수 있다.
이와 같이 구성된 평가지표 자율제안에 의한 연구개발과제 선정 시스템은, 입찰자 단말(1)과 서버(2) 간 접속이 이루어지면, 입찰자 단말(1)에서 입찰자가 선택한 평가지표에 대응하여 평가지표에 포함된 실적평가항목별 실적정보를 생성하여 서버(2)로 전송하고, 이에 서버(2)에서는 실적정보를 저장하고, 실적정보에 대응하여 연구개발과제를 선정한다. 이때, 각 입찰자가 선택한 실적평가항목에 따라 그룹을 구분하며, 해당 그룹별로 설정된 비율에 따라 연구개발과제를 선정한다.
이때, 입찰자 단말(1)은 서버(2)에 접속하여, 서버(2)에 이미 저장되어 있는 평가지표를 선택할 수 있으나, 다른 한 예에서, 입찰자 단말(1)은 입찰자 단말(1)을 이용하는 입찰자가 제안한 평가지표를 서버(2)에 업로드하여 저장하거나 해당 평가지표를 그룹핑하여 그룹핑된 평가지표로서 서버(2)에 업로드 및 저장할 수 있다.
한편, 본 실시예에서는 실적정보를 입찰자 단말(1)에서 생성하는 것을 예시하고 있으나, 입찰자 단말(1)과 서버(2) 간 실시간 접속 상태에서 서버(2)측에서 실적정보가 생성될 수도 있다.
도 3은 본 발명의 일 실시예에 의한 서버의 구성도이다.
도 3을 참조하면, 본 발명의 서버(2)는, 선택되거나 새로 입력된 실적평가항목을 평가지표 그룹으로 분류하는 실적평가항목 분류부(21)와, 분류된 평가지표 그룹에 입찰자를 포함시켜 입찰자를 그룹핑하는 입찰자 그룹핑부(22)와, 그룹별로 실적평가항목에 대응하여 실적을 연산하는 실적 연산부(23)와, 그룹별로 미리 설정된 규칙에 대응하여 연구개발과제를 선정하는 연구개발과제 선정부(24)를 포함한다.
한 예에서, 실적평가항목 분류부(21)가 선택되거나 새로 입력된 실적평가항목을 평가지표 그룹으로 분류함에 있어서, 실적평가항목 분류부(21)는 이미 평가지표 그룹으로 분류된 서로 다른 두 개의 평가지표 그룹을 병합하여 새로운 평가지표 그룹을 생성하거나, 하나의 평가지표 그룹을 두 개의 서로 다른 평가지표 그룹으로 분리하여 평가지표 그룹을 새로 생성할 수 있다.
이때, 평가지표 그룹은 실적평가항목과 가중치와 평가기간을 포함하는데, 실적평가항목 분류부(21)가 서로 다른 평가지표 그룹을 병합함에 있어서, 병합 대상인 서로 다른 두 평가지표 그룹에서 중복되는 실적평가항목이 존재하는 경우, 해당 실적평가항목에 대해서 각각의 평가지표 그룹에서 설정된 가중치를 새로 할당한다.
그리고, 입찰자 그룹핑부(21)는 미리 설정된 평가지표 그룹에 입찰자를 포함시키고, 평가지표 그룹에 입찰자가 포함됨에 따라, 평가지표 그룹에 속하는 복수의 입찰자가 그룹핑되게 된다. 서버(2)는 실적평가항목 분류부(21)와, 입찰자 그룹핑부(22)와, 실적 연산부(23)와, 연구개발과제 선정부(24)의 처리 데이터 및 입출력 데이터를 저장하는 데이터베이스(25)를 포함할 수 있다.
데이터베이스(25)는 평가지표의 실적평가항목 및 이의 가중치와 평가기간, 실적평가항목에 해당하는 실적정보의 실적지분율, 참여연구원의 과제참여율을 저장할 수 있다.
실적지분율은 하나의 실적평가항목에 대한 실적지분으로서, 한 예에서, 실적평가항목으로서 논문이라는 항목이 존재하고, 논문이라는 항목에 대한 실적으로 A논문이 등록된 경우, 이에 대하여 A저자 및 B저자가 각각 10%, 90%의 실적지분을 각각 가질 수 있고, 총합이 100%이다.
그리고, 과제참여율은 실적평가항목에 실적지분 등을 갖는 교수 또는 학생(이하, '참여연구원'이라 함)이 여러 실적평가항목에 대해 입찰하고자 하는 과제에 참여한 정도를 비율로 나타내는 항목으로서, A논문에 대한 A저자가 A프로젝트 및 B프로젝트에 참여하는 경우, A저자의 과제참여율은 A프로젝트 및 B프로젝트에 각각 배분되어 할당된다.
이때, 데이터베이스(25)는 입찰자 단말(1)로부터 제안된 평가지표를 입찰자 단말(1)로부터 제공받아 이를 저장하고, 입찰자 단말(1)로부터 제안되고 그룹핑된 평가지표를 입찰자 단말(1)로부터 제공받아 이를 저장한다.
그리고 이때, 데이터베이스(25)는 입찰자 단말(1)의 요청에 따라, 저장하고 있는 평가지표 또는 그룹핑된 평가지표를 입찰자 단말(1)에게 제공한다.
그리고 이때, 어느 한 입찰자 단말(1)에서 제안하여 서버(2)에 업로드된 그룹핑된 평가지표에 대해서, 다른 한 입찰자 단말(1)이 이를 선택하여 사용하는 경우, 해당 그룹핑된 평가지표를 제안하여 서버(2)에 업로드한 해당 입찰자 단말(1) 또는 해당 입찰자 단말(1)에 대응하는 접속계정에게 저작권료로서 수익을 배분한다.
여기서, 그룹핑된 평가지표가 다른 입찰자 단말(1)의 선택에 의해 사용됨에 따라, 해당 그룹핑된 평가지표를 제안한 입찰자 단말(1) 또는 접속계정에 수익을 배분하는 주체는 서버(2)이고, 서버(2)는 데이터베이스(25)에 저장된 그룹핑된 평가지표가 다른 입찰자 단말(1) 또는 접속계정에 의해 선택되었음을 데이터베이스(25)에 정보로서 추가한다.
한 예에서, 그룹핑된 평가지표가 선택됨에 따라 수익을 배분하기 위해, 데이터베이스(25)는 입찰자 단말(1) 또는 이의 접속계정으로부터 수익을 배분받을 수단, 예로써, 계좌번호를 입력받아 입찰자 단말(1) 또는 이의 접속계정의 정보에 대응시켜 저장할 수 있다.
다른 한 예에서, 서버(2)는 입찰자 단말(1)에서 제안된 평가지표 또는 평가지표들로 형성된 평가지표 그룹이 연구개발과제 선정에 사용된 경우, 연구과제개발비의 일부 금액을 수수료로서 배분받을 수 있다.
이처럼, 데이터베이스(25)는 평가지표 또는 그룹핑된 평가지표를 저장하고, 새로운 평가지표 또는 그룹핑된 평가지표가 입력됨에 따라 갱신하며, 그룹핑된 평가지표가 선택되어 사용됨에 따라 선택 여부를 정보로서 저장하고 있어, 입찰자 단말(1)이 서버(2)로부터 평가지표 또는 그룹핑된 평가지표를 추출하여 사용하므로, 입찰자는 연구과제개발과제 선정에 적합한 그룹핑된 평가지표를 효율적으로 이용할 수 있는 효과가 있다.
이때, 서버(2)가 평가지표 그룹이 선택됨에 따라 해당 평가지표 그룹을 제안한 입찰자 단말(1) 또는 이의 접속계정에 대해 수익을 배분함에 있어서, 서버(2)는 선택된 평가지표 그룹의 선택일자, 선택횟수를 데이터베이스(25)에 추가 정보로서 저장할 수 있다.
그리고 이때, 서버(2)는 평가지표 그룹이 입찰자 단말(1)로부터 점수를 부여받는 경우, 부여된 점수를 데이터베이스(25)에 저장하였다가 이를 수익 배분에 반영할 수 있다.
한 예에서, 입찰자 단말(1)에서 생성한 평가지표 그룹에 부여된 점수는 해당 평가지표 그룹을 생성한 입찰자 단말(1)이 서버(2)에 접속하여 이를 확인하거나, 또는 해당 평가지표 그룹에 대해 점수가 부여되었음을 실시간으로 입찰자 단말(1)에서 확인할 수 있도록 형성될 수 있다. 이에 따라, 입찰자는 자신이 생성한 평가지표 그룹에 부여된 점수를 확인하여 평가지표 그룹의 실적평가항목 또는 가중치를 변경하여 평가지표 그룹을 개선할 수 있다.
그리고, 데이터베이스(25)에 저장되는 정보들 중, 실적지분율은 참여연구원의 동의를 얻어 부여되는 것이 바람직하며, 하나의 실적평가항목에 해당하는 실적정보의 실적지분율의 총합은 100% 이하이다.
또한, 과제참여율은 연 단위, 월 단위, 주 단위, 일 단위 중에서 어느 하나를 선택하여 참여연구원별로 관리되는 것이 바람직하며, 한 명의 참여연구원의 과제참여율의 총합은 100% 이하이며, 연구개발과제에 낙찰되면 과제참여율은 고정되는 것이 바람직하다.
과제참여율이 일정별로 관리되는 한 예를 설명하면, 참여연구원이 교수인 경우, 해당 교수가 전월에 학장을 역임함에 따라 100%의 과제참여율에서 50%를 학장을 역임하는 데 사용하면, 해당 교수는 입찰하고자 하는 과제에 배분할 수 있는 과제참여율이 50% 이하이지만, 이번 월부터 학장을 역임하지 않는 경우 해당 교수는 실적평가항목에 100%의 과제참여율을 배분할 수 있다.
입찰자 그루핑부(22)는 실적평가항목에 대응하여 미리 세팅된 해당 평가지표의 그룹에 포함시킬 수 있고, 새로운 실적평가항목에 대응하여 새로운 평가지표의 그룹을 생성할 수도 있다. 이때, 새로운 평가지표에 대한 분석을 통해 평가지표에 대한 업데이트가 이루어지는 것이 바람직하다. 또한, 입찰자 그루핑부(22)는 서로 다른 평가지표에 대한 분석을 통해 하나로 합하는 작업을 수행하거나, 두 개 이상으로 분리하는 작업을 수행할 수 있다. 그리고, 입찰자 그루핑부(22)는 낙찰 가능한 실적평가항목을 입찰자 단말에 전송할 수 있다.
실적 연산부(23)는 평가점수를 합산하여 총점을 산출하고, 평가점수 및 예년과 현재의 입찰금액을 대응하여 입찰자 단말에 낙찰 가능 확률 또는 낙찰 가능한 입찰금액을 전송할 수 있으며, 최적의 평가지표 그룹을 알려줄 수도 있다.
이와 같이 구성된 서버(2)는, 입찰자 단말(1)에서 생성된 평가지표 그룹에 입찰자를 포함시켜, 평가지표 그룹에 포함된 입찰자들이 그룹핑되거나, 입찰자가 실적정보를 입력하고 이에 해당하는 실적평가항목을 선택하면, 실적정보로부터 추출된 실적평가항목에 따라 가장 유리하거나 입찰자가 원하는 미리 생성되어 있는 평가지표 그룹을 자동으로 선택하여 입찰자를 그루핑하고, 그룹별로 실적평가항목에 대응하여 실적을 연산하여 평가점수 대비 입찰비용에 따라 연구개발과제를 선정한다.
도 4는 본 발명의 일 실시예에 의한 실적 연산부의 구성도이다.
도 4를 참조하면, 본 발명의 실적 연산부(23)는, 프로젝트에 투입되는 참여연구원의 과제참여율과 실적평가항목의 실적지분율의 곱연산으로부터 각 참여연구원별 평가점수를 산출하는 평가점수 산출부(231)와, 프로젝트에 투입되는 참여연구원들의 평가점수를 합산하고, 합산된 평가점수 대비 입찰비용에 대응하는 평가금액비율로 환산하는 평가금액비율 환산부(232)를 포함한다.
여기에, 본 발명의 실적 연산부(23)는, 실적평가항목이 2개 이상일 경우에 입찰자에 의해 설정된 각 실적평가항목을 정량적으로 나타내기 위해 가중치를 적용하는 가중치 적용부(233)를 더 포함할 수 있다. 이와 같이, 가중치 적용부(233)는 실적평가항목이 2개 이상일 경우에 적용되며, 이에 가중치 적용부(233)는 실적 연산부(23) 구성에 선택적으로 적용된다. 이에, 가중치 적용부(233)는 평가점수 산출부(231)에서 산출된 평가점수에 대해 정량적으로 나타내는 가중치가 적용된다.
이와 같이 구성된 본 발명의 실적 연산부(23)는, 프로젝트에 투입되는 참여연구원의 과제참여율과 실적평가항목의 실적지분율의 곱연산으로부터 각 참여연구원별 평가점수를 산출한다. 이때, 입찰자에 의해 설정된 각 실적평가항목을 정량적으로 나타내기 위해 가중치가 적용되어 평가점수가 산출된다. 이어서 프로젝트에 투입되는 참여연구원들의 평가점수를 합산하여 합산된 평가점수 대비 입찰비용에 대응하는 평가금액비율로 환산한다. 이 평가금액비율에 근거하여 연구개발과제를 선정하게 된다.
한편, 서버(2)는 입찰자들이 입력한 실적평가항목에 대하여 최적의 평가지표를 분석하여 연구개발과제를 입찰할 수 있는 최적의 평가지표 그룹을 제시할 수 있다. 한 예에서, 서버는 참여연구원들의 평가점수를 합산하여 총점을 산출하고, 평가점수 및 예년과 현재의 입찰 금액을 대응하여 낙찰확률 또는 낙찰가능한 입찰 금액을 알려줄 수 있다. 또한, 서버는 참여연구원들의 평가점수를 합산하여 총점을 산출하고, 평가점수 및 예년과 현재의 입찰 금액 및 평가지표 그룹에 대응하여 최적의 평가지표 그룹을 알려줄 수도 있다.
이때, 서버(2)가 입찰자들이 입력한 실적평가항목으로부터 최적의 평가지표 그룹을 산정함에 있어서, 서버(2)는 입찰자 단말(1)에서 서버(2)로 업로드하여 데이터베이스(25)에 이미 저장된 정보들, 즉, 실적평가항목에 대한 정보, 실적지분율, 과제참여율을 이용하여 자동으로 평가지표 그룹 산정을 수행하며, 해당 처리과정에서 입찰자 단말(1)은 별도의 작업 수행을 요청받지 않는다.
그러면, 여기서 상기와 같이 구성된 시스템을 이용한 본 발명의 평가지표 자율제안에 의한 연구개발과제 선정 방법에 대해 설명하기로 한다.
도 5는 본 발명의 일 실시예에 의한 평가지표 자율제안에 의한 연구개발과제 선정 방법의 흐름도이다.
도 5를 참조하면, 입찰자 단말(1)과 서버(2) 간 접속이 이루어지면(S1), 로그인 등을 통한 인증을 수행한 후(S2), 입찰자가 입찰자 단말을 통해 평가지표를 자율적으로 제안하여 이를 서버(2)로 전송한다(S3).
이때, 입찰자 단말(1)과 서버(2) 간 접속은 입찰자 단말(1)이 인터넷을 통해 서버(2)에 접속하는 것으로서, 입찰자 단말(1)에서 제공하는 웹 브라우저 또는 휴대용 단말에 설치된 전용 앱(어플리케이션)을 통해 수행될 수 있으며, 하나의 입찰자에게 제공되는 접속계정을 이용하여 서버(2)에 로그인 할 수 있다.
또는, 입찰자 단말(1) 전용 프로그램을 통해 서버(2)에 접속하여 평가지표를 제안할 수 있다.
한 예에서, 입찰자가 입찰자 단말(1)을 통해 평가지표를 제안하는 것 외에도, 입찰을 실제로 수행하지는 않으나 평가지표를 제안하는 제안자가 입찰자 단말(1) 또는 별도의 제안자 단말을 통해 평가지표를 제안할 수 있으며, 본 발명의 설명에서는 편의를 위해 제안자 또는 입찰자가 입찰자 단말(1)을 이용하여 평가지표를 제안하는 것을 예로 들어 설명하도록 한다.
이 단계(S3)에서, 입찰자는 평가지표를 새롭게 생성하여 서버(2)로 전송하거나, 복수 개의 평가지표를 그룹핑하여 그룹핑된 평가지표로서 서버(2)로 전송할 수 있으며, 또는, 서버(2)의 데이터베이스(25)에 저장된 평가지표 또는 그룹핑된 평가지표를 실적평가항목으로서 선택할 수 있다.
그리고, 위의 단계(S3)에서, 특정 입찰자가 서버(2)로 업로드한 그룹핑된 평가지표가 다른 입찰자에 의해 사용된 경우, 서버(2)는 사용된 그룹핑된 평가지표를 업로드한 해당 입찰자에게 수익을 배분하고, 그룹핑된 평가지표가 사용되었음을 데이터베이스(25)에 정보로서 저장한다
이때, 입찰자 단말(1)에서 서버(2)로 평가지표를 제안하여 업로드하거나 서버(2)에 저장된 평가지표 또는 그룹핑된 평가지표를 이용함에 있어서, 입찰자 단말(1)은 평가지표에 대한 정보를 입력하여 서버(2)로 업로드한다.
이에 서버(2)에서는 각 입찰자가 선택한 실적평가항목을 분류함(S4)과 아울러, 동일하거나 유사한 실적평가항목을 선택한 입찰자들을 그룹핑하는 작업을 수행한다(S5).
이어서 서버(2)에서는 프로젝트에 투입되는 참여연구원의 과제참여율과 평가기간 내의 실적평가항목에 해당하는 실적정보의 실적지분율의 곱연산으로부터 각 참여연구원별 평가점수를 산출한다(S6). 이때, 그룹별로 실적평가항목을 정량적으로 나타내기 위해 가중치를 적용할 수 있다.
이에 해당 프로젝트에 투입되는 참여연구원들의 평가점수를 합산하고(S7), 합산된 평가점수 대비 입찰비용에 대응하는 평가금액비율로 환산한다. 이 평가금액비율에 근거하여 순위 또는 선정비율에 대응하여 연구개발과제를 선정한다(S8).
그러면, 여기서 실적평가항목 자율제안 및 그룹핑, 데이터베이스 실적평가항목 실적지분율 할당, 프로젝트 과제참여율 선택, 연구개발과제 입찰 및 선정 과정들에 대해 상세히 설명하기로 한다.
실적평가항목 자율제안 및 그룹핑
본 발명은 평가지표 자율제안에 의한 연구개발과제 선정에 관한 것으로서, 기존 방식에서와같이 특정 기관에서 미리 정하여진 규정에 대해 해당 조건을 만족하는 입찰자만 연구개발과제 선정에 입찰하는 것이 아니라, 입찰자가 평가지표에 포함된 실적평가항목(연구개발과제 선정기준)을 스스로 설정하여 입찰하는 방식이다. 일반적으로, 연구개발과제는 기업, 연구소 및 대학 등에서 입찰이 이루어지게 되는데, 본 실시예에서는 설명의 편의를 위해 대학에서 입찰이 이루어지는 경우에 대해 설명하기로 한다. 대학에서의 연구개발과제 입찰은 교수들에 의해 이루어지게 된다. 즉, 교수는 석사 및 박사를 포함하는 참여연구원들을 바탕으로 하여 연구개발과제에 대해 입찰을 하게 된다.
도 6에 도시된 바와 같이, 예를 들어, A교수가 일정평가기간 동안의 실적평가항목을 선택하기 위해, 논문에 100점, 지도학생취업에 40점을 실적평가항목 및 가중치를 포함하는 평가지표로 선택하는 것이 가장 높은 평가점수를 받을 수 있을 것으로 분석하여, 논문과 지도학생취업을 연구개발과제 선정기준으로 입찰할 수 있다. 또한, 이와 유사한 실적평가항목 및 가중치와 평가기간을 연구개발과제 선정기준으로 입찰할 수도 있다. 물론, 타교수에 의해서도 실적평가항목 및 가중치와 평가기간을 서로 다르게 설정하여 입찰이 이루어질 수도 있다.
즉, B교수는 지도학생취업에 100점, 특허에 50점, 논문에 50점을 평가지표로 하여 연구개발과제 선정기준으로 입찰할 수 있다. 또한, C교수는 특허에 100점, 지도학생취업에 100점을 평가지표로 하여 연구개발과제 선정기준으로 입찰할 수 있다. 그리고, D교수는 논문에 50점, 특허출원에 100점을 평가지표로 하여 연구개발과제 선정기준으로 입찰할 수 있다. 이와 같이, 각 교수는 내부적으로 평가지표를 자체 평가하여, 가장 유리한 평가지표를 자율적으로 결정할 것이며, 이를 연구개발과제 선정기준으로 제시할 것이다.
이와 같이 다양한 평가지표가 존재하므로, 이를 구분하기 위한 그룹핑 과정이 필요하게 된다. 즉, 실적평가항목 종류 및 가중치 적용비율 등을 고려하여 그룹핑하는 과정이 필요하게 된다. 이에 평가지표가 동일하거나 설정범위 내에서 유사한 그룹이 생성되게 된다. 즉, A그룹에는 지도학생취업과 논문을 실적평가항목으로 하는 입찰자들로 구성될 수 있고, B그룹에는 지도학생취업을 실적평가항목으로 하는 입찰자들로 구성될 수 있고, C그룹에는 논문발표를 실적평가항목으로 하는 입찰자들로 구성될 수 있고, D그룹은 특허출원을 실적평가항목으로 하는 입찰자들로 구성될 수 있다. 이외에 다양한 실적평가항목, 가중치 및 평가기간의 조합에 대응하여 다양한 그룹이 형성될 수 있다. 그리고, 그룹내에서 가중치 적용비율에 대응하여 세부적으로 서브그룹으로 분류될 수도 있다.
이 그룹핑 과정은 전체 프로세스에서 생략될 수 있으며, 평가지표 등을 고려하여 단순 리스트로 관리될 수도 있고, 프로젝트를 지원하는 기관에서 필요한 평가지표를 추가할 수 있다.
이와 같이 해당 그룹에는 평가지표가 결정되어 도출되며, 이 과정에서 입찰자들이 제출한 평가지표에 대하여 대면평가를 통하여 평가지표를 결정하거나 연구비를 지원하는 기관의 평가지표가 추가될 수 있다. 또한, 기계공학분야, 생산설계분야 등 연구개발분야를 실적평가항목으로 추가하여 이에 해당하는 논문만 실적으로 인정하여 같은 분야의 입찰자들이 경쟁할 수 있다. 또한, 시작품제작비 등 연구비 사용내역을 실적평가항목으로 제안하여 사업목적에 맞게 사용한 연구비만을 추출하여 10만원당 1점과 같은 방법으로 가중치를 할당할 수도 있다.
그러면 여기서, 그룹핑이 이루어지는 과정에 대해 좀 더 구체적으로 설명한다.
여러 교수들에 의해 평가지표에 서로 다른 비율의 가중치를 배정한 연구개발과제가 제안될 수 있는데, 예를 들어, B교수는 취업에 100점, 특허에 50점, 논문에 50점을 가중치로 배정하여 연구개발과제를 제안하고, C교수는 특허에 100점, 취업에 100점을 배정하여 연구개발과제를 제안하고, D교수는 논문에 50점, 특허에 100점을 배정하여 연구개발과제를 제안할 수 있다. 한편, 이런 평가지표 제안을 평가하여 다양한 연구개발과제의 평가지표를 자율적으로 결정할 수 있다.
이와 같이 다양한 평가지표가 존재하므로, 이를 그룹핑하는 과정이 필요하게 된다. 여기서, 본 발명에서는 일례로서, 가중치 적용비율 등을 고려하여 그룹핑하는 과정을 거칠 수 있다. 그 방법은 가중치를 백분율로 표시하고, 같은 가중치의 백분율 중에 작은 값을 선택하여 정수가 되도록 배수하게 된다. 위와 같은 경우에는 B 교수와 C 교수의 평가지표가 유사하다고 판단되어 이들을 그룹핑하게 된다.
B교수는 취업에 100점, 논문에 50점, 특허에 50점을 배정한 가중치를 백분율로 환산하여 취업에 50%, 논문에 25%, 특허에 25%로 계산한다. 또한, C교수는 취업에 100점, 특허에 100점을 백분율로 환산하여 취업에 50%, 특허에 50%로 계산한다. 각 가중치의 백분율 중에서 공통적인 평가지표의 작은 값을 취하여 취업에 50% 특허에 25%를 취한다. 평가지표는 입찰자들 간의 경쟁이므로 비율만 같게 되면 같은 효과를 갖게 된다.
즉, 앞의 평가지표는 취업에 200점, 특허에 100점을 할당하거나, 취업에 50점, 특허에 25점을 할당한 것과 같은 효과를 갖게 된다. 이들 중에 적당한 가중치인 취업에 100점 특허에 50점을 할당하게 된다.
이외에도 여러가지 방법으로 그룹핑할 수 있다.
이와 같이, 서로 다른 평가지표 그룹을 병합함에 있어서, 동일한 실적평가항목에 대해 서로 다른 가중치가 부여된 경우, 작게 부여된 가중치를 백분율 형태로 취하여 서로 다른 두 개의 평가지표 그룹을 병합할 수 있다.
반대로, 입찰자는 하나의 평가지표 그룹에서 특정 실적평가항목 및 이에 대한 가중치만을 추출하여 평가지표 그룹을 분리하고, 추출된 실적평가항목에 대한 가중치를 백분율 형태로 취하여 새로운 평가지표 그룹을 간단히 생성할 수 있어, 입찰자가 평가지표 항목을 자유롭게 병합하거나 분리하여 그루핑을 수행할 수 있다.
평가지표를 분리하거나 병합하는 한 예를 들면, 특허에 50점, 논문에 50점을 가중치로 배정하여 부여한 평가지표 그룹과 특허에 100점, 취업에 100점을 배정하여 부여한 평가지표그룹을 병합하면, 서로 같은 배수의 가중치가 되도록 실적평가항목을 선택하여 특허에 100점, 논문에 100점, 취업에 100점이 부여된 평가지표그룹으로 병합될 수 있다. 유사한 과정을 반대로 수행하여 통하여 하나의 평가지표그룹을 서로 다른 복수 개의 평가지표그룹으로 분리할 수 있다.
데이터베이스 실적평가항목 실적지분율 할당
평가금액비율을 구하기 위해 실적평가항목으로부터 평가점수를 산출하는 과정에 대해 설명한다.
실적평가항목은 구체적인 증빙 자료에 근거하여 정량적으로 평가할 수 있어야 한다. 만약, 자료 중에 허위 또는 중복이 발견될 경우 연구비 지급 중지 또는 환불, 벌금 등의 벌칙이 내려지는 것이 바람직할 것이다.
실적평가항목에는 논문발표, 특허출원, 지도학생취업 등 많은 요소가 있을 수 있으며, 본 실시예에서는 설명의 편의를 위해 논문과 지도학생취업이 실적평가항목으로 제시되는 경우에 대해서 설명하기로 한다.
먼저, 논문의 경우, 해당 논문에는 다수의 저자들이 있을 수 있으며, 이에 주저자와 부저자들에 대한 실적평가항목 실적지분율을 분배할 수 있으며, 이를 바탕으로 하여 평가점수를 결정할 수 있다.
한편, 하나의 평가실적에 해당하는 평가지표가 다수개인 경우에는 이것들을 모두 저장하여 평가점수 산정시 그 중에서 가장 높은 평가 점수를 받는 것을 자동으로 선택할 수 있도록 하는 것이 바람직하다. 예를 들면, 국내에서 발행한 영문논문이 평가실적이고 평가지표가 SCI논문과 국내등재논문 두 가지 평가지표에 해당되는 경우에는 평가점수가 높은 SCI논문으로 평가지표로 선택하여 평가실적의 평가점수를 산정할 수 있다. 단, 평가지표의 점수를 하나만 선택하지 않고 중복하여 산정하는 경우에는 탈락시키거나 이후 입찰에 참여할 수 없게 하는 등의 벌칙을 부여하는 것이 바람직하다.
여기서, 설명의 편의를 위해 하나의 실적평가항목에서 모든 참여자(논문인 경우에는 저자)의 실적지분율의 총합은 100%를 넘을 수 없는 것으로 한정하며, 실적지분율(업무량)을 수치로 표현할 수 있다고 가정한다.
이와 같이, 논문은 주저자 및 부저자를 포함하여 실적지분율이 분배될 수 있다. 즉, 도 7에 도시된 바와 같이, P논문의 가중치가 100점이고 A저자가 10% 실적지분율을 갖고 B저자가 90%(실질적인 주저자) 실적지분율을 갖는다면, A저자는 A논문에서 100점 × 10% = 10점의 평가점수를 갖고, B저자는 100점 × 90% = 90점의 평가점수를 나누어 갖게 된다.
한편, 지도학생취업도 평가점수 산정의 또 다른 변수로서 작용한다.
여기서, 지도학생취업에도 미리 정해진 평가지표가 적용되며, 예를 들어 가중치 40점을 기준으로 하여 B저자에게 100%가 부여된다면 B저자는 40점 × 100% = 40점의 평가점수를 갖게 되고, 이에 총 130점의 평가점수를 갖게 된다. 즉, B저자는 논문발표 및 지도학생취업이라는 실적평가항목에 모두 포함되어 130점의 평가점수를 갖게 된다.
프로젝트 과제참여율 선택
평가점수는 실질적인 실적에 대하여 입찰자 및 입찰자를 구성하는 참여연구원 각각에 대해 평가가 이루어지게 된다. 이를 수치적으로 표현한 것이 평가점수이다.
먼저, 평가기간 동안에 발표한 논문이 실적평가항목으로서 연산되는 경우에 대해 설명한다. 평가기간은 공정한 평가를 위하여 입찰시점이전이나 이후에 실적평가항목을 정량적으로 공정하게 평가할 수 있는 일정기간을 의미하며, 평가기간 동안에 이루어진 실적만을 평가지표의 대상으로 한다. 평가기간을 입찰시점의 이전으로 하여야 실질적인 실적에 의한 공정한 평가가 가능하나 프로젝트의 성격 및 평가지표의 특성에 따라 입찰시점의 이후나 연구개발기간을 포함하거나 평가기간이 늘어날 수 있다. 오래된 실적은 평가지표의 비중을 낮추어 평가점수에 반영할 수 있다.
평가지표의입찰자 그룹 실적지분율데이터베이스 과제참여율데이터베이스 프로젝트평가점수
실적평가항목 논문가중치 100점(저작권인정) P논문A저자 10%B저자 90% A연구원강의 30%학장 30%X프로젝트 30%Y프로젝트 10% X프로젝트총점 25점
실적평가항목 취업가중치 40점(저작권인정) Q취업C연구원 100% B연구원X프로젝트 20%기타 80% Y프로젝트총점 13점
C연구원X프로젝트 10%Y프로젝트 30%기타 60%
상기 [표 1]을 참조하여 과제참여율을 선택하는 과정에 대해 설명한다.
A저자의 경우, A저자가 평가기간 내에서 발표한 논문만이 실적으로 인정할 수 있다. 그리고 여기서, 논문 1개는 연구개발과제에는 참여연구원의 과제참여율만큼만 이용되는 것으로 한정하는 것이 바람직하다(참고로 기존에는 하나의 논문이 발표되면, 해당 논문은 다수의 연구개발과제에 이용되었을 뿐만 아니라, A저자, B저자, C저자 모두 주저자 또는 높은 비율로 인정되어 활용됨. 즉, 평가점수 산정시 각 저자의 모든 평가점수를 더하면 100% 이상의 비율로 중복 적용되어 적합하지 않음.).
각 참여연구원(논문의 경우에는 저자)은 다양한 프로젝트에 투입될 수 있다. 즉, A저자는 X프로젝트, Y프로젝트 등에 투입될 수 있고, B저자는 Y프로젝트, Z프로젝트 등에 투입될 수 있다.
여기서, 설명의 편의를 위해 각 저자는 100% 과제참여율을 넘을 수 없는 것으로 한정하며, 과제참여율(업무량)을 수치로 표현할 수 있다고 가정한다. 본 프로젝트가 입찰에 선정되면 평가기간 동안에 A교수 등의 참여연구원의 X프로젝트 과제참여율이 고정되어 다른 Y프로젝트의 입찰에 X프로젝트 과제참여율을 제외하고 100% 가 넘지 않는 범위내에서 입찰할 수 있다.
이에 A저자는 일례로서, 도 8에 도시된 바와 같이, X프로젝트에 30% 과제참여율을 할당하고, Y프로젝트에 10% 과제참여율을 할당할 수 있다.
그런데, A저자가 교수, 학장, 연구책임자 중 적어도 어느 하나 이상의 역할을 담당하는 경우가 있을 수 있으며, 담당 역할이 있을 경우에는 X프로젝트와 Y프로젝트에 모든 과제참여율을 할당할 수 없다. 교수가 연구책임자 또는 참여연구원으로써 학장의 보직 또는 강의를 겸하고 있으면 30% 정도의 참여율을 할당하도록 강제할 수 있다. 즉, A저자는 일례로서, X프로젝트에 연구책임자로서 30% 과제참여율을 할당하고, Y프로젝트에 참여연구원으로써 10% 과제참여율을 할당하고, 강의에 30% (학점당 3% 단위로 계산하여, 즉 30% = 3% × 10학점 강의), 학장 역할에 30% 과제참여율을 각각 할당하여 100% 과제참여율을 구성할 수 있다. 여기에서 연구책임자는 30% 이상 참여연구원은 10% 이상의 과제참여율을 요구할 수 있다.
한편 A저자(교수)는 프로젝트 평가기간(예를 들어, 입찰시점 이전의 1년) 동안 X프로젝트에 투입한 과제참여율을 월별로 기록할 수 있다. 예를 들어, X프로젝트에 투입한 평가기간의 총 과제참여율 과제참여율(이론적인 과제참여율)은 평균적으로 계산될 수 있다. 예를 들면, 입찰시점이 2015년 1월1일이라면, 평가기간은 2014년 1월 1일부터 12월 31일까지로 할 수 있다. 만일 1월부터 6월까지 50% 참여하고 7월부터 12월까지 10%로 하여 월별로 과제참여율을 기록하였다면 월별 과제참여율에 대하여 평가기간내의 평가지표에 해당하는 실적을 월별로 각각 과제참여율만큼 적용할 수 있다. 한 예에서, 평균 과제참여율을 환산하여 평가기간에 각각 적용할 수 있다. 이 기간동안에 A교수가 X프로젝트에 30% 과제참여율, 30% 강의, 30% 학장의 참여율로 입찰에 선정되었다면, 다른 Y프로젝트에는 10%의 과제참여율을 넘지 않는 범위 내에서 입찰에 응해야 총 과제참여율이 100%를 넘지 않는다.
한편, B저자를 포함한 다수의 저자들 역시 자신의 역할을 고려하여 프로젝트들에 대하여 과제참여율의 할당이 이루어질 수 있다.
예를 들어, A저자는 교수의 역할을 수행하고 있고, B저자 및 C저자는 학생이라고 가정하면, B저자 및 C저자는 학생으로서 각각 20%, 10%의 X프로젝트 과제참여율을 구성할 수 있다. 그리고, B저자 및 C저자는 이후 설명하는 지도학생취업 여부에 따라 평가점수에 영향을 줄 수 있다.
한편, X프로젝트 관점에서는, X프로젝트에는 A저자의 30% 과제참여율, B저자의 20% 과제참여율, C저자의 10% 과제참여율을 포함하여 전체 투입량이 산정될 수 있다. 여기서, 전체 투입량은 상기한 바와 같이 각 참여연구원들의 평가점수의 합으로 정의된다.
이때, 논문은 실적지분율이 분배될 수 있다. 즉, A논문의 평가지표가 100점이고 A저자가 10% 실적지분율을 갖고 B저자가 90% 실적지분율을 갖는다면, A저자는 A논문에서 100점 × 10% = 10점의 평가점수를 갖게 된다. 이에 X프로젝트에 대하여 A저자의 30% 과제참여율로부터 산출되는 평가점수는 100점 (논문 가중치) × 10% (실적지분율) × 30% (과제참여율) = 3점의 평가점수가 산정된다.
또한, B저자의 평가점수는 100점 (가중치) × 90% (실적지분율) × 20% (과제참여율) = 18점의 평가점수가 산정된다. C저자는 100점 (가중치) × 0% (A논문에는 실적지분율이 없음) × 10% (과제참여율) = 0점 의 평가점수가 산정된다. 결국, X프로젝트에 투입되는 참여연구원들의 전체 평가점수는 21점이 된다.
한편, 지도학생취업에도 미리 정해진 평가지표가 적용되며, 예를 들어 가중치 40점을 기준으로 하여 C저자가 지역 내 기업에 취업(이를 Q취업이라고 함)하고, 실적지분율 100%가 부여되고 Y프로젝트에 30% 과제참여율을 투입한다면, 이에 C저자로부터 산출되는 평가점수는 40점 × 100% (실적지분율) × 30% (과제참여율) 이므로 12점의 평가점수가 산정된다.
또한, A저자 및 B저자의 평가점수도 산정되며, 결국 Y프로젝트에 투입되는 평가점수가 계산된다.
입찰자는 이 전체 평가점수를 기준으로 하여 입찰액을 제안할 것이며, 예를 들어, 전체 평가점수가 36점일 경우에는 논문 및 지도학생취업의 평가지표를 갖는 연구개발과제에 입찰할 수 있다. 물론, 입찰액은 연구개발과제 입찰자들이 임의로 선택할 수 있다.
한편, 이러한 평가지표, 실적지분율, 과제참여율을 기반으로 하여 데이터베이스의 계속적인 업그레이드가 가능하다.
지금까지는 실적에 대한 데이터베이스만 만들었지만 여기에 실적지분율과 과제참여율을 추가하여 실적을 중복사용하여 여러 과제에 동시에 평가받는 것을 금하고, 더 나아가 정부가 전문가 의견을 빌려 Top Down 방식으로 만들던 평가지표를 실제로 평가받는 참여연구원들이 Bottom Up 방식으로 자율적으로 제안하도록 하여 실적 데이터베이스와 아울러 매년 수정되면서 살아 움직이는 정량적인 평가지표 데이터베이스를 만들고, 이것을 기존의 평가에 활용하도록 할 수 있다.
이를 통해, 연구개발과제에 선정되기 위하여 참여연구원들은 심사숙고하여 정말 필요한 평가지표를 제안할 것이다. 이것은 현재 문제가 되고 있는 공정한 평가에 필수불가결한 요소일 수 있다. 국가적으로 중요한 대형과제에는 이렇게 제안된 평가지표를 일부 채택하여 정부가 Top Down 방식으로 평가지표를 제시할 수 있다.
한편, 본 발명의 시스템(데이터베이스)에 저장되어 축적되는 평가지표에 대하여 시스템을 관리하는 기관과 이를 제시한 개인이 저작권을 갖도록 하여 저장된 주요 평가지표를 사용하는 정부나 기관으로부터 저작권료를 받을 수 있도록 하는 것이 바람직하다.
한편, 평가지표에 포함되는 실적에 대한 평가기간에 있어, 실적평가항목을 정량적으로 평가할 수 있는 기간으로 참여원의 과제참여율을 부여할 수 있는 기간과 구분되어야 하지만, 본 발명의 실시예에서는 설명의 편의를 위하여 함께 사용되는 것으로 설명하도록 한다.
예를 들어, 5월에 발표되는 논문에 대하여 과제참여율을 계산하는 평가기간이 같은 년도 7월에서 8월 사이이면 논문발표시점이 이 기간이 아니므로 이 논문을 평가점수 계산에서 제거할지, 아니면 과제참여율 계산기간과 실적평가항목 인정기간인 평가기간을 따로 설정하여 평가기간을 둘로 나누어야 할지 결정하여야 한다.
과제참여율 계산기간에서 입찰 시점이 7월이라면 입찰 이전의 기간은 정량적으로 과제참여율을 결정할 수 있지만, 8월은 입찰 이후의 미래이므로 학장 등의 참여율을 계산할 수 없고, 다만 다른 입찰에 참여할 수 없도록 과제참여율을 조정하도록 하는 것이 바람직하다. 즉, 6월의 과거에 학장을 역임하였다면 학장 30%, X프로젝트 30%, Y프로젝트 30%이고, 8월에는 학장은 미래의 일이므로 불명확하고 X프로젝트 80%, Y프로젝트 30% 와 같이 A과제와 B과제 동시 입찰만 제한할 수 있다. 다만, X프로젝트 선정 후에 8월에 학장의 보직을 담당하여 총 참여율이 X프로젝트 80%, 학장 30% 와 같이 100%를 초과하면 이후 과제에는 입찰할 수 없으며 또한 연구비 환수와 같은 페널티를 받을 수 있으니 입찰시 미래의 참여율을 결정하는데 심사숙고하여야 할 것이다.
한편, X프로젝트에서는 A연구원의 과제참여율 정보를 저장하기 않고 A연구원 데이터베이스에 저장된 X프로젝트 과제참여율로부터 평가점수를 산정할 수 있다. 이와 같이, 총 합이 100% 가 넘지 않는 데이터베이스 한 곳에만 과제참여율을 저장하여야 데이터베이스를 용이하게 관리할 수 있다. 프로젝트에서는 참여연구원의 과제참여율 총합이 100%가 넘어도 관계없고 참여율이 많을수록 결국은 평가점수가 높아지지만, 참여연구원에게는 참여프로젝트와 기타 학장 등의 항목의 참여율 총합이 100%를 넘을 수 없도록 한다. 또한, X프로젝트 연구책임자는 P논문 데이터베이스에 저장되어 있는 A연구원의 실적지분율과 A연구원 데이터베이스에 저장되어 있는 X프로젝트 과제참여율로부터 데이터베이스를 모두 검색하여 X프로젝트 평가지표그룹인 논문 100점과 취업 40점에 해당하는 실적정보를 모두 모니터링하여 다른 평가지표그룹을 선택하거나 새로운 평가지표를 자율적으로 제안할 수 있다.
연구개발과제 입찰 및 선정
이 평가점수를 참고하여 각 대학교수들은 연구개발과제 그룹을 선택하고 입찰을 하게 된다. 즉, 각 대학교수들은 평가지표에 대응하는 석사 및 박사를 포함하는 참여연구원의 실적평가항목 및 상태(평가점수 등)를 고려하여 입찰을 하게 될 것이다. 물론 이때 참여연구원들의 평가점수를 고려하여 입찰과 동시에 평가지표도 제안하여 입찰자들 간의 평가지표 그룹핑을 동시에 수행하고 적절한 그룹을 자동적으로 생성하여 입찰을 수행할 수도 있다.
연구책임자는 입찰시 생성된 참여연구원들의 모든 실적평가항목 중에서 입찰에 필요한 실적평가항목만 선택하여 평가점수를 산출할 수 있다. 물론 이 실적평가항목은 본 입찰에서 제외되면 참여연구원의 다른 입찰에서 사용할 수 있다.
결국, 예를 들어 논문 100점, 지도학생취업 40점 연구개발과제 선정기준에 입찰을 수행하였다면, A저자의 논문 실적은 100점 (논문 가중치) × 10% (A저자 실적지분율) × 30% (A저자의 X프로젝트 과제참여율) = 3점이다.
X프로젝트에 참여하는 B저자 및 C저자의 실적도 계산하여 총 실적을 계산한다. 즉, 총 실적에 대한 예산 비율을 통해 입찰을 수행한다. X프로젝트의 경우에는 평가기간 동안에 참여연구원의 해당 실적을 모두 합산하여 평가할 수 있다. 모든 참여연구원의 평가점수를 합산하여 가장 높은 평가점수를 산출할 수 있는 평가지표를 갖는 그룹을 시스템에서 자동으로 찾아 주거나 예년의 연구비 내역(예로써, 평균과 표준편차) 및 현재 입찰상황을 표시하여 입찰자가 입찰할 수 있는 그룹을 선택할 수 있다.
여기서, 해당 그룹에 대해 지원하는 예산은 미리 설정되거나, 또는 상기한 그룹핑 결과에 대응하여 실시간 설정될 수도 있다. 즉, 각 대학교수들은 그룹별로 지원되는 예산과, 경쟁 정도를 미리 예측하거나 실시간 확인하면서 입찰을 수행하게 될 것이다.
만일 선정되지 못하였다면, 이 실적을 바탕으로 입찰액을 조정하여 다음 연도에 선정자로 지정될 수 있다.
한편, 만약 Y프로젝트에 참여한 참여자들의 총 실적에 대한 예산 비율이 높을 경우에는 실적을 적게 달성하였으므로 다음 연도에 선정자로 지정될 가능성이 낮아지지만 입찰액을 조정하여 선정가능성을 높일 수 있다.
이와 같이, 입찰시에는 평가점수를 고려하여 입찰금액을 결정하게 될 것이다. 예를 들어, A그룹에 1억의 예산이 배정되어 있다면, A대학 교수는 평가점수를 고려하여 3천만원을 입찰금액으로 신청하고, B대학 교수는 평가점수를 고려하여 5천만원을 입찰금액으로 신청하고, C대학 교수는 평가점수를 고려하여 3천만원을 입찰금액으로 신청하고, D대학 교수는 평가점수를 고려하여 2천만원을 입찰금액으로 신청할 수 있다. 시스템에서 예년의 입찰 금액과 현재 상황을 고려하여 적절한 입찰 금액을 제시할 수 있다.
여기서, A그룹에 1억의 예산이 배정되어 있으므로, 연구개발과제들에 대한 심사 및 선정이 이루어지게 된다.
이때, 선정기준은 최저 입찰금액 순으로 결정할 수 있고, 평가점수 대비 입찰금액의 비율로 결정할 수도 있으며, 이외 다양한 방법을 이용하여 결정될 수도 있다. 이때, 서버는 선정된 연구개발과제의 총연구비의 일정 비율에 대한 수수료 정보를 입찰자 단말로 전송할 수 있다.
한편, 본 실시예에서 평가점수 대비 입찰금액의 비율(평가금액비율, 단위는 원/점)을 결정하는 경우에 대해 설명하기로 한다.
예를 들어, A교수는 총참여연구원의 평가금액비율이 5만원/점이고, B교수는 평가금액비율이 6만원/점이고, C교수는 평가금액비율이 7만원/점이고, D교수는 평가금액비율이 9만원/점이라면, 평가금액비율이 낮은 순으로, 즉 A교수 B교수 C교수 D교수로 정렬한다.
이후, 1억의 예산에 대한 분배량과 입찰금액을 고려하여 정렬된 순서에서 상위팀 개수를 결정한다. 즉, 입찰금액이 1억원을 최초로 초과하기 직전에 해당하는 상위팀까지 선정한다. 즉, A교수 3천만원, B교수 5천만원의 입찰이 선정된다.
이때, 입찰금액 결정은, 평가금액비율을 고려하여 해당 비율을 지원받을 수 있도록 할 수 있다. 또한, 그룹의 예산을 미리 확정하여 배정하지 않고 총 입찰 금액에 따라 최소와 최대 금액을 정하여 변동적으로 배정할 수 있다. 예를 들면, 최소 30%와 최대 70% 사이의 금액으로 배정한다고 정하여 놓고 총입찰금액이 1억원인 경우에 최소 최대 금액의 평균인 5천만원을 배정하여 2:1의 경쟁률을 유지할 수 있다.
상술한 바와 같이, 기존 연구개발과제 평가에서는 선정평가와 결과평가를 거치고 있다. 이는 선정평가에서 과장되게 목표를 제시하여 과제에 선정되면, 결과평가에서 이를 공정하게 재평가하여야 하지만, 그렇지 못한 경우가 많았다. 즉, 선정평가에서 과장되지 않고 적절한 목표를 제시하여 과제에 선정되지 못한 프로젝트 제안자를 보호할 수 있는 방안이 없었다.
그러나 본 발명에서는 선정평가와 결과평가를 동시에 한 번만 실시함으로써 효율적이고 공정한 평가가 가능하다. 단, 과거에 이루어진 실적을 바탕으로 실제로 아직 이루어지지 않는 과제를 선정평가하고, 결과평가를 따로 하지 않고 본 프로젝트의 결과평가는 다음에 이어지는 프로젝트의 선정평가에 반영된다는 점에서 기존의 평가방법보다 훨씬 공정하고 효율적인 방법이라 할 수 있다.
한편, 자율적으로 제안된 신규성과 진보성을 갖는 독특하거나 꼭 필요하고 중요한 평가지표 또는 평가지표 그룹, 입찰자들의 설문 조사를 통하여 좋은 점수를 받은 평가지표 또는 평가지표 그룹, 심사과정 등 여러 가지 과정에 따라 저작권을 인정할 만하다고 판단되는 평가지표 또는 평가지표 그룹에 대하여 시스템을 관리하는 기관이나 이를 제시한 개인이 저작권을 갖도록 하여 저장된 주요 평가지표를 사용하는 정부나 기관으로부터 저작권료를 받을 수 있도록 하는 것도 바람직할 것이다.
이상에서 몇 가지 실시예를 들어 본 발명을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것이 아니고 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형실시될 수 있다.
[부호의 설명]
1 : 입찰자 단말 2 : 서버
21 : 실적평가항목 분류부 22 : 입찰자 그룹핑부
23 : 실적 연산부 231 : 평가점수 산출부
232 : 평가금액비율 환산부 233 : 가중치 적용부
24 : 연구개발과제 선정부 25 : 데이터베이스

Claims (63)

  1. 연구개발과제 선정기준인 실적평가항목을 평가지표로서 제안하고, 상기 평가지표에 대해 실적정보를 생성하는 입찰자 단말, 그리고
    상기 입찰자 단말로부터 상기 평가지표 및 이에 대한 실적정보를 업로드받아 이를 저장하고 실적평가연산을 수행하여 연구개발과제를 수행할 입찰자를 선정하는 서버
    를 포함하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  2. 제1항에 있어서,
    상기 서버는 상기 입찰자 단말에서 제안한 복수 개의 상기 평가지표를 그룹핑하여 평가지표 그룹으로 생성하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  3. 제1항에 있어서,
    상기 입찰자 단말은 상기 실적평가항목으로서 논문, 특허, 취업 연구비 집행내역 및 총액, 기업기술이전 여부 중 적어도 하나를 제안하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  4. 제1항에 있어서,
    상기 입찰자 단말은 인터넷을 통해 상기 서버에 접속하는 단말로서, 웹 브라우저 또는 전용 어플리케이션을 통해 상기 서버에 접속하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  5. 제2항에 있어서,
    상기 서버는,
    상기 평가지표를 구성하는 적어도 하나의 실적평가항목을 평가지표 그룹으로 분류하는 실적평가항목 분류부;
    분류된 상기 평가지표 그룹에 입찰자를 포함시켜 입찰자를 그룹핑(Grouping)하는 입찰자 그룹핑부;
    그룹별로 상기 실적평가항목에 대응하여 실적을 연산하는 실적 연산부; 및
    상기 그룹별로 미리 설정된 규칙에 대응하여 연구개발과제를 선정하는 연구개발과제 선정부;
    를 포함하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  6. 제1항에 있어서,
    상기 입찰자 단말은 복수 개로서, 복수 개의 상기 입찰자 단말에서 제안된 평가지표가 상기 서버에 업로드되는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  7. 제1항에 있어서,
    상기 서버는 상기 입찰자 단말에서 생성한 상기 평가지표를 전달받아 데이터베이스에 저장하고, 상기 데이터베이스는 상기 입찰자 단말에서 상기 평가지표가 새롭게 제안될 때마다 업데이트되는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  8. 제5항에 있어서,
    상기 실적평가항목 분류부는 상기 평가지표에 대한 분석을 통해 평가지표를 업데이트하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  9. 제5항에 있어서,
    상기 실적평가항목 분류부는 서로 다른 평가지표 그룹에 대한 분석을 수행하여 하나의 평가지표 그룹으로 통합하고, 통합된 평가지표 그룹의 가중치를 재설정하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  10. 제5항에 있어서,
    상기 실적평가항목 분류부는 서로 다른 평가지표 그룹에 대한 분석을 수행하여 하나의 평가지표 그룹으로 통합하고, 통합된 평가지표 그룹의 평가기간을 재설정하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  11. 제5항에 있어서,
    상기 실적평가항목 분류부는 하나의 평가지표 그룹을 분석하여 서로 다른 두 개의 평가지표 그룹으로 분리하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  12. 제1항에 있어서,
    상기 서버는 상기 입찰자 단말에서 생성한 상기 평가지표에 대한 실적정보를 복수 개의 평가지표 그룹에 대응시켜 실적평가연산을 수행하고, 실적평가연산결과가 가장 높은 결과를 갖는 특정 평가지표 그룹의 연산결과를 상기 입찰자 단말에게 제공하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  13. 제5항에 있어서,
    상기 실적 연산부는,
    프로젝트에 투입되는 참여연구원의 평가점수를 산출하는 평가점수 산출부; 및
    상기 프로젝트에 투입되는 참여연구원들의 평가점수를 합산하고, 합산된 평가점수 대비 입찰비용에 대응하는 평가금액비율로 환산하는 평가금액비율 환산부;
    를 포함하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  14. 제13항에 있어서,
    상기 평가점수 산출부는,
    프로젝트에 투입되는 참여연구원의 과제참여율을 이용하여 각 참여연구원별 평가점수를 산출하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  15. 제13항에 있어서,
    상기 평가점수 산출부는,
    프로젝트에 투입되는 참여연구원의 과제참여율과 상기 실적평가항목의 실적지분율의 곱연산으로부터 각 참여연구원별 평가점수를 산출하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  16. 제1항에 있어서,
    상기 입찰자 단말은 제안한 상기 평가지표에 대한 가중치를 제안하여, 상기 서버는 상기 입찰자 단말로부터 상기 평가지표에 대한 가중치도 업로드받는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  17. 제1항에 있어서,
    상기 입찰자 단말은 제안한 상기 평가지표에 대한 평가기간을 제안하여, 상기 서버는 상기 입찰자 단말로부터 상기 평가지표에 대한 평가기간도 업로드받는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  18. 제5항에 있어서,
    상기 연구개발과제 선정부는 상기 실적 연산부의 연산 결과를 평가점수로 산출하고, 산출된 평가점수를 예년 입찰금액과 상기 입찰자 단말의 입찰 금액과 각각 비교하여, 상기 산출된 평가점수에 따른 입찰자 단말의 낙찰 확률을 산출하고 이를 상기 입찰자 단말에 알려주는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  19. 제5항에 있어서,
    상기 연구개발과제 선정부는 상기 실적 연산부의 연산 결과를 평가점수로 산출하고, 산출된 평가점수를 예년 입찰금액과 상기 입찰자 단말의 입찰 금액과 각각 비교하여, 상기 산출된 평가점수에 따라 입찰자 단말의 낙찰 가능한 입찰금액을 산출하고 이를 상기 입찰자 단말에 알려주는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  20. 제5항에 있어서,
    상기 연구개발과제 선정부는 복수 개의 평가지표 그룹에 대해 상기 실적 연산부의 연산 결과를 평가점수로 산출하고, 산출된 복수 개의 평가점수를 예년 입찰금액과 상기 입찰자 단말의 입찰 금액과 각각 비교하여, 복수 개의 평가점수에 따라 입찰자 단말의 낙찰 확률을 산출하고 이를 상기 입찰자 단말에 알려주는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  21. 제13항에 있어서,
    상기 실적 연산부는 복수 개의 평가지표 그룹에 대해 상기 실적 연산부의 연산 결과를 평가점수로 산출하고, 최대 평가점수가 산출된 평가지표를 상기 입찰자 단말에 알려주는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  22. 제13항에 있어서,
    상기 실적지분율은 참여연구원의 동의를 얻어 부여되어 상기 서버에 저장되는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  23. 제13항에 있어서,
    하나의 실적정보의 실적지분율의 총합은 100% 이하이며, 연구개발과제에 낙찰되면 상기 실적지분율은 고정되어 상기 서버에 저장되는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  24. 제14항 또는 제15항에 있어서,
    상기 과제참여율은 참여연구원별로 연 단위, 월 단위, 주 단위, 일 단위 중 어느 하나로 관리되어 상기 서버에 저장되는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  25. 제14항 또는 제15항에 있어서,
    상기 실적 연산부는 상기 참여연구원의 여러 프로젝트에 대한 각각의 과제참여율의 비율 변화에 따라 최대 평가점수가 산출되는 최적의 과제참여율의 비율을 상기 입찰자 단말에 알려주는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  26. 제14항 또는 제15항에 있어서,
    상기 실적 연산부는 동일한 평가점수가 산출되는 상기 참여연구원의 여러 프로젝트에 대한 복수 개의 과제참여율의 비율을 상기 입찰자 단말에 알려주는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  27. 제14항 또는 제15항에 있어서,
    한명의 참여연구원의 과제참여율의 총합은 100% 이하이며, 연구개발과제에 낙찰되면 해당 과제에 대한 과제참여율은 고정되어 상기 서버에 저장되는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  28. 제5항에 있어서,
    상기 연구개발과제 선정부는, 프로젝트에 투입되는 연구원의 평가점수를 산출하고, 상기 프로젝트에 투입되는 연구원들의 평가점수를 합산하여, 합산된 평가점수 대비 입찰비용에 대응하는 평가금액비율로 환산하고, 상기 평가금액비율에 근거하여 연구개발과제를 선정하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  29. 제1항에 있어서,
    상기 서버에서 연구개발과제를 수행할 입찰자를 선정함에 따라, 상기 입찰자의 선정에 사용된 평가지표를 제안한 상기 입찰자 단말로 수수료를 지급하고,
    상기 수수료는 상기 연구개발과제의 총연구비의 일정 금액으로 지급하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  30. 제1항에 있어서,
    상기 입찰자 단말에서 제안한 상기 평가지표가 사용됨에 따라, 상기 서버는 사용된 평가지표를 제안한 상기 입찰자 단말에 저작권료로서 수수료를 지급하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  31. 제1항에 있어서,
    상기 서버는 사용된 평가지표에 대한 피드백을 저장하고, 상기 입찰자 단말은 상기 피드백을 바탕으로 평가지표를 업데이트하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  32. 입찰자 단말이 실적평가항목으로서 평가지표를 자율적으로 제안하여 이를 서버로 전송하거나 서버에 저장된 평가지표를 선택하는 단계; 그리고
    서버는 각 입찰자 단말에서 선택한 평가지표를 분류하고, 동일하거나 유사한 평가지표를 선택한 입찰자들을 그룹핑하며, 그룹별로 실적평가항목에 따라 실적을 연산하여 연구개발과제를 선정하는 단계;
    를 포함하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  33. 제32항에 있어서,
    상기 평가지표의 실적평가항목은 논문, 특허, 취업, 연구비 집행내역 및 총액, 기업기술이전 여부 중 어느 하나를 포함하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  34. 제32항에 있어서,
    상기 입찰자 단말은 인터넷을 통해 상기 서버에 접속하되, 웹 브라우저 또는 전용 어플리케이션을 통해 상기 서버에 접속하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  35. 제32항에 있어서,
    상기 입찰자 단말이 실적평가항목으로서 평가지표를 자율적으로 제안하여 이를 서버로 전송하거나 서버에 저장된 평가지표를 선택하는 단계; 이전에,
    복수 개의 상기 입찰자 단말이 접속계정을 통해 상기 서버에 접속하는 단계;
    를 더 포함하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  36. 제32항에 있어서,
    서버는 각 입찰자 단말에서 선택한 평가지표를 분류하고, 동일하거나 유사한 평가지표를 선택한 입찰자들을 그룹핑하며, 그룹별로 연구개발과제를 선정하는 단계;는,
    서버는 프로젝트에 투입되는 참여연구원별 평가점수를 산출하는 단계;
    산출된 평가점수에 해당 프로젝트에 투입되는 참여연구원들의 평가점수를 합산하는 단계;
    합산된 평가점수 대비 입찰비용을 평가금액비율로 환산하고, 환산된 평가금액비율에 근거하여 순위 또는 선정비율을 토대로 연구개발과제를 선정하는 단계;
    로 수행되는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  37. 제36항에 있어서,
    서버는 프로젝트에 투입되는 참여연구원별 평가점수를 산출하는 단계;는,
    프로젝트에 투입되는 참여연구원의 과제참여율으로부터 각 참여연구원별 평가점수를 산출하여 이루어지는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  38. 제36항에 있어서,
    서버는 프로젝트에 투입되는 각 참여연구원별 평가점수를 산출하는 단계;는,
    프로젝트에 투입되는 참여연구원의 과제참여율과 상기 실적평가항목의 실적지분율의 곱연산으로부터 각 참여연구원별 평가점수를 산출하여 이루어지는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  39. 제32항에 있어서,
    상기 입찰자 단말이 실적평가항목으로서 평가지표를 자율적으로 제안하여 이를 서버로 전송하거나 서버에 저장된 평가지표를 선택하는 단계;에서, 상기 입찰자 단말은 복수 개의 평가지표를 그룹핑하여 그룹핑된 평가지표로서 상기 서버에 전송하거나 서버에 저장된 그룹핑된 평가지표를 선택하여 이루어지는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  40. 제32항에 있어서,
    상기 서버는 각 입찰자 단말에서 선택한 평가지표를 분류하고, 동일하거나 유사한 평가지표를 선택한 입찰자들을 그룹핑하며, 그룹별로 실정평가항목에 따라 실적을 연산하여 연구개발과제를 선정하는 단계;에서,
    상기 입찰자 그룹핑부는 그룹핑된 평가지표에 상기 입찰자 단말을 포함시키는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  41. 제32항에 있어서,
    상기 서버는 각 입찰자 단말에서 선택한 평가지표를 분류하고, 동일하거나 유사한 평가지표를 선택한 입찰자들을 그룹핑하며, 그룹별로 실적평가항목에 따라 실적을 연산하여 연구개발과제를 선정하는 단계; 이후에,
    서버는 상기 입찰자 단말에서 상기 그룹핑된 평가지표로서 상기 서버에 전송함에 따라, 그룹핑된 평가지표를 저장하는 데이터베이스를 업데이트하는 단계;
    를 더 포함하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  42. 제32항에 있어서,
    상기 서버는 각 입찰자 단말에서 선택한 평가지표를 분류하고, 동일하거나 유사한 평가지표를 선택한 입찰자들을 그룹핑하며, 그룹별로 실적평가항목에 따라 실적을 연산하여 연구개발과제를 선정하는 단계;는 상기 서버가 서로 다른 평가지표에 대한 분석을 수행하여 이루어지는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  43. 제32항에 있어서,
    상기 서버는 각 입찰자 단말에서 선택한 평가지표를 분류하고, 동일하거나 유사한 평가지표를 선택한 입찰자들을 그룹핑하며, 그룹별로 실적평가항목에 따라 실적을 연산하여 연구개발과제를 선정하는 단계;는 상기 서버가 서로 다른 평가지표에 대한 분석을 수행하여 하나의 평가지표로 통합하고, 통합된 평가지표 그룹의 가중치를 재설정하여 이루어지는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  44. 제32항에 있어서,
    상기 서버는 각 입찰자 단말에서 선택한 평가지표를 분류하고, 동일하거나 유사한 평가지표를 선택한 입찰자들을 그룹핑하며, 그룹별로 실적평가항목에 따라 실적을 연산하여 연구개발과제를 선정하는 단계;는 상기 서버가 서로 다른 평가지표에 대한 분석을 수행하여 하나의 평가지표로 통합하고, 통합된 평가지표 그룹의 평가기간을 재설정하여 이루어지는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  45. 제32항에 있어서,
    서버는 각 입찰자 단말에서 선택한 평가지표를 분류하고, 동일하거나 유사한 평가지표를 선택한 입찰자들을 그룹핑하며, 그룹별로 실적평가항목에 따라 실적을 연산하여 연구개발과제를 선정하는 단계;에서,
    상기 서버는 서로 다른 평가지표에 대한 분석을 수행하여 하나의 평가지표를 서로 다른 평가지표로 분리하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  46. 제36항에 있어서,
    합산된 평가점수 대비 입찰비용을 평가금액비율로 환산하고, 환산된 평가금액비율에 근거하여 순위 또는 선정비율을 토대로 연구개발과제를 선정하는 단계;는,
    상기 서버가 상기 입찰자 단말에서 생성한 상기 평가지표에 대한 실적정보를 복수 개의 평가지표 그룹에 대응시켜 실적평가연산을 수행하고, 실적평가연산결과가 가장 높은 결과를 갖는 특정 평가지표 그룹의 연산결과를 상기 입찰자 단말에게 제공하여 이루어지는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  47. 제32항에 있어서,
    상기 입찰자 단말은 제안한 상기 평가지표에 대한 가중치를 제안하고, 상기 서버는 상기 입찰자 단말로부터 상기 평가지표에 대한 가중치도 업로드받는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  48. 제32항에 있어서,
    상기 입찰자 단말은 제안한 상기 평가지표에 대한 평가기간을 제안하고, 상기 서버는 상기 입찰자 단말로부터 상기 평가지표에 대한 평가기간도 업로드받는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 시스템.
  49. 제32항에 있어서,
    상기 그룹별로 실적평가항목에 따라 실적을 연산하여 연구개발과제를 선정함에 있어서, 상기 서버는 실적 연산 결과를 평가점수로 산출하고, 산출된 평가점수를 예년 입찰금액과 상기 입찰자 단말의 입찰 금액과 각각 비교하여, 상기 산출된 평가점수에 따른 입찰자 단말의 낙찰 확률을 산출하고 이를 상기 입찰자 단말에 알려주는 동작을 수행하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  50. 제32항에 있어서,
    상기 그룹별로 실적평가항목에 따라 실적을 연산하여 연구개발과제를 선정함에 있어서, 상기 서버는 실적 연산 결과를 평가점수로 산출하고, 산출된 평가점수를 예년 입찰금액과 상기 입찰자 단말의 입찰 금액과 각각 비교하여, 상기 산출된 평가점수에 따라 입찰자 단말의 낙찰 가능한 입찰금액을 산출하고 이를 상기 입찰자 단말에 알려주는 동작을 수행하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  51. 제32항에 있어서,
    상기 그룹별로 실적평가항목에 따라 실적을 연산하여 연구개발과제를 선정함에 있어서, 상기 서버는 복수 개의 평가지표그룹에 대해 실적 연산 결과를 평가점수로 산출하고, 산출된 복수 개의 평가점수를 예년 입찰금액과 상기 입찰자 단말의 입찰 금액과 각각 비교하여, 복수 개의 평가점수에 따라 입찰자 단말의 낙찰 가능한 입찰금액을 산출하고 이를 상기 입찰자 단말에 알려주는 동작을 수행하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  52. 제36항에 있어서,
    상기 서버는 연구원들의 평가점수를 합산하여 총점을 산출하고, 평가점수 및 예년과 현재의 입찰금액 및 평가지표 그룹에 대응하여 입찰자 단말에 최적의 평가지표 그룹을 알려주는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  53. 제36항에 있어서,
    상기 실적지분율은 참여연구원의 동의를 얻어 부여되어 상기 서버에 저장되는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  54. 제36항에 있어서,
    하나의 실적정보의 실적지분율의 총합은 100% 이하이며, 연구개발과제에 낙찰되면 상기 실적지분율은 고정되어 상기 서버에 저장되는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  55. 제37항 또는 제38항에 있어서,
    상기 과제참여율은 참여연구원별로 연 단위, 월 단위, 주 단위, 일 단위 중 어느 하나로 관리되어 상기 서버에 저장되는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  56. 제37항 또는 제38항에 있어서,
    상기 서버는 상기참여연구원의 프로젝트에 대한 과제참여율에 대해서, 상기참여연구원이 참여한 모든 프로젝트에 대한 과제참여율을 종합하여 평가점수를 계산하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  57. 제37항 또는 제38항에 있어서,
    상기 서버는 참여연구원에 대한 과제참여율 변화에 대응하여 최대 평가점수가 되는 과제참여율의 비율을 입찰자 단말에 전송하는 단계;를 더 포함하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  58. 제37항 또는 제38항에 있어서,
    상기 서버는 동일한 평가점수가 산출되는 복수 개의 참여연구원의 과제참여율의 비율을 입찰자 단말에 전송하는 단계;를 더 포함하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  59. 제37항 또는 제38항에 있어서,
    한명의 참여연구원의 과제참여율의 총합은 100% 이하이며, 연구개발과제에 낙찰되면 상기 과제참여율은 고정되어 상기 서버에 저장되는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  60. 제32항에 있어서,
    상기 연구개발과제를 선정하는 단계는,
    프로젝트에 투입되는 연구원의 평가점수를 산출하고, 상기 프로젝트에 투입되는 연구원들의 평가점수를 합산하고, 합산된 평가점수 대비 입찰비용에 대응하는 평가금액비율로 환산하고, 상기 평가금액비율에 근거하여 연구개발과제를 선정하여 이루어지는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  61. 제32항에 있어서,
    상기 서버는 선정된 연구개발과제의 총연구비의 일정 비율에 대한 수수료 정보를 상기 입찰자 단말로 전송하는 단계;를 더 포함하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  62. 제32항에 있어서,
    상기 서버는 선정된 연구개발과제에서 사용한 평가지표의 저작권에 대한 수수료 정보를 상기 입찰자 단말로 전송하여 평가지표 제안자에게 지급하는 단계;를 더 포함하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
  63. 제32항에 있어서,
    상기 서버는 평가지표에 대한 피드백을 저장하여, 상기 입찰자 단말은 상기 피드백을 바탕으로 상기 평가지표를 업데이트하는 단계;를 더 포함하는 것을 특징으로 하는 평가지표 자율제안에 의한 연구개발과제 선정 방법.
PCT/KR2016/015594 2015-12-31 2016-12-30 평가지표 자율제안에 의한 연구개발과제 선정 시스템 및 방법 WO2017116215A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/772,807 US11068816B2 (en) 2015-12-31 2016-12-30 System and method for selecting research and development project through autonomous proposals of evaluation indicators

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150190617A KR101871340B1 (ko) 2015-12-31 2015-12-31 평가지표 자율제안에 의한 연구개발과제 선정 시스템
KR10-2015-0190617 2015-12-31

Publications (1)

Publication Number Publication Date
WO2017116215A1 true WO2017116215A1 (ko) 2017-07-06

Family

ID=59225251

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/015594 WO2017116215A1 (ko) 2015-12-31 2016-12-30 평가지표 자율제안에 의한 연구개발과제 선정 시스템 및 방법

Country Status (3)

Country Link
US (1) US11068816B2 (ko)
KR (1) KR101871340B1 (ko)
WO (1) WO2017116215A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210733A (zh) * 2019-05-21 2019-09-06 上海软科教育信息咨询有限公司 适用于办学单位的投入产出评价系统、方法、终端、介质

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101871340B1 (ko) * 2015-12-31 2018-06-27 충남대학교산학협력단 평가지표 자율제안에 의한 연구개발과제 선정 시스템
CN112189212A (zh) * 2018-03-23 2021-01-05 曾庭英 将研究需求与教学方法联系起来并应用的教学方法系统
WO2019245182A1 (ko) * 2018-06-21 2019-12-26 (주)엔터랩 조달입찰정보 매칭방법, 장치 및 프로그램
KR102624075B1 (ko) * 2018-06-21 2024-01-11 (주)엔터랩 조달입찰정보 매칭방법, 장치 및 프로그램
CN111652492A (zh) * 2020-05-28 2020-09-11 泰康保险集团股份有限公司 一种管理人评估系统、方法、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040094050A (ko) * 2003-05-01 2004-11-09 지식피엘 주식회사 네트워크를 이용한 제조물책임업무 처리 및 관리 방법
KR20050117976A (ko) * 2004-06-12 2005-12-15 한국원자력연구소 인터넷망을 이용한 과제 공모, 평가, 선정, 공고클라이언트 서버 시스템 및 그 구축 방법
KR20060004484A (ko) * 2004-07-09 2006-01-12 한국원자력연구소 연구 개발 성과의 실용화를 위한 기술성, 자원성, 경제성전략시스템 및 그 구축 방법
KR20120040589A (ko) * 2010-10-19 2012-04-27 주식회사 지투비홀딩스 전자 입찰에 있어 투찰금액 예측방법 및 그 시스템
KR20120121933A (ko) * 2011-04-26 2012-11-07 이두형 연구비 유효성 검증을 지원하는 과제 관리 방법 및 그 시스템
KR20150061485A (ko) * 2013-11-27 2015-06-04 한국과학기술정보연구원 외부 인적자원의 평가를 이용한 핵심기술과 수행주체 선정 장치, 시스템 및 방법

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6418415B1 (en) * 1996-09-04 2002-07-09 Priceline.Com Incorporated System and method for aggregating multiple buyers utilizing conditional purchase offers (CPOS)
US6513019B2 (en) * 1999-02-16 2003-01-28 Financial Technologies International, Inc. Financial consolidation and communication platform
WO2001055933A1 (en) * 2000-01-28 2001-08-02 Wilkinson William T Improved research and development process
US20010051913A1 (en) * 2000-06-07 2001-12-13 Avinash Vashistha Method and system for outsourcing information technology projects and services
US6647374B2 (en) * 2000-08-24 2003-11-11 Namita Kansal System and method of assessing and rating vendor risk and pricing of technology delivery insurance
US7130802B1 (en) * 2000-10-02 2006-10-31 Ninesigma, Inc. Systems and methods for facilitating research and development
US20020091623A1 (en) * 2000-12-04 2002-07-11 Daniels Alan F. System and methods for an electronic real estate trading environment
US20020178077A1 (en) * 2001-05-25 2002-11-28 Katz Steven Bruce Method for automatically invoking a software module in response to an internal or external event affecting the procurement of an item
US6965877B2 (en) * 2001-06-07 2005-11-15 International Business Machines Corporation Brokering and facilitating consumer projects in an e-commerce system
CA2403300A1 (en) * 2002-09-12 2004-03-12 Pranil Ram A method of buying or selling items and a user interface to facilitate the same
US20030028473A1 (en) * 2001-07-06 2003-02-06 International Business Machines Corporation Distributed method for bid evaluation in procurement auctions with piece-wise linear supply curves
US20030200168A1 (en) * 2002-04-10 2003-10-23 Cullen Andrew A. Computer system and method for facilitating and managing the project bid and requisition process
US7295119B2 (en) * 2003-01-22 2007-11-13 Wireless Valley Communications, Inc. System and method for indicating the presence or physical location of persons or devices in a site specific representation of a physical environment
US7877293B2 (en) * 2003-03-13 2011-01-25 International Business Machines Corporation User context based distributed self service system for service enhanced resource delivery
US20050114829A1 (en) * 2003-10-30 2005-05-26 Microsoft Corporation Facilitating the process of designing and developing a project
US7461013B2 (en) * 2004-09-22 2008-12-02 Sap Ag Fuzzy evaluation of responses to provide degree of satisfaction
US20060106774A1 (en) * 2004-11-16 2006-05-18 Cohen Peter D Using qualifications of users to facilitate user performance of tasks
US7853472B2 (en) * 2005-07-15 2010-12-14 Saudi Arabian Oil Company System, program product, and methods for managing contract procurement
WO2007050667A2 (en) * 2005-10-25 2007-05-03 The Trustees Of Columbia University In The City Of New York Methods, media and systems for detecting anomalous program executions
US8781942B2 (en) * 2005-11-30 2014-07-15 Genesys Telecommunications Laboratories, Inc. System and method for matching electronic proposals to electronic requests
US8645991B2 (en) * 2006-03-30 2014-02-04 Tout Industries, Inc. Method and apparatus for annotating media streams
US20100312373A1 (en) * 2009-06-04 2010-12-09 Thales Method and system to design standard basic elements
KR20110043280A (ko) * 2009-10-21 2011-04-27 한국과학기술기획평가원 연구 개발 사업을 관리하는 시스템 및 그 방법
KR20110052189A (ko) 2009-11-12 2011-05-18 한국과학기술정보연구원 유망 연구개발 과제 선정 시스템, 방법 및 이를 구현하는 프로그램이 기록된 기록 매체
US20110295722A1 (en) * 2010-06-09 2011-12-01 Reisman Richard R Methods, Apparatus, and Systems for Enabling Feedback-Dependent Transactions
US20110307347A1 (en) * 2010-06-14 2011-12-15 Ryan Jentsch Bid Evaluation Device and Communication Network System and Method
US20130132224A1 (en) * 2011-07-12 2013-05-23 Nuno Gonçalo MARUNY VIDAL DE OLIVEIRA MARTINS Hierarchical cross-linked purpose oriented document validation system and process
US20160048911A1 (en) * 2012-04-03 2016-02-18 Staecy Carpenter Bid oversight system and method
US20140006201A1 (en) * 2012-06-29 2014-01-02 Accion Group Inc. Method and apparatus for competitive solicitation and bidding
US20160027051A1 (en) * 2013-09-27 2016-01-28 Real Data Guru, Inc. Clustered Property Marketing Tool & Method
KR101871340B1 (ko) * 2015-12-31 2018-06-27 충남대학교산학협력단 평가지표 자율제안에 의한 연구개발과제 선정 시스템

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040094050A (ko) * 2003-05-01 2004-11-09 지식피엘 주식회사 네트워크를 이용한 제조물책임업무 처리 및 관리 방법
KR20050117976A (ko) * 2004-06-12 2005-12-15 한국원자력연구소 인터넷망을 이용한 과제 공모, 평가, 선정, 공고클라이언트 서버 시스템 및 그 구축 방법
KR20060004484A (ko) * 2004-07-09 2006-01-12 한국원자력연구소 연구 개발 성과의 실용화를 위한 기술성, 자원성, 경제성전략시스템 및 그 구축 방법
KR20120040589A (ko) * 2010-10-19 2012-04-27 주식회사 지투비홀딩스 전자 입찰에 있어 투찰금액 예측방법 및 그 시스템
KR20120121933A (ko) * 2011-04-26 2012-11-07 이두형 연구비 유효성 검증을 지원하는 과제 관리 방법 및 그 시스템
KR20150061485A (ko) * 2013-11-27 2015-06-04 한국과학기술정보연구원 외부 인적자원의 평가를 이용한 핵심기술과 수행주체 선정 장치, 시스템 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210733A (zh) * 2019-05-21 2019-09-06 上海软科教育信息咨询有限公司 适用于办学单位的投入产出评价系统、方法、终端、介质

Also Published As

Publication number Publication date
US11068816B2 (en) 2021-07-20
KR101871340B1 (ko) 2018-06-27
US20180330296A1 (en) 2018-11-15
KR20170080905A (ko) 2017-07-11

Similar Documents

Publication Publication Date Title
WO2017116215A1 (ko) 평가지표 자율제안에 의한 연구개발과제 선정 시스템 및 방법
WO2019059717A1 (ko) 기업 분석 기반 연계 서비스 매칭 플랫폼 제공 시스템
WO2020116985A1 (ko) 이커머스 플랫폼 평가 시스템 및 방법
WO2017222128A1 (ko) 카드 발급사를 대신하여 카드 서비스를 제공하는 방법 및 서버
WO2012134180A2 (ko) 문장에 내재한 감정 분석을 위한 감정 분류 방법 및 컨텍스트 정보를 이용한 다중 문장으로부터의 감정 분류 방법
WO2010024628A2 (ko) 확장 키워드 풀을 사용한 검색 방법 및 시스템
WO2020222623A2 (ko) 기획 판매를 위한 컨텐츠를 자동적으로 구축하는 시스템 및 그 방법
WO2021230522A1 (ko) 최종가격산정부를 갖는 토지시세 추정시스템 및 추정방법
WO2021006505A1 (ko) 전문가 경력 관리 방법, 장치 및 프로그램
WO2021015464A1 (ko) 블록체인을 기반으로 한 투자 방법 및 이러한 방법을 사용하는 장치
WO2023008908A1 (en) Method of providing product discount coupons based on store demand forecasting and system therefor
WO2023153692A1 (ko) 외부 데이터를 고려한 신용 평가 방법 및 이러한 방법을 수행하는 장치
WO2020138903A2 (ko) 일정 관리 서비스 시스템 및 방법
WO2023058973A1 (ko) 인공지능과 기계 학습 기반 해외 공공조달 맞춤형 입찰정보 제공 서비스 시스템 및 방법
WO2019112092A1 (ko) 거래 원장에 기반한 계정간 사회적 관계 도출 장치 및 방법과 그를 이용한 소셜 미디어 서비스 제공 장치 및 방법
WO2019154305A1 (zh) 进行学校申请的个人竞争力智能评估系统及方法
WO2019142990A1 (ko) 고객 데이터베이스 연동을 통한 비즈니스 타겟 매칭 플랫폼 제공 시스템
WO2018008835A1 (ko) 증권 포트폴리오를 위한 리스크 관리 방법 및 이를 위한 리스크 관리 장치.
WO2022265157A1 (ko) 도축 이력 정보를 이용한 저탄소 제품 인증 방법 및 시스템
WO2020032468A1 (ko) 에이전시 매칭방법, 장치 및 프로그램
WO2011010815A2 (ko) 온라인 가치공학 프로세스 처리 시스템
WO2023153680A1 (ko) Wms의 이커머스 물류 이동 프로세스에서 발생하는 데이터 기반의 신용 평가 방법 및 이러한 방법을 수행하는 장치
WO2023153681A1 (ko) 이커머스 솔루션의 구매, 판매, 재고, 물류, 유통, 정산 과정에서 발생하는 엔드 투 엔드 데이터 기반의 신용 평가 방법 및 이러한 방법을 수행하는 장치
WO2011068315A4 (ko) 최대 개념강도 인지기법을 이용한 최적의 데이터베이스 선택장치 및 그 방법
WO2023153679A1 (ko) Oms 상에서 온라인 판매자 및 소비자 간 발생하는 주문 데이터 기반의 신용 평가 방법 및 이러한 방법을 수행하는 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16882167

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15772807

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16882167

Country of ref document: EP

Kind code of ref document: A1