WO2019180152A1 - Automatisiertes verfahren zum schutz von elektronischen daten zum zwecke der datenverarbeitung durch dritte unter einbezug transparenter und unterbrechungssicherer vergütung - Google Patents

Automatisiertes verfahren zum schutz von elektronischen daten zum zwecke der datenverarbeitung durch dritte unter einbezug transparenter und unterbrechungssicherer vergütung Download PDF

Info

Publication number
WO2019180152A1
WO2019180152A1 PCT/EP2019/057106 EP2019057106W WO2019180152A1 WO 2019180152 A1 WO2019180152 A1 WO 2019180152A1 EP 2019057106 W EP2019057106 W EP 2019057106W WO 2019180152 A1 WO2019180152 A1 WO 2019180152A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
main server
key pair
analysis processing
processing
Prior art date
Application number
PCT/EP2019/057106
Other languages
English (en)
French (fr)
Inventor
Jean-Fabian WENISCH
Original Assignee
Madana Ug (Haftungsbeschränkt)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Madana Ug (Haftungsbeschränkt) filed Critical Madana Ug (Haftungsbeschränkt)
Publication of WO2019180152A1 publication Critical patent/WO2019180152A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/08Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
    • H04L9/0816Key establishment, i.e. cryptographic processes or cryptographic protocols whereby a shared secret becomes available to two or more parties, for subsequent use
    • H04L9/0838Key agreement, i.e. key establishment technique in which a shared key is derived by parties as a function of information contributed by, or associated with, each of these
    • H04L9/0841Key agreement, i.e. key establishment technique in which a shared key is derived by parties as a function of information contributed by, or associated with, each of these involving Diffie-Hellman or related key agreement protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • H04L9/3236Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using cryptographic hash functions
    • H04L9/3239Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using cryptographic hash functions involving non-keyed hash functions, e.g. modification detection codes [MDCs], MD5, SHA or RIPEMD
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • H04L9/3247Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials involving digital signatures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/50Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols using hash chains, e.g. blockchains or hash trees
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L2209/00Additional information or applications relating to cryptographic mechanisms or cryptographic arrangements for secret or secure communication H04L9/00
    • H04L2209/56Financial cryptography, e.g. electronic payment or e-cash

Definitions

  • the invention relates to a method and a system for protecting
  • International application WO 2000075888 A1 discloses a system for the transaction of electronic data between a buyer and at least one Seller known.
  • a third link, an administration network is switched on between the buyer and the seller, knowing the data (financial capacity, authenticity, etc.) of both sides.
  • the third member can thus check in a transaction whether both sides bring the required capacity.
  • the administration network here is based on a server and a
  • Sales software that can access a database in which the private data of the buyer and seller are stored.
  • the database here is therefore stored on a centralized data management.
  • these centralized data servers are attacked more and more frequently by hackers and the data is stolen. This poses an enormous danger, especially for the data producers, when personal data such as bank details, addresses and telephone numbers, etc., get into the hands of unwanted parties.
  • the system and procedure are also compliant with all guidelines European Data Protection Directive and also provide a way to fairly reward participants for their share of the data for the analytical results.
  • this object is achieved by a method for
  • Security protection of data of a data generator suitable for processing by a third party, comprising:
  • Data is generally understood to be information, (numerical) values or
  • data are all electronically captured information that applies to an object or event.
  • data is defined as characters (or symbols) that represent information and that serve the purpose of the processing.
  • data protection law are essentially the
  • a data producer may be a natural person who inputs information about them, such as their dress sizes when shopping online.
  • a data producer can be a legal person or a community of persons.
  • Data generator can also be a machine that either data itself by execution of
  • a third party means any person or entity that is not represented in the Data Generator's data. For example, it is often a platform that users can only use (Facebook, Twitter, Google + etc) by agreeing that certain rights of their data are transferred to the provider (third party). Any broker who passes data from a vendor to a buyer while receiving the data is a third party. Even a direct buyer of user data is in this sense a third party.
  • a user device may include any electronic application that has an input and an output or interface to process the data.
  • the user device may further comprise any type of data processing device capable of receiving and transmitting data over a network.
  • the user device may be a computer, a cell phone, a laptop, a tablet, a server, a smart watch, or any combination of these devices.
  • the user device is there to receive the data of a data producer.
  • the data producer is the same
  • the user device has a first application.
  • the first application is a software (application) that can record data.
  • the recording can be done by different sources.
  • the recording can take place, for example, by a direct input of a user or data generator into the user device, or by measured data by means of corresponding sensors on the device or in its surroundings. Also by external sources, such as existing databases from, for example, the Internet, the data can be recorded on the user device.
  • the second software-based interface can be divided into a data interface and a connection interface.
  • These interfaces are eg open source and can be flexibly implemented in any kind of application. This has the advantage that the method and system according to the invention can be used independently of an operating system of the user or data producer.
  • These two interfaces can be used by all Types of data that the application generates to encrypt and store.
  • the interfaces can refresh (update) the metadata stored on the main server.
  • the application itself must trigger events, which leads to activation of the continuation of the method according to the invention.
  • the data interface automatically executes the
  • Connection interface and authenticates both the user and the application on a main server.
  • the main server validates the sent information and responds with a suitable globally valid data model, which is redirected to the data interface and with which the data is reconstructed or normalized before being stored.
  • a data model determines how the structure of the data is defined and how the data is stored. Data models are used at all participating data interfaces to establish a superior standard for each type of data in different applications.
  • the data model according to the invention is globally valid. It defines how values are stored in a locally encrypted database. Furthermore, one can recognize with the help of the data model rule violations, which has the advantage that a constant degree of quality and uniformity can be guaranteed.
  • Data model defines different units, length and structure of the stored data, so that a further continuation of the method according to the invention in an analysis processing is possible. Further continuation is only possible if the data is formatted accurately, reliably and uniformly. The application itself must also ensure that the generated data meets the requirements of the data model. If the data does not meet these requirements, the data will not be accepted by the data interface and further continuation will stop in this case.
  • the normalization is based on an interpretation of the data before the data is stored in a local database. The normalization process reformats the data and creates a consistent one
  • the standardization has the advantage that by a conformity of the data a simpler and secure or error-free further processing of the data is guaranteed. All data models are provided in a manner that complies with the standard or other conventions.
  • the globally valid data model is retrieved via an interface to the first application.
  • the data model is retrieved from the main server.
  • a local database is an encrypted storage device that stores data consistently, efficiently, consistently, and consistently.
  • the data interface allows the connected application to delete,
  • the data interface creates a connection to the local database and asks the user for a security key.
  • the security key is typically stored on a user device and protected by a password.
  • the data interface then encrypts the data and inserts it into the local database based on the data model.
  • the data interface When the data is successfully stored in the local database, the data interface triggers the connection interface, which then sends a message to the main server, wherein the information about the type (according to the
  • the main server processes the message and stores the corresponding value in a data storage system connected to the main server.
  • the inventive method further includes method steps for generating analysis results. These are triggered by a request for
  • the first key pair consists of a public key and a private key. Only the requestor can access the private key of the first key pair. If the requestor wants to create a new analysis, he must specify an intention in the request. Based on the globally valid data model, the request must contain a selection (eg number and type) of data to be collected and analyzed by data producers. The procedure is calculated from this one
  • the main server after accepting the request, through a suitable scheduling method such as round robin, selects a node from a network connected to the main server and calls another instance, called analysis processing in the case, on.
  • a node is an electronic device in one
  • Telecommunication network which actively connects as a communication endpoint via a communication channel with the main server to take over certain tasks at the direction of the main server.
  • Analysis processing is a standalone application that resides on a separate physical entity to the core server. It is essential for the invention that the separate physical unit has a secure execution environment, ie a trusted execution environment (eg from AMD, Intel) and supports this.
  • a secure execution environment ie a trusted execution environment (eg from AMD, Intel) and supports this.
  • Execution Environment provides a secure and trusted runtime environment for applications.
  • the secure execution environment can be isolated on a separate processor, directly on the main processor
  • the secured execution environment provides end-to-end protection by supporting protected execution of authorized code, privacy, network integrity, and limited data access rights.
  • the secure execution environment thus provides an appropriate hardware environment for the analysis processing provides secure data storage and data processing while protecting against software attacks attempting to interfere with the application and gaining unauthorized access to the data producers' data.
  • the second key pair dynamically at runtime upon receiving and verifying the information from the request by the core server.
  • the second key pair consists of a public and private key.
  • the public key of the second key pair is sent along with integrity information, such as the signature of the running application, information about the - existence of the - Trusted Execution Environment, from the analysis processing to the main server, whereupon the
  • Main server checks the integrity of the analysis processing. If integrity checking is not sufficient, the core server selects another node from the network based on the defined scheduling method and calls for further analysis processing and validates as described above
  • Integrity information This process is repeated until a suitable node could be found.
  • the main server searches in its backup systems based on the specified data model for the corresponding data producers.
  • all data generators capture the size of the data or data records by the main server as soon as new data is generated.
  • DISCLAIMER As the meta-information may also contain sensitive information, it may be distorted depending on the data model. In this case, each data producer is asked.
  • the main server as a third party, may and may not have access to the data producers' data in order to comply with data protection regulations, as this requires the consent of the data producer. Afterwards, the analysis processing sends the public key of the second key pair to the data producer, so that the
  • Data generator can encrypt the requested data with the key before a transfer to the main server and then for analysis processing.
  • Those with the public key of the second key pair also second public
  • the main server For sending the second public key to the data producers, the main server connects to the data generators. After the connection is initiated, the main server transfers the public key of the second key pair and a subscription request to the data producer, which includes an intention of the original request. Furthermore includes the
  • the unique digital fingerprint of the public key of the first key pair uniquely identifies the requester in the system and is forwarded to the main server for further processing
  • the data producer can now refuse to participate and complete the process step, or return it with a wallet ID and a quote for his part of the requested data to the main server.
  • the main server After the main server has received the Wallet ID and the cost estimate of the participating data producer, the main server forwards them to the analysis processing.
  • Analysis processing can now determine if the advertiser's quota is a subset of the requestor's estimate and then send an ACK (acknowledged) or NAK (not acknowledged) command back to the main server, which sends it to the attendees
  • the process ends.
  • the data producer decrypts its local database, creates a copy of the desired records, and then encrypts it with the public key of the second key pair and then transmits it to the main server.
  • the analytic processing can see the data because it is the only instance that owns the private key of the second key pair.
  • the analysis processing now checks whether the number of records received is equal to the number of requested data specified in the request.
  • the analysis processing goes into one Wait mode and the same number of times the analysis processing starts the process of analysis.
  • This process begins with a command to request data to be sent to the main server.
  • the main server returns the command and transfers all relevant encrypted records that the
  • Analysis processing with the private key of the second key pair in the secure execution environment then decrypted.
  • the analysis processing requires and executes a security code (algorithm adapted to the data model) of the main server, which ensures the data integrity of the individual data records.
  • the data producers of the error-free data records are informed by the analysis processing to the main server and this starts a payment process for each
  • the data producers with erroneous data records are marked in the main server in order to increase the quality of the data records in the future
  • the analysis processing can request external plug-in algorithms from different plug-in providers. These plug-ins must meet the requirements of the request.
  • the external code / algorithm is used by the analysis processing to process the data in the manner specified in the request.
  • the external plug-in can be previously uploaded to the main server by anyone and made available to the public. If a plug-in code for the analysis of the data is executed, the provider may be remunerated from the budget of the request.
  • analysis analysis analyzes the decrypted data and generates an analysis result, it is encrypted with the public key of the first key pair provided to the requester at the beginning of the procedure.
  • the encrypted analysis result is determined by the
  • Main server initiates the analysis processing a self-destruction. As a result, all data within the analysis processing will be deleted irrevocably. Only the requestor can now access the encrypted analysis result on the main server and this with his private key of the first Decrypt key pair. Thus, the analysis result can only from
  • Ordering parties and the data can only be viewed by the data producer and thus guarantees the security protection of the data in the processing of third parties.
  • the applied payment process is based on micro transactions on a so-called blockchain and is performed automatically by the main server.
  • the payment of the participating data producers and the plug-in provider can be based on so-called Smart Contracts.
  • Smart contracts are codes that are stored, verified and executed in the blockchain network. Because these programs are stored on the blockchain and run in a block-specific VM environment, they have unique properties compared to other types of programs. For example, they are transparent and interruption-proof for all parties involved.
  • the program itself is recorded in the blockchain and allows storage and transfer of crypto currency, with no other instance being able to interfere with the process.
  • the requester Upon a new request, the requester transfers a certain amount of cryptocurrency to the smart contract, and this interaction invokes a specific method in the smart contract that initiates a new transaction.
  • the Smart Contract then adds a unique identifier to a newly created message.
  • the main server receives the request and stores the identifier and waits until the block with the payment of the requestor in the
  • Blockchain was processed, which signals to the main server that the necessary budget for the payment of all parties involved is now deposited.
  • the analysis processing sends information to the main server that the participating data generators have now been validated after having decrypted the data with the private key of the second key pair.
  • the main server then invokes a payment function within the Smart Contract, in which the values of the Wallet ID and the cost estimates of the data producers are transferred and sends the previously fetched identifier. What's important here is that the main server, which is the owner of the smart contract, is the only instance that can call the payment function, so no manipulation can take place.
  • the smart contract then goes through all received entries of values and uses the previously received budget from the requestor to remunerate the data producers by microtransactions. After that, the main server optionally calls another payment function for the plug-in provider, which transmits the values of the wallet ID of the plug-in provider to the smart contract and remunerates the remaining budget from the plug-in provider.
  • the communication of the various instances takes place independently of the executing system via a network interface based on TCP / IP.
  • the compound itself is ensured with TLS based on the Diffie-Hellman method.
  • the Diffie-Hellman method (DHE), or the Diffie-Hellman key exchange, is a key agreement protocol. It allows two Diffie-Hellman method.
  • forward secrecy can be achieved by using DHE-RSA, DHE-DSA.
  • ciphering methods can be applied based on elliptic curves used in ECDHE-RSA, ECDHE-ECDSA to establish perfect forward secrecy.
  • any code must be signed off by a certificate authority of the main server. It uses scripts that use a cryptographic hash to validate the authenticity and integrity of the code.
  • Mainly the hash is used to verify that the code has not been modified and the correct version is present. If this case does not exist, the procedure is interrupted.
  • the method according to the invention thus provides a method which overcomes the disadvantages of the prior art and gives access to Analyze results based on different types of data from multiple sources, while preserving the privacy of the data creators while protecting the data itself against unauthorized access.
  • the procedure will also comply with all the guidelines of the European
  • Privacy Policy and also provides a way to fairly reward participants for their share of the data for the analytical results.
  • the second software-based interface is divided into a data interface and a connection point, wherein the
  • Data interface checks the generated data for type and number and the
  • connection interface establishes a connection to the main server, wherein the main server sends back rules for a conformity of the data to the second software-based interface based on the globally valid data model, so that the data in the data interface can be normalized according to the rules of conformity.
  • the standardization has the advantage that a conformity of the data an easier and safe, or error-free as possible further processing of the data is guaranteed. Also, it allows, in response to a request, a more accurate and faster classification of data types.
  • the core server is a cloud application or a decentralized application.
  • cloud computing One of the benefits of cloud computing is that you can access the cloud service at any time and with different devices, whether stationary or mobile.
  • Decentralized applications have the advantage of being particularly safe and reliable. Data manipulation by unauthorized persons can be avoided with decentralized applications and payments can be made transparent through an accounting system, which
  • DLT Distributed Ledger Technology
  • the encryption of the local database on the user device is carried out asymmetrically or symmetrically by conventional algorithms in order to protect the database against unauthorized access.
  • the requestor's request includes the type and number of data needed for the analysis result, as well as an identification tag from an executing algorithm, so-called plug-ins, where the executing algorithms are provided by plug-in vendors, so the
  • Main server can involve the appropriate data producers and plug-in providers for the analysis of the data of the requestor. This has the advantage that a flexibility in the choice of the algorithms to be executed is guaranteed, since they can be offered by independent manufacturers. Thereby can
  • An identification tag ensures the security of these external algorithms of the plug-in provider.
  • the request includes a sum of a reward for the analysis result, which together with a Wallet ID and a
  • Analysis processing is sent, whereby the analysis processing checks whether the remuneration claim subset of the sum of the remuneration for the
  • the payment is made by cryptocurrency to make a course of remuneration transparent and unadvertable. Only the use of smart contracts and cryptocurrencies allows safe and reliable automation of the process.
  • the plug-in provider provides the
  • the plug-in provider gets a part of the sum of the remuneration, if the uploaded by him to the main server execution algorithm for processing the data, without access to the Get data from the data producer, which ensures the privacy of the data during processing.
  • This has the advantage for the plug-in provider that an environment is provided in which the provider scripts his
  • the plug-in provider itself does not need direct access to the data To have data analyzed by the executing algorithm. Thus, the plug-in provider complies with the privacy policy and also does not need to organize your own data to get paid for its algorithm.
  • the object of the invention is further achieved by a system for
  • Security protection of data of a data generator suitable for processing by a third party according to the method of the invention, comprising:
  • Unit is located to the main server and in a secured
  • Execution environment is executed and called when the
  • Main server receives a request, wherein a requester from the main server is assigned a first key pair;
  • an analysis result which is encrypted with a public key from the first key pair of the requesting party and from the Analysis processing is sent to the main server for inspection by the requester,
  • analysis result can only be decrypted by the requester with the aid of a private key from the first key pair, so that the analysis result can be viewed only by the requestor and the data only by the data producer in order to ensure the security protection of the data in the processing of third parties.
  • the system of the invention thus provides a system which overcomes the disadvantages of the prior art and allows access to analysis results based on different types of data from different sources, while preserving the privacy of the data producers while protecting the data itself against unauthorized access become.
  • the system also complies with all the guidelines of the European Privacy Policy and also provides a way to fairly reward participants for their share of the data for the analytical results.
  • system can implement all learned embodiments of the method according to the invention as part of the modular and automated system according to the invention.
  • Fig. 1 method for generating data of a data generator
  • FIG. 1 shows, according to the first part of the inventive method 100 or system 1000, a method for generating data 10 of a data generator 20.
  • a user device 40 of the data generator 20 takes data 10 through a first
  • the receptacle 410 can be made by different sources 45, 46, 47.
  • the recording can take place, for example, by a direct input of a user or data generator into the user device 45, or by measured data by means of corresponding sensors on the device or in its surroundings 46. Also by external sources 47, such as existing databases from, for example, the Internet, the data recording 410 can be made on the user device 40.
  • the first application 41 After the first application 41 has gained access to the data sources 45, 46, 47, it calls 420 a method in a data interface 43 of a second
  • the software-based interface 42 to initialize a new storage of the data 10.
  • the data interface 43 automatically triggers 430 on
  • Connection interface 44 which also belongs to the second software-based interface 42, and authenticates 440 the user or data producer 20 and the first application 41 on a main server 50.
  • the main server 50 validates the
  • the data model is used to normalize the data 10 for compliance before it is stored.
  • Normalization occurs 460 in the data interface 43.
  • the data interface 43 establishes a connection to a local database 48 and asks the user 20 for a security key.
  • the security key is typically stored on a user device 40 and protected by a password.
  • the data interface 43 encrypts 470 and inserts 470 into the local database 470.
  • the data interface 43 initiates the connection interface 44, which then sends 480 a message to the main server 50 in which the
  • FIG. 2 shows a method 100 according to the invention or system 1000 for the protection of electronic data for the purpose of data processing by third parties 30 Inclusion of transparent and interruption-proof remuneration.
  • a request 32 from a requestor 34 for an analysis result 62 represents a first step 510 of the method 100.
  • the requestor 32 must first register on a platform connected to the main server 50 for a first one
  • the first key pair consists of one
  • the request 34 must specify an intention.
  • the request 34 must contain a selection (e.g., number and type) of the data 10 to be collected and analyzed, based on the globally valid data model 52.
  • the main server 50 calls after accepting the request 34
  • Analysis processing 60 to 530 Analysis processing 60 has a secure execution environment.
  • the analysis processing 60 after receiving and verifying the information from the request 34 by the main server 50 dynamically generates a second key pair at run time 610.
  • the second key pair consists of a public and private key.
  • the main server 50 searches in its databases for the corresponding data generators 20 on the basis of the specified data model 52. As is known from the previous method steps 410 - 450 of FIG. 1, the size of the data or data records 10 is detected by the main server 50 by all data generators 20 as soon as new data 10 is generated. After that 620 sends the
  • Analysis processing 60 the public key of the second key pair to the data generator 20 so that the data generator 20 can encrypt the requested data 210 before transmission to the main server 50 and then analysis analysis 60 with the same key.
  • the data encrypted with the public key of the second key pair then data to the
  • Analysis processing 60 is sent 220 with the trusted execution environment so that only the selected analysis processing 60 has access to the original data 10 of the data generators 20.
  • the analysis processing now checks whether the number of records received is equal to the number of requested data specified in the request.
  • the analysis processing 60 goes into a waiting mode. With the same number, the main server 50 transfers 220 all
  • the analysis processing After the analysis processing has parsed 640 the decrypted data and created an analysis result 62, it is encrypted with the public key of the first key pair provided to the requester at the beginning of the procedure.
  • the encrypted analysis result is sent by the analysis processing to the main server for the requestor's insight 650. After receiving the encrypted analysis result 62 on the main server 50 side, the analysis processing 60 forwards one
  • Analysis processing 60 irrevocably deleted. Only the requestor 32 can now access the encrypted analysis result 62 on the main server 50 and decrypt it with his private key of the first key pair. Thus, the analysis result 62 can only be viewed by the order end 32 and the data 10 only by the data generator 20 and thus ensures the security protection of the data 10 in the processing of third parties 30.
  • FIG. 3 shows a process of clearing a data producer 20 and a plug-in provider 70 according to the inventive method 100 using smart contracts 80 in a decentralized application 1.
  • the requestor 32 transmits 310 a certain amount of cryptocurrency to the smart Contract 80 and this interaction calls a specific method in the Smart Contract, which initiates a new payment transaction.
  • the smart contract itself then reciprocates the smallest possible sum of the cryptocurrency and adds 810 a unique identifier to a newly created message.
  • the master server 50 receives the request 34 and waits until the block with the requestor 32 is received by the network 540. Thereupon saves the
  • Main server 50 the identifier.
  • the analysis processing sends information to the main server that the participating data generators have now been validated after having decrypted the data with the private key of the second key pair.
  • the main server then calls a payment function within the Smart Contract, in which the values of the Wallet ID and the cost estimates of the data producers are transferred and sends the previously fetched
  • Identifier 550 What is essential here is that the main server 50, which is the owner of the smart contract 80, is the only instance that can call the payment function so that no manipulation can take place. The smart contract then goes through all received entries of values and uses the previously received budget 310 from the requestor 32 for the data generators 20 per
  • the main server 50 invokes another payment function for the plug-in provider 70, which transmits the values of the wallet ID of the plug-in provider 70 to the smart contract 80 560 and from the remaining budget the plug-in provider. in provider 70 reimbursed 830.

Abstract

Es ist Aufgabe der vorliegenden Erfindung ein automatisiertes und modulares System (1000) mit einem Verfahren (100) zur Verfügung zu stellen, welches den Zugang zu Analyseergebnissen (62) auf der Grundlage verschiedener Arten von Daten (10) aus verschiedenen Quellen ermöglicht, wobei die Privatsphäre der Datenerzeuger (20) gewahrt bleibt und zugleich die Daten (10) selbst vor unberechtigten Zugriff geschützt werden. Das System (1000) und das Verfahren (100) sind außerdem allen Richtlinien der europäischen Datenschutzerklärung gerecht und bieten ferner eine Möglichkeit, die Teilnehmer für ihren Anteil der Daten (10) für die Analysenergebnisse (62) fair zu vergüten.

Description

Automatisiertes Verfahren zum Schutz von elektronischen Daten zum Zwecke der Datenverarbeitung durch Dritte unter Einbezug transparenter und
unterbrechungssicherer Vergütung
Feld der Erfindung
Die Erfindung betrifft ein Verfahren und ein System zum Schützen von
elektronischen Daten nach Erzeugung bis hin zur Datenverarbeitung durch Dritte, wobei ein Datenempfänger ohne die Identität eines Datenerzeugers zu kennen, diesen vergüten kann.
Stand der Technik
Heutzutage umfasst die Digitalisierung immer mehr Bereiche unseres Lebens.
Dadurch werden auch elektronische Daten eine immer wertvollere Ressource. Die Existenz von großen Datenströmen können demnach nicht nur neue Geschäfts- oder Politikmodelle, sondern auch neue Wirtschaftsmodelle erschaffen. Jedoch ist die digitale Information wie keine andere Ressource, die wir bisher kennen. Sie wird anders gewonnen, verarbeitet, bewertet und gehandelt.
Jeder heutzutage ist ein Datenerzeuger. Ein Beispiel ist die Anwendung von digitalen Services wie Apps, Browsers oder das Benutzen von sozialen Netzwerken wie Facebook, Twitter, Instagram und co. Auch erzeugt jedes elektronische Gerät welches dem Menschen hilft, wie Temperatursensoren in Räumen, Fräsmaschinen, Pulszähler etc., elektronische Daten, die auswertbar und daher wertvoll sind. Jedoch kann der Datenerzeuger meistens nicht frei über seine Daten bestimmen. Es ist üblich, dass der Datenerzeuger die Rechte seiner Daten an einen Serviceanbieter abgibt, indem er, um den Service nutzen zu können, die intransparenten
Geschäftsbedingungen des Dienstleisters zustimmen muss. Vor allem große
Unternehmen nehmen dann diese Daten um Profit zu schlagen, ohne jedoch, dass der Datenerzeuger diese Daten kontrollieren kann oder auch nur selbst am Profit beteiligt wird.
Aus der internationalen Anmeldung WO 2000075888 A1 ist ein System für die Transaktion von elektronischen Daten zwischen einem Käufer und mindestens einem Verkäufer bekannt. Zwischen dem Käufer und Verkäufer wird ein drittes Glied, ein Administrationsnetzwerk, eingeschaltet, welches die Daten (finanzielle Kapazität, Authentizität, etc.) beider Seiten kennt. Das dritte Glied kann somit bei einer Transaktion überprüfen ob beide Seiten die benötigten Kapazitäten mitbringen. Das Administrationsnetzwerk hierbei basiert auf einem Server und einer
Verkaufssoftware, die auf eine Datenbank, in der die privaten Daten der Käufer und Verkäufer gespeichert sind, zugreifen kann. Die Datenbank hier ist also auf einer zentralisierten Datenverwaltung gespeichert. Wie aus den Nachrichten bekannt, werden eben diese zentralisierten Datenserver immer häufiger von Hacker angegriffen und die Daten geklaut. Das stellt vor allem für die Datenerzeuger eine enorme Gefahr da, wenn persönliche Daten wie Bankverbindungen, Adressen und Telefonnummern etc. in die Hände von ungewollten Parteien gelangen.
Es ist daher wünschenswert ein automatisiertes und modulares System zur
Verfügung zu haben, welches ein Verfahren zur Beseitigung der oben genannten Nachteile implementiert. Weiterhin wäre ein Verfahren und ein System
wünschenswert, welches den Zugang zu Analyseergebnissen auf der Grundlage verschiedener Arten von Daten aus verschiedenen Quellen ermöglicht, wobei die Privatsphäre der Datenerzeuger gewahrt bleibt, sowie die Daten selbst vor unberechtigten Zugriff geschützt werden. Zudem wäre es wünschenswert, wenn das System und das Verfahren allen Richtlinien der europäischen Datenschutzerklärung gerecht werden und eine Möglichkeit bieten könnten, die Teilnehmer für ihren Anteil der Daten für die Analysenergebnisse fair zu vergüten.
Zusammenfassung
Es ist daher eine Aufgabe der vorliegenden Erfindung ein automatisiertes und modulares System zur Verfügung zu stellen, welches ein Verfahren zur Beseitigung der Nachteile des Stands der Technik implementiert. Zu der Aufgabe der Erfindung gehört weiterhin ein Verfahren und ein System bereitzustellen, welches den Zugang zu Analyseergebnissen auf der Grundlage verschiedener Arten von Daten aus verschiedenen Quellen ermöglicht, wobei die Privatsphäre der Datenerzeuger gewahrt bleibt und zugleich die Daten selbst vor unberechtigten Zugriff geschützt werden. Das System und das Verfahren sind außerdem allen Richtlinien der europäischen Datenschutzerklärung gerecht und bieten ferner eine Möglichkeit, die Teilnehmer für ihren Anteil der Daten für die Analysenergebnisse fair zu vergüten.
Erfindungsgemäß wird diese Aufgabe gelöst durch ein Verfahren zum
Sicherheitsschutz von Daten eines Datenerzeugers, geeignet für eine Verarbeitung durch einen Dritten, umfassend:
- Aufnahme der Daten durch ein Nutzergerät des Datenerzeugers und eine erste Anwendung;
- Abrufen eines global gültigen Datenmodells über eine zweite softwarebasierte Schnittstelle mit Schnittstelle zur ersten Anwendung;
- Normieren der Daten über die zweite softwarebasierte Schnittstelle anhand des global gültigen Datenmodells;
- Speicherung der normierten Daten in einer lokalen verschlüsselten Datenbank, wobei Anzahl und Typ der verschlüsselten Daten einem Hauptserver mitgeteilt werden;
- Aufrufen einer Analysenprozessierung, welche sich auf einer separaten physikalischen Einheit zu dem Hauptserver befindet und in einer gesicherten Ausführungsumgebung ausgeführt wird, wenn der Hauptserver eine Anfrage erhält, wobei einem Anfragenden vom Hauptserver ein erstes Schlüsselpaar zugeordnet wird;
- dynamisches Generieren eines zweiten Schlüsselpaars durch die
Analysenprozessierung zur Laufzeit;
- Senden eines öffentlichen Schlüssels aus dem zweiten Schlüsselpaar an den Datenerzeuger, womit der Datenerzeuger die angefragten Daten vor einer Übertragung zum Hauptserver und dann zur Analysenprozessierung, verschlüsselt;
- Transferieren der verschlüsselten Daten über den Hauptserver zurück an die Analysenprozessierung, von wo aus mit einem privaten Schlüssel aus dem zweiten Schlüsselpaar die angefragten Daten innerhalb der gesicherten Ausführungsumgebung entschlüsselt und analysiert werden und ein
Analysenergebnis erzeugt wird;
- Senden des Analysenergebnisses, welches mit einem öffentlichen Schlüssel aus dem ersten Schlüsselpaar des Anfragenden verschlüsselt wird, der Analysenprozessierung an den Hauptserver zur Einsicht des Anfragenden wobei nur der Anfragende mit Hilfe eines privaten Schlüssels aus dem zweiten Schlüsselpaar des Anfragenden das Analyseergebnis entschlüsseln kann, sodass das Analysenergebnis nur vom Auftragenden und die Daten nur vom Datenerzeuger eingesehen werden können um somit den Sicherheitsschutz der Daten bei der Verarbeitung von Dritten zu gewährleisten.
Unter Daten versteht man im Allgemeinen Angaben, (Zahlen-)Werte oder
formulierbare Befunde, die durch Messung, Beobachtung u. a. gewonnen wurden. Erfindungsgemäß sind Daten alle elektronisch erfassten Informationen, die auf ein Objekt oder Ereignis zutreffen. Bei einer Verarbeitung von Daten werden Daten als Zeichen (oder Symbole) definiert, die Informationen darstellen und die dem Zweck der Verarbeitung dienen. Im Datenschutzrecht sind im Wesentlichen die
personenbezogenen Daten gemeint, d. h. Angaben über natürliche Personen, wie beispielsweise das Geschlecht, das Geburtsdatum oder der Wohnort. Die Richtlinie 95/46/EG zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten und zum freien Datenverkehr ist eine 1995 erlassene Richtlinie der
Europäischen Gemeinschaft zum Schutz der Privatsphäre von natürlichen Personen bei der Verarbeitung von personenbezogenen Daten. Die Richtlinie beschreibt Mindeststandards für den Datenschutz, die in allen Mitgliedstaaten der Europäischen Union durch nationale Gesetze sichergestellt werden müssen. In Deutschland ist die Europäische Datenschutzrichtlinie erst durch das Gesetz zur Änderung des
Bundesdatenschutzgesetzes und anderer Gesetze vom 18. Mai 2001 umgesetzt worden, das am 23. Mai 2001 in Kraft trat. Es ist ein Anspruch der Erfindung diesen Richtlinien zu genügen. Hierbei werden mehrere Daten auch Datensätze genannt und werden als Synonyme verwendet.
Ein Datenerzeuger kann eine natürliche Person sein, die Informationen über sieh, wie beispielsweise ihre Kleidergrößen beim Onlineeinkauf eingibt. Ein Datenerzeuger kann eine juristische Person oder Personengemeinschaft sein. Datenerzeuger kann auch eine Maschine sein, die Daten entweder selbst durch Ausführung von
Anweisungen erzeugt, oder Sensorik enthält, die z.B. die Temperatur eines Raumes erfasst. Unter einem Dritten versteht man jede Person bzw. Instanz, die nicht in den Daten des Datenerzeugers repräsentiert wird. Beispielsweise ist es oft eine Plattform, die Nutzer nur verwenden können (Facebook, Twitter, Google + etc), indem sie sich einverstanden geben, dass gewisse Rechte ihrer Daten auf den Anbieter (Dritten) übertragen werden. Jeglicher Broker, der Daten von einem Anbieter zu einem Käufer leitet und dabei in den Erhalt der Daten kommt, ist ein Dritter. Auch ein direkter Käufer von Nutzerdaten ist in diesem Sinne ein Dritter.
Ein Nutzergerät kann jegliche elektronische Anwendung beinhalten welches eine Eingabe und eine Ausgabe, bzw. Schnittstelle hat um die Daten zu verarbeiten. Das Nutzergerät kann weiterhin jede Art von Datenverarbeitungsgerät aufweisen, welches in der Lage ist Daten über ein Netzwerk zu erhalten und zu übertragen.
Beispielsweise kann das Nutzergerät ein Computer, ein Handy, ein Laptop, ein Tablet, ein Server, eine intelligente Uhr oder jegliche Kombination dieser Geräte sein. Das Nutzergerät ist dafür da, die Daten eines Datenerzeugers aufzunehmen. Im Falle einer Maschine als Datenerzeuger, ist der Datenerzeuger gleich dem
Nutzergerät.
Das Nutzergerät weist eine erste Anwendung auf. Die erste Anwendung ist eine Software (Applikation), die Daten aufnehmen kann. Die Aufnahme kann durch verschiedene Quellen erfolgen. Die Aufnahme kann beispielsweise durch eine direkte Eingabe eines Nutzers, bzw. Datenerzeugers in das Nutzergerät, oder durch gemessene Daten durch entsprechende Sensoren auf dem Gerät oder in seiner Umgebung erfolgen. Auch durch externe Quellen, wie vorhandene Datenbanken aus beispielsweise dem Internet, kann die Datenaufnahme auf das Nutzergerät erfolgen.
Nachdem die erste Anwendung des Nutzergerätes Zugriff auf die Datenquellen erhalten hat, kann es eine zweite softwarebasierte Schnittstelle aufrufen, welches einen neuen Speicherschritt initiiert. Die zweite softwarebasierte Schnittstelle kann in eine Datenschnittstelle und in eine Verbindungsschnittstelle unterteilt werden. Diese Schnittstellen sind z.B. Open Source und können flexibel in jede Art von Anwendung implementiert werden. Das hat den Vorteil, dass das erfindungsgemäße Verfahren und System unabhängig eines Betriebssystems des Nutzers, bzw. Datenerzeugers angewandt werden kann. Diese beiden Schnittstellen können genutzt werden um alle Arten von Daten, die die Anwendung erzeugt zu verschlüsseln und zu speichern. Auch können die Schnittstellen die Metadaten erneuern (updaten), die auf dem Hauptserver gespeichert sind. Bevorzugt muss die Anwendung an sich Events auslösen, die zum Aktivieren vom Weiterführung des erfindungsgemäßen Verfahrens führt.
Beim Aufruf der zweiten softwarebasierten Schnittstelle durch die erste Anwendung auf dem Nutzergerät führt die Datenschnittstelle automatisch die
Verbindungsschnittstelle aus und authentisiert sowohl den Nutzer als auch die Anwendung auf einem Hauptserver. Der Hauptserver validiert die zugesandten Informationen und antwortet mit einem geeigneten global gültigen Datenmodell, welches zu der Datenschnittstelle umgeleitet wird und mit welches die Daten rekonstruiert, bzw. normiert werden, bevor diese gespeichert werden.
Ein Datenmodell bestimmt wie die Struktur der Daten definiert ist und in welcher Form die Daten gespeichert werden. Datenmodelle werden eingesetzt bei allen teilnehmenden Datenschnittstellen um eine übergeordneten Standard für jede Art von Daten bei verschiedenen Anwendung herzustellen. Das erfindungsgemäße Datenmodell ist global gültig. Es definiert wie Werte in einer lokal verschlüsselten Datenbank gespeichert werden. Weiterhin kann man mit Hilfe des Datenmodells Regelverstöße erkennen, welches den Vorteil hat, dass ein konstanter Grad an Qualität und Einheitlichkeit gewährleistet werden kann. Das global gültige
Datenmodell definiert verschiedene Einheiten, Länge und Struktur der gespeicherten Daten, sodass eine weitere Fortführung des erfindungsgemäßen Verfahrens in einer Analysenprozessierung möglich ist. Die weitere Fortführung ist nur möglich, wenn die Daten genau, zuverlässig und einheitliche formatiert sind. Die Anwendung an sich muss auch sicherstellen, dass die erzeugten Daten den Voraussetzungen des Datenmodels genügen. Sollten die Daten nicht diesen Voraussetzungen genügen, werden die Daten nicht von der Datenschnittstelle akzeptiert und eine weitere Fortführung setzt in diesem Falle aus. Die Normierung basiert auf einer Interpretation der Daten bevor die Daten in eine lokale Datenbank gespeichert werden. Der Normierungsprozess formatiert die Daten um und erzeugt eine einheitliche
Datendarstellung mit festen und diskreten Spalten anhand des Datenmodells. Die Normierung hat den Vorteil, dass durch eine Konformität der Daten eine einfachere und sichere, bzw. möglichst fehlerfreie Weiterverarbeitung der Daten gewährleistet ist. Alle Datenmodelle werden in der Hinsicht bereitgestellt, dass sie dem Standard oder anderen Konventionen entsprechen. Das global gültige Datenmodell wird über eine Schnittstellt zur ersten Anwendung abgerufen. Das Datenmodell wird über den Hauptserver abgerufen.
Unter einer lokalen Datenbank versteht man eine verschlüsselte Speichereinheit, in der Daten konsistent effizient, widerspruchsfrei und dauerhaft gespeichert werden. Die Datenschnittstelle erlaubt der verbundenen Anwendung die Löschung,
Speicherung, Abrufen und Änderung von Informationen aus dem Datenbestand, welche auf den global gültigen Datenmodellen beruhen. Die Datenmodelle
beinhalten auch Merkmale anderer, gängiger Datenbanken. Diese sind
beispielsweise Formatierung von fester Spaltenbreite und die entsprechenden Tabellen sind begrenzt auf bestimmte Datentypen. Einträge in der Datenbank könne der Tuple Definition innerhalb der relationalen Algebra entsprechen wobei alle Werte durch Separatoren getrennt werden.
Sobald die Daten mit Referenz auf das Datenmodell validiert wurden, erstellt die Datenschnittstelle eine Verbindung zur lokalen Datenbank und fragt den Nutzer nach einem Sicherheitsschlüssel. Der Sicherheitsschlüssel ist typischerweise auf einem Nutzergerät gespeichert und durch ein Passwort geschützt. Daraufhin verschlüsselt die Datenschnittstelle die Daten und fügt diese basierend auf dem Datenmodell in die lokale Datenbank ein.
Wenn die Daten erfolgreich in der lokalen Datenbank gespeichert sind, löst die Datenschnittstelle die Verbindungsschnittstelle aus, welches dann eine Nachricht an den Hauptserver schickt, worin die Information über den Typ (gemäß dem
Datenmodell) und Anzahl der Datensätze die gespeichert wurden, enthalten sind.
Der Hauptserver verarbeitet die Nachricht und speichert die entsprechenden Wert in einem mit dem Hauptserver verbundenen Datenspeicherungssystem.
Das erfindungsgemäße Verfahren beinhaltet ferner Verfahrensschritte zum Erzeugen von Analysenergebnissen. Diese werden ausgelöst durch eine Anfrage nach
Analysenergebnissen. Ein Anfragender muss sich zunächst auf einer Plattform, verbunden mit dem Hauptserver, registrieren und dabei den öffentlichen Schlüssel aus einem ersten Schlüsselpaar zu hinterlegen. Das erste Schlüsselpaar besteht aus einem öffentlichen und einen privaten Schlüssel. Auf den privaten Schlüssel des ersten Schlüsselpaars kann nur der Anfragende zugreifen. Sollte der Anfragende eine neue Analyse erstellen wollen, muss dieser in der Anfrage eine Absicht spezifizieren. Die Anfrage muss bezogen auf das global gültige Datenmodell eine Auswahl (z.B. Anzahl und Typ) der zu sammelnden und analysierenden Daten von Datenerzeugern enthalten. Das Verfahren errechnet sich daraus einen
Kostenvoranschlag, bzw. ein notwendiges Budget, die externe Preise, ähnliche durchgeführte Analysen und aktuelle Preise der Datenerzeuger in Erwägung zieht. Der Anfragende kann dann diesen Kostenvoranschlag akzeptieren, woraufhin die Anfrage an den Hauptserver gesendet wird.
Der Hauptserver wählt nach dem Akzeptieren der Anfrage, über ein geeignetes Scheduling-Verfahren wie beispielsweise dem Rundlauf-Verfahren (engl. : Round Robin) einen Node aus einem mit dem Hauptserver verbunden Netzwerk aus und ruft eine weitere Instanz, in dem Falle Analysenprozessierung genannt, auf. Unter einem Node versteht man ein elektronisches Gerät in einem
Telekommunikationsnetzwerk welcher sich als Kommunikationsendpunkt aktiv über einen Kommunikationskanal mit dem Hauptserver verbindet um auf Anweisung des Hauptservers hin bestimmte Aufgaben zu übernehmen. Unter einer
Analysenprozessierung versteht man eine alleinstehende Anwendung, welches sich auf einer separaten physikalischen Einheit zu dem Hauptserver befindet. Es ist wesentliche für die Erfindung, dass die separate physikalische Einheit eine gesicherte Ausführungsumgebung, also eine Trusted Execution Environment (bspw. von AMD, Intel) aufweist und diese unterstützt. Die gesicherte
Ausführungsumgebung stellt eine sichere und vertrauenswürdige Laufzeitumgebung für Anwendungen zur Verfügung. Dabei kann die gesicherte Ausführungsumgebung isoliert auf einem separaten Prozessor, direkt auf dem Hauptprozessor eines
Computersystems oder in einem Chip eines Multiprozessor-Systems existieren. Die gesicherte Ausführungsumgebung bietet End-to-End Schutz indem es geschützte Ausführung von autorisiertem Code, Datenschutz, Netzintegrität und eingeschränkte Datenzugriffsrechte unterstützt. Die gesicherte Ausführungsumgebung bietet demnach der Analysenprozessierung eine geeignete Hardwareumgebung, die gesicherte Datenspeicherung und Datenprozessierung möglich macht, und gleichzeitig vor Softwareangriffen schützt, die versuchen in die Anwendung einzugreifen und unberechtigt Zugang zu den Daten der Datenerzeuger zu erlangen.
Die Analysenprozessierung generiert nach Erhalt und Verifizierung der Informationen aus der Anfrage durch den Hauptserver ein zweites Schlüsselpaar dynamisch zur Laufzeit. Das zweite Schlüsselpaar besteht aus einem öffentlichen und privaten Schlüssel. Der öffentliche Schlüssel des zweiten Schlüsselpaars wird zusammen mit Integritätsinformation, wie zum Beispiel der Signatur der ausgeführten Anwendung, Informationen über das - Vorhandensein des - Trusted Execution Environment, von der Analysenprozessierung an den Hauptserver gesendet, woraufhin der
Hauptserver die Integrität der Analysenprozessierung prüft. Sollte die Prüfung der Integrität nicht hinreichend sein, wählt der Hauptserver basierend auf dem definierten Scheduling-Verfahren einen anderen Node aus dem Netzwerk und ruft eine weitere Analysenprozessierung und validiert wie oben beschrieben die
Integritätsinformationen. Dieser Vorgang wird solange wiederholt bis ein geeigneter Node gefunden werden konnte.
Der Hauptserver sucht dann in seinen Datensicherungssystemen anhand des angegebenen Datenmodells nach den entsprechenden Datenerzeugern. Wie in den vorherigen Verfahrensschritten bekannt, werden von allen Datenerzeugern die Größe der Daten bzw. Datensätze durch den Hauptserver erfasst, sobald neue Daten erzeugt werden. DISCLAIMER: Da die Metainformationen ggf. auch sensible Informationen enthalten können, kann je nach Datenmodell auch darauf verzieht werden. Hierbei wird dann jeder Datenerzeuger gefragt. Der Hauptserver, als ein Dritter, kann und darf, um den Datenschutzlinien gerecht zu werden, jedoch keinen Zugriff auf die Daten der Datenerzeuger haben, da diese die Zustimmung des Datenerzeugers bedarf. Danach sendet die Analysenprozessierung den öffentlichen Schlüssel des zweiten Schlüsselpaars an den Datenerzeuger, sodass der
Datenerzeuger die angefragten Daten vor einer Übertragung zum Hauptserver und dann zur Analysenprozessierung mit dem Schlüssel verschlüsseln kann. Die mit dem öffentlichen Schlüssel des zweiten Schlüsselpaars (auch zweiter öffentlicher
Schlüssel genannt) verschlüsselten Daten werden dann an die
Analysenprozessierung mit der gesicherten Ausführungsumgebung gesandt, sodass nur die auserwählte Analysenprozessierung Zugriff auf die ursprünglichen Daten der Datenerzeuger hat.
Für das Senden des zweiten öffentlichen Schlüssels an die Datenerzeuger, stellt der Hauptserver eine Verbindung zu den Datenerzeugern her. Nachdem die Verbindung initiiert wurde, transferiert der Hauptserver den öffentlichen Schlüssel des zweiten Schlüsselpaars und eine Teilnahmeanfrage an den Datenerzeuger, worin eine Absicht der ursprünglichen Anfrage mitgeliefert ist. Weiterhin beinhaltet die
Teilnahmeanfrage den öffentlichen Schlüssel des ersten Schlüsselpaars, welches dem Anfragenden zugeteilt wurde, um Informationen über den Anfragenden zu geben und diesen zu identifizieren. Der einzigartige digitale Fingerabdruck des öffentlichen Schlüssels des ersten Schlüsselpaares, identifiziert den Anfragenden eindeutig im System und wird an den Hauptserver weitergeleitet um weitere
Informationen (z.B. was für Informationen schon angefragt worden sind) abzurufen. Der Datenerzeuger kann nun die Teilnahme verweigern und den Verfahrensschritt beenden, oder erwidert es mit einer Wallet ID und einen Kostenvoranschlag für seinen Teil der angefragte Daten an den Hauptserver. Nachdem der Hauptserver die Wallet ID und den Kostenvoranschlag des teilnehmenden Datenerzeugers erhalten hat, leitet der Hauptserver diese weiter an die Analysenprozessierung. Die
Analysenprozessierung kann nun feststellen ob der angegebene Kostenvoranschlag des Datenerzeugers eine Teilmenge des Kostenvoranschlags des Anfragenden darstellt und sendet darauf einen Befehl ACK (acknowledged) oder NAK (not acknowledged) zurück an den Hauptserver, der es an die teilnehmenden
Datenerzeuger weiterleitet. Falls der Datenerzeuger ein NAK erhält, endet das Verfahren. Bei einem ACK entschlüsselt der Datenerzeuger seine lokale Datenbank, erstellt eine Kopie der gewünschten Datensätze und verschlüsselt diesen dann mit dem öffentlichen Schlüssel des zweiten Schlüsselpaars und überträgt diese dann an den Hauptserver. Demnach kann nur noch die Analysenprozessierung die Daten einsehen, da es die einzige Instanz ist, die den privaten Schlüssel des zweiten Schlüsselpaars besitzt.
Die Analysenprozessierung überprüft nun ob die Anzahl der erhaltenden Datensätze gleich der Anzahl der angefragten Daten ist, die in der Anfrage spezifiziert wurden.
Ist die Anzahl nicht deckungsgleich, geht die Analysenprozessierung in einen Wartemodus und bei gleicher Anzahl fängt die Analysenprozessierung den Prozess der Analyse an. Dieser Verfahrensschritt fängt mit einem Befehl zur Anfrage von Daten, welches an den Hauptserver gesendet wird, an. Der Hauptserver erwidert den Befehl und transferiert alle betreffenden verschlüsselten Datensätze, die die
Analysenprozessierung mit dem privaten Schlüssel des zweiten Schlüsselpaars in der gesicherten Ausführungsumgebung daraufhin entschlüsselt. Um fehlerhafte Daten zu umgehen, erfordert die Analysenprozessierung einen Sicherheitscode (Algorithmus der auf das Datenmodell angepasst ist) des Hauptservers an, welches die Datenintegrität der einzelnen Datensätze sicherstellt und führt diesen aus. Die Datenerzeuger der fehlerfreien Datensätze werden vom Analysenprozessierung dem Hauptserver mitgeteilt und dieser startet einen Zahlungsvorgang für jeden
überprüften Datenerzeuger. Die Datenerzeuger mit fehlerhaften Datensätze werden im Hauptserver markiert um die Qualität der Datensätze in der Zukunft zu
garantieren.
Parallel zu dem Zahlungsvorgang kann die Analysenprozessierung externe Plug-in Algorithmen von verschiedenen Plug-in Anbietern anfragen. Diese Plug-ins müssen den Anforderungen der Anfrage genügen. Der externe Code/Algorithmus wird von der Analysenprozessierung benutzt um die Daten auf die Art und Weise zu prozessieren, wie es in der Anfrage spezifizierte wurde. Der externe Plug-in kann schon vorher von jedem auf den Hauptserver hochgeladen und der Öffentlichkeit zugänglich gemacht werden. Falls ein Plug-in Code für die Analyse der Daten ausgeführt wird, kann der Anbieter aus dem Budget der Anfrage vergütet werden.
Nachdem die Analysenprozessierung die entschlüsselten Daten analysiert und ein Analysenergebnis erstellt hat, wird dieses mit dem öffentlichen Schlüssel des ersten Schlüsselpaars, welches dem Anfragenden zu Anfang des Verfahrens bereitgestellt wurde, verschlüsselt. Das verschlüsselte Analysenergebnis wird von der
Analysenprozessierung an den Hauptserver zur Einsicht des Anfragenden gesendet. Nach dem Erhalt des verschlüsselten Analysenergebnisses auf der Seite des
Hauptservers leitet die Analysenprozessierung eine Selbstvernichtung ein. Damit werden auch alle Daten innerhalb der Analysenprozessierung unwiderruflich gelöscht. Nur der Anfragende kann nun auf das verschlüsselte Analysenergebnis auf dem Hauptserver zugreifen und diesen mit seinem privaten Schlüssel des ersten Schlüsselpaars entschlüsseln. Somit kann das Analysenergebnis nur vom
Auftragenden und die Daten nur vom Datenerzeuger eingesehen werden um und gewährleistet demnach den Sicherheitsschutz der Daten bei der Verarbeitung von Dritten.
Der angewandte Zahlungsvorgang basiert auf Mikrotransaktionen auf einer sogenannten Blockchain und wird automatisch vom Hauptserver durchgeführt. Das Bezahlen der teilnehmenden Datenerzeuger und der Plug-in Anbieter kann auf sogenannten Smart Contracts basieren. Als Smart Contract (smarte Verträge) bezeichnet man Code, welcher im Blockchain Netzwerk gespeichert, verifiziert und ausgeführt wird. Da diese Programme auf der Blockchain gespeichert sind und in einer für die Blockchain spezifischen VM-Umgebung ausgeführt werden, haben sie einzigartige Eigenschaften im Vergleich zu anderen Programmtypen. Sie sind beispielsweise für alle Beteiligten transparent und unterbrechungssicher. Das Programm an sich wird in der Blockchain aufgezeichnet und ermöglicht eine Speicherung und Transferierung von Kryptowährung, wobei keine weitere Instanz sich in den Vorgang einmischen kann.
Bei einer neuen Anfrage überträgt der Anfragende eine bestimmte Menge an Kryptowährung in den Smart Contract und diese Interaktion ruft eine spezifische Methode im Smart Contract auf, welche einen neue Transaktion initiiert. Der Smart Contract fügt daraufhin einen einzigartigen Identifikator an eine neu erstellte Nachricht hinzu. Der Hauptserver erhält die Anfrage und speichert den Identifikator und wartet daraufhin bis der Block mit der Zahlung des Anfragenden in der
Blockchain verarbeitet wurde, was dem Hauptserver signalisiert, dass das für die Bezahlung aller beteiligten Parteien notwendige Budget nun hinterlegt ist. Die Analysenprozessierung sendet eine Information an den Hauptserver, dass die teilnehmenden Datenerzeuger nun validiert wurden, nachdem sie die Daten mit dem privaten Schlüssel des zweiten Schlüsselpaars entschlüsselt hat. Der Hauptserver ruft daraufhin eine Zahlungsfunktion innerhalb des Smart Contracts auf, in der die Werte der Wallet ID und die Kostenvoranschläge der Datenerzeuger übergeben werden und übersendet den vorher geholten Identifikator. Wesentlich hierbei ist, dass der Hauptserver, der der Eigentümer des Smart Contracts ist, die einzige Instanz darstellt, die die Zahlungsfunktion aufrufen kann, damit keine Manipulation stattfinden kann. Der Smart Contract durchläuft dann alle erhaltenen Einträge von Werten und verwendet das vorher erhaltenden Budget vom Anfragenden um die Datenerzeuger per Mikrotransaktionen zu vergüten. Hiernach ruft der Hauptserver gegebenenfalls eine weitere Zahlungsfunktion für den Plug-in Anbieter auf, die die Werte der Wallet ID der Plug-in Anbieter an den Smart Contract übermittelt und aus dem übrig gebliebenen Budget die Plug-in Anbieter vergütet.
Die Kommunikation der verschiedenen Instanzen (Nutzergerät, Hauptserver, Analysenprozessierung) findet unabhängig vom ausführenden System über eine Netzwerkschnittstelle, basierend auf TCP/IP, statt. Die Verbindung an sich wird mit TLS, welches sich auf das Diffie-Hellman-Verfahren stützt, sichergestellt. Das Diffie- Hellman-Verfahren (DHE), bzw. der Diffie-Hellman-Schlüsselaustausch ist ein Protokoll zur Schlüsselvereinbarung. Es ermöglicht, dass zwei
Kommunikationspartner über eine öffentliche, abhörbare Leitung einen
gemeinsamen geheimen Schlüssel (Shared Secret) vereinbaren können, den nur diese kennen und ein potenzieller Dritter, als Lauscher nicht berechnen kann. Der dadurch vereinbarte Schlüssel wird anschließend verwendet um die zu
transferierenden Daten symmetrisch zu verschlüsseln. Diese sogenannte Forward Secrecy (vorwärts gerichtete Geheimhaltung) kann durch die Verwendung von DHE- RSA, DHE-DSA erreicht werden. Um die Sicherheit der Verbindung zu erhöhen, können Chiffriermethoden basierend auf elliptischen Kurven angewandt werden, welche in ECDHE-RSA, ECDHE-ECDSA benutzt werden um eine Perfect Forward Secrecy (perfekt vorwärts gerichtete Geheimhaltung) zu etablieren.
Um die Integrität aller teilnehmenden Prozesse zu gewährleisten, muss jeglicher Code von einer Zertifizierungsstelle (Certificate Authority) des Hauptservers abgezeichnet werden. Dafür werden Skripte verwendet, die einen kryptografischen Hash benutzen um die Authentizität und Integrität des Codes zu validieren.
Hauptsächlich wird der Hash benutzt um zu verifizieren, dass der Code nicht modifiziert wurde und die richtige Version vorliegt. Sollte dieser Fall nicht vorliegen, wird das Verfahren unterbrochen.
Das erfindungsgemäße Verfahren stellt somit ein Verfahren bereit, welches die Nachteile des Stands der Technik überwindet und den Zugang zu Analyseergebnissen auf der Grundlage verschiedener Arten von Daten aus verschiedenen Quellen ermöglicht, wobei die Privatsphäre der Datenerzeuger gewahrt bleibt und zugleich die Daten selbst vor unberechtigten Zugriff geschützt werden. Das Verfahren wird außerdem allen Richtlinien der europäischen
Datenschutzerklärung gerecht und bietet ferner eine Möglichkeit, die Teilnehmer für ihren Anteil der Daten für die Analysenergebnisse fair zu vergüten.
In einer alternativen Ausführungsform ist die zweite softwarebasierte Schnittstelle in eine Datenschnittstelle und eine Verbindungsstelle unterteilt ist, wobei die
Datenschnittstelle die erzeugten Daten auf Typ und Anzahl prüft und die
Verbindungsschnittstelle eine Verbindung zum Hauptserver aufbaut, wobei der Hauptserver Regeln für eine Konformität der Daten anhand des global gültigen Datenmodells an die zweite softwarebasierte Schnittstelle zurücksendet, damit die Daten in der Datenschnittstelle nach den Regeln der Konformität normiert werden können. Die Normierung hat den Vorteil, dass durch eine Konformität der Daten eine einfachere und sichere, bzw. möglichst fehlerfreie Weiterverarbeitung der Daten gewährleistet ist. Auch ermöglicht es, als Reaktion auf eine Anfrage, eine genauere und schnellere Klassifizierung der Datentypen.
In einer weiteren Ausführungsform ist der Hauptserver eine Cloudanwendung oder eine dezentralisiere Anwendung. Einer der Vorteile von Cloud-Computing ist, dass man jederzeit und mit unterschiedlichen Geräten, egal ob stationär oder mobil, auf den jeweiligen Cloud-Service zugreifen kann. Dezentralisierte Anwendungen haben den Vorteil besonders sicher und zuverlässig zu sein. Datenmanipulation durch Unbefugte können mit dezentralisierten Anwendungen vermieden werden und Zahlungen können transparent durch ein Buchführungssystem, welches als
Distributed-Ledger-Technologie (DLT) bezeichnet wird, nachvollzogen werden.
In einer anderen Ausführungsform wird die Verschlüsselung der lokalen Datenbank auf dem Nutzergerät durch gängige Algorithmen asymmetrisch oder symmetrisch vollzogen um den Datenbestand vor unberechtigten Zugriff zu schützen.
In einer Ausführungsform enthält die Anfrage des Anfragenden den Typ und Anzahl der für das Analysenergebnis benötigten Daten, sowie eine Identifikationskennung von einem ausführenden Algorithmen, sogenannte Plug-ins, wobei die ausführenden Algorithmen von Plug-in Anbieter zur Verfügung gestellt werden, sodass der
Hauptserver die entsprechenden Datenerzeuger und Plug-in Anbieter für die Analyse der Daten des Anfragenden einbeziehen kann. Dies hat den Vorteil, dass eine Flexibilität bei der Wahl der auszuführenden Algorithmen gewährleistet ist, da diese von unabhängigen Hersteller angeboten werden können. Dadurch können
attraktivere Preise durch den Wettbewerb entstehen. Eine Identifikationskennung gewährleistet die Sicherheit dieser externen Algorithmen der Plug-in Anbieter.
In einer weiteren Ausführungsform enthält die Anfrage eine Summe einer Vergütung für das Analyseergebnis, welche zusammen mit einer Wallet ID und einem
Vergütungsanspruch des Datenerzeugers für seine Daten an die
Analysenprozessierung gesendet wird, wobei die Analysenprozessierung überprüft ob der Vergütungsanspruch Teilmenge der Summe der Vergütung für das
Analyseergebnis ist. Demnach kann eine faire Vergütung der der partizipierenden Teilnehmer gewährleistet werden. Daten werden nur von Datenerzeuger erworben, wenn der Preis der Daten im Preis des Angebots enthalten ist, um so Überziehung des Einkaufpreises zu vermeiden.
In einer anderen Ausführungsform erfolgt die Vergütung durch Kryptowährung um einen Verlauf der Vergütung transparent und unverfälschbar zu machen. Dabei ermöglicht nur die Verwendung von Smart Contracts und Kryptowährungen eine sichere und zuverlässige Automatisierung des Verfahrens.
In einer weiteren Ausführungsform stellt der Plug-in Anbieter der
Analysenprozessierung einen ausführenden Algorithmus bereit, der die Daten analysieren kann, wobei der Plug-in Anbieter ein Teil aus der Summe der Vergütung bekommt, wenn der von ihm auf den Hauptserver hochgeladene ausführenden Algorithmus zur Verarbeitung der Daten benutzt wird, ohne dabei einen Zugriff auf die Daten des Datenerzeugers zu bekommen, welches den Datenschutz der Daten bei der Verarbeitung gewährleistet. Diese hat den Vorteil für den Plug-in Anbieter, dass eine Umgebung bereitgestellt wird, in dem der Anbieter seine Skripte
(ausführenden Code/Algorithmus) hochladen kann um Daten zu verarbeiten. Der Plug-in Anbieter selbst braucht demnach keinen direkten Zugriff auf die Daten um die Daten zu vom ausführenden Algorithmus analysieren zu lassen. Somit erfüllt auch der Plug-in Anbieter die Datenschutzrichtlinien und muss ferner nicht selbst Daten organisieren um eine Vergütung für seinen Algorithmus zu bekommen.
Die Aufgabe der Erfindung wird ferner gelöst durch ein System zum
Sicherheitsschutz von Daten eines Datenerzeugers, geeignet für eine Verarbeitung durch einen Dritten nach dem erfindungsgemäßen Verfahren, umfassend:
- Daten, die durch ein Nutzergerät des Datenerzeugers und einer ersten Anwendung aufgenommen werden;
- ein global gültiges Datenmodell, welches über eine zweite softwarebasierte Schnittstelle mit Schnittstelle zur ersten Anwendung abgerufen wird;
- Daten, die über die zweite softwarebasierte Schnittstelle anhand des global gültigen Datenmodells normiert werden;
- normierte Daten, die in einer lokalen verschlüsselten Datenbank gespeichert werden, wobei Anzahl und Typ der verschlüsselten Daten einem Hauptserver mitgeteilt werden;
- eine Analysenprozessierung, die sich auf einer separaten physikalischen
Einheit zu dem Hauptserver befindet und in einer gesicherten
Ausführungsumgebung ausgeführt und aufgerufen wird, wenn der
Hauptserver eine Anfrage erhält, wobei einem Anfragenden vom Hauptserver ein erstes Schlüsselpaar zugeordnet wird;
- ein zweites Schlüsselpaar welches durch die Analysenprozessierung zur Laufzeit dynamisch generiert wird;
- ein öffentlicher Schlüssel aus dem zweiten Schlüsselpaar, welches an den Datenerzeuger gesendet wird, womit der Datenerzeuger die angefragten Daten vor einer Übertragung zum Hauptserver und dann zur
Analysenprozessierung, verschlüsselt;
- verschlüsselte Daten des Datenerzeugers, die über den Hauptserver zurück an die Analysenprozessierung transferiert werden, von wo aus mit einem privaten Schlüssel aus dem zweiten Schlüsselpaar die angefragten Daten innerhalb der gesicherten Ausführungsumgebung entschlüsselt und analysiert werden und ein Analysenergebnis erzeugt wird;
- ein Analysenergebnis, welches mit einem öffentlichen Schlüssel aus dem ersten Schlüsselpaar des Anfragenden verschlüsselt wird und von der Analysenprozessierung an den Hauptserver zur Einsicht des Anfragenden gesendet wird,
wobei das Analyseergebnis nur von dem Anfragenden mit Hilfe eines privaten Schlüssels aus dem ersten Schlüsselpaar entschlüsselt werden kann, sodass das Analysenergebnis nur vom Anfragenden und die Daten nur vom Datenerzeuger eingesehen werden können um somit den Sicherheitsschutz der Daten bei der Verarbeitung von Dritten zu gewährleisten.
Das erfindungsgemäße System stellt somit ein System bereit, welches die Nachteile des Stands der Technik überwindet und den Zugang zu Analyseergebnissen auf der Grundlage verschiedener Arten von Daten aus verschiedenen Quellen ermöglicht, wobei die Privatsphäre der Datenerzeuger gewahrt bleibt und zugleich die Daten selbst vor unberechtigten Zugriff geschützt werden. Das System wird außerdem allen Richtlinien der europäischen Datenschutzerklärung gerecht und bietet ferner eine Möglichkeit, die Teilnehmer für ihren Anteil der Daten für die Analysenergebnisse fair zu vergüten.
Zu beachten hierbei ist, dass das System alle gelehrten Ausführungsformen des erfindungsgemäßen Verfahrens als Teil des erfindungsgemäßen, modularen und automatisieren Systems implementieren kann.
Weitere Vorteile, Besonderheiten und zweckmäßige Weiterbildungen der Erfindung ergeben sich aus den Unteransprüchen und der nachfolgenden Darstellung bevorzugter Ausführungsbeispiele anhand der Abbildungen.
Kurze Beschreibung der Abbildungen
Fig. 1 Verfahren zum Erzeugen von Daten eines Datenerzeugers
Fig. 2 erfindungsgemäße Verfahren zum Schutz von elektronischen Daten im
Zwecke der Datenverarbeitung durch Dritte unter Einbezug transparenter und unterbrechungssicherer Vergütung
Fig. 3 Vergütungsvorgang eines Datenerzeugers und eines Plug-in Anbieters nach dem erfindungsgemäßen Verfahren mit Hilfe von sogenannten Smart
Contracts. Detaillierte Beschreibung der Abbildungen
Figur 1 zeigt gemäß dem ersten Teil des erfindungsgemäßen Verfahrens 100, bzw. System 1000, ein Verfahren zum Erzeugen von Daten 10 eines Datenerzeugers 20. Ein Nutzergerät 40 des Datenerzeugers 20 nimmt Daten 10 durch eine erste
Anwendung 41 auf. Die Aufnahme 410 kann durch verschiedene Quellen 45, 46, 47 erfolgen. Die Aufnahme kann beispielsweise durch eine direkte Eingabe eines Nutzers, bzw. Datenerzeugers in das Nutzergerät 45, oder durch gemessene Daten durch entsprechende Sensoren auf dem Gerät oder in seiner Umgebung 46 erfolgen. Auch durch externe Quellen 47, wie vorhandene Datenbanken aus beispielsweise dem Internet, kann die Datenaufnahme 410 auf das Nutzergerät 40 erfolgen.
Nachdem die erste Anwendung 41 Zugriff auf die Datenquellen 45, 46, 47 gewonnen hat, ruft 420 sie eine Methode in einer Datenschnittstelle 43 einer zweiten
softwarebasierten Schnittstelle 42 auf, um eine neue Speicherung der Daten 10 zu initialisieren. Die Datenschnittstelle 43 triggert automatisch 430 eine
Verbindungsschnittstelle 44, die auch zur zweiten softwarebasierten Schnittstelle 42 gehört, und authentifiziert 440 den Nutzer, bzw. Datenerzeuger 20 und die erste Anwendung 41 auf einem Hauptserver 50. Der Hauptserver 50 validiert die
erhaltenden Informationen und erwidert 450 mit einem global gültigen Datenmodell 52, welches an die Datenschnittstelle 43 geleitet wird. Das Datenmodell wird benutzt um die Daten 10 nach einer Konformität zu normieren bevor es gespeichert wird.
Die Normierung erfolgt 460 in der Datenschnittstelle 43. Sobald die Daten 10 mit Referenz auf das Datenmodell 52 normiert wurden, erstellt die Datenschnittstelle 43 eine Verbindung zu einer lokalen Datenbank 48 her und fragt den Nutzer 20 nach einem Sicherheitsschlüssel. Der Sicherheitsschlüssel ist typischerweise auf einem Nutzergerät 40 gespeichert und durch ein Passwort geschützt. Daraufhin
verschlüsselt 470 die Datenschnittstelle 43 die Daten 10 und fügt diese in die lokale Datenbank ein 470. Wenn die Daten 10 erfolgreich in der lokalen Datenbank 44 gespeichert sind, löst die Datenschnittstelle 43 die Verbindungsschnittstelle 44 aus, welche dann eine Nachricht an den Hauptserver 50 schickt 480, worin die
Information über den Typ (gemäß dem Datenmodell) und Anzahl der Datensätze 10, die gespeichert wurden, enthalten sind.
Figur 2 zeigt ein erfindungsgemäßes Verfahren 100, bzw. System 1000 zum Schutz von elektronischen Daten im Zwecke der Datenverarbeitung durch Dritte 30 unter Einbezug transparenter und unterbrechungssicherer Vergütung. Eine Anfrage 32 eines Anfragenden 34 nach einem Analysenergebnis 62 stellt einen ersten Schritt 510 des Verfahrens 100 dar. Der Anfragender 32 muss sich zunächst auf einer Plattform, verbunden mit dem Hauptserver 50 registrieren um ein erstes
Schlüsselpaar zu erhalten 520. Das erste Schlüsselpaar besteht aus einem
öffentlichen und einen privaten Schlüssel. Diese werden vom Hauptserver 50 den Anfragenden 32 zur Verfügung gestellt 520. Auf den privaten Schlüssel des ersten Schlüsselpaars kann nur vom Anfragenden 32 zugegriffen werden. Die Anfrage 34 muss eine Absicht spezifizieren. Die Anfrage 34 muss bezogen auf das global gültige Datenmodell 52 eine Auswahl (z.B. Anzahl und Typ) der zu sammelnden und analysierenden Daten 10 von Datenerzeugern 20 enthalten.
Der Hauptserver 50 ruft nach dem Akzeptieren der Anfrage 34 eine
Analysenprozessierung 60 auf 530. Die Analysenprozessierung 60 verfügt über eine gesicherte Ausführungsumgebung. Die Analysenprozessierung 60 generiert nach Erhalt und Verifizierung der Informationen aus der Anfrage 34 durch den Hauptserver 50 ein zweites Schlüsselpaar dynamisch zur Laufzeit 610. Das zweite Schlüsselpaar besteht aus einem öffentlichen und privaten Schlüssel.
Der Hauptserver 50 sucht dann in seinen Datenbanken anhand des angegebenen Datenmodells 52 nach den entsprechenden Datenerzeugern 20. Wie in den vorherigen Verfahrensschritten 410 - 450 aus Figur 1 bekannt, werden von allen Datenerzeugern 20 die Größe der Daten bzw. Datensätze 10 durch den Hauptserver 50 erfasst, sobald neue Daten 10 erzeugt werden. Danach sendet 620 die
Analysenprozessierung 60 den öffentlichen Schlüssel des zweiten Schlüsselpaars an den Datenerzeuger 20, sodass der Datenerzeuger 20 die angefragten Daten vor einer Übertragung zum Hauptserver 50 und dann zur Analysenprozessierung 60 mit selbigem Schlüssel verschlüsseln kann 210. Die mit dem öffentlichen Schlüssel des zweiten Schlüsselpaars verschlüsselten Daten werden dann an die
Analysenprozessierung 60 mit der gesicherten Ausführungsumgebung gesandt 220, sodass nur die auserwählte Analysenprozessierung 60 Zugriff auf die ursprünglichen Daten 10 der Datenerzeuger 20 hat. Die Analysenprozessierung überprüft nun ob die Anzahl der erhaltenden Datensätze gleich der Anzahl der angefragten Daten ist, die in der Anfrage spezifiziert wurden.
Ist die Anzahl nicht deckungsgleich, geht die Analysenprozessierung 60 in einen Wartemodus. Bei gleicher Anzahl transferiert 220 der Hauptserver 50 alle
angesprochenen verschlüsselten Datensätze 10 an die Analysenprozessierung 60, die die Analysenprozessierung 60 dann mit dem privaten Schlüssel des zweiten Schlüsselpaars in der gesicherten Ausführungsumgebung entschlüsselt 630.
Nachdem die Analysenprozessierung die entschlüsselten Daten analysiert 640 und ein Analysenergebnis 62 erstellt hat, wird dieser mit dem öffentlichen Schlüssel des ersten Schlüsselpaars, welches dem Anfragenden zu Anfang des Verfahrens bereitgestellt wurde, verschlüsselt. Das verschlüsselte Analysenergebnis wird von der Analysenprozessierung an den Hauptserver zur Einsicht des Anfragenden gesendet 650. Nach dem Erhalt des verschlüsselten Analysenergebnisses 62 auf der Seite des Hauptservers 50 leitet die Analysenprozessierung 60 eine
Selbstvernichtung ein. Damit werden auch alle Daten 10 innerhalb der
Analysenprozessierung 60 unwiderruflich gelöscht. Nur der Anfragende 32 kann nun auf das verschlüsselte Analysenergebnis 62 auf dem Hauptserver 50 zugreifen und diesen mit seinem privaten Schlüssel des ersten Schlüsselpaares entschlüsseln. Somit kann das Analysenergebnis 62 nur vom Auftragenden 32 und die Daten 10 nur vom Datenerzeuger 20 eingesehen werden um und gewährleistet demnach den Sicherheitsschutz der Daten 10 bei der Verarbeitung von Dritten 30.
Figur 3 zeigt einen Vergütungsvorgang eines Datenerzeugers 20 und eines Plug-in Anbieters 70 nach dem erfindungsgemäßen Verfahren 100 mit Hilfe von Smart Contracts 80 in einer dezentralisierten Anwendung 1. Bei einer neuen Anfrage 34 überträgt 310 der Anfragende 32 eine bestimmte Menge an Kryptowährung in den Smart Contract 80 und diese Interaction ruft eine spezifische Methode im Smart Contract auf, welches einen neuen Zahlungsvorgang initiiert. Der Smart Contract an sich erwidert daraufhin die kleinstmögliche Summe der Kryptowährung und fügt einen einzigartigen Identifikator an eine neu erstellte Nachricht hinzu 810. Der Hauptserver 50 erhält die Anfrage 34 und wartet bis der Block mit der Zahlung des Anfragenden 32 vom Netzwerk erhalten wird 540. Daraufhin speichert der
Hauptserver 50 den Identifikator. Die Analysenprozessierung sendet eine Information an den Hauptserver, dass die teilnehmenden Datenerzeuger nun validiert wurden, nachdem sie die Daten mit dem privaten Schlüssel des zweiten Schlüsselpaars entschlüsselt hat. Der Hauptserver ruft daraufhin eine Zahlungsfunktion innerhalb des Smart Contracts auf, in der die Werte der Wallet ID und die Kostenvoranschläge der Datenerzeuger übergeben werden und übersendet den vorher geholten
Identifikator 550. Wesentlich hierbei ist, dass der Hauptserver 50, der der Eigentümer des Smart Contracts 80 ist, die einzige Instanz darstellt, die die Zahlungsfunktion aufrufen kann, damit keine Manipulation stattfinden kann. Der Smart Contract durchläuft dann alle erhaltenen Einträge von Werten und verwendet das vorher erhaltenden Budget 310 vom Anfragenden 32 um die Datenerzeuger 20 per
Mikrotransaktionen zu vergüten 820. Hiernach ruft der Hauptserver 50 eine weitere Zahlungsfunktion für den Plug-in Anbieter 70 auf, die die Werte der Wallet ID der Plug-in Anbieter 70 an den Smart Contract 80 übermittelt 560 und aus dem übrig gebliebenen Budget die Plug-in Anbieter 70 vergütet 830.
Die hier gezeigten Ausführungsformen stellen nur Beispiele für die vorliegende Erfindung dar und dürfen daher nicht einschränkend verstanden werden. Alternative durch den Fachmann in Erwägung gezogene Ausführungsformen sind
gleichermaßen vom Schutzbereich der vorliegenden Erfindung umfasst.
Bezugszeichenliste
1 dezentralisierte Anwendung
10 Daten
20 Datenerzeuger
30 ein Dritter
32 Anfrage
34 Anfragender
40 Nutzergerät
41 erste Anwendung
42 zweite softwarebasierte Schnittstelle
43 Datenschnittstelle
44 Verbindungsschnittstelle
45 direkte Eingabe eines Nutzers
46 gemessene Daten durch Sensoren
47 externe Datenquellen
48 lokale Datenbank
50 Hauptserver
52 global gültiges Datenmodell
60 Analysenprozessierung
62 Analysenergebnis
70 Plug-In Anbieter
80 Smart Contract
100 erfindungsgemäßes Verfahren
210 Verschlüsselung der Daten des Datenerzeugers mit öffentlichen Schlüssel eines zweiten Schlüsselpaars
220 Senden der verschlüsselten Daten des Datenerzeugers an die
Analysenprozessierung
310 Übertragung Kryptowährung in den Smart Contract
410 Aufnahme von Daten in die erste Anwendung des Nutzergerätes
420 Aufrufen zweite softwarebasierte Schnittstelle des Nutzergerätes
430 automatisches Auslösen einer Verbindungsschnittstelle innerhalb der zweiten softwarebasierten Schnittstelle des Nutzergerätes 440 Authentifizierung des Datenerzeugers und der ersten Anwendung auf einem Hauptserver
450 Senden eines global gültigen Datenmodells vom Hauptserver an die zweite softwarebasierte Schnittstelle des Nutzergerätes
460 Normierung der Daten in der zweiten softwarebasierten Schnittstelle
470 Verschlüsselung und Speicherung der normierten Daten in eine lokale
Datenbank auf dem Nutzergerät
480 Senden von Informationen über Typ und Anzahl der gespeicherten
Datensätze an den Hauptserver
510 Anfrage an den Hauptserver nach einem Analysenergebnis
520 Vergabe eines ersten Schlüsselpaars vom Hauptserver an den Anfragenden
530 Aufrufen der Analysenprozessierung
540 Warten auf Erhalt eines Blocks mit Zahlung des Anfragenden
550 Übersenden des Identifikators
560 Übermittelung der Wallet ID des Plug-in Anbieters an Smart Contract
610 dynamisches Generieren eines zweiten Schlüsselpaars zur Laufzeit
620 Senden des öffentlichen Schlüssels aus dem zweiten Schlüsselpaar an den Datenerzeuger
630 Entschlüsselung der Daten des Datenerzeugers durch die
Analysenprozessierung
640 Analyse der entschlüsselten Daten des Datenerzeugers durch die
Analysenprozessierung
650 Senden des verschlüsselten Analysenergebnisses an den Anfragenden
810 Senden einer Nachricht mit Identifikator
820 Vergüten des Datenerzeugers
830 Vergüten des Plug-in Anbieters
1000 erfindungsgemäßes System

Claims

Patentansprüche
1. Ein Verfahren (100) zum Sicherheitsschutz von Daten (10) eines Datenerzeugers (20), geeignet für eine Verarbeitung durch einen Dritten (30), umfassend:
- Aufnahme (410) der Daten (10) durch ein Nutzergerät (40) des
Datenerzeugers (20) und eine erste Anwendung (41 );
- Abrufen (450) eines global gültigen Datenmodells (52) über eine zweite softwarebasierte Schnittstelle (42) mit Schnittstelle zur ersten Anwendung (41 );
- Normieren (460) der Daten (10) über eine zweite softwarebasierte
Schnittstelle (42) anhand des global gültigen Datenmodells (52);
- Speicherung (470) der normierten Daten in einer lokalen verschlüsselten
Datenbank (48), wobei Anzahl und Typ der verschlüsselten Daten einem Hauptserver (50) mitgeteilt werden (480);
- Aufrufen (530) einer Analysenprozessierung (60), welche sich auf einer separaten physikalischen Einheit zu dem Hauptserver (50) befindet und in einer gesicherten Ausführungsumgebung ausgeführt wird, wenn der
Hauptserver (50) eine Anfrage (32) erhält (510), wobei einem Anfragenden (34) vom Hauptserver (50) ein erstes Schlüsselpaar (36) zugeordnet wird (520);
- dynamisches Generieren (610) eines zweiten Schlüsselpaars (22) durch die Analysenprozessierung (60) zur Laufzeit;
- Senden (620) eines öffentlichen Schlüssels (24) aus dem zweiten
Schlüsselpaar (22) an den Datenerzeuger (20), womit der Datenerzeuger (20) die angefragten Daten vor einer Übertragung zum Hauptserver (50) und dann zur Analysenprozessierung (60), verschlüsselt (210);
- Transferieren (220) der verschlüsselten Daten über den Hauptserver (50) zurück an die Analysenprozessierung (60), von wo aus mit einem privaten Schlüssel (26) aus dem zweiten Schlüsselpaar (22) die angefragten Daten innerhalb der gesicherten Ausführungsumgebung entschlüsselt (630) und analysiert werden und ein Analysenergebnis (62) erzeugt wird (640);
- Senden (650) des Analysenergebnisses (62), welches mit einem öffentlichen Schlüssel (38) aus dem ersten Schlüsselpaar (36) des Anfragenden (34) verschlüsselt wird, der Analysenprozessierung (60) an den Hauptserver (50) zur Einsicht des Anfragenden (34), wobei nur der Anfragende (34) mit Hilfe eines privaten Schlüssels (39) aus dem ersten Schlüsselpaar (36) das Analyseergebnis (62) entschlüsseln kann, sodass das Analysenergebnis (62) nur vom Anfragenden (34) und die Daten (10) nur vom Datenerzeuger (20) eingesehen werden können, um somit den Sicherheitsschutz der Daten (10) bei der Verarbeitung von Dritten (30) zu gewährleisten.
2. Das Verfahren (100) nach Anspruch 1 ,
dadurch gekennzeichnet,
dass die zweite softwarebasierte Schnittstelle (42) in eine Datenschnittstelle (43) und eine Verbindungsstelle (44) unterteilt ist, wobei die Datenschnittstelle (43) die erzeugten Daten auf Typ und Anzahl prüft und die Verbindungsschnittstelle (44) eine Verbindung zum Hauptserver (50) aufbaut, wobei der Hauptserver (50) Regeln für eine Konformität der Daten anhand des global gültigen Datenmodells (52) an die zweite softwarebasierte Schnittstelle (42) zurücksendet, damit die Daten in der Datenschnittstelle (43) nach den Regeln der Konformität normiert werden können.
3. Das Verfahren (100) nach Anspruch 1 und 2,
dadurch gekennzeichnet,
dass der Hauptserver (50) eine Cloudanwendung oder eine dezentralisiere Anwendung (1 ) ist.
4. Das Verfahren (100) nach einen der vorangehenden Ansprüche
dadurch gekennzeichnet,
dass die Verschlüsselung der Datenbank (48) durch gängige Algorithmen asymmetrisch oder symmetrisch vollzogen werden.
5. Das Verfahren (100) nach einen der vorangehenden Ansprüche
dadurch gekennzeichnet,
dass die Anfrage (32) den Typ und Anzahl der für das Analysenergebnis (62) benötigten Daten (10), sowie eine Identifikationskennung von einem ausführenden Algorithmen, sogenannte Plug-ins, enthält, wobei die ausführenden Algorithmen von Plug-in Anbieter (70) zur Verfügung gestellt werden, sodass der Hauptserver (50) die entsprechenden Datenerzeuger (20) und Plug-in Anbieter (70) für die Analyse der Daten (10) des Anfragenden (34) einbeziehen kann.
6. Das Verfahren (100) nach Anspruch 5
dadurch gekennzeichnet,
dass die Anfrage (32) eine Summe einer Vergütung für das Analyseergebnis (62) enthält, welche zusammen mit einer Wallet ID und einem Vergütungsanspruch des Datenerzeugers (20) für seine Daten (10) an die Analysenprozessierung (60) gesendet wird, wobei die Analysenprozessierung (60) überprüft ob der
Vergütungsanspruch Teilmenge der Summe der Vergütung für das
Analyseergebnis (62) ist.
7. Das Verfahren (100) nach einen der vorangehenden Ansprüche
dadurch gekennzeichnet,
dass die Vergütung durch Kryptowährung erfolgt um einen Verlauf der Vergütung transparent und unverfälschbar zu machen.
8. Das Verfahren (100) nach den Ansprüchen 5 und 6
dadurch gekennzeichnet,
dass der Plug-in Anbieter (70) der Analysenprozessierung (60) einen
ausführenden Algorithmus bereitstellt, der die Daten (10) analysieren kann, wobei der Plug-in Anbieter (70) ein Teil aus der Summe der Vergütung bekommt, wenn der von ihm auf den Hauptserver (50) hochgeladene ausführenden Algorithmus zur Verarbeitung der Daten (10) benutzt wird, ohne dabei einen Zugriff auf die Daten (10) des Datenerzeugers (20) zu bekommen, welches den Datenschutz der Daten (10) bei der Verarbeitung gewährleistet.
9. Ein System (1000) zum Sicherheitsschutz von Daten (10) eines Datenerzeugers
(20), geeignet für eine Verarbeitung durch einen Dritten (30) nach dem
erfindungsgemäßen Verfahren (100) in Anspruch 1 , umfassend:
- Daten (10), die durch ein Nutzergerät (40) des Datenerzeugers (20) und einer ersten Anwendung (41 ) aufgenommen werden; - ein global gültiges Datenmodell (52), welches über eine zweite
softwarebasierte Schnittstelle (42) mit einer Schnittstelle zur ersten
Anwendung (41 ) abgerufen wird;
- Daten (10), die über die zweite softwarebasierte Schnittstelle (42) anhand des global gültigen Datenmodells (52) normiert werden;
- normierte Daten, die in einer lokalen verschlüsselten Datenbank (48) gespeichert werden, wobei Anzahl und Typ der verschlüsselten Daten einem Hauptserver (50) mitgeteilt werden;
- eine Analysenprozessierung (60), die sich auf einer separaten physikalischen Einheit zu dem Hauptserver (50) befindet und in einer gesicherten
Ausführungsumgebung ausgeführt und aufgerufen wird, wenn der
Hauptserver (50) eine Anfrage (32) erhält, wobei einem Anfragenden (34) vom Hauptserver (50) ein erstes Schlüsselpaar zugeordnet wird;
- ein zweites Schlüsselpaar welches durch die Analysenprozessierung (60) zur Laufzeit dynamisch generiert wird;
- ein öffentlicher Schlüssel aus dem zweiten Schlüsselpaar, welches an den Datenerzeuger (20) gesendet wird, womit der Datenerzeuger (20) die angefragten Daten vor einer Übertragung zum Hauptserver (50) und dann zur Analysenprozessierung (60), verschlüsselt;
- verschlüsselte Daten des Datenerzeugers (20), die über den Hauptserver (50) zurück an die Analysenprozessierung (60) transferiert werden, von wo aus mit einem privaten Schlüssel aus dem zweiten Schlüsselpaar die angefragten Daten innerhalb der gesicherten Ausführungsumgebung entschlüsselt und analysiert werden und ein Analysenergebnis (62) erzeugt wird;
- ein Analysenergebnis (62), welches mit einem öffentlichen Schlüssel aus dem ersten Schlüsselpaar des Anfragenden (34) verschlüsselt wird und von der Analysenprozessierung (60) an den Hauptserver (50) zur Einsicht des
Anfragenden (34) gesendet wird,
wobei das Analyseergebnis (62) nur von dem Anfragenden (34) mit Hilfe eines privaten Schlüssels aus dem ersten Schlüsselpaar entschlüsselt werden kann, sodass das Analysenergebnis (62) nur vom Anfragenden (34) und die Daten (10) nur vom Datenerzeuger (20) eingesehen werden können um somit den
Sicherheitsschutz der Daten (10) bei der Verarbeitung von Dritten (30) zu gewährleisten.
PCT/EP2019/057106 2018-03-22 2019-03-21 Automatisiertes verfahren zum schutz von elektronischen daten zum zwecke der datenverarbeitung durch dritte unter einbezug transparenter und unterbrechungssicherer vergütung WO2019180152A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018204447.3 2018-03-22
DE102018204447.3A DE102018204447B4 (de) 2018-03-22 2018-03-22 Automatisiertes Verfahren zum Schutz von elektronischen Daten zum Zwecke der Datenverarbeitung durch Dritte unter Einbezug transparenter und unterbrechungssicherer Vergütung

Publications (1)

Publication Number Publication Date
WO2019180152A1 true WO2019180152A1 (de) 2019-09-26

Family

ID=65904427

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2019/057106 WO2019180152A1 (de) 2018-03-22 2019-03-21 Automatisiertes verfahren zum schutz von elektronischen daten zum zwecke der datenverarbeitung durch dritte unter einbezug transparenter und unterbrechungssicherer vergütung

Country Status (2)

Country Link
DE (1) DE102018204447B4 (de)
WO (1) WO2019180152A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11301582B2 (en) 2020-01-06 2022-04-12 Snplab Inc. Personal information management device, system, method and computer-readable non-transitory medium therefor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000075888A1 (en) 1999-06-03 2000-12-14 Global Payment Advisors An automated payment system for execution and settlement of network purchase transactions
US20100106980A1 (en) * 2008-10-17 2010-04-29 Sap Ag Searchable encryption for outsourcing data analytics
US20160132692A1 (en) * 2014-11-06 2016-05-12 Florian Kerschbaum Searchable encryption for infrequent queries in adjustable encrypted databases
US20170085535A1 (en) * 2012-09-18 2017-03-23 Koninklijke Philips N.V. Controlling access to clinical data analyzed by remote computing resources
WO2017136956A1 (en) * 2016-02-12 2017-08-17 Royal Bank Of Canada Methods and systems for digital reward processing

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10129211B2 (en) 2011-09-15 2018-11-13 Stephan HEATH Methods and/or systems for an online and/or mobile privacy and/or security encryption technologies used in cloud computing with the combination of data mining and/or encryption of user's personal data and/or location data for marketing of internet posted promotions, social messaging or offers using multiple devices, browsers, operating systems, networks, fiber optic communications, multichannel platforms
US9374703B2 (en) 2013-12-12 2016-06-21 International Business Machines Corporation Customizable serviceability mechanism
US20160328808A1 (en) 2015-05-06 2016-11-10 Kemeera Inc. Dba Fathom Data aggregation and analytics for digital manufacturing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000075888A1 (en) 1999-06-03 2000-12-14 Global Payment Advisors An automated payment system for execution and settlement of network purchase transactions
US20100106980A1 (en) * 2008-10-17 2010-04-29 Sap Ag Searchable encryption for outsourcing data analytics
US20170085535A1 (en) * 2012-09-18 2017-03-23 Koninklijke Philips N.V. Controlling access to clinical data analyzed by remote computing resources
US20160132692A1 (en) * 2014-11-06 2016-05-12 Florian Kerschbaum Searchable encryption for infrequent queries in adjustable encrypted databases
WO2017136956A1 (en) * 2016-02-12 2017-08-17 Royal Bank Of Canada Methods and systems for digital reward processing

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11301582B2 (en) 2020-01-06 2022-04-12 Snplab Inc. Personal information management device, system, method and computer-readable non-transitory medium therefor
US11645417B2 (en) 2020-01-06 2023-05-09 Snplab Inc. Personal information management device, system, method and computer-readable non-transitory medium therefor

Also Published As

Publication number Publication date
DE102018204447B4 (de) 2019-12-19
DE102018204447A1 (de) 2019-09-26

Similar Documents

Publication Publication Date Title
DE102019122933A1 (de) Blockchain-basierter austausch digitaler daten
DE60315726T2 (de) Verfahren zum sicherstellen von anonymität in einer elektronischen transaktion mittels sitzungsschlüsselblöcken
DE102019123253A1 (de) System und einrichtung für datenvertraulichkeit im distributed ledger
DE112016006077B4 (de) Systeme und verfahren zur bereitstellung einer blockketten-basierten multifaktor-identitätsprüfung von personen
DE112011100182B4 (de) Datensicherheitsvorrichtung, Rechenprogramm, Endgerät und System für Transaktionsprüfung
DE69736310T2 (de) Erzeugung und Verteilung digitaler Dokumente
DE69736696T2 (de) Netzwerk-Daten-Ubertragungssystem
EP3033855B1 (de) Unterstützung einer entschlüsselung von verschlüsselten daten
DE102016100494A1 (de) Sichere Identitätsauthentifizierung in einer elektronischen Transaktion
WO2000013371A1 (de) System und verfahren zur ablaufkontrolle bei netzwerk-anwendungen
EP2585963A1 (de) Verfahren zur erzeugung eines zertifikats
EP1209579A1 (de) System zur automatisierten Abwicklung von Transaktionen durch aktives Identitätsmanagement
WO2020212337A1 (de) Verfahren zum direkten übertragen von elektronischen münzdatensätzen zwischen endgeräten sowie bezahlsystem
WO2015149976A1 (de) Verteiltes authentifizierungssystem und -verfahren
DE112021001413T5 (de) Verwaltung eines privilegierten zugriffs mit geringer vertrauenswürdigkeit
DE10296511T5 (de) Verfahren und Einrichtung zum Überwachen der Benutzung eines Programms
DE112021001671T5 (de) Netzübergreifendes bereitstellen von identitäten
DE112021002053T5 (de) Verrauschte Transaktion zum Schutz von Daten
DE102021122557A1 (de) Konformitätsmechanismen in blockchain-netzwerken
DE112022000906T5 (de) Trennen von blockchain-daten
DE60029508T2 (de) Informationverteilungs- und Empfangsverfahren, Gerät und Rechnerprogrammprodukt
DE112021006165T5 (de) Schlüsselwiederherstellung in einem blockchain-netzwerk mit oprf
WO2019180152A1 (de) Automatisiertes verfahren zum schutz von elektronischen daten zum zwecke der datenverarbeitung durch dritte unter einbezug transparenter und unterbrechungssicherer vergütung
EP3857405A1 (de) Datenbanksystem für ein soziales netzwerk mit verwendung von blockchain-technologie
EP4315117A1 (de) Verfahren und vorrichtung zum erzeugen, bereitstellen und weitergeben eines vertrauenswürdigen elektronischen datensatzes oder zertifikates basierend auf einem einen nutzer betreffenden elektronischen dokument

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19712986

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19712986

Country of ref document: EP

Kind code of ref document: A1