WO2020125840A1 - Elektronisches element und elektrisch angesteuertes anzeigeelement - Google Patents

Elektronisches element und elektrisch angesteuertes anzeigeelement Download PDF

Info

Publication number
WO2020125840A1
WO2020125840A1 PCT/DE2019/000340 DE2019000340W WO2020125840A1 WO 2020125840 A1 WO2020125840 A1 WO 2020125840A1 DE 2019000340 W DE2019000340 W DE 2019000340W WO 2020125840 A1 WO2020125840 A1 WO 2020125840A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
software
display element
computer
data
Prior art date
Application number
PCT/DE2019/000340
Other languages
English (en)
French (fr)
Inventor
Udo Tünte
Original Assignee
GRID INVENT gGmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GRID INVENT gGmbH filed Critical GRID INVENT gGmbH
Publication of WO2020125840A1 publication Critical patent/WO2020125840A1/de

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/78Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer to assure secure storage of data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F27/00Combined visual and audible advertising or displaying, e.g. for public address
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/50Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols using hash chains, e.g. blockchains or hash trees
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S40/00Systems for electrical power generation, transmission, distribution or end-user application management characterised by the use of communication or information technologies, or communication or information technology specific aspects supporting them
    • Y04S40/20Information technology specific aspects, e.g. CAD, simulation, modelling, system security

Definitions

  • the object of this invention is to propose new areas of application for the use of screens / displays and to offer a technical solution for this which leads to useful and helpful innovations in many areas of life.
  • the invention shows how screen displays can be manufactured in a very thin construction and can be operated from another location by the wireless control by means of an external computer / computer. This will make entirely new fields of application possible that do not yet exist according to the current state of the art, e.g. a digital vehicle license plate that is controlled and monitored by the road traffic office or, for example, a furniture surface, designed as a screen display with virtual wood decors that are controlled from the smartphone.
  • the current state of the art in smartphones has at least a total thickness of 4.6 mm, that is, the outer dimensions of the housing. According to the computer magazine Chip dated March 19, 2017, this is the smartphone product: Carbon Mobile. That means the structural arrangement of memory and processor and an accumulator / battery and the screen display according to the current state of the art require this height. At the time of this patent application, there are no thinner smartphones or e-pads on the market.
  • the basic idea of the invention is to use an electrically controlled display element for the optical signaling of variable information such as characters or images with an integrated electronic element with processor and memory function, characterized in that the control via a wireless connection from an external computer / Computer takes place and the display element has a thickness, that is, outer housing dimension, from 0.3 to 4.5 mm, the electronic element having a maximum thickness of 1 mm.
  • the electronic element consists of at least one hardware element and / or software and / or app application.
  • the electronic element consists of an exchangeable physical chip card and / or a built-in physically non-exchangeable chip card and / or an element having a function identical to the chip card.
  • the novelty of the invention is to control the electrically controlled display element via a wireless connection from an external computer / computer in order to remotely transmit and display variable information such as characters or images on a screen at another location.
  • the invention proposes that the display element be made very thin, with a thickness of 0.3-4.5 mm.
  • the wireless connection can consist of a radio and / or light (LiFi) and / or ultrasound network.
  • the electronic element also has an identification and / or authentication function of a user in a digital network.
  • the wireless connection is preferably made via a radio connection based on a G-frequency radio connection, preferably based on 3G and / or 4 G and / or 5G and / or a mobile radio connection and / or based on a Bluetooth and / or WLAN , and / or WIFI and / or LiFi and / or satellite connection (GPS).
  • the channel bandwidth of the radio connection is in the range from 100 MHz to 100 GHz, preferably 800 MHz to 30 GHz, in particular 3 GHz to 6 GHz.
  • the electronic element is e.g. a preconfigured 3G or 4G. or 5 G SIM card, which automatically turns on when switched on via radio connection to control the display element, i.e. screen displays, with the external computer, e.g. connects a smartphone and is immediately ready for use.
  • Each display element contains, for example, a 3 G sim card with a unique connection code, the so-called association token: Example 8-character code: e.g. AC1 1 -GE4S-P3, which only exists for this one display element.
  • a separate email address can be assigned to the display element.
  • the 3G SIM card works e.g. internationally in over 100 countries and also has a GPS function.
  • the electronic element preferably has a maximum format of
  • the electronic element preferably has a thickness of at most 1 mm, preferably a thickness of at least 0.3-1 mm, in particular 0.76 mm and / or 0.67 mm, and preferably has a storage capacity of at least 128 gigabytes.
  • the display element and / or hardware element has at least one camera and / or video camera and / or scan function and / or sensor function and / or infra- red light function and / or speaker function and / or microphone function and / or sound card.
  • the sensor function records physical, chemical and material properties quantitatively or qualitatively, preferably with a measuring function for temperature, amount of heat, moisture, pressure, weight, distance measurement, rain sensor, sound, brightness, acceleration, pH value, ionic strength, electrochemical potential and / or the quality of the material is recorded qualitatively.
  • the electrically controlled display consists of a screen and / or screen and / or display, in particular a smart display, and / or monitor and / or touch screen surface or a projected surface.
  • the display technology of the electrically controlled display is preferably based on the technology of light emitting diodes (LED), field emission screen (FED) and / or liquid crystal screen (LCD) and / or thin film transistor screen (TFT-LCD) and / or cathode ray tube screen (CRT) and / or Plasma screen and / or organic light emitting diode (OLED), SOLED or SMOLED - foil displays, PLED, AMOLED (active matrix OLED) or Super AMOLED +, and / or surface conduction electron emitter display (SED) and (or QLED and / or Micro LED (microscopic light-emitting diodes and / or HDR (high dynamic range) and / or electronic ink and / or e-paper generated.
  • LED light emitting diodes
  • FED field emission screen
  • LCD liquid crystal screen
  • TFT-LCD thin film transistor screen
  • CRT cathode ray tube screen
  • OLED organic light emitting diode
  • the display technology of the electrically controlled display is preferably based on technology of micro LED pixels, preferably with a resolution of at least 7680 x4320 pixels and
  • a film display based on a film in particular on the basis of petrochemical and / or biopolymer plastics, is used and / or organic substances is used, the film having a thickness of preferably 20 to 1000 ml, in particular 20 to 100 ml.
  • the film has printed electronics.
  • the power supply to the electrically controlled display element is preferably wireless and / or wired on a technical basis, based on a connection to the power supply and / or an accumulator and / or induction current and / or by radio current, the accumulator having a maximum thickness of 0.3 to 4.5 mm.
  • a screen display can have three-dimensional deformations, and in particular can be rolled and / or folded.
  • the outer shape of the display element is preferably designed on the basis of geometric and / free shapes, preferably from rectangle, square, circle, ellipse, triangle, polygon, parabola, free-form elements and their possible combinations.
  • the use of metal coatings and functional foils is proposed for the production of the electrically controlled display element, in particular for the production of semiconductor electronic and micro technology elements.
  • the production types and methods and embodiments proposed here are particularly economical to produce in large quantities.
  • metal coating a film or carrier film, for example, electrical interconnects can be produced.
  • the metal coating and / or the support foils can be provided both fully and partially. It can be advantageous to use several layers, ie as a composite layer, with metallized layers Arrange foils on top of each other in order to realize different electronic circuits with which miniaturized LED or OLED lights or also foil loudspeakers are operated, which can also be integrated into the composite layer, for example in the form of functional foils.
  • the metal coating can also be used to produce miniaturized electronic circuits, in particular integrated circuits, in the form and on the basis of functional film / s.
  • Circuits based on organic and metallic materials can also be applied to organic foils using thin-film technology (e.g. using PVD, CVD, OPVD (organic vapor deposition) processes or also using traditional printing techniques (inkjet, screen printing, micro-contact stamp printing with metallic material), or also by spin coating.
  • Integrated optoelectronic systems can also be manufactured, e.g. Actuators (transmitters) and detectors (receivers) or optosensors, optocouplers or optical modulators, such as Photo resistor, photodiode (also solar cell) and photo transistor, light sensors.
  • the semimetal silicon (Si) or germanium (Ge) or silicon-containing compounds, in particular semiconductor silicon or solar silicon, are preferably used for the metallic layer in the aforementioned examples from microelectronics and optoelectronics. Or, preferably in optoelectronics, also conductive coatings made of TCOs (transparent transparent oxides), such as indium tin oxide nanoparticles (ITO). These have the advantage of being transparent and can also be designed to be flexible, and can be used as electrodes in optoelectronic applications, such as flat screens, touch screens, displays, in particular flexible displays, organic light-emitting diodes, electro-luminescent lamps or also in components from solar technology.
  • TCOs transparent transparent oxides
  • ITO indium tin oxide nanoparticles
  • display foils can be produced for programmable surfaces, ie the surface decor of, for example, a piece of furniture, floor or wall surface is shown as a digital / virtual wood / stone or fantasy decor, with the possibility, for example, of light / lighting - / movement / information - / and to stage sound effects freely.
  • an OLED (organic light emitting diode) or in particular PLED (polymer light emitting diode) film display can be used, based on a plastic film with a thickness of preferably 20 to 500 pm, printed on the circuits using thin film transistors.
  • SOLED or SMOLED film displays are also possible here, as the OLEDs made from “small molecules” are called.
  • AMOLED (active matrix OLED) or Super AMOLED + technology can also be used.
  • organometallic complexes or substances are introduced into the composite layer (B) using a polymer carrier layer (T) as a partial or full-area layer of metallic material.
  • Polymer films made of polyethylene terephthalate (PET) and polyethylene naphthalate (PEN), polycarbonate (PC), polyethersulfone (PES) and polyimide (PI) are preferably used for the coating as flexible substrate material for flexible transparent electrodes.
  • the indium tin oxide nanoparticles are produced by full or partial PVD or CVD coating. This requires structuring and masking processes during coating.
  • the use of wet chemical printing processes for IT ⁇ coating is an alternative, very economical process and can be carried out using the sol-gel method also using ITO nanoparticle dispersion.
  • Other associated microelectronic and optoelectronic applications RFID tags / chips, solar cells, sensors, fuel cells, electrolytic capacitors, lithium polymer batteries.
  • the following metals / semimetals e.g. alkali metals
  • alloys and combinations of these metals and chemical compounds such as e.g. polymeric compounds with these metals, used as electrical conductors in the field of micro and optoelectronics: boron (B), barium (Ba) cadmium (Cd), cobalt (Co) cesium (Cs) silicon (Si), germanium (Ge), Arsenic (As), Selenium (Se), Antimony (Sb), Tellurium (Te), Polonium (Po), Tin (Sn) Asian (At), Lithium (Li), Phosphorus (P) Iodine (I), Bismuth ( Bi) Tin (Sn) Chemical compounds such as Titanium dioxide (Ti02) gallium arsenide (GaAs) gallium nitride (GaN), indium antimonide (InSb) zinc selenide (ZnSe) cadmium sulfide (C
  • plastic films and plastic materials described under 3a can also be permitted and combined with electrically conductive polymers.
  • Polymer electronics These are electronic circuits made of electrically conductive polymers, on carrier materials made of preferably organic foils, as well as with conductor tracks and components made of conductive organic molecules (organic semiconductors) as part of the composite layer (B). These are polymers (especially organic semiconductors) that are oxidatively or reductively doped with chemical metal / semimetal compounds, such as polyacetylene with arsenic pentafluoride or iodine. Further examples of conductive polymers are doped polypyrrole, polyphenylene sulfide, polythiophene and organometallic complexes with macrocyclic ligands such as phthalocyanine.
  • Oxidative doping is achieved with arsenic pentafluoride, titanium tetrachloride, bromine or iodine, while reductive doping is achieved with sodium-potassium alloys or di-lithium benzophenonate.
  • Applications from polymer electronics organic light-emitting diode, organic solar cell, organic field-effect transistor / thin-film transistor.
  • the molecules (in addition to monomers and oligomers, especially polymers) are printed, glued or otherwise attached to the foils in the form of thin films or small volumes.
  • These films are produced preferably by thin-film technology (for example by PVD, CVD, OPVD (organic vapor deposition) processes or also by conventional printing techniques (inkjet, offset printing, gravure printing, screen printing, micro-contact or also by rotary coating.
  • Preferred layer thicknesses for micro opto- and electronic conductive coatings, as well as electrically conductive polymers 1 nm (nanometer) to 1 pm thick.
  • the use of the display element is intended universally for use as a device and / or component element, the use preferably for an element for use as a packaging, watch, jewelry, clothing, accessories, vehicle identification. , Traffic sign, advertising sign, picture frame, floor, wall, ceiling, furniture, decoration, interior design element, preferably strip, profile, edge, door and / or window element, facade, wallpaper, Car interior, car exterior, household appliance, electrical appliance and / or outdoor covering element.
  • the protective layer being designed as a transparent single-layer or multi-layer cover layer (3).
  • the transparent single or multi-layer cover layer (3) can be made from e.g. Plastic film (s) (3a) and / or surface finishes (3b) consist of or combinations of (3a) and (3b).
  • a surface finish (3b) can be provided without using a plastic film (s) (3a).
  • a plastic film can be used without surface finishing.
  • the surface finish (3b) can e.g. can also be applied as an outer layer to the plastic film (3a) or directly onto the layer of metallic material (1)
  • the plastic sheets in the definition of this invention can also be in the form of molten plastic, e.g. applied as a molten polymer to form the transparent single or multilayer top layer, e.g. by calendering or casting.
  • molten plastic e.g. applied as a molten polymer to form the transparent single or multilayer top layer
  • calendering or casting e.g. by calendering or casting.
  • a surface structure can also be embossed in a plastic film if the plastic film is heated before the embossing process and the plastic melts, so that the structure is embossed into the not yet hardened plastic surface.
  • the foils can be used over their entire surface or in part. In most applications, it makes sense to provide the transparent single-layer or multilayer upper layer in order to ensure good abrasion and scratch resistance. This layer can also be omitted for less stressed areas, such as ceiling cladding.
  • the layers described in 3., 3a and 3b are basically also suitable for the surface protection of metallized textiles, fabrics or nonwovens. (eg aqueous PU coating, or lamination, such as flame lamination, sprinkling of meltable, powdered plastics and subsequent melting)
  • the upper layer can be constructed in one or more layers.
  • the multilayer structure (two or more films) has the advantage that each film and / or melted polymer layer can be provided with special performance properties, depending on the application.
  • plastics and their advantageous properties can be combined with one another for the individual film layers.
  • plastics based on synthetic and / or semi-synthetic polymers and / or biopolymers are used, e.g. Thermosets and thermoplastics.
  • thermoplastic and / or elastomeric plastic or thermoplastic elastomer is preferably used for the film layer (s), preferably PVC, also as cast PVC or polyester, polyethylene (PE), polyester with PVC surface, polyurethane (PUR) ) and thermoplastic polyurethane (TPU), polypropylene (PP), cast propylene (CPP), oriented propylene (OPP), biaxial oriented propylene (BOPP), polystyrene (PS), and / or polyethylene terephthalate (PET) biaxially oriented polyester film (BOPET) polyester (PES), polytetrafluoroethylene (PTFE), high density polyethylene (HDPE), low density polyethylene, (LDPE), polyamide (PA), polyethylene terephthalate (PET) or polystyrene (PS), polylactide (PLA) or PDLA or PLLA or PDLLA), polybutylene terephthalate (PBT), polytrimethylene terephthalate (PTT),
  • Biopolymers can also be used.
  • Bioplastics can be made from a variety of plant and animal raw materials. The most important raw material suppliers are wood (cellulose and lignin), cereal plants and potatoes (starch), sugar cane and sugar beet (sugar) as well as oil plants (vegetable oils) and e.g. Insects (chitin shell and crab shells).
  • Cellulose-based plastics are e.g. celluloid, cellophane, viscose and lyocell, as well as cellulose acetate and lignin-based biopolymers with the addition of e.g. of natural fibers from hemp or flax and cellulose-based biopolymers z. B. made of cotton.
  • Modified cellulose using enzymes can also be used as a biopolymer.
  • Starch-based biopolymers are obtained from corn, wheat, potato fine, as well as sugar cane and sugar beet. These include thermoplastic starch (TPS), polylactic acid or polylactide (PLA), polyhydroxyalkanoates such as polyhydroxybutyrate, polyester or thermoplastic biopolyesters, such as polyethylene terephthalate (PET), polytrimethylene terephthalate (PTT) and polyethylene furanoate (PEF).
  • TPS thermoplastic starch
  • PLA polylactic acid or polylactide
  • PHA polyhydroxyalkanoates
  • polyester or thermoplastic biopolyesters such as polyethylene terephthalate (PET), polytrimethylene terephthalate (PTT) and polyethylene furanoate (PEF).
  • Fatty acids can be obtained from vegetable oils, which are converted into high-quality bioplastics via several chemical intermediates. Vegetable oil-based plastics are biopolyamides (Bio-
  • biopolymers are casein, a protein from milk, gelatin, a protein from animal bones or skin and chitin, a polysaccharide from fungi, insects (chitosan), crab shells. PHB (extracted from bacteria), zein and algae.
  • Biopolymers are ecologically sustainable because the raw materials are renewable (not petroleum-based) and biodegradable. In principle, polymeric and / or biopolymeric material mixtures made from the plastics mentioned above can also be used.
  • the polymers and biopolymers mentioned above can in principle be used in the form of a plastic film for the metallization. Mixtures of one or more of the aforementioned plastics can also be used.
  • the plastic films can be produced by extrusion or also by casting, calendering or blow molding. In the blow molding process, several films with different properties can also be co-extruded to form a film composite.
  • these foils can be coated with polyacrylate adhesive for adhesive lamination.
  • the film thickness of a film layer is between 20 gm and 2500 gm, preferably between 20 gm and 500 gm, in particular 20-150 gm.
  • Currently commercially available film materials for printing the decorative layer according to point 2.e are, for example: PVC, polyester, such as e.g. BOPET, PP and polyamide.
  • the upper layer consists of only one film, which has printed electronics on the underside. It is advantageous to equip the film for printing with a transparent printing / ink / color recording layer.
  • the plastic material used must have the appropriate abrasion, scratch and wear resistance for the intended purpose. If two foils are used as a layer structure, the electronics can be printed on the underside of the uppermost foil layer and / or on the top of the lower foil layer.
  • the aforementioned layer composite can also be designed as a preliminary product in the form of a firmly connected layer composite. (See preferred embodiments)
  • connection of individual film layers is referred to below as a composite film.
  • the individual film layers are usually extruded or laminated or laminated.
  • the composite film is produced by laminating several layers of the same or different materials or layers, in this case plastic Fabric films, which correspond to the layer structure according to the invention, with the aid of suitable laminating agents (lacquer, glue, wax). Laminating is carried out in order to protect and / or decorate and / or to add favorable material properties by applying the material on or under a layer with the desired properties or by placing it between two layers.
  • suitable laminating agents lacquer, glue, wax
  • Laminating is carried out in order to protect and / or decorate and / or to add favorable material properties by applying the material on or under a layer with the desired properties or by placing it between two layers.
  • glue and coat / coat the plastic film most of the above plastic materials (e.g. PE, PP, PET) require corona pretreatment.
  • the surface to be treated is exposed to an electrical corona discharge for a short time.
  • Alternatives to corona treatment are flame treatment,
  • the processing is preferably done from the roll (roll laminating machine) or as surface lamination. (Surface lamination system)
  • wet, dry and thermal lamination in the case of the lamination process.
  • a viscous polyurethane-based dispersion adhesive is applied to the film in layers of 7-25 pm and first dried in a drying device.
  • the adhesive is often two-component.
  • the printing material is fed in and combined with the film under pressure in a nip.
  • the adhesive then hardens.
  • dry lamination the layered composite is created with a dry adhesive, predominantly two-component reactive adhesives that are matched to the respective substrates are used for lamination.
  • the application techniques of the lamination systems are preferably provided via kiss coating, anilox roller application, nozzle and pouring box principle, with application weights preferably from lg / m 2 to 20 g / m 2.
  • the film is pre-coated with a thermoactive adhesive . This is melted by heat and combines the different materials under the influence of pressure.
  • the composite film can also be produced by lamination.
  • hot lamination a full-area bond of the layer structure according to the invention is achieved on both sides under the action of pressure and heat (60-120 ° C.).
  • the possibility of combining the film thickness and the area-related mass of the metallized paper / plastic film allows both flexible, still rollable and rigid end products.
  • the films are coated with an adhesive that has normal adhesive properties at all temperatures.
  • the adhesive acts like a double-sided adhesive tape.
  • the film layer (s) including the metallic layer and a carrier plate and counter-pull can also be in one process step, e.g. are thermally bonded together, e.g. by hot pressing and / or hot gluing, for example with a hot press (hot press or hot melt press) or short cycle press.
  • a hot press hot press or hot melt press
  • short cycle press short cycle press
  • Another method for connecting plastic and metal is thermal direct joining, the metallic layer being electrically heated by resistance heating. If this is then brought together with the plastic layer, the plastic melts and forms a firm bond with the metal immediately after solidification.
  • the upper layer has a PUR film layer on the underside as an adhesion promoter to the backing layer.
  • PUR is characterized by the fact that this material has a low melting point, so that this plastic melts during thermal bonding and thus serves as an adhesive layer / adhesion promoter between the other layers of the top layer and the metallic material.
  • the plastic films can have a structure on the outer wear layer that is produced, for example, by embossing. It can be used to produce surface structures such as wood or stone structures.
  • Another embodiment is to form the film layer as a transparent melamine layer.
  • one or more transparent overlays can be applied to the printed electronics.
  • the printed electronics can then, for example, on the underside or top of the overlay. be provided.
  • the connection of the overlay to the carrier layer / carrier plate is preferably carried out by thermal bonding, ie hot pressing, for example using a short-cycle press device (KT press) and / or gluing or hot gluing.
  • KT press short-cycle press device
  • the composite film according to the invention can be provided on the underside with a melamine-treated paper.
  • a melamine-treated paper e.g. can be pressed onto a wooden material (HDF, MDF).
  • the pressing takes place under pressure and heat, at temperatures of 160-200 degrees Celsius.
  • the melamine becomes liquid in the resin-coated paper and combines with the HDF carrier plate through the pressing process.
  • the melamine-coated paper takes on an adapter function for processing the composite film in a KT press.
  • a prerequisite for technical feasibility is the use of a composite film according to the invention, which is temperature-resistant in the range of 160-200 degrees Celsius. This means that the individual components of the composite film, such as plastic and laminating adhesive, must meet this temperature requirement.
  • the melting range of polypropylene (PP) is approx. 160 - 165 degrees Celsius
  • PET polyethylene terephthalate
  • polyurethane has
  • the transparent single-layer or multi-layer cover layer is preferably provided in a crystal-clear design so that the printed electronics come into their own. However, it can also be provided that the transparent single-layer or multilayer cover layer has a targeted, translucent coloration, for example as a milky, whitish Coloring. As a result, the transparent single or multi-layer cover layer can be made optically more matt. This can also be created by using translucent and / or glazing colors.
  • Transparent, highly durable and / or low-odor coatings based on a thermoplastic and / or elastomeric plastic are preferred.
  • Preferred surface finish thickness from 1 pm to 1000 pm.
  • the surface finishes can also be structure-forming, ie have a surface structure, for example in order to produce a decorative look, such as, for example, wood pore or decorative plastic structures, or to achieve a functional property, such as, for example, slip resistance.
  • the surface finish can both be applied directly to the layer of printed electronics, dispensing with the one described under (3a) Plastic films and / or on the top as an outer wear layer on the plastic films described in (3a) or between the films on the top or bottom, for example as an adhesion-promoting layer.
  • the following methods come into question, which differ in characteristic features and can generally comprise layer thicknesses of 5 mhi-40 gm.
  • UV ultraviolet radiation
  • UV ultraviolet radiation
  • the layer structure of the electronically controlled display element according to the invention provides a layer (1) with the electronic element (E), which is optionally embedded in a filler layer, which can be produced, for example, by printing ) with the display element (2) located above it, for example produced by printed electronics based on OLED and / or micro LED and / or electronic ink and an optionally transparent single or multi-layer upper layer (3).
  • This can then be processed as a composite product, for example.
  • Preferred thickness of the composite layer 1 pm 2500 pm.
  • These composite layers can then be applied to a carrier layer (5), for example during further processing. In principle, the composite layer can be applied to any suitable carrier layer or any substrate.
  • the carrier layer (5) preferably consists of the following materials: paper, cardboard, plastic, laminate (HPL, CPL DKS), plastic film, elastomer, rubber, foam, metal, textile, fabric or fleece, wood, wood materials, WPC, cork , Linoleum, metal, stone-based, porcelain stoneware-based, mineral, ceramic, cement-based, gypsum-based substrates and / or materials or glass, in particular also gypsum plasterboards, gypsum fiber boards, plaster substrates and OSB, HDF, MDF, chipboard or combinations of these materials.
  • the carrier layer (5) can also be constructed heterogeneously and / or in one or more layers.
  • the layers (1-4) are joined to form a composite layer (A), preferably by lamination with a roll lamination machine, (thermal lamination or wet / dry lamination), lamination (see details under 3a.). Thermal bonding and / or gluing / hot gluing or thermal direct joining, or also with the help of double-sided adhesive films.
  • the plastic films in the definition of this invention can also be applied in the form of molten plastic, for example as a molten polymer, to form the transparent single or multilayer upper layer, for example by calendering or casting.
  • the connection to the carrier layer can be made using the same previously mentioned methods, preferably by surface lamination on a surface lamination system.
  • the composite layer (A) optionally has an underside layer (4) as an adhesion promoter layer and / or a self-adhesive layer to the carrier layer (5).
  • the adhesion promoter layer can be provided as in the versions described under (3a) and (3b).
  • the underside layer (4) can also perform other functions, such as as a leveling layer to compensate for unevenness in the carrier layer. This is advantageous for the surface of wood-based materials that "telegraph" due to their roughness, irregularities or unevenness through the composite film
  • the underside layer (4) can also be a protective function for the layer made of printed electronics in order to protect it from moisture and mechanical stress in the processing process (damage to the metal layer, for example by scratches).
  • the underside layer (4) can also take on a damping function, for example in order to improve the acoustic properties of the surface, such as the impact sound for floor coverings.
  • the underside layer (4) can also be formed as an adapter layer for a specific carrier layer.
  • This embodiment is intended, for example, for the application area of wallpapers, decorative papers, decorative foils and edging material in the form of a prefabricated composite film or for lamination onto any carrier layer.
  • the layer structure according to the invention to the carrier layer, the rest apply under 3.a. mentioned explanations on the subject of lamination and lamination.
  • a particularly preferred area of application is the production of printed decorative papers / foils, printed decorative foils, finish foils (finished surfaces) and melamine films for the wood-based panel and furniture industries with the application areas of flooring, furniture, interior fittings and caravans.
  • Such composite films can also be used for 3D applications and components, e.g. can be used as wrapping, thermoforming, postforming films.
  • the use of a composite film with embossed electronic ink and / or the use of an e-paper also has the advantage that a so-called bistable display state arises, i.e. the last picture can still be seen when the power supply has ended. With such displays, electricity is only required when the picture is changed.
  • a preferred embodiment of the E Paper is the use of an electrolytic foil with the use of electrochromic molecules. Patterns can also be embossed into such a film.
  • the preferred thickness of such a film is less than 0.5 mm, in particular 0.3 mm, the film being highly flexible, i.e. flexible, flexible and rollable.
  • This preferred embodiment additionally has a technical layer (T), for example for applying electrical conductor tracks, preferably produced by printing with metallic or metal-containing material.
  • the power supply for the display element and the electronic element can be produced with this.
  • the technology layer also serves for the optional accommodation of a battery and / or a rechargeable battery for the power supply, the power supply, preferably wireless and / or cable-based on a technical basis, being connected to the power grid and / or a rechargeable battery and / or induction current and / or by radio current or is generated by radio current and / or by ultrasound transmission, preferably with piezo technology-based sensors.
  • a transmitter based on a magnetic dipole coil is preferably used, with radio current based on a secondary coil.
  • the power supply / electronics and battery technology can also be outsourced to an external connection box or integrated in component elements.
  • a filler layer (F) is optionally arranged between the conductor tracks as an insulation and compensation layer so that unevenness caused by the cross section of the conductor track does not become visible on the surface.
  • the filling layer (F) can be used as e.g. as a coating with an insulating material (preferably plastic), e.g. be produced by printing or painting, or by a separately applied marked negative layer.
  • a very innovative preferred field of application of the invention is the use of a display element, preferably for an element as an official identifier for a vehicle, preferably for a car, truck, bus, two-wheeler, motorcycle, E bike, e scooter, caravan, commercial vehicle, trailer, tram, train, aviation vehicle, in particular an airplane, a helicopter and a ship.
  • the state of the art in vehicle license plates essentially consists of the identification drawing of a vehicle by means of a sheet metal number plate, mostly in the size 520 ⁇ 10 mm. This state of the art has not changed significantly since the development of the first cars in automotive history.
  • the label contains the following information: vehicle registration number, country code, TÜV / HU sticker and the city / district / country sticker.
  • the license plate is usually attached to the front and rear of the vehicle. License plate lighting on the vehicle is mandatory for the rear license plate. Comparing the state of the art of today's automobile and contemporary service offers for mobility, such as Electromobility, autonomous driving, driving aids, traffic control, car sharing on-board computer, LED lighting technology, etc., this is how the tinny plate looks like an ancient relic from the analogue age of our grandfathers. In addition, based on today's automotive design, it is an ugly, unattractive, unworthy foreign element on a modern, designed car, such as on the Alfa Romeo, where the license plate is also asymmetrically arranged in the front area.
  • the official processing at the road traffic offices for registration and deregistration of vehicles that require a personal appearance by the car owner or car dealer is also bureaucratic - time and cost intensive and does not correspond to the organizational and processing options of the digital age.
  • the promotionalist organizational principle of Germany with the many decentralized road traffic offices of the cities and districts of the individual federal states, and decentralized data and information management and storage.
  • the inventor set himself the task of developing a fundamentally new concept for this problem, using all the possibilities of the digital age.
  • the basic idea is to establish a nationwide blockchain cloud for the road traffic authority (STVB) controlled and controlled by the individual road traffic authorities (STVA), which have data sovereignty.
  • STVB road traffic authority
  • STVA individual road traffic authorities
  • Examples of user groups are STVA, driving license office, vehicle tax, points account / fine, vehicle insurance, TÜV, police, traffic control, vehicle owner, vehicle dealer, vehicle manufacturer, automobile clubs, etc.
  • each vehicle with a digital license plate. It is a preconfigured, electrically controlled display element with an integrated electronic element.
  • This digital vehicle sign is directly controlled by the blockchain cloud via a wireless connection via the computer network of the STVB.
  • every digital vehicle license plate has a screen display on which the vehicle license plate and other information are shown graphically, this information via a STVB's own state radio network, preferably on a 3G / $ G / 5G basis with its own protected channel bandwidth, from the blockchain - Cloud are sent directly to the digital vehicle sign and in this way approvals and de-registrations are processed.
  • the screen display has an electronic element, for example in the form of a 3-5 G Simcard, which is secured with an encryption code.
  • Each digital number plate has its own ID code, which is assigned to the chassis number of the vehicle.
  • the digital license plate also establishes a connection to the on-board computer of the vehicle and enables defined access and data exchange with the on-board computer through the STVB blockchain cloud.
  • the principle of the blockchain cloud allows secure encrypted data storage and data management.
  • the above ID code consists of a character code of at least 8 characters, a character space of at least 89 characters. This results in a combination possibility of 8 to 89, which is infinite in the mathematical result and thus makes a hacker attack using the breeding force method impossible.
  • Display element characterized in that the electronic element has a digital link to an IT infrastructure via a computer network.
  • the display is characterized in that the IT infrastructure has an encrypted accounting system and / or method.
  • Display element characterized in that the electronic element has at least one encryption code and / or is digitally linked to at least one encryption code.
  • Display element characterized in that the encryption code consists of at least eight characters, based on a character space of at least 89 characters.
  • the slide on page 20 shows a particularly preferred embodiment of the digital license plate.
  • the digital license plate is compatible with common license plate holders. It has an integrated interface or adapter plug connection for connection to the car battery and is operated on a 12 V basis. For this purpose it is necessary to provide a cable connection from the car battery to the front and rear license plates.
  • the display contains an internal battery and / or rechargeable battery if the vehicle power supply fails, which means that an emergency power supply of e.g. 10 hours possible
  • the front and rear license plates can be connected wirelessly via Bluetooth and / or via a cable connection.
  • the display is in permanent operation, optionally the display can also switch off automatically at night. Display contents are automatically sent from the STVB Blockchaincloud to the vehicle license plate display after recording the master data of the vehicle and updated continuously.
  • the regionally responsible road traffic authority i. E., Has sole, authorized access for the digital display. This is where the data sovereignty controls, controls, updates, or deletes the digital license plate.
  • the road traffic office will in future be the central, data-sovereign communication and coordination point between the different user groups,
  • a nationwide traffic control system via the GPS registration of the digital license plate or by networking with the on-board computer of the vehicle can control the compliance with environmental regulations, such as. Activate fuel consumption values, exhaust gas values, according to the manufacturer's energy consumption labeling or driving bans for certain zones, or carry out safety-related controls such as speed control, seat belt use, distance control ... etc. via GPS function with automatic fine adjustment or shutdown of the vehicle (e.g. Display completely red with text: "Out of service").
  • An international exchange of data between individual countries will also be possible in the future via the central digitization of vehicle data. possible across Europe and / or can be standardized across Europe / worldwide. (Automotive cloud as storage) Advantages for road traffic offices (STVA)
  • Topics such as parking guidance systems, car park occupancy, networking with car sharing offers can also help to relieve the inner cities in terms of traffic and optimize traffic flow.
  • the digital vehicle solves the current problem of labeling a car sharing vehicle, since this can be identified, for example, by another license plate color on the display.
  • the STVA will monitor compliance with data protection regulations and will regularly delete old data.
  • the police can call up all vehicle and vehicle owner information, eg vehicle documents: vehicle registration, driver's license is digitally stored in the app, vehicle checks are carried out: vehicles searched by the police, TÜV inspection, speed control, vehicle security, GPS location of Vehicles. Defect notification vehicle, decommissioning information to road traffic office, fine information
  • driver's license check / driver will have to log into the vehicle in the future, this will result in driver's license status, points in Flensburg, driver's license will be stored digitally in the app
  • Violation - Toll information Automatic entry and debiting of tolls
  • TÜV TÜV can be updated using the app seal of approval, separate access only TÜV area,
  • -Display is compatible and can be retrofitted to conventional license plate mounts -Avoidance of metal signs, which are changed up to 5 times in the life cycle on average -digital car sign is protected against deletion thanks to the double GPS function, ie of the GPS on-board computer and GPS of the digital number plate STVA reported and automatic notification to police -Personal recognition via sensor / camera
  • -Anti-theft protection function Vehicle access and driving function only possible by logging in the driver or access only through a defined driver group of people coding whether the vehicle was opened externally, GPS location of stolen vehicles
  • Cybercrime is a worldwide, growing, unsolved problem that does not stop at national borders or in front of closed doors. It can take place wherever people use computers, smartphones and other IT devices - in companies, authorities, universities, at home and on the go. The peculiarity of cybercrime is that the perpetrators can operate from almost anywhere in the world and hide their traces relatively well. In addition, the crime scene does not necessarily have to be the same as the scene of the crime. Not only the number of affected computers and smartphones is increasing, but also the professionalism of the perpetrators. There are more and more very well prepared cyber attacks on selected targets, where the damage potential for those affected is considerable. This includes, for example, attacks on commercial companies or critical infrastructure facilities.
  • network war The transition to cyberwar methods and procedures (“net war”) has become fluid; in individual cases it is by no means easy to determine whether an attack on the Internet serves relevant criminal purposes or is militarily or politically inclined, for example in the event of extensive sabotage of the highly ITC-dependent financial system or the websites of public institutions in the broadest sense. According to the observations, the "malware industry” is becoming increasingly professional, and attacks on computers and computer networks are becoming increasingly sophisticated.
  • Botnets are also tricky, that is, several infected devices that the attacker can control remotely.
  • IT experts assume that online security, internet security, and IT security, ie protection against internet crime, are neither feasible nor manageable in the long run. On the contrary: Internet crime is expected to increase.
  • Information security i.e. protection against dangers or threats, and the avoidance of economic damage and minimizing risks from cyber crime is a top priority for the government.
  • the goal of the state must be to guarantee the right to informational self-determination effectively and permanently, through innovative data protection procedures and systems that are legally anchored as data protection law. This requires radical changes in data protection law.
  • Data protection must be understood as protection against improper data processing and protection of the right to informational self-determination, protection of personal rights in data processing and also protection of privacy.
  • Data protection is the right that everyone is basically free to decide who should have access to which of their personal data and when. (Data sovereignty)
  • Data sovereignty The essence of such data protection law is that the power inequality between organizations and individuals will be put under conditions.
  • Data protection must counteract the tendency towards so-called transparent people in the increasingly digital and networked information society, the increase in state surveillance measures (surveillance state) and the emergence of data monopolies by private companies.
  • the object of the invention is to solve all and any of the computer / internet and IT security problems described above, by means of a technical, innovative digital IT system structure consisting of an arrangement of hardware and software components, and an associated one Procedures for using this hardware and software components.
  • the invention proposes a new IT system structure, based on the fact that initially a self-sufficient, central new IT system structure is provided in the form of a cloud, i.e. a computer network with online-based storage and services for cloud computing with the aim of founding and operating an alternative internet to the world wide web.
  • a cloud i.e. a computer network with online-based storage and services for cloud computing with the aim of founding and operating an alternative internet to the world wide web.
  • Cloud computing German computer cloud or data cloud describes the provision of IT infrastructure such as storage space, computing power or application software as a service over the Internet.
  • cloud computing describes the approach of making IT infrastructures available via a computer network without having to install them on the local computer.
  • the cloud "Eurodata” will in future be used to securely store, control and manage all data and information and transactions generated by every single citizen in Europe, based on the principle of information-based self-determination, ie each individual / citizen decides basically yourself about who and when and which of your personal data should be accessible.
  • the sovereignty of data lies with the citizen.
  • the data is stored secretly and exclusively controlled and administered personally by every EU citizen.
  • the citizen decides on the sharing of data with third parties and access permissions, which he defines and permits in his user profile.
  • Examples of data and transactions Personal data: phone number, mobile number, ID card, driver's license, bank credit cards, insurance data, health insurance, doctor visits, contracts, tax data, income, investment income, kindergarten, school, job, training, employer, certificates, Tue - plom, self-employed, employment office, business transactions contracts, payment on the Internet and in retail, storage of private data, e.g. photos, private documents, contracts and much more.
  • the advantage is a simplification of life for each individual citizen and the state bureaucracy. All relevant, personal 100% secured, securely stored. And always accessible. After transferring all previous data to the Eurodata Cloud, every company (data monopolies such as Google, Facebook, Microsoft etc.) is legally obliged to delete all personal data. The concept is to set all data saved in the past to zero.
  • the same principle applies to all, state, public and private / commercial / commercial information and data traffic, as well as to data storage that will be recorded and processed in the future via the "Eurodata” cloud.
  • the aim is to centralize all information and to control it securely, in terms of information, through the "Eurodata” cloud.
  • the security of the "Eurodata” cloud is guaranteed by the blockchain process, a decentralized accounting system, unchangeable, tamper-proof and manipulation-proof.
  • the blockchain process a cryptographic chaining in a decentralized accounting system, is known as the technical basis for cryptocurrencies (Bitcoin), but can also be used in distributed systems to improve or simplify transaction security compared to central systems contribute.
  • a blockchain is a chained sequence of data blocks that is continued over time. Each block typically contains a cryptographically secure hash (scatter value) of the previous block, a time stamp and transaction data.
  • a blockchain is not stored centrally, but is kept as a distributed register. All participants save their own copy and continue to update it. It must be ensured that an identical chain is created for everyone involved. For this, suggestions for new blocks must first be worked out. This is done by validators (called “miners” in Bitcoin).
  • the blockchain is also used when an accounting system is managed decentrally and the correct state must be documented because many participants are involved in the accounting. This concept is referred to as distributed ledger technology (decentralized ledger accounting technology) or DLT. What should be documented is irrelevant to the term blockchain. It is crucial that later transactions build on previous transactions and confirm that they are correct by proving knowledge of the previous transactions. This makes it impossible to manipulate or redeem the existence or content of previous transactions without also destroying all later transactions. Other participants in decentralized accounting who still have knowledge of the subsequent transactions would recognize a manipulated copy of the blockchain by the fact that it has inconsistencies in the calculations.
  • the decentralized consensus mechanism replaces the need for a trustworthy third party to confirm the integrity of transactions.
  • the essence of the invention proposes the use of an electronic element with processor and memory function for use as a computer, smartphone, PDA, tablet, PC, server, game console, netbook, notebook, mainframe, supercomputer , Device, and / or component element with connection and
  • the electronic element is a digital link with at least one hardware element and / or (integrated) software, preferably for image recognition, in particular iris recognition, having.
  • the invention provides for the Irisscan to be used as a detection method, as access authorization to the “Eurodata” cloud.
  • the Irisscan is a scientifically recognized, safe method of identifying a person.
  • Iris detection is a method of biometrics for the purpose of authenticating or identifying people.
  • images of the iris (iris) of the eye are recorded with algorithms, the characteristic features of the respective iris are identified using algorithmic methods, converted into a set of numerical values (feature vector, “template”) and for recognition by a classification algorithm such as B. stored a neural network or with one or more previously saved templates compared.
  • Commercial recognition processes capture around 260 individual optical features of the iris. For this it is necessary that every citizen is legally obliged to participate in an official Irisscan, eg the right eye, which is then stored as data and / or image data in the "Eurodata” cloud for the identification of each individual citizen.
  • the invention proposes a secure encryption method in which an identity code is generated for each individual citizen using software that is digitally linked to the Irisscan in the "Eurodata Cloud".
  • the identity code is generated anonymously by the software and is kept strictly secret for everyone and is assigned to the official Irisscan of each individual / citizen as a link and is stored exclusively in the Eurodata Cloud.
  • the security concept provides that every person / citizen is assigned this identity code once by the state from birth as a lifelong identity code that also functions as a password for all matters of life / digital life from AZ (identification function, online purchases, doctor, Insurance ... etc.) as the only lifelong password that is only valid in conjunction with a current iris recognition and iris identification of each individual citizen.
  • the invention provides that at least one encryption code is used for identification. It is further provided that the encryption code consists of at least eight characters, based on a character space of at least 89 characters.
  • the state provides an electronic element, called an Omnicard, with processor and memory functions configured for each individual citizen with the citizen's individual identification code.
  • This electronic element is, for example, in a computer, e.g. Smartphone installed.
  • the electronic element (Omnicard) has the function of a SIM card, which automatically connects to the Eurodata Cloud via the citizen's iris scan and activates access or a transaction when the citizen is recognized.
  • the electronic element (Omnicard) has the function of a SIM card, which automatically connects to the Eurodata Cloud via the citizen's iris scan and activates access or a transaction when the citizen is recognized.
  • the electronic element Omnicard
  • Computer smartphone, PDA, tablet, PC, server, game console, netbook, notebook, mainframe, monitors, displays or / and in other device and / or component elements, under state control is provided, for example by state-certified companies.
  • the invention further provides that the iris recognition via a Hardwarelement, preferably by a camera and / or a scanner which is integrated in the electronic element and / 'or is in communication therewith. It is also provided that the electronic element is configured with a preconfigured state software. is set and / or is connected to it, which has at least one program for image recognition, in particular iris recognition.
  • the citizen creates an Irisscan, preferably the right eye, using the Omnicard software / app and the camera, which automatically connects to the "Eurodata" cloud, where the current Irisscan, e.g. is compared with the officially stored Irisscan by means of image recognition software, and is linked to the identification code and, upon detection, the payment is activated.
  • the omnicard software creates a current time stamp of the iris scan, which is only valid for a limited time, e.g. 9 minutes. This prevents abuse by e.g. excluded by hacker attacks with fake iris scans, since only camera recording via the Omnicard software and camera with time stamp is accepted.
  • the invention proposes that the Omnicard software / app have other programs in addition to the iris recognition.
  • the Omnicard app contains the following functions, for example: 1. Scanner, camera software for Iris identification
  • the same principle also applies to all, state, public and economic / commercial information and data traffic, as well as for data storage that will be recorded and processed in the future via the "Eurodata" cloud.
  • Every company operating in Europe is required to participate in the Eurodata Cloud Committed. Those who do not participate have no business authorization and are excluded from themselves.
  • all transactions in this area are carried out exclusively via the identity code of each individual citizen, linked to his or her function, for example as an employee of a company, in the state / public service, e.g. state government, police, authorities e.g. tax office, politician ... etc.
  • the invention proposes to provide a database structure with access rights for the different user groups.
  • the taxation of Internet companies such as Google, Facebook, Microsoft etc. can be regulated and controlled by law.
  • the invention proposes as a technical core or contribution the use of an electronic element with processor and memory function for use as a computer, smartphone, PDA, tablet, PC, server, game console, netbook, Notebook, mainframe, supercomputer, monitor, display, device and / or component element with connection and / or identification and / or assignment and / or authentication function of a user in the network, in particular radio network, characterized in that the electronic element has a digital link with at least one hardware element and / or an (integrated) software, preferably for image recognition, in particular iris recognition.
  • a computer [kom'pju: ti?]
  • Or computer is a device that processes data using programmable calculation rules.
  • Konrad Zuse Z3, 1941 and Z4, 1945
  • John Presper Eckert and John William Mauchly ENIAC, 1946
  • Turing completeness plays an important role in classifying a device as a universally programmable computer. It is named after the English mathematician Alan Turing, who introduced the logical model of the Turing machine in 1936.
  • the early computers were also called (main) computers; their input and output of the data was initially limited to numbers. Modern computers understand how to handle other data, such as letters and sounds. However, this data is converted into numbers within the computer and processed as such, which is why a computer is still a computing machine today.
  • Computers can be found in all areas of everyday life today, mostly in specialized variants that are tailored to a given application.
  • Integrated mini computers embedded system
  • Integrated mini computers are used to control everyday devices such as washing machines and video recorders or for coin checking in vending machines; In modern automobiles, for example, they are used to display driving data and control various maneuvers themselves in "driving assistants".
  • Universal computers can be found in smartphones and game consoles.
  • Personal computers English for personal computers, as opposed to many mainframes used) are used for information processing in business and authorities as well as among private individuals; Supercomputers are used to simulate complex processes, e.g. B. in climate research or for medical calculations.
  • a computer is a digital computer if it processes digital data with digital device units (i.e. numbers and text characters); it is an analog computer if it processes analog data with analog device units (i.e. continuously running electrical measurements such as voltage or current).
  • digital computers are used almost exclusively. These follow common basic principles with which their free programming is made possible.
  • a basic distinction is made between two basic components of a digital computer: the hardware, which is formed from the electronic, physically tangible parts of the computer, and the software, which describes the programming of the computer.
  • a digital computer initially only consists of hardware.
  • the hardware provides a memory in which data can be saved in portions as on the numbered pages of a book and called up at any time for processing or output.
  • the hardware arithmetic unit has basic
  • Modules for free programming with which any processing logic for data can be represented: These modules are in principle the calculation, the comparison and the conditional jump.
  • a digital computer can, for example, add two numbers, compare the result with a third number and then continue depending on the result either at one or the other point in the program.
  • this model is theoretically represented by the Turing machine mentioned at the beginning; the Turing machine represents the fundamental considerations of predictability.
  • each software is a defined, functional arrangement of the building blocks described above, calculation, comparison and conditional jump, whereby the building blocks can be used as often as required.
  • This arrangement of the modules which is referred to as a program, is stored in the form of data in the memory of the computer. From there it can be read out and processed by the hardware.
  • This principle of operation of digital computers has not changed significantly since its origins in the middle of the century, although the details of the technology have been significantly improved.
  • Analog computers work on a different principle. Analog components (amplifiers, capacitors) replace logic programming. In the past, analog computers were used more often to simulate regular Ivo processes (see: lung technology), but are now almost completely replaced by digital computers. In a transition period, there were also hybrid computers that combined an analog computer with a digital computer. Possible uses for computers are:
  • -Media playback Internet, television, videos, entertainment applications such as - computer games, educational software
  • the arithmetic unit essentially the arithmetic-logic unit (ALU)
  • ALU arithmetic-logic unit
  • CPU Central Processing Unit, central processor
  • the memory is a number of numbered, addressable "cells"; each of them can hold a single piece of information. This information is stored in the memory cell as a binary number, ie a sequence of yes / no information in the sense of ones and zeros.
  • a binary number ie a sequence of yes / no information in the sense of ones and zeros.
  • an essential design decision of the Von Neumann architecture is that the program and data share a storage area (the data usually occupy the lower and the programs the upper storage area).
  • data and programs have their own (physically separate) memory areas. Access to the memory areas can be realized in parallel, which leads to speed advantages. For this reason, digital signal processors are often implemented in Harvard architecture. Furthermore, data write operations in the Harvard architecture cannot overwrite programs (information security).
  • control unit In the Von Neumann architecture, the control unit is responsible for memory management in the form of read and write access.
  • the ALU has the task of combining values from memory cells. It receives the values from the control unit, calculates them (adds two numbers, for example) and returns the value to the control unit, which can then use the value for a comparison or write it to another memory cell.
  • the input / output units are responsible for entering the initial programs into the memory cells and for displaying the results of the calculation to the user.
  • the Von Neumann architecture is the lowest level of the functional principle of a computer above the electrophysical processes in the conductor tracks.
  • the first computers were actually programmed in such a way that the numbers of commands and of certain memory cells were written one after the other into the individual memory cells as required by the program.
  • Programming languages have been developed to reduce this effort. These automatically generate the numbers within the memory cells, which the computer ultimately processes as a program, from text commands that also represent semantically understandable content for the programmer (eg GOTO for the "unconditional jump").
  • GOTO semantically understandable content for the programmer
  • certain repetitive procedures were grouped together in so-called libraries in order not to have to learn the wheel every time. For example: interpreting a pressed keyboard key as the letter "A” and thus as a number "65" (in ASCII code).
  • the libraries were bundled into superordinate libraries, which link sub-functions to complex operations (example: the display of a letter "A", consisting of 20 individual black and 50 individual white dots on the screen after the user has pressed the "A" key) .
  • many of these program levels work above or below one another. More complex tasks are broken down into subtasks that other programmers have already worked on, which in turn build on the preparatory work of other programmers whose libraries they use.
  • machine code the sequence of numbers with which the computer is actually controlled.
  • -Embedded system e.g. B. in the car, television, washing machine etc.
  • -Personal computer or PC here understood as a desktop computer or workstation computer.
  • -Host computer or server integrated in a computer network, usually without its own display, keyboard, etc.
  • -Thin clients are computers that only work properly in cooperation with a larger computer, usually a server.
  • Hardware (sometimes abbreviated with "HW") is the generic term for the physical components (the electronic and mechanical components) of a data processing system, as a complement to software (the programs and data). [l]
  • Hardware and software components are used in a computer system.
  • hardware is the part of a computer that you can touch: every single component built into it, from a simple capacitor to a fully populated circuit board, the device as a whole and its accessories such as a mouse, keyboard, screen and printer.
  • the 1976 Atari game machine produced no processor. Just a year later, the game principle was transferred to a processor-controlled device, the computer. Since then, the game has also been available as software. The computer game no longer consisted of "wired control panels", but instead of instructions for a processor including the additional information (the data) necessary for processing, which were stored together on a data carrier and evaluated by the computer.
  • Control unit MMU for memory management
  • the cache as part of the storage system
  • the controller for a bus system that connects internal and external components.
  • an input / output mechanism in the form of serial interfaces (e.g. USB), digital I / O (input / output) e.g. B. for a touchscreen and analog I / O for z. B. lamps or electric motors.
  • serial interfaces e.g. USB
  • digital I / O input / output
  • analog I / O for z. B. lamps or electric motors.
  • So-called SoC System on a Chip
  • RAM working memory
  • flash memory flash memory
  • the computer components include the PC components:
  • main board also called motherboard or mainboard
  • chipset for 10
  • processor and RAM RAM
  • Mass storage drives (hard disk drive, flash memory, CD-ROM drive, DVD drive, Zip drive, Jaz drive, ...) and storage media
  • Hardware is often provided with an FCC number, which allows the manufacturer to be clearly identified.
  • a screen (also monitor or English screen or display) is an electrically controlled display without moving parts for optical signaling of changed other information such as images or signs.
  • the screen can be an independent device or part of a device.
  • the projection surface of a projector is also referred to as screen in English (approximately, screen 4 ).
  • screen 4 the projection surface of a projector
  • German all display devices in the broader sense are called displays (roughly, display 4 ), for example flip-dot displays.
  • GUI Graphical User Interface
  • a so-called smart display is a monitor that is connected to the computer by radio and is therefore portable to a limited extent.
  • the screen diagonal is the size of the screen and always refers to the diagonal of the picture tube, which was slightly larger than the visible diagonal for picture tubes.
  • Other characteristics of a monitor are the aspect ratio, the maximum line frequency, from which the refresh rate results for a certain image height, the maximum pixel clock (these three frequencies and the vertical and horizontal blanking interval result in the resolution), the brightness, the Contrast, the response time and especially with liquid crystal screens the number of pixels and the maximum viewing angle.
  • the type (perforated, stripe or slit mask) and the grid of the mask are also relevant.
  • a multiple display also a multifunctional display, serves to display multiple information.
  • This can be a single electronic device or a composite system with multiple screens. The purpose of this is to be able to display a large number of required values or also images and signals at the same time with several display devices or in succession on the same display.
  • Windows can be arranged next to each other, whereby one or more monitors can also be used here.
  • FED Field emission screen
  • LCD Liquid crystal screen
  • TFT-LCD Thin film transistor screen
  • OLED Organic light-emitting diode
  • SED -Surface-conduction electron-emitter display
  • the display In technology, the display generally describes a device for the optical signaling of variable information (states and values), in particular measured values. This distinguishes them from characteristics that offer constant information.
  • displays In the work system, displays represent an interface between people and a technical process or the environment.
  • a display can have very different designs and be based on different technical implementations. A distinction is made between mechanical, electromechanical and electronic displays. Depending on the type and meaning of the display itself, it can also be divided into binary displays, scale displays, numerical displays and graphic displays. In ergonomics, DIN EN 8942 -2 [1] differentiates between visual, acoustic and tactile displays.
  • a winding device for a thread combined with a pointer measures how deeply a float hanging on the thread has sunk, and thus indicates the fill level, u. a. on oil tanks.
  • -Level level indicator or short level as you can find on many rivers, or water or level indicators, z. B. on kettles or coffee machines, show the level of filling or water level by looking directly at the liquid level on a scale, often through a sight glass.
  • -Fall flap relay electrical and electronic displays can be binary displays, numerical displays, but also analog displays (bar graph display, magic eye) or image displays.
  • digital display usually means a number display.
  • LCDs liquid crystal displays
  • Character, symbol, number or image display smart phones, flat screens
  • VFDs -Fluorescent displays
  • Character or symbol display also bar graph displays, magic eye
  • Y-x display for picture tubes, oscilloscopes, spectrum analyzers, measurement receivers, display in polar coordinates in radar devices
  • the screen (also monitor, display, smart display) is a very universal display instrument. As a Braun tube, it can be controlled in a vector and grid-oriented manner.
  • Liquid crystal screens are increasingly being used, which are controlled as matrices.
  • LC seven-segment displays such as those found in digital measuring devices, wristwatches and radio clocks, are also widespread.
  • a virtual retinal display projects the information directly onto the retina of the eye.
  • Projection displays project alphanumeric characters or symbols onto a wall or screen.
  • numerical displays were used, which had 10 light bulbs, 10 collimator lenses, gobos 0 ... 9 and 10 lenses for each digit (digit) for each digit to be able to display the same position on a focusing screen.
  • complex devices such as the Eidophor system were required to project video images (video projector) onto large screens.
  • Head-up displays are reflected in a partially transparent plate (windshield, separate beam splitter disc). Ads in measurement technology
  • a mark e.g. a certain point on a physical pointer or a screen pointer, a light pointer (see e.g. mirror galvanometer), an edge, the meniscus of a liquid column
  • a mark e.g. a certain point on a physical pointer or a screen pointer, a light pointer (see e.g. mirror galvanometer), an edge, the meniscus of a liquid column
  • the scale is adjusted to it.
  • physical pointers see e.g. B. under analog multimeter, moving coil measuring mechanism.
  • Scale indicators can also be found on a large number of mechanical measuring devices such as scales and calipers; the latter use a vernier for more precise readability.
  • Mirror scales also have a mirror sector behind the pointer to facilitate vertical reading and thus to avoid a parallax error when reading.
  • Dial clocks, stopwatches and micrometers have 2 to 3 hands to increase the reading accuracy.
  • the band display either a variable number of segments is lit up intermittently or a variable length of the band is set continuously. It can be used for measurement or only for qualitative assessment, see bar graph display or magic eye.
  • the discontinuous band display works digitally and combines digital technology with the advantages of a scale display.
  • the number (sum) of quantization units or the number (sum) of pulses appears discontinuously in a sequence of digits.
  • the number displays differ in the principles of number display. See also section Electrical and electronic displays. Previous digit displays used ten discrete, backlit digits per digit, which were viewed or projected directly from the lighting.
  • DCM digital multimeters
  • Advantages are e.g. B. the representability of the measured value over wide areas by variable commas and additionally displayed units of measurement, the unambiguity of the reading and self-illuminating displays the good readability in poor light conditions.
  • a limit violation or danger in the system can be indicated by a flashing display, additional illuminated signs or changing colors.
  • a computer monitor is a screen that is primarily intended for connection to a computer.
  • televisions and computer monitors developed very far apart (quality, frame rates, signals, levels, plugs). Since 2010 these have been growing together again.
  • mainframe systems such as the IBM S / 360 series came onto the market, which could be operated with the help of text commands via a keyboard, with the output data being visualized on continuous paper with the aid of a stroke printer. Since only the binary control codes for the characters to be printed had to be transmitted for the printout, in contrast to the digital modulation of image data, this method could already be implemented before the invention of the monitor.
  • the first computer terminals were designed in such a way that they could interpret the same control data as a printer at the time in order to generate text output on the screen.
  • the terminals usually had 80 or 132 characters per line with 24 or 43 lines.
  • the resolution was between 240 and 350 lines, frame rates at 50 or 60 Hz, often with phosphorescent luminescence, in order to minimize flickering due to the image grid structure.
  • connection technologies for carrier frequency signals via RF modulator
  • video and RGB signals e.g. Belling-Lee connectors, BNC, RCA, DIN or SCART connector.
  • VGA plug and socket The transmission of video signals changed several times.
  • Era 1 Video signals were transmitted in the same way as with the television. Any number of colors could be transmitted. Synchronization is transmitted with the brightness channel or with the green channel.
  • Era 2 The IBM PC favored digital transmission with separate transmission of the synchronous signals.
  • -Era 3 In the video graphics array, IBM used only one line per color (red, green, blue), via which the intensity was transmitted in analog form. Up to 2 18 colors were supported. The two synchronous signals have been preserved.
  • -Era 4 Digital transmission of analog signals as digital data over 1 or 2 lines. Synchronous signals as special code words in the digital data stream.
  • Computer monitors usually require separately transmitted synchronization signals (HSYNC + VSYNC). Rarely are both signals transmitted together (CSYNC). The transmission with the brightness signal (YUV) or Sync-on-Green, the standard for video, is not used.
  • DVI Digital Visual Interface
  • High Definition Multimedia Interface is an interface developed from mid-2003 for the fully digital transmission of audio and video data in consumer electronics. It unifies existing processes, increases the quality features compared to them, and also offers a coherent copy protection concept (DRM).
  • DRM coherent copy protection concept
  • DisplayPort is a universal and license-free connection standard for the transmission of image and sound signals standardized by VESA.
  • Areas of application are essentially the connection of screens and television sets to computers and similar devices.
  • the path is clearly marked towards a general interface that is capable of both power supply and data transmission as well as the output of video data. See USB 3.1 with Type C connector, Mobile High-Definition Link (MHL) and Thunderbolt.
  • MHL Mobile High-Definition Link
  • Thunderbolt Thunderbolt
  • the Serial Digital Interface is a serial digital interface, primarily for the transmission of uncompressed and unencrypted video data via coaxial cable or fiber optic cable. It is mainly used in the field of professional television studios and television stations.
  • the SDI interface is specified by the Society of Motion Picture and Television Engineers (SMPTE) and represents a further development of the analog video standards such as the PAL or NTSC process.
  • SMPTE Society of Motion Picture and Television Engineers
  • Technical types according to the type of picture display process, raster displays vs. Vector displays
  • Grid displays cover the entire screen in a fixed grid.
  • the electron beam is scanned light or dark, depending on the representation.
  • DVI is a digital interface for graphics cards and monitors (Digital Visual Interface).
  • VGA is the analog interface (Video Graphics Array).
  • the graphics data are digitally processed in the PC, which are then converted into analog signals in the graphics card.
  • a TFT monitor requires digital signals to display the images. If a TFT monitor is now operated via a VGA connection, an analog-digital converter in the monitor must translate the analog signal into a digital signal. Due to the conversion, the quality of the image is more or less subdued depending on the components used. Slight blurring and flickering may result.
  • the best combination is a graphics card with digital DVI output and a monitor with DVl input.
  • a DVI-VGA adapter a TFT monitor that only has a VGA connection can also be operated on a graphics card with a DVI connection, but with this method the image is still transmitted in analog form.
  • flat screens have a maximum and minimum displayable screen resolution. While in a tube monitor no resolution fits exactly over the native shadow mask and therefore all resolutions are reproduced accordingly out of focus. Most other resolutions have to be interpolated and therefore appear less sharp. Exceptions are resolutions that divide the maximum resolution in terms of height and width and therefore do not need to interpolate intermediate pixels, such as half or a quarter of the native resolution.
  • the native resolution is specified in the type description of the monitor.
  • Modern operating systems take over the scaling of the screen Position in the desired display size itself, and thus enable the graphics card to control the flat screen in its native resolution.
  • a liquid crystal display (LCD) or a liquid crystal display is a display or a screen, the function of which is based on the fact that liquid crystals influence the polarization direction of light when a certain amount of electrical voltage is applied.
  • LCDs consist of segments that can change their transparency independently of one another. For this purpose, the alignment of the liquid crystals is controlled in each segment using electrical voltage. This changes the transmittance for polarized light that is generated with a backlight and polarization filters. If a display should be able to display any content, the segments are arranged in a uniform grid (see pixels). In the case of devices which are only intended to represent certain characters, the segments often have a shape which is specially adapted to them, in particular in the case of the seven-segment display for displaying numbers (see also matrix display).
  • TFT thin-film transistors
  • LED TVs have been used extensively in advertising since around 2009. In most cases, these are also liquid crystal screens (LCDs) for image display, in which LEDs are used for backlighting (LED backlight). Screens with organic light-emitting diodes (OLEDs) have only recently become available for large-screen television sets in Europe, after initially only serving the test market in South Korea.
  • LCDs liquid crystal screens
  • OLEDs organic light-emitting diodes
  • LCDs are used on many electronic devices, such as consumer electronics, measuring devices, mobile phones, digital watches and pocket calculators. Head-up displays and video projectors also use this technology.
  • the first functioning LCD was based on dynamic scattering mode (DSM) and was introduced in 1968 in the USA by a group at the Radio Corporation of America (RCA) under the direction of George H. Heilmeier. Heilmeier founded Optel, which developed some LCDs based on this principle.
  • DSM dynamic scattering mode
  • Liquid crystals used in liquid crystal displays are organic compounds which have properties of both liquids and solids. she are on the one hand more or less fluid than a liquid, on the other hand they have properties like birefringence.
  • a simple liquid crystal display element can be realized with the Schadt-Helffich cell (nematic twisted nematic, TN cell). In the illustration opposite, only the components of the lower half of such a rotary cell are numbered. The reference numbers (x) are inserted in this description.
  • liquid crystal layer of less than 10 microns thick.
  • the liquid crystal stall molecules arrange themselves in a predetermined direction, namely parallel to the surface, for example coated with a polyimide and brushed in a preferred direction.
  • the preferred directions of the two substrate plates are rotated by 90 ° to each other.
  • polystyrene foam or rollers coated with velvety textiles can be used for brushing.
  • the two substrate plates are coated with polarization filters rotated by 90 ° to one another.
  • polarization filters rotated by 90 ° to one another.
  • a lighting unit is located behind the display element instead of the reflector.
  • a helical structure in the liquid crystal results from the twisted substrate plates; with a screw turned by 90 ° one speaks of TN. Incident light is thus linearly polarized before entering the liquid crystal layer.
  • the twisting of the molecules results in a rotation of the polarization direction of the light, so that the light can pass through the second polarizer and the cell is translucent (transparent). Since the display is transparent in the idle state, this operating mode is referred to as normal-white mode. If an electrical voltage is applied to the electrodes, a rotation of the liquid crystal molecules occurs under the influence of the electric field, which are aligned parallel to the electric field. The twisting is thus increasingly eliminated, the direction of polarization of light is no longer rotated and it can no longer pass through the second polarization filter.
  • the Schadt-Helfrich cell is (like other liquid crystal displays) a voltage-controlled light valve.
  • a screen can consist of any number of such cells (picture elements, pixels).
  • a simple 7-segment display represents one digit each; in the case of a color-capable screen, three sub-picture elements (sub-pixels) are used for the basic colors red, green and blue per picture element (pixel).
  • linear polarized light with a twisted oscillation plane is not simply obtained, but elliptically (or circularly) polarized light.
  • the tip of the electric field vector describes an ellipse or a circle.
  • Such light passes through the polarizer, the color splitting caused by the dichroism - depending on the polarization and the film orientation at the beam exit - leading to colored light.
  • the linearly polarized light from the rear polarizer passes through there smoothly without being changed. Circular polarization only occurs in the passive cell. However, because circularly polarized light is not retained by polarizers, the screen is bright at this point. By precisely adjusting both the material used and the cell dimensions, the transmitted light becomes white.
  • TSTN Triple Super-Twisted Nematic
  • TN or film TN Structure of a TSTN liquid crystal cell: The light from the lighting is polarized, filtered, and traverses the rear glass pane, the STN liquid crystal, the front glass pane, the front filter film, the front polarizer and then comes out in color.
  • TSTN Triple Super-Twisted Nematic LCD
  • the patterned vertical alignment technique also called PVA for short, is a further development of a manufacturer's multi-domain vertical alignment technique (MVA). Both techniques are based on a similar process.
  • MVA / PVA screens are in a higher contrast (> 1000: 1 is common) than with a TN screen ( ⁇ 800: 1).
  • MVA / PVA screens offer great viewing angle independence.
  • the disadvantage of MVA / PVA screens is that they are slower than TN screens and therefore less suitable for moving images - such as games and videos.
  • the price is higher than that of TN screens.
  • IPS In-Plane Switching
  • IPS in-plane switching technology
  • the electrodes are next to each other in a plane parallel to the display surface.
  • the molecules rotate in the screen plane; the screw shape typical of TN displays is eliminated.
  • IPS reduces the viewing angle dependence of the contrast.
  • the other IPS types can be recognized by the fact that, viewed from the side and in contrast to VA panels, they have a light purple color.
  • the E-IPS technology which came onto the market in 2009, offers an even wider viewing angle and shorter switching times of 5 milliseconds.
  • the further development PLS Plant-to-Line Switching was developed by Samsung and offers, among other things, greater transparency (lower power consumption with the same brightness) and the elimination of the glitter effect typical of IPS panels.
  • the first screens with PLS panels came onto the market in 201 1.
  • CMOS-ICs complementary MOS circuits
  • the operation of passive matrix displays depends on how pronounced an electro-optical threshold voltage is. Because the control of the individual picture elements (pixels) has to be repeated periodically in order to control not only one row, but all pixels of a matrix. B. the rows of a matrix are driven sequentially in pulse form. In the columns, the image information is entered in such a way that the greatest possible voltage difference to the line pulses occurs in the activated picture elements and a voltage difference below the threshold value arises in the non-activated picture elements. Decisive for the optimization was the realization of Peter J. Wild that with pulse-like, periodically repeated activation of the The root mean square (RMS) of the voltage differences is decisive. Detailed information on the best possible control techniques for passive matrix displays can be found in the seductive literature.
  • RMS root mean square
  • TFT thin-film transistors
  • a display of this technique is called an active matrix display because the operation of the individual pixels is actively controlled by the assigned transistors.
  • So-called zebras are used for displays with a contact pitch that is not too narrow, which alternately consist of insulating and conductive elastomers “channels”.
  • the dark grid of the zebra rubber of 180 micrometers is therefore only visible when the image is clicked with an enlargement: the pink-red isolating elastomer band contains the black guide elements, separated by isolating elements. Due to the structure (the elements are much smaller than the surfaces to be contacted), positional tolerances of the rubber do not matter. The rubber can absorb dimensional tolerances.
  • Typical applications are displays with seven-segment displays.
  • the picture elements (a segment or a symbol) are activated in time-division multiplexing. This means that each picture element is directly and permanently connected to a control circuit whose output has a low resistance. Therefore, the charge applied at the time of addressing degrades relatively quickly and has to be renewed in the following image period. This change in the electrical control leads to pronounced modulations of the optical response of the display (so-called ffame response).
  • a charge is applied to the picture element at the time of addressing, to which an additional capacitor is usually connected in parallel (storage capacitor).
  • the active component usually a thin-film transistor, TFT
  • the active component is switched back to the high-resistance state, as a result of which the charge and thus the control is essentially retained during an image period.
  • this type of control brings about a higher effective voltage across the picture element, thus a higher modulation of the liquid crystal and thus an improved contrast and a reduced dependence of the contrast on the viewing direction.
  • the LC screens have several advantages over the older cathode ray tube (CRT) screens.
  • LCD do not emit X-rays (also applies to CRTs)
  • Electromagnetic fields however, they are emitted and contain the image information (so-called compromising radiation, problem of security against eavesdropping, see Van Eck phreaking), just like with CRTs.
  • liquid crystal displays are in practice not affected by magnetic fields such as the earth's magnetic field or the magnetic fields of overhead lines, NMR devices, transformers or loudspeakers.
  • the physical image resolution is determined during production; activation with a signal of a different resolution can lead to quality losses.
  • a TFT-based LC screen displays a much sharper picture than a CRT screen - but only in its design-related physical resolution. Lower resolution signals must be interpolated and appear blurry.
  • the image can also be displayed with black edges centered in full focus (with a digital connection, this can usually be set in the graphics card driver).
  • the backlighting through so-called cold cathode tubes is filtered in order to obtain the basic colors of the pixels (mostly red, green and blue), however the compromise between brightness and color rendering quality has to be found.
  • the colors of LCD are by no means less saturated than with CRT or plasma screen technology. Only about 4% of the generated light penetrates through the panel (with white picture content).
  • CRT tube monitors
  • the backlight fluorescent lights have a limited lifespan (approximately 100,000 hours).
  • the quality of the display of white areas, which is influenced by the backlight changes significantly to yellowish after just a few thousand hours of operation, since the luminosity of the fluorescent tubes decreases over time.
  • the brightness of tube monitors also decreases during operation.
  • the backlighting by means of LEDs is more resistant to aging, but it also shows slow signs of aging depending on the type of light emitting diodes used and the mode of operation.
  • lighting by means of LEDs enables a more compact design, more homogeneous illumination and increased contrast through selective control depending on the image content (LED backlight). Switching times and techniques
  • the response time of modern LCDs is currently between 1 ms and 5 ms.
  • the response time is the time that elapses when the luminance (brightness) of an image area changes from 10% to 90%; 0% and 100% are the luminance of the steady state.
  • the image build-up time according to ISO 13406-2 is the sum of the switching times from light to dark (or vice versa) and back again. Due to the asymptotic switching process, switching times of ⁇ 3 ms are required according to ISO 13406-2 in order to avoid visible streaking.
  • a large one accelerates the return of the crystal to its initial state, but also counteracts the alignment of the crystal when a voltage is applied (due to the correspondingly increased threshold voltage).
  • the switching speeds can also be increased by reducing the layer thickness. If the layer thickness is reduced by 30%, for example, the switching times decrease to about half.
  • One of the ways to counteract the motion blur is to further reduce the switching times of the displays, especially by reducing the viscosity of the liquid crystal materials used.
  • the integration of the eye from the next image is calculated from the data of the current and next image.
  • the exact switching properties of the respective panel type are also required for this.
  • the pixels or the entire display can also be darkened for a short time.
  • the dark phase at 50 Hz control frequency must not exceed 55% of the picture time (at 60 Hz it is 70% and at 75 Hz it is 85%): otherwise the picture flickers.
  • strobing When using LEDs for backlighting LCDs (so-called LED televisions or screens), this method is easier to implement than black stripe insertion, since it is not necessary to control the pixels faster, but rather for pixel areas or the entire display, the backlight can be switched off for a fraction of a full screen. Scanning backlight
  • LCDs have been used in digital clocks and calculators since the early 1970s. These single-color displays without backlight are characterized by the lowest energy consumption and very long life and can be used wherever long maintenance-free operation is required.
  • LCDs as active matrix displays with backlighting were spread via other portable or battery-powered devices such as cell phones, notebooks and the like.
  • Typical resolutions for computer flat screens range from 1024x768 pixels (38 cm / 15 ") to 2560x 1600 pixels (76 cm / 30"), up to 3840 x 2160 pixels, for notebooks they range from 800x480 pixels to 3200x 1800 pixels.
  • PDAs and portable DVD players have resolutions between 320x240 and 800x480 pixels, displays of still and video cameras between 160x176 pixels (84 thousand pixels) and 640x480 pixels (900 thousand pixels).
  • Apple has created a new marketing term for high image resolution with the “retina display”.
  • LCD and plasma displays have largely replaced the cathode ray tube. This applies to computer monitors (since 2006) and televisions with larger screen sizes (since 2008).
  • the Imagina 90 was the world's first mass-produced video projector with liquid crystal image generator, which was also suitable for continuous operation.
  • liquid crystal screen production is viewed as problematic because very large quantities of substances harmful to the climate are used in traditional production.
  • Potent greenhouse gases such as sulfur hexafluoride (SF6) - GWP 22800 C02e - and nitrogen irifluoride (NF3) - GWP 17200 C02e - are used and used to a very large extent in the important “array process”, in which the TFT control matrix is applied over a large area to thin glass panes released into the atmosphere, as a study from 2008 shows.
  • ChLCD -Cholesteric liquid crystal display
  • FLCD Ferroelectric Liquid Crystal Display
  • Software determines what a software-controlled device does and how it does it (roughly comparable to a manuscript).
  • the hardware the device itself
  • executes software executes it and thus implements it.
  • Software is the entirety of information that must be added to the hardware so that a software-controlled device can be used for a defined range of tasks
  • software is generally only used to refer to programs, but not to other data.
  • source text, further data or documentation can also be added depending on the definition.
  • software is also used as a generic term for different types of programs (graphics software, application software, standard software, security software and many others).
  • the current ISO / IEC standard 24765 replaces the DIN standard 44300 and contains the following definitions for software:
  • Software is a program or a set of programs that are used to run a computer.
  • Software is immaterial and consists of the languages and notations in which it is formulated. Software can be saved on certain media, displayed in print or transported. However, these are not the software, they only contain them. ns -
  • software 4 would only be understood as machine code that can be executed by the hardware. However, this also includes everything that can be carried out by any interpreting systems 4 that are part of the system software, as is almost always the case when using higher programming languages and development environments.
  • a file contains both data in the sense of what has been processed (texts or cell contents) and functional instructions (macro instructions, cell formulas).
  • the machine code of the software is loaded into the main memory of the computer using the operating system (ie also by means of its machine commands) and fed to the arithmetic unit step by step (see command counter) for execution.
  • This principle of operation applies to all types of software, even if B. executed by interpreters: These are also software, the machine code of which is also executed on the hardware interface as described and only generate the machine commands within the memory. Compilers, macro processors and any other type of system software are also executed according to this principle.
  • the machine code must be in a form / structure that can be interpreted and executed by the hardware via the interface implemented in it.
  • the commands indicate what needs to be done, which data areas in the main memory are to be used or changed (via the addressing information contained in the command) and, if applicable, at which point the program is to be continued.
  • the software also makes a significant contribution to how efficiently the hardware is used. Depending on the design of the algorithms, different system performance can be achieved with the same hardware.
  • Software development is a complex process. This is systematized by software technology, a sub-area of computer science. Here the creation of the software is described step by step in a process from analysis via software modeling to testing as a repeatable process.
  • the software is adapted and expanded several times after development.
  • the software lifecycle can be several years.
  • -Software is developed using certain procedures, methods and tools 1 . Different development stages are run through, in which different intermediate versions of the software arise: Analysis activities (numerous development documents)> Programming (source code)> in operation (machine code or executable code). In the narrower sense of execution on the computer, only the latter is considered 'software'. See also software development.
  • software is the subject of system programs. For example, if a compiler reads the source code of a program, processes it and generates machine or intermediate code, this is 'data' from its perspective.
  • Software that has been created once can be reproduced at relatively low costs, which are usually incurred through data carriers, advertising and the production of packaging and documentation put down on paper. - Software does not wear out through use, but is subject to software aging over time.
  • Software is mostly interchangeable, capable of updating, correctable and expandable, especially if existing guidelines are complied with and the source text is available
  • -Software can be preconfigured to accelerate a new installation and to minimize configuration errors.
  • System software application-independent software that enables or supports the execution of application software (e.g. operating system, device drivers and utilities)
  • Subdivision according to the degree of individuality -Standard software is created by a software provider for use by several / many customers who can purchase this software.
  • -Individual software is created or modified individually for a single user to solve a specific task, alternatively by a software provider or by a company's own developers or development departments.
  • firmware Software that is permanently accommodated in a device for controlling it (for example in a ROM or as part of an embedded system) is referred to as firmware or also as embedded (or, embedded ') software
  • -Native software created or compiled to run on a specific computer system.
  • the program code uses the individual functionality of a certain system type, general validity and portability are not considered development goals.
  • the software is hosted by a service provider, the actual use of the software can be calculated either per period or per unit of use. It often takes place on a simple PC and e.g. B. instead of a web browser.
  • Free software may be used by anyone, modified as desired and redistributed. This right is often subject to certain restrictions, such as naming the author or the obligation to place modified versions under the same license (GPL). Software that does not belong to this group is called proprietary.
  • Free software is a social movement, the non-free software as social
  • free does not mean “free”("freesoftware” is not the same as 'freeware'), but means the freedoms for society that such a licensed (also commercial) product offers.
  • FSF Free Software Foundation
  • Application software also referred to as application program, or application for short
  • application program or application for short
  • application program or application for short
  • application program or application for short
  • image processing e.g., image processing, e-mail programs, web browsers, word processing, spreadsheets or computer games.
  • application, or app for short has also become commonplace in everyday language. Since the appearance of the iOS App Store (2008), the abbreviation app has been equated almost exclusively with the mobile app in German-speaking countries, ie application software for mobile devices such as smartphones and tablet computers.
  • desktop application software app is now sometimes also called, for example in Microsoft's operating system Win- dows since Windows 8 (Windows apps), which is used on both desktop PCs and tablets, or with Apple's macOS operating system with the Mac App Store.
  • Application software is used to a large extent to support administration in authorities and companies.
  • Application software is partly standard software, mostly industry solutions tailored to the respective application are used as individual software.
  • strategic and economical application software within a company such as enterprise resource planning systems or portal software
  • Mobile apps can be obtained from an app store integrated into the mobile operating system and installed directly on the device. Mobile web apps are accessed via the mobile device's web browser and do not need to be installed.
  • Web applications are a special form of application software. These are accessed from the workstation or mobile device via a web browser and run in the browser. In contrast to desktop applications, web applications do not require a special operating system, but sometimes special runtime environments.
  • Application software (according to ISO / IEC 2382) is in contrast to system software and utilities. This includes “the programs that are required for the correct operation of a computer system, as well as all programs that support program creation, eg. Provide as translators and test tools and general services (formatting, file management, data transfer) but no end-user related benefits r! bring. Examples are the operating system, compilers for different programming languages or database systems.
  • Application software can either be installed locally on a desktop computer (desktop application) or on a mobile device or run on a server which is accessed by the desktop computer or mobile device (client-server or web application). Depending on the technical implementation, it can be carried out in batch mode or in dialog mode (with direct user interaction). However, these two distinctions apply to all computer programs, in principle also to system software.
  • An application software for mobile devices or mobile operating systems becomes a mobile app (mostly in German the app [er], an abbreviation for the technical term application; sometimes also the app [1]; in English [aep] as a short form for English application) designated.
  • app refers to any type of application software, it is often equated with application software for smartphones and tablets in the German-speaking world.
  • Mobile apps differentiate between native apps that only work on one platform and platform-independent web, hybrid and cross-platform apps.
  • Native apps are characterized by the fact that they are specially adapted to the target platform. Since a native app uses the programming interfaces (APIs) of the target platform directly, the range of applications is very high. In addition, all platform-specific hardware and software functions can be accessed, such as files, GPS, acceleration sensors, microphone and camera. Due to the different software platforms, however, it is not possible to install an Android app on an iPhone, for example, or vice versa. A software company must therefore develop the application for each end device individually. Each mobile platform has its own software development kit (SDK) and its own integrated development environment (e.g. Android Studio or Xcode), which can be used by developers.
  • SDK software development kit
  • Android Studio integrated development environment
  • the preferred programming languages for the largest systems are:
  • Web apps e.g. office programs
  • Google Docs e.g. Google Docs
  • Mobile web apps are accessed via the mobile device's web browser and do not require any installation. They use web standards such as HTML5 or JavaScript so that they can be operated on any device. In contrast to mobile apps, which have to be newly implemented for each platform, an implementation of web apps can be used on many different platforms. Ideally, a mobile web app behaves exactly like a native app, so it is not perceived by the user as a website, but instead offers a user interface. surface that integrates optically and ergonomically into the mobile device. Disadvantages of web apps are that they cannot access all hardware components and that the available data transfer speed plays an important role. A slow internet connection (for example due to poor network reception) can lead to noticeable delays in interactivity.
  • the temporary storage of the required data in a local memory (cache) is a practical way out so that it can also be made available in offline mode.
  • the amount of data to be stored in the device using web storage technology is usually very limited.
  • Hybrid apps Unlike all other types of mobile apps, mobile web apps cannot be offered in app stores.
  • Hybrid apps represent a special form of mobile app. They combine the advantages of native and web apps by accessing many hardware and software components of the mobile device and at the same time being able to operate different platforms. They can run on different mobile devices (smartphone & tablet) and PCs as well as on different operating systems.
  • Hybrid apps combine the advantages of native apps and web applications in that source code can be used across platforms.
  • the code is written in web technologies such as HTML, CSS and JavaScript.
  • Hybrid apps run - not visible to the user - within the native web browser of the respective platform, e.g. B. Safari or Google Chrome. Thanks to the framework used, all operating elements elements of the browser, such as suppressing the menu bar with URL or bookmark bar.
  • hybrid apps Various frameworks are available for the development of hybrid apps.
  • One of the largest development platforms is Cordova from the Apache Software Foundation and the PhoneGap from Adobe based on it.
  • There are other companies such as Ansca Mobile with the Corona SDK and Drifty with Ionic offering solutions for developing hybrid apps.
  • the framework loads a library that establishes communication between JavaScript and the respective operating system-specific language. This enables hybrid apps to access various hardware and software components of the mobile device. Access is possible, among other things, to contacts, camera, motion sensor, GPS and files. Modern render engines increase the calculation speed of the interpretation of HTML5, CSS3 and JavaScript code. As a result, the execution speed can be increased many times over. Technology such as WebGL accelerates complex 3D graphics without additional hardware extensions.
  • Platforms can be covered and no more expensive parallel developments for the respective ecosystems need to take place. As a result, the development effort on the part of the software company drops considerably, which means that the user interface and functionality can be kept at the same level across multiple platforms. However, not all device or operating system-specific properties can be used and when implementing the hybrid app, platform-specific interaction designs and the look and feel of the respective platform can only be taken into account to a limited extent. In addition, the loading times are much slower Much worse computing performance, for example in complex games, is possible because they act with the intermediate layer of the web browser.
  • a cross-platform app is an application that can be run on different operating systems and devices, regardless of the platform.
  • the user interface is usually built with the native APIs of the respective operating system and is not displayed in a web browser. In this way, up to 75% of the source code can be shared between the different platforms without any significant loss in performance. [19]
  • the source code is mostly written in C #, C ++ or JavaScript.
  • Frameworks for cross-platform development are the "Xamarin platform” from Xamarin, Appcelerators “Titanium Mobile” and React Native from Facebook. All three frameworks support the development of cross-platform apps for Android, iOS and Windows. With “Xamarin. Forms ”can also be used to share large parts of the user interface code between the platforms. In doing so, the cross-platform placeholder control element is converted into a native control element at runtime.
  • Google's Flutter SDK enables the development of cross-platform apps for iOS and Android in the Dart programming language. Flutter does not use native controls, but draws with its own rendering engine.
  • model layer code in C ++ can also be shared between these platforms without the need to use a framework.
  • Mobile apps When developing mobile apps, some restrictions have to be observed compared to applications for desktop computers. B. the processors of smartphones are less powerful and run on battery power. There is also a large number of different screen sizes, hardware configurations and software versions. Mobile apps are usually developed with the help of an integrated development environment and the software development kit of the corresponding platform. The software can be tested with an emulator before trying it out on real devices.
  • voice dialog systems in contrast to "normal" mobile user interfaces. These can either be in the form of speech recognition, e.g. B. with Siri, or in the form of chatbots, e.g. B. in Skype or Facebook Messenger. This form of interaction with applications is growing because many users are overwhelmed by the multitude of apps. Microsoft's CEO Satya Nadella sees chatbots "as the next big thing", which will bring as far-reaching changes as before to the iPhone for touchscreens or the use of graphical user interfaces.
  • Apps can usually be obtained via an Internet sales platform integrated into the operating system and installed directly on the device.
  • An Internet sales platform integrated into the operating system and installed directly on the device.
  • Customers can download the apps there free of charge or for a fee.
  • the sales platform with the largest number of programs is the Google Play Store for Android devices, [34] followed by the App Store for iOS.
  • apps There are also separate app stores for devices with a different operating system.
  • Most of the proceeds go to the developers, and the operator of the sales portal also participates in the profits. Apple, Google and Microsoft retain 30 percent of the purchase price of an app as a commission.
  • apps are technically checked by the portal operator, and in some cases there is an additional content check.
  • native apps can contain security holes. It is therefore essential to ensure updates to the end device and software maintenance by the provider. Native apps run as an independent program on the respective device and thus have expanded access to resources. This problem is countered by using a sandbox, which limits access to program interfaces provided by the manufacturer and can therefore be regulated.
  • Mobile apps are used in companies in various areas. Applications that are used in the company by the employees on PCs are used. B. Enterprise Resource Planning (ERP), Customer Relationship Management (CRM) or Microsoft Outlook, also available on mobile devices so that you can work anywhere. Another area of application is in marketing. Apps are used there, for example, to support sales staff, for example by providing internal product catalogs or spare parts lists with direct online ordering options, also in connection with the previous query of inventory levels and / or forecasts of the current delivery time of a product.
  • ERP Enterprise Resource Planning
  • CRM Customer Relationship Management
  • Microsoft Outlook also available on mobile devices so that you can work anywhere.
  • Another area of application is in marketing. Apps are used there, for example, to support sales staff, for example by providing internal product catalogs or spare parts lists with direct online ordering options, also in connection with the previous query of inventory levels and / or forecasts of the current delivery time of a product.
  • Mobile apps often pose a high security risk for companies in the bring-your-own-device context, since they sometimes transmit sensitive data without the knowledge and consent of users. This not only means the loss of confidential information, but also makes companies vulnerable and blackmailable.
  • so-called mobile device management systems ensure that the desired apps can be distributed centrally to the devices, in part through a dedicated reference portal.
  • the installation of other apps is often prevented by the user for security reasons. because otherwise a possible point of attack for industrial espionage and other risks would be created by malware.
  • So-called persona can be used to separate the respective data and applications for the clean separation of apps on company mobile devices with partial private use.
  • the conventional sales channel via an app store is generally out of the question, because it would also make the company's - often self-developed - mobile apps publicly accessible. Instead, such apps are made available to the user centrally by a system administrator of the company via mobile device management solutions or are also automatically installed on the smartphone.
  • App wrapping is one way of securing company data. With app wrapping, company-relevant applications are encrypted in another app. This ensures that only safe and approved applications are used in the company. However, this also has disadvantages, it can lead to copyright violations and even loss of warranty rights.
  • the Internet (from the English internetwork, composed of the prefix inter and network, network 4 or net for short, network '), colloquially also network, is a worldwide network of computer networks, the autonomous systems. It enables the Use of internet services such as WWW, e-mail, Telnet, SSH, XMPP, MQTT and FTP. Each computer can connect to any other computer.
  • the data exchange between the computers connected via the Internet takes place via the technically standardized Internet protocols.
  • the technology of the Internet is described by the RFCs of the Internet Engineering Task Force (IETF).
  • the transmission of data on the Internet regardless of its content, the sender and the recipient is referred to as network neutrality.
  • the Internet consists of networks of different administrative administrations that are interconnected. Among them are mainly
  • Intranets that connect a company's computers, as well as
  • the Internet in the core area i.e. for connections between the above-mentioned networks and in the backbones of large networks, consists mainly of fiber optic cables, continental and intercontinental, which are connected to a network by the router.
  • Fiber optic cables offer enormous transmission capacity and were laid a number of years ago both as land and sea cables in anticipation of very high data traffic growth.
  • DWDM advanced light feed technology
  • the Internet currently has overcapacity here. In 2005, it was estimated that only three percent of the glass fiber laid between European or US cities was used. [17] Satellites and microwave links are also integrated in the global Internet structure, but have a small share.
  • the data is often transmitted on copper lines from telephone or television connections and increasingly also via radio, using WLAN or UMTS.
  • Glass fibers up to the house (FTTH) are not yet very widespread in Germany.
  • Private individuals access the Internet either via a narrowband connection, for example via modem or ISDN (see also Internet by Call), or via broadband access, for example with DSL, cable modem or UMTS, from an internet provider.
  • Companies or government institutions are often connected to the Internet via copper or fiber-optic leased lines, whereby technologies such as channel bundling, ATM, SDH or - increasingly often - Ethernet are used in all speed variants.
  • client computers In private households, computers for accessing services are often connected to the Internet which themselves provide few or no such services for other subscribers and are not permanently accessible. Such computers are referred to as client computers.
  • Servers are computers that primarily offer Internet services. They are usually located in so-called data centers, are quickly connected there and are secured in air-conditioned rooms against power and network failure as well as burglary and fire. Peer-to-peer applications also enable the above client computers to temporarily offer themselves services that they call up from other computers in this network. In this way, the strict distinction between the client-server model is resolved.
  • the Internet Corporation for Registered Names and Numbers is responsible for the assignment of IP address ranges, the coordination of the Domain Name System (DNS) and the necessary root name server infrastructure as well as for Definition of other parameters of the Internet protocol family that require worldwide uniqueness. It is formally subordinate to the US Department of Commerce.
  • DNS Domain Name System
  • the network-like structure and the heterogeneity of the Internet contribute to a high level of reliability. Most often exist for communication between two users several possible routes via routers with different operating systems, and only when the actual data transmission is decided which one is used. Two data packets sent in succession or an inquiry and the response can run through different paths depending on the load and availability. Therefore, the failure of a physical connection in the core area of the Internet usually has no serious effects; only a failure of the only connection on the last mile cannot be compensated.
  • IP Internet Protocol
  • IP Internet Protocol
  • Communication with it is not connection-oriented, as is the case with the telephone, but rather packet-oriented. This means that the data to be transmitted are transmitted in IP packets with a size of up to approx. 65,000 bytes, but mostly only 1500 bytes, each of which contains IP addresses as send and destination information.
  • the recipient reassembles the data from the packet contents, also called user data, in a specified order.
  • the network protocols are assigned to different layers, with protocols of a higher layer including user data being transported in the user data of lower layers.
  • the standards and protocols of the Internet are described and defined in RFCs.
  • a major advantage of the Internet protocol is that the packet transmission can take place regardless of the choice of operating systems used and regardless of the network technology of the protocol layers below IP, similar to how an ISO container can be transported one after the other in freight traffic by ship, train and truck to get to its destination.
  • the Internet protocol identifies it with a unique IP address. This is version IPv4 by four bytes (32 bits), which are specified as four decimal numbers in the range from 0 to 255 separated by a period, for example 66.230.200.100.
  • IPv6 16 bytes (128 bits), which are specified as eight blocks separated by colons, each consisting of four hexadecimal digits, e.g. 2001: 0db8: 85a3: 08d3: 1319: 8a2e: 0370: 7344. You can think of these addresses as phone numbers for computers with the Domain Name System (DNS) as an automatic phone book.
  • DNS Domain Name System
  • the DNS is an important part of the internet infrastructure. It is a hierarchically structured database that is distributed over many administrative areas and provides a translation mechanism: A domain name that can be easily recognized by humans (for example “wikipedia.de”) can be translated into an IP address and vice versa. This happens - unnoticed by the user - whenever he clicks on a new hyperlink in the web browser or directly enters a web address. The browser then first uses an IP packet to ask a DNS server known to it for the IP address of the foreign name and then exchanges IP packets with this address in order to access the content of the services offered there, such as websites. To determine the IP address, the DNS server often queries other DNS servers themselves, following the hierarchy.
  • the root name server forms the root of the hierarchy, which can be recognized in the names by the dots. This enables the services mentioned to be reached with IP packets, which only provide users with a benefit from the Internet, and the DNS itself is actually such a service, albeit a very basic one, without which the user can connect to it other computers would have to enter IP addresses instead of names.
  • the IP packets have to go through an extensive network.
  • the branches are routers that decide on the shortest route to the destination IP address of the packet. To do this, you use routing tables that are automatically created and kept up-to-date via routing protocols; this will automatically react to failed connections.
  • routing tables several possible destination IP addresses are converted to destination with the help of netmasks - in IPv6 one speaks of prefix lengths. networks, and each of these is assigned an output of the router, for example in the form of the jump address to the next router (Next Hop IP Address), for forwarding.
  • “Today the exchange of this accessibility information between autonomous systems takes place exclusively via the Border Gateway Protocol. Many other routing protocols are available within an autonomous system.
  • a static routing table that is not generated by routing protocols is sufficient. This then contains a default route, often also called a standard or default gateway, which points towards the core area of the Internet for all destination networks that are not otherwise specified, similar to a signpost "All directions" in road traffic.
  • the routers in the core area currently manage routing tables with up to 540,000 target networks for IPv4 and 21,000 for IPv6.
  • HTTP Hypertext Transfer Protocol
  • HTTPS Hypertext Transfer Protocol Secure
  • SMTP Simple Mail Transfer Protocol
  • IPv4 IP address Translation
  • the amount of data of one exabyte is comparable to the more than 2500 times the amount of data of all books that have ever been written.
  • the mobile data volume (data exchange via mobile radio networks) amounts to over 1, 1 exabytes of data per month in 2012.
  • the data volume on the wired Internet is expected to grow to approximately 60 exabytes per month.
  • a data volume of more than 6.2 exabytes per month is forecast on the mobile Internet.
  • Video services (video-on-demand) make up more than half of the transmitted data.
  • Internet access also called an Internet connection
  • Internet access generally refers to the communication connection between a computer or a network and the Internet.
  • broadband data transmission usually via DSL or cable modem
  • conventional narrowband connections via telephone modem or ISDN as well as mobile connections via LTE, HSDPA, UMTS, EDGE or GPRS.
  • Internet connections for private subscribers are usually only possible with a service contract with an Internet service provider (ISP) who simultaneously offers access services or an Internet access provider (Internet access provider). cess provider, 1AP) possible (there is also a service contract for an Internet-by-call connection).
  • ISP Internet service provider
  • 1AP Internet access provider
  • the connection is established via a dial-in node or a broadband PoP and a customer-installed modem or ISDN terminal, in the case of wired access, regularly via the subscriber line or the TV cable network.
  • the end device must also be connected to the individual computer or the local computer network - by cable (LAN, i.e. wired), wireless LAN, Bluetooth (radio) or via the power network.
  • a device driver is also required for the modem.
  • the data throughput of the data exchange is measured with bits per second (bit / s or b / s). In the widespread DSL standard, at least 1024 kbit / s (kilobit / s) are generally transmitted in the download and 128 kbit / s in the upload direction.
  • a connection can be established via GMDSS, UMTS or other mobile internet or a surf stick.
  • the SIM cards must first be enabled for the Internet.
  • the World Wide Web [ , w3: ld , waid'w6b] (English for "worldwide network", short Web, WWW, rare and especially in the early days and in the USA also W3) is a system of electronic hypertext that can be called up over the Internet Documents, so-called websites. They are linked to each other by hyperlinks and are transmitted on the Internet using the HTTP or HTTPS protocols. The websites mostly contain texts, often illustrated with pictures and graphic elements. Videos, audio documents and pieces of music are also often embedded.
  • the World Wide Web is often equated with the Internet, but it is younger and represents only one of several possible uses of the Internet.
  • Other Internet services such as e-mail, IRC or Telnet are not integrated into the World Wide Web.
  • a web browser is required to access content from the World Wide Web.
  • B. runs on a PC or smartphone. With it, the user can access the Download any data provided by the selected web server and display it on a suitable output device such as a screen or a Braille display. The user can then follow the hyperlinks on the displayed website that refer to other websites, regardless of whether they are stored on the same web server or another. This creates a worldwide network of websites. Tracking the hyperlinks is also referred to as "surfing the Internet”.
  • filters individualize the content via filters include CSS, JavaScript or Java, whereby Java is mainly used for the platform-neutral execution of programs that are often loaded as web applications via the Internet and communicate with Internet-based databases (e.g. SAP clients) .
  • Internet-based databases e.g. SAP clients
  • the WWW was developed by further developing known similar concepts in 1989 by Tim Berners-Lee and Robert Cailliau at the European research center CERN in Geneva. Berners-Lee developed the HTTP network protocol and the Markup text HTML. He also programmed the first web browser and the first web server software. He also operated the world's first web server on his NeXTcube development computer. The overall concept was made freely available to the public in 1991 without any patenting or license payments, which contributed significantly to its current importance.
  • the WWW is based on three core standards:
  • -HTTP as a protocol with which the browser can request information from the web server.
  • -HTML as markup language, which defines how the information is structured and how the documents are linked (hyperlinks).
  • CSS -Cascading Style Sheets
  • Hypertext Transfer Protocol Secure is a further development of HTTP, in which the SSL protocol is pushed between TCP and HTTP and the data transfer is then completely encrypted.
  • -Document Object Model as a programming interface for external programs or script languages of web browsers.
  • JavaScript is a scripting language with instructions for the browser with which programs (scripts) can be embedded. This allows websites to be changed dynamically using the Document Object Model (DOM). Scripts are usually small programs, but can also take full control of the display as client managers using the DOM. A variant of JavaScript developed by Microsoft is called JScript. Both languages are similar, but not compatible with each other. This incompatibility was a crucial part of the so-called browser war.
  • the WWW has been and is being supplemented by other techniques. Images were used early for illustration; the formats GIF for graphics and animations and JPEG for photos were used. Later, GIF was increasingly replaced by PNG, since - unlike GIF - there were no license fees for its use.
  • plug-ins In addition, numerous other file types could be displayed in browsers through browser extensions, so-called plug-ins. This made it possible to display multimedia content from animations to music and videos or entire applications such as insurance calculators or navigation interfaces. For example, Java applets made it possible to embed programs that run locally on the WWW user's computer, and Flash was used for interactive content or animation. With the introduction of HTML5 and other standardized web technologies, plug-ins were quickly pushed out of the market, since the functions for animation and multimedia content or similar were now built directly into the browser and could therefore be implemented without external dependencies. For security and stability reasons, most larger browsers mostly deactivate large parts or the entire NPAPI interface that was used for these plug-ins. However, formats such as PDF for displaying documents are still popular, which can now mostly also be displayed using PDF readers installed in the browser. Dynamic websites and web applications
  • the WWW can serve as an interface for distributed programs: A program is no longer started conventionally locally on the computer, but is a set of dynamic WWW pages that can be viewed and operated by a web browser. It is advantageous here
  • Dynamic web applications are either executed on the web server or directly in the browser.
  • Execution of web applications on the web server The content is generated by web applications written in script languages (such as PHP or Perl) or compiled applications (such as JSP, Servlets or ASP.NET) and delivered to the browser.
  • -Dynamic websites on the client The browser creates or changes content using JavaScript.
  • AJAX is a mixed version - here the browser sends a request using JavaScript, which is processed by the web server and thus dynamically renews parts of the HTML structure.
  • a disadvantage is the limited printability of WWW pages, so that programs in the form of Internet pages can generally not be operated as easily as conventional programs.
  • Rieh Internet Applications is a trend that tries to reconcile the two. At the moment it can be observed that more and more services, which were originally separated from the WWW and ran as a separate program, are offered via the WWW and can be used using a browser:
  • Webmail is often used as an email client or WebFTP as an FTP client; Web forums replace Usenet and web chats replace IRC.
  • Cloud computing German computer cloud or data cloud describes the provision of IT infrastructure such as storage space, computing power or application software as a service over the Internet. To put it more technically, cloud computing describes the approach of making IT infrastructures available via a computer network without having to install them on the local computer.
  • Cloud computing includes three different service models:
  • SaaS Software as a Service
  • Clouds provide access to software collections and application programs.
  • SaaS service providers offer special selections of software that runs on their infrastructure. SaaS is also known as software on demand.
  • PaaS Platform as a Service
  • Clouds offer access to programming or runtime environments with flexible, dynamically adaptable computing and data capacities.
  • PaaS users develop their own software applications or have them executed here, internally half of a software environment that is provided and maintained by the service provider.
  • IaaS Infrastructure as a Service
  • Clouds provide access to the use of virtualized computer hardware resources such as computers, networks and storage.
  • IaaS users can freely design their own virtual computer clusters and are therefore responsible for the selection, installation, operation and functioning of their software. Delivery models
  • Public cloud service providers allow their customers to rent IT infrastructure on a flexible basis for paying for the actual level of use or consumption (pay-as-you-go), without having to invest capital in the computer and data center infrastructure.
  • a private cloud is a cloud environment that is operated exclusively for an organization.
  • the cloud platform can be hosted and managed internally (for example, by the company's own data centers), but also by third parties.
  • Community Cloud - the community cloud Offers access to abstract IT infrastructures such as those used in the public cloud - but for a smaller group of users, who usually share the costs, usually distributed locally (e.g. several city authorities, universities, companies or companies with similar interests, research communities, Cooperatives).
  • Virtual Private Cloud - a private cloud of computers on principally publicly accessible IT infrastructures
  • hybrid cloud in which several cloud computing services can be used simultaneously in a heterogeneous system architecture.
  • Services from the cloud can be accessed via the network using standard mechanisms.
  • Resources such as computing power, network or storage are shared between different projects and customers.
  • Resource use can be measured and monitored. For example for billing or automatic scaling.
  • cloud computing goes beyond other currently discussed approaches (e.g. virtualization).
  • cloud computing can also be seen as the sum of SaaS and utility computing.
  • Grid computing is about sharing resources and there is no central control. In the case of cloud computing, you have a provider of resources and a user. The management of resources is centralized.
  • Fog computing represents the decentralized expansion of cloud computing. Resources such as memory, computing power and software applications are placed closer to the end devices in order to achieve better efficiency and lower latency times through optimized distribution. Only relevant and possibly compressed data is then sent to the central systems.
  • Fog computing is closely related to edge computing, where, for example, sensor data is processed directly in the sensor system and then passed on to Fog and Cloud. There is a large overlap between fog and edge computing, which is why they are sometimes used interchangeably.
  • clouds were primarily created by the idea of scaling, the strongest distinguishing features can also be found there.
  • a simple computer can be imagined to approach the architecture. It has processor core, memory, a hard drive and programs. These components can also be found in a cloud, only in a form that enables massive scaling.
  • a possible structure is the so-called technical cloud stack with three layers, in which upper layers can build on the lower layers, but do not have to:
  • Each layer represents a level of abstraction. In this way, the different types of "clouds” can also be classified.
  • SaaS Application
  • the application layer represents the most abstract layer on cloud services.
  • the user does not bring his application into a cloud platform, nor does he have to worry about scalability or data storage. He uses an existing application that offers the cloud to the outside world.
  • This use case includes the two levels below, since the cloud functionalities such as upscaling, distributed storage, fail-safe infrastructure and usually a scaling up queuing system are the basis of the application used, but the user of the SaaS service does not come into contact with it.
  • a “cloud application” in the SaaS model typically takes the following aspects into account:
  • the design should be modular and service-oriented (can be applied to the PaaS scenario).
  • the application should be dynamic, distributed and multi-client capable.
  • Cloud applications are Apple iCloud, Google Drive, Microsoft OneDrive, ownCloud, Nextcloud or Salesforce.com.
  • PaaS Platform
  • a developer creates an application and loads it into a cloud platform. This then takes care of the division among the actual processing units.
  • the user has no direct access to the computing instances here. He also does not run any virtual servers.
  • the PaaS scenario he brings finally his program logic into the cloud platform, which acts as a programming interface to him.
  • the cloud infrastructure itself takes care of the required instantiation of the processing units and the distribution of the data to be processed.
  • the products Windows Azure from Microsoft, "App Engine” from Google or “force.com” from Salesforce.com can be assigned to the platform layer.
  • the cloud platform can increase or reduce the number of actually working instances at will.
  • the abstraction of any technical component is explicitly desired here, since the cloud user primarily processes data, but does not want to administer the system.
  • IaaS Infrastructure as a Service
  • the infrastructure or “cloud foundation” represents the lowest layer in cloud computing.
  • the user accesses existing services within the system, but largely manages his computing instances himself (see virtual server).
  • Services within the IaaS concept are typically distributed persistence
  • the advantage over traditional data centers is the scalability: the computing instances can be expanded or reduced by additional instances as required.
  • the user has full access to the instances with the property that he is responsible for the instances from the operating system level.
  • the biggest examples of this are Amazon Web Services and the OpenInstitut Cloud.
  • “Private cloud” is understood to mean a cloud in which the resources are addressed by a predefined user group and where the administration is carried out by excellent users. At the other end of the scale you will find the "public cloud”, in which there is no information a priori about the possible users. Mixed forms in between are possible (e.g. "Hybrid Cloud”), but also refer to the user group and not to the technical design.
  • Cloud computing shifts the investment for application programs to the service provider and a fee corresponding to the actual performance. That allows to replace cumbersome decision-making processes in the company of the customer of the services.
  • cloud computing enables cost advantages over conventional systems. This is the case if, for example, payment is based on the length of use of the service and the service is only used occasionally. Local resources (software and hardware) can be saved. This resource efficiency is also increasingly being linked to the sustainable use of ICT systems, although corresponding considerations are by no means new.
  • a frequently cited example is the implementation of email systems based on cloud computing, because here the complexity of the application is continuously increasing through measures to prevent attempts to compromise, so that smaller companies can benefit from outsourcing.
  • the third basic problem namely that administrators of the cloud provider and the services have access to the user data during processing, can in principle not be solved without complex management of distributed authentication and dynamic authorization as well as cryptography.
  • An alternative approach that also makes data in the cloud inaccessible is the concept of the sealed cloud.
  • a key distribution is used that allows the data to be encrypted, but not decrypted by the key that is accessible to the administrators, and there is an orderly backup and subsequent deletion of unencrypted data before an administrator, for example for maintenance purposes , Gets access to the computing infrastructure.
  • Another challenge in the cloud is the dependency (lock-in effect) on the respective cloud provider, since the interfaces offered are usually very manufacturer-specific.
  • Home users are also faced with the hypothetical question of what happens to their data in the cloud when the provider of a cloud service files for bankruptcy. Therefore, new providers offer to restore the data on their own computer.
  • NAS systems provide functions for home how knows them from cloud storage operators. In this case, one speaks of a personal cloud, since the data storage infrastructure is operated entirely by the user. However, NAS solutions do not process data. Differentiation from other forms of service
  • Cloud computing is related in some elements to classic online outsourcing. However, it differs from this in essential points.
  • the IT infrastructure is usually used by several customers, so that peak capacity can be distributed more easily and reserves can be shared.
  • cloud services can be adapted at short notice and thus differ from the classic model in which customers use computer infrastructure “exclusively”.
  • the user controls and administers the services via the web interface itself.
  • Data security is determined by the technology used by the provider and the applications used by the provider.
  • a software-as-a-service (SaaS) or “application service providing” (ASP) model is usually selected when applications are made available.
  • SaaS software-as-a-service
  • ASP application service providing
  • the ASP provider makes the temporary use of applications available to a customer.
  • the Federal Court of Justice has ruled that the tenancy law provisions apply to application service providing contracts. Even if this decision was certainly significant, a considerable contractual arrangement is required, especially when designing the service levels, since the tenancy law provisions of ⁇ 535 ff. BGB alone should not be sufficient here.
  • the classification of hosting contracts for databases in the contract typological classification of the BGB is based on the contractually owed service. It is important to distinguish whether Filespace is provided by the provider to store the database (so-called database hosting) or an application such as an Oracle database (for temporary use) as described above. Does the cloud IT provider owe services in addition to the hosting service, such as B. when designing the databases, the regulations of ⁇ 87a to 87e UrhG are to be considered.
  • Cloud Commerce is a connection between the areas of e-commerce and cloud computing. Specifically, the topic of cloud commerce only deals with the sub-area of software as a service of cloud computing, or SaaS for short.
  • the software offered in the SaaS model is an eCommerce system (primarily a shop system).
  • cloud commerce is based on the principle that the eCommerce system and the IT infrastructure are operated by an external IT service provider, the manufacturer of the software, and used by the customer as a service.
  • the service provider takes over the complete IT administration and other services such as maintenance work and updates.
  • the entire IT Infrastructure including all administrative tasks, is outsourced, and the service recipient can concentrate on his core business.
  • SaaS models such as cloud commerce, are becoming increasingly important.
  • Market research firm Gärtner forecast sales of $ 12.1 billion for 201 1. This means an increase of 20.7 percent compared to the previous year (2010: $ 10 billion).
  • the North American market represents the largest aggregate of demand (201 1: 7.7 billion dollars).
  • Cloud commerce offers small and medium-sized companies a variety of advantages over traditional license purchases and the operation of their own IT infrastructure.
  • the service recipient has a lower investment risk because he does not need any IT hardware to introduce the software.
  • Two studies by McKinsey Consulting and Yankee Group state that the investment costs of a SaaS solution, such as cloud commerce, can be reduced by 30 percent compared to an on-premise solution, regardless of the number of users.
  • Another advantage is the outsourcing of process complexity, as maintenance work, updates and other IT tasks are carried out by the service provider.
  • Software access via the Internet ensures high mobility, since the service recipient can access the system regardless of time and location.
  • companies can concentrate on their core business or value creation and thus avoid the tedious IT tasks. This makes IT an easy-to-use utility good to secure growth, flexibility, competitiveness and thus the existence of the company.
  • a disadvantage of cloud commerce software is that the service users are in a dependency relationship because the customer is not the owner of the software. There is a risk that the service provider will shut down the system for a specific reason (eg in the event of bankruptcy).
  • the SaaS solutions are mostly standardized, so that there are few options for adapting the range of functions.
  • the service provider has the opportunity to expand its range of IT services and thus generate additional revenue. Since the service recipient usually pays monthly fees for the use of the software, longer-term income can be secured and thus the liquidity can be better planned. In addition, less piracy losses are achieved because the software is managed centrally by the service provider.
  • the cloud commerce provider has the problem of high investment risk if the software is not accepted by the customer as expected. In addition, he has to convince the customer, because current acceptance problems are often justified with the disadvantages.
  • cloud commerce offers are e.g. B. Magento Go, Amazon Webstore and Shopify in the United States; Big Cartel in the UK; Big Commerce in Australia; Supr.com as well as XSITE, Jimdo and Onshop.de in Germany.
  • Online data backup means data backup over the Internet. This takes place on data storage devices of an Internet service provider in a data center.
  • the process relieves the user of having to procure reliable data storage himself, regularly check it, manage it and secure it against loss.
  • the customer After logging in, the customer receives a user name and a password for access to data backup.
  • Internet access is a technical requirement.
  • the software for data backup or upload via a website should be one Ensure secure encryption to protect the transmitted data from unauthorized access.
  • the software can perform data compression as far as possible.
  • Data that has already been compressed - for example in the file formats ZIP, JPEG, MPEG or MP3 - can hardly be compressed any further.
  • Internet access with a data transfer rate of 1 Mbit / s can theoretically transfer 450 MB per hour or 10.5 GB per day. For example, this is a possible data transfer rate when uploading via ADSL 6000 in Germany. With faster internet access such as B. via VDSL, even higher data transmission speeds are possible.
  • Some service providers offer to exchange large amounts of data by hard drive or DVDs by post, which is particularly useful for a larger initial backup.
  • Some solutions such as B. Netzdrive, Novell iFolder, Dropbox, Fabasoft Folio Cloud or Recovery Guard offer features such as encryption of data on the server, assignment of file access rights to certain other users or user groups, replication of data to multiple servers and version control of Changes to which result in properties similar to those of so-called distributed file systems. If access can be restricted, The functionality of this software partially overlaps with that for file sharing.
  • a blockchain is a decentralized database that maintains a constantly growing list of transaction records.
  • the technical model of the blockchain was developed as part of the cryptocurrency Bitcoin - as a web-based, decentralized, public accounting system for all Bitcoin transactions that have ever been made.
  • the Bitcoin blockchain is growing steadily as new blocks with newly completed Bitcoin transactions are added. Every computer that is connected to the Bitcoin network creates new Bitcoins witnesses and / or manages the previously generated, manages a 1: 1 copy of the complete blockchain, which was already around 50 gigabytes in size at the end of 2015. Wikipedia has even more detailed technical information on the Bitcoin blockchain.
  • Bitcoin is a purely digital currency - founded in 2009 - based on a decentralized one
  • Blockchain is arguably the greatest technological invention in the Bitcoin universe. Without blockchain, the Bitcoin system would not work because new Bitcoins can only be calculated on the basis of the bitcoins previously generated and therefore it has to be tracked what has already happened in the past.
  • the "scalable blockchain database” BigchainDB can manage up to one million write operations per second, store petabytes of data and still comes up with a latency of less than one second - all managed decentrally and with the highest data integrity.
  • Blockchain application platforms for the financial industry which are still in development - such as ERIS or R3CEV - are supposed to set up the "business rules" of blockchain technology and new transparent, secure and verifiable business models in IT, especially that Financial industry, bring.
  • CIO such a new decentralized technology stack and growing ecosystem means that it can do its job better: faster completion for business operations, safer transaction processing, cost reduction and closer orientation to regulatory requirements.
  • Decentralized systems can be used to store information in a network of several computers that are accessible via the Internet.
  • the decentralization of communication began with the Internet and everyone was given more control over the information they consume.
  • computing power and storage will be decentralized (cloud computing), and with the blockchain there is now another element.
  • the blockchain fires ideas, not just cryptocurrencies such as controlling Bitcoin via decentralized networks, but also other digital content such as art, music, texts or photos.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Laminated Bodies (AREA)

Abstract

Verwendung eines elektronischen Elementes mit Prozessor- und Speicherfunktion zur Verwendung als ein Rechner und / oder Computerelement mit Identifikations- und/oder Authentifizierungsfunktion eines Nutzers in einem digitalen Netz, dadurch gekennzeichnet, dass das elektronische Element aus mindestens einem Hardwarelement und/ oder einer Software besteht.

Description

Elektronisches Element und elektrisch angesteuertes Anzeigeelement
Aufgabe der Erfindung, Stand der Technik
Die zunehmende Digitalisierung von Informationen, wie die von Zeichen und Bildern fuhrt zwangsläufig dazu, dass Informationen heutzutage bevorzugt auf mobilen Smart- phones, Notebooks, Pads, E-books, TV Flachbildschirmen etc. direkt visuell auf dem Bildschirm abgerufen werden Es ist kaum noch erforderlich oder notwendig einen phy sischen Ausdruck der Bild- und/oder Zeicheninformation durch Ausdrucken z.B. auf Papier oder Folienmaterial zu erzeugen. Die Informationen sind durch Speicherung je- derzeit, schnell und platzsparend auf dem Bildschirm zugänglich und visuell erfassbar.
Es gibt mittlerweile eine Fülle von Anwendungen für digitalen Bildschirme / Displays wie z.B. elektronische Tickets, E-Books, Moderations-, Präsentationsstexte, digitale Werbetafeln (Stadionwerbung) Verkehrs und Anzeigetafeln, 3 D Brillen und virtuelle Simulationen, Computerspiele , Augmented Reality, etc.
Durch die stetig wachsende Verbreitung von Rechnern und Bildschirmen in allen Le bensbereichen findet eine zunehmende Virtualisierung von Informationen statt, gewis- sermassen als Ersatz für physische, erlebbare materielle Informationen.
Die Akzeptanz und der Konsum von virtuellen Produkten, die rein auf digitalen Zeichen und Bildern basieren, ist vor allem bei den„Digital Natives“, die neue virtuelle Normalität und Selbstverständlichkeit. Es hat eine gesellschaftliche Veränderung, d.h. ein kultureller Wandel im Umgang und der Wahrnehmung und Verarbeitung von In- formationen stattgefunden von der materiellen, analogen hin zur künstlich, virtuellen Information.
Diese Entwicklung wird sich in den nächsten 30 Jahren dramatisch fortsetzen. Durch Künstliche Intelligenz basierend Algorithmen von Quantencomputem werden bahnbre- chende Fortschritte in allen Lebensbereichen erreicht werden. Fraglich bleibt allerdings welche Folgen diese Entwicklung für den menschlichen Körper und Geist haben wird und welche seelisch -psychischen Auswirkungen damit verbunden sind. Da der Mensch, ein natürlicher Organismus ist, geprägt durch die vielen Jahrtausende der Erdgeschichte, bleibt abzuwarten, ob Ihm dieser virtuelle Wandel oh- ne negative, schädliche Nebenwirkungen gelingt.
Aufgabe dieser Erfindung ist es neue Anwendungsbereiche für den Einsatz von Bildschirmen/ Displays vorzuschlagen und hierfür eine technische Lösung anzubieten, die in vielen Lebensbereichen zu nützlichen und hilfreichen Neurungen fuhrt. Die Erfin- düng zeigt auf, wie Bildschirmdisplays in sehr dünner Bauweise hergestellt werden können und durch die drahtlose Ansteuerung mittels eines externen Rechners /Computers von einem anderen Ort bedient werden können. Hierdurch werden gänzlich neue Anwendungsfelder möglich werden, die nach dem derzeitigen Stand der Technik noch nicht existieren, wie z.B. ein digitales KFZ Kennzeichen, das vom Strassenver- kehrsamt gesteuert und kontrolliert wird oder beispielsweise eine Möbeloberfläche, ausgebildet als Bildschirmdisplay mit virtuellen Holzdekoren, die vom Smartphone aus gesteuert werden.
Der derzeitige Stand der Technik bei Smartphones weist im Minimum eine Gesamtdik- ke, das heisst Gehäuseaussenmaß, von 4.6 mm auf. Laut der Computerzeitschrift Chip vom 19.3.2017 ist dies das Smartphone- Produkt: Carbon Mobile. Das heißt die bauli che Anordnung von Speicher und Prozessor und eines Akkumulaors / Batterie und des Bildschirmdisplays nach dem derzeitigen Stand der Technik erfordern diese Bauhöhe. Dünnere Smartphones oder E Pads gibt es zum Zeitpunkt dieser Patent- Anmeldung nicht auf dem Markt.
Weiterhin ist es Stand der Technik bei Bildschirmen, wie z.B. bei Smartphones, E- Pads und Flachbildschirmen, das die Ansteuerung des Bildschirms über den intern eingebauten Rechner / Computer erfolgt. Der Grundgedanke der Erfindung ist es nun ein elektrisch angesteuertes Anzeigeelement zur optischen Signalisierung von veränderlichen Informationen wie Zeichen oder Bildern mit einem integrierten elektronischen Element mit Prozessor- und Spei cherfunktion zu verwenden, dadurch gekennzeichnet, dass die Ansteuerung über eine drahtlose Verbindung von einem externen Rechner / Computer erfolgt und das Anzeigeelement eine Dicke, das heißt Gehäuseaußenmass, von 0,3 bis 4,5 mm aufweist, wobei das elektronische Element eine maximale Dicke von 1 mm aufweist.
Das elektronische Element besteht dabei aus mindestens einem Hardwarelement und/ oder einer Software und / oder App Anwendung.
Weiterhin besteht das elektronische Element aus einer auswechselbaren physischen Chipkarte und / oder einer eingebauten physisch nicht auswechselbare Chipkarte und / oder aus einem chipkartenidentischen Funktion aufweisendem Element.
Die Neuheit der Erfindung liegt darin, das elektrisch angesteuerte Anzeigeelement über eine drahtlose Verbindung von einem externen Computer/ Rechner anzusteuern um aus der Ferne, veränderliche Informationen wie Zeichen oder Bilder auf einem Bildschirm an einem anderen Ort zu übertragen und anzuzeigen. Zudem schlägt die Erfindung vor dass, dass Anzeigeelement sehr dünn ausgebildet wird, mit einer Stärke von 0,3 - 4,5 mm.
Die drahtlose Verbindung kann dabei aus einem Funk- und /oder Licht- (LiFi) und / oder Ultraschallnetz bestehen.
Diese dünne Ausfuhrungsform wird erfindungsgemäß dadurch ermöglicht, dass ein elektronisches Element mit Prozessor und Speicherfunktion, verwendet wird, in mi- nituarisierter Bauform in einer maximalen Dicke von nur 1 mm. Das elektronische Element weist weiterhin eine Identifikations- und/oder Authentifizierungsfunktion eines Nutzers in einem digitalen Netz auf. Die drahtlose Verbindung erfolgt vorzugsweise über eine Funkverbindung auf Basis ei ner G - Frequenz Funkverbindung, vorzugsweise auf Basis von 3G und / oder 4 G und /oder 5G und / oder einer Mobilfunkverbindung und /oder auf Basis einer Bluetooth-, und /oder WLAN-,und /oder WIFI- und / oder LiFi und /oder Satelliten- Verbindung( GPS) .
Die Kanalbandbreite der Funkverbindung liegt dabei im Bereich von 100 MHZ bis 100 GHZ liegt, vorzugsweise bei 800MHZ - 30GHZ, insbesondere bei 3 GHZ bis 6GHZ. Das Elektronische Element ist z.B. eine vorkonfigurierte 3G oder 4G. oder 5 G Simkarte, die sich beim Einschalten automatisch über Funkverbindung zur Ansteuerung des Anzeigeelementes, sprich Bildschirmdisplays, mit dem externen Rechner, z.B. ei nem Smartphone verbindet, und sofort betriebsbereit ist. Dabei enthält jedes Anzei geelement , beispielsweise eine 3 G Simkarte mit einen eindeutigen, Verbindungscode, dem sog. Association Token : Beispiel 8— stelliger Zeichen Code: z.B. AC1 1 -GE4S-P3 , der nur für dieses eine Anzeigeelement existiert. Optional kann dem Anzeigeelement auch eine eigene E- mail Adresse zugewiesen werden Die 3G Simkarte funktioniert z.B. international in über 100 Ländern und weist auch eine GPS Funktion auf. Das elektronische Element weist vorzugsweise maximal ein Format von
85,6 mm x 54 mm aufweist, insbesondere ein Format 25 mm x 15 mm und /oder 15 mm x 12 mm und /oder 12,3 mm x 8,8 mm auf.
Weiterhin hat das elektronische Element vorzugsweise eine Dicke von maximal 1 mm , vorzugsweise eine Dicke von mindestens 0,3 - 1 mm , insbesondere 0,76 mm und / oder 0,67 mm und hat vorzugsweise eine Speicherkapazität von mindestens 128 Giga byte.
Das Anzeigeelement und /oder Hardwareelement weist mindestens eine Kamera- und /oder Videokamera- und/ oder Scanfunktion und /oder Sensorfunktion und / oder Infra- rotlichtfunktion und / oder Lautsprecherfunktion und/ oder Mikrofonfunktion und / oder Soundkarte auf.
Die Sensorfunktion erfasst physikalische, chemische und stoffliche Eigenschaften quan- titativ oder qualitativ , vorzugsweise mit Messfunktion für Temperatur, Wärmemenge, Feuchtigkeit, Druck, Gewicht, Abstandsmessung, Regensensor, Schall, Helligkeit, Beschleunigung, PH-Wert, Ionenstärke, elektroschemisches Potential und /oder die stoffli che Beschaffenheit qualitativ erfasst. Die elektrisch angesteuerte Anzeige besteht aus einem Bildschirm und /oder Screen und /oder Display, insbesondere Smart Display, und / oder Monitor und /oder Touchs- reen Oberfläche oder aus einer projezierten Oberfläche.
Die Darstellungstechnik der elektrisch gesteuerten Anzeige wird dabei vorzugsweise auf technologischer Basis von Light Emitting Diodes ( LED) Feldemmisionsbildschirm ( FED) und / oder Flüssigkristallbidschirm ( LCD) und /oder Dünnschichttransistorbild schirm (TFT-LCD) und / oder Kathodenstrahlröhrenbildschirm( CRT) Und /oder Plas mabildschirm und / oder organische Leuchtdiode ( OLED) , SOLED oder SMOLED - Folien Displays, PLED, AMOLED-(Aktivmatrix-OLED) oder Super AMOLED+ ,und /oder Surface Conduction Electron-emitter Display ( SED) und (oder QLED und / oder Micro LED (mikroskopische Leuchtdioden und /oder HDR ( High Dynamic Range) und /oder elektronischer Tinte und/ oder E-Paper erzeugt.
Eine weitere Ausfuhrungsform ist es, dass die Darstellungstechnik der elektrisch ge- steuerten Anzeige vorzugsweise auf technologischer Basis von Micro LED Pixeln, vorzugsweise mit einer Auflösung von mindestens 7680 x4320 Bildpunkten und
/oder und / oder elektronischer Tinte erzeugt wird,
Um eine möglichst dünne Ausführung zu erzeugen, wird ein Foliendisplay auf Basis ei- ner Folie, insbesondere auf Basis petrochemischer und /oder biopolymeren Kunststoffe und /oder organischer Stoffe verwendet wird, wobei die Folie eine Stärke von vorzugsweise 20 bis 1000 miti aufweist, insbesondere 20 bis 100 mih.
Bei einer weiteren Ausführungsform weist die Folie eine gedruckte Elektronik auf.
Die Stromversorgung des elektrisch gesteuerten Anzeigeelementes erfolgt vorzugsweise drahtlos und/oder kabelgebunden auf technischer Basis einer Verbindung mit dem Stromnetz und /oder eines Akkumulators und/oder Induktionsstroms und /oder durch Funkstrom, wobei der Akkumulator eine maximale Dicke von 0,3 bis 4,5 mm aufweist.
Bezüglich der Gestaltung und Formgebung des Anzeigeelementes ist vorgesehen, das ein Bildschirmdisplay dreidimensionale Verformungen aufweisen kann, und insbesondere rollbar und/ oder faltbar ist. Wobei die äussere Form des Anzeigeelementes vorzugsweise auf Basis geometrischer und / freier Formen gestaltet ist, vorzugsweise aus Rechteck-, Quadrat-, Kreis-, Ellip sen-, Dreieck- , Vieleck-, Parabel- , Freiform- Elementen und deren Kombinationsmög lichkeiten. Bei den folgenden Ausftihrungsformen der Erfindung wird zur Herstellung des elektrisch angesteuerten Anzeigeelementes, die Verwendung von Metallbeschichtungen, sowie funktionellen Folien vorgeschlagen insbesondere zur Herstellung von Halbleiter elektronik- und Mikrotechnikelementen. Die hier vorgeschlagenen Herstellungsarten und -Verfahren und Ausführungsformen, sind besonders wirtschaftlich in grossen Mengen produzierbar.
Durch Metallbeschichtung einer Folie oder auch Trägerfolie können zum Beispiel elek trische Leiterbahnen hergestellt werden. Hierzu kann die Metalllbeschichtung und / oder die die Trägerfoiie sowohl voiifiäcnig ais auch teiifiächig vorgesehen werden. Dabei kann es vorteilhaft sein mehrere Ebenen, d.h. als Verbundschicht, mit metallisierten Folien übereinander anzuordnen, um unterschiedliche elektronische Schaltkreise zu realisieren, mit denen zum Beispiel miniaturisierte LED oder OLED Leuchten oder auch Folienlautsprecher betrieben werden, die ebenfalls in die Verbundschicht integriert werden können, z.B. in Form von funktionellen Folie/n.
Ebenso kann die Metallbeschichtung zur Herstellung von miniaturisierten, elektronischen Schaltungen eingesetzt werden, insbesondere integrierten Schaltungen, in Form und auf Basis von funktionellen Folie/n. Dabei können auch Schaltungen auf der Basis organischer und metallischer Materialien auf organischen Folien in Dünnschichttechnik (z.B. durch PVD, CVD, OPVD (organische Gasphasenabscheidung) Verfahren oder auch durch klassische Drucktechniken (InkJet, Siebdruck, Mikrokontakt- Stempeldruck mit metallischem Material) aufgebracht werden, oder auch durch Rotationsbeschichtung.
Ebenso lassen sich integrierte optoelektronische Systeme dadurch herstellen, wie z.B. Aktoren ( Sender) und Dedektoren ( Empfänger) oder auch Optosensoren, Optokoppler oder optische Modulatoren, wie z.B. Fotowiderstand, Photodiode (auch Solarzelle) und Fototransistor, Lichtsensoren.
Für die metallische Schicht wird bei den vorgenannten Beispielen aus der Mikro- und Optoelektronik vorzugsweise das Halbmetall Silicium (Si) oder Germanium (Ge) oder siliciumhaltige Verbindungen eingesetzt, insbesondere Halbleitersilizium oder Solarsilizium. Oder vorzugsweise in der Optoelektronik auch leitfahige Beschichtungen aus TCOs (engl transparent conductive oxides), wie z.B. aus Indium-Zinn-Oxid Nanoparti- keln (engl indium tin oxide, ITO). Diese haben den Vorteil transparent zu sein und können auch flexibel ausgeführt werden, und können als Elektroden in optoelektronischen Anwendungen, wie z.B. Flachbildschirmen, Touchsreens, Displays, insbesondere flexiblen Displays, organische Leuchtdioden, Elekrolumineszenzlampen oder auch bei Bauteilen aus der Solartechnik eingesetzt werden. Erfindungsgemäß können damit z.B. Displayfolien, für programmiebare Oberflächen hergestellt werden, d.h. das Oberflächendekor z.B. eines Möbels, Fußbodens oder Wandfläche wird als digital/ virtuelles Holz-/ Stein oder Fantasiedekor gezeigt, mit der Möglichkeit z.B. Licht/ Beleuchtung - / Bewegungs-/ Informations - / und Soundeffekte frei zu inszenieren.
Erfindungsgemäß kann dazu z.B. ein OLED (organic light emitting diode) oder insbesondere PLED ( polymer light emitting diode) Foliendisplay eingesetzt werden, auf Basis einer Kunsstoffolie mit einer Stärke von vorzugsweise 20 bis 500 pm, auf die Schaltkreise aufgedruckt werden unter Verwendung von Dünnfilmtransistoren.
Auch die Verwendung von SOLED oder SMOLED -Folien Displays ist hier möglich, wie die aus„small molecules“ (kleinen Molekülen) hergestellten OLEDs bezeichnet werden. Es kann darüberhinaus auch AMOLED-(Aktivmatrix-OLED) oder Super AMOLED+ Technologie eingesetzt werden.
Bei den o.a. OLED -Technologien wird unter anderem das Prinzip der Lumineszenz genutzt, selbstleuchtende Bildschirme herzustellen, die die insbesondere auf organischer Elektrolumineszenz basieren. Erfindungsgemäß werden hier metallorganische Komplexe bzw. Substanzen in die Verbundschicht (B) eingebracht, unter Verwendung einer Polymer Trägerschicht (T), als teilweise oder vollflächige Schicht aus metallischem Material.
Für die Beschichtung werden hier vorzugsweise Polymerfolien aus Polyethylen- terephthalat (PET) und Polyethylennaphthalat(PEN), Polycarbonat (PC), Polyethersul- fon (PES) und Polyimid (PI) verwendet als flexibles Substratmaterial für flexible transparente Elektroden. Die Indium-Zinn-Oxid Nanopartikel werden durch voll oder teilflächige PVD oder CVD Beschichtung hergestellt. Dazu werden Strukturierungs- und Maskierungsvorgänge beim Beschichten notwendig. Die Verwendung nasschemischer Druckverfahren zur ITÖ-Beschichtung ist ein alterna tives, sehr wirtschaftliches Verfahren und kann sowohl über die Sol-Gel- Methode als auch mittels ITO Nanopartikel Dispersion erfolgen. Weitere damit verbundene mikro- elektronische und optoelektronische Anwendungen : RFID-Tags/ Chips, Solarzellen, Sensoren, Brenstoffzellen, Elektrolytkondensatoren , Lithium- Polymerakkus. Erfindungsgemäß werden als Substratmaterial die unter 3a. aufgeführten Kunststoffmaterialien als Trägerfolie für die Metallisierung eingesetzt.
Vorzugsweise werden folgende Metalle / Halbmetalle ( z.B. Alkalimetalle ) bzw. Legierungen und Kombinationen dieser Metalle und chemische Verbindungen, wie z.B. polymere Verbindungen mit diesen Metallen, als elektrische Leiter im Bereich Mi kro- und Optoelektronik eingesetzt: Bor ( B), Barium (Ba) Cadmium (Cd), Cobalt (Co) Caesium (Cs) Silicium (Si), Germanium ( Ge), Arsen (As), Selen ( Se), Antimon (Sb), Tellur (Te), Polonium (Po), Zinn (Sn) Asiat (At), Lithium (Li), Phosphor (P) Iod (I), Bismut (Bi) Zinn (Sn) Chemische Verbindungen wie z.B. Titandioxid (Ti02) Galli- umarsenid (GaAs) Galliumnitrid (GaN), Indiumantimonid (InSb) Zinkselenid (ZnSe) Cadmiumsulfid (CdS) wie Kupfer(lI)-chlorid, Legierungen aus Calcium- Aluminium- Barium, Ruthenium- Magnesium-Silber, Lithiumfluorid, Caesiumfluorid, Aluminium- tris(8-hydroxychinolin), Alq3. und Transparent Conductive Oxides (TCOs), insbeson dere Indium Tin Oxide ( ITO)
Die unter 3a beschriebenen Kunstofffolien und Kunstoffmaterialien können auch aus gestattet und kombiniert werden mit elektrisch leitfähigen Polymeren.
(Polymerelektronik) Das sind elektronische Schaltungen aus elektrisch leitfahigen Po- lymeren, auf Trägermaterialien aus vorzugsweise organischen Folien, sowie mit Leiterbahnen und Bauelementen aus leitfahigen organischen Molekülen( organische Halbleiter) als Bestandteil der Verbundschicht (B). Das sind Polymere, (insbesondere auch organische Halbleiter), die oxidativ oder reduktiv dotiert werden mit chemischen Metall / Halbmetallverbindungen, wie z.B. Polyacetylen mit Arsenpentaflourid oder Iod. Weitere Beispiele für leitfähige Polymere sind dotiertes Polypyrrol, Polyphenylensul- fid, Polythiophen sowie metallorganische Komplexe mit makrocyclischen Liganden, wie Phthalocyanin. Eine oxidative Dotierung erreicht man mit Arsenpentafluorid, Titantetrachlorid, Brom oder Iod, eine reduktive Dotierung dagegen mit Natrium-Kalium-Legierungen oder Di- lithiumbenzophenonat. Anwendungen aus der Polymerelektronik: Organische Leucht diode, organische Solarzelle, organischer Feldeffekttransistor/ Dünnschichttransistor. Die Moleküle (neben Monomeren und Oligomeren vor allem Polymere) werden dabei in Form dünner Filme oder kleiner Volumen auf die Folien aufgedruckt, aufgeklebt oder anderweitig angebracht. Die Herstellung dieser Folien erfolgt durch vorzugsweise durch Dünnschichttechnik (z.B. durch PVD, CVD, OPVD (organische Gasphasenabscheidung) Verfahren oder auch durch klassische Drucktechniken (Inkjet, Offsetdruck, Tiefdruck, Siebdruck, Mikrokontakt- oder auch durch Rotationsbeschichtung. Bevor- zugte Schichtstärken für mikro- opto- und elektronische leitfähige Beschichtungen, sowie elektrisch leitfähige Polymere: 1 nm (Nanometer) bis 1 pm dick.
Bevorzugte Ausführungsform: Universelle Anwendungen
Die Verwendung des Anzeigeelementes ist dabei universell zur Verwendung als Vor- richtungs-, und /oder Bauteilelement vorgesehen, wobei die Verwendung vorzugsweise für ein Element zur Verwendung als ein Verpackungs-, Uhr- , Schmuck-, Kleidung-, Accessoires-, Fahrzeugkennzeichnungs-., Verkehrsschild-, Werbeschild-, Bilderrahmen- , Boden-, Wand-, Decken-, Möbel-, Dekorations-, Innenausbauelement, vorzugsweise Leisten-, Profil-, Kanten-, Tür- und /oder Fensterelement, Fassaden-, Tapeten-, Car- Interior-, Car-Exterior-, Haushaltsgeräte-, Elektrogeräte-, und /oder Outdoorbelagsele- ment.
Transparente, ein-oder mehrlagige obere Schicht (3)
Für den universellen Einsatz ist es in vielen Anwendungen vorteilhaft eine Schutz- Schicht für das elektrisch angesteuerte Anzeigeelement vorzusehen, die das Anzei- geelement vor mechanischen Beanspruchungen schützt, d.h. vor Stoss-, Abrieb-, Kratz- Beanspruchung, sowie vor Feuchtigkeit und Schmutz.
Die folgenden Ausführungsformen zeigen auf welche Lösungen dafür erfindungsgemäß vorgesehen sind, wobei die Schutzschicht als transparente ein - oder mehrlagige Deck- schicht(3) ausgebildet wird.
Die transparente ein - oder mehrlagige Deckschicht(3) kann aus z.B. Kunststofffolie/n (3a) und / oder Oberflächenausrüstungen (3b) bestehen oder aus Kombinationen von (3a) und (3b). Zum Beispiel kann auch nur eine Oberflächenausrüstung (3b) vorgesehen werden ohne eine Kunststofffolie/n (3a) zu verwenden. Ebenso kann auch nur eine Kunststofffolie verwendet werden ohne Oberflächenausrüstung. Die Oberflächenausrü- stung( 3b) kann z.B. auch als äußere Schicht auf die Kunsstofffolie (3a) aufgebracht werden oder direkt auf die Schicht aus metallischem Material (1)
Die Kunststoffolien in der Definition dieser Erfindung können auch in Form von geschmolzenem Kunststoff , z.B. als geschmolzenes Polymer aufgetragen werden zur Bil dung der transparenten ein- oder mehrlagigen obere Schicht, z.B. durch Kalandrieren oder Gießen. Dies hat den Vorteil, dass z.B. während der Kunststoff noch nicht ausge- härtet, ist eine Oberflächenstruktur z.B. mittels eines Prägekalanders in die Oberfläche geprägt werden kann, wie z.B. eine Holzpore.
Ebenso kann auch eine Oberflächen Struktur in eine Kunststofffolie geprägt werden, wenn die Kunststoffolie, vor dem Prägeprozess erhitzt wird und der Kunststoff an- schmilzt, so dass die Struktur in die noch nicht ausgehärtete Kunststoffoberfläche geprägt wird. Grundsätzlich können die Folien voll- oder teilflächig eingesetzt werden. In den meisten Anwendungsfällen ist es sinnvoll die transparente ein-oder mehrlagige obere Schicht vorzusehen, um eine gute Abrieb- und Kratzbeständigkeit zu gewährleisten. Bei weniger beanspruchten Flächen, wie z.B. Deckenverkleidungen kann auf diese Schicht auch verzichtet werden. Die in 3., 3a und 3b beschriebenen Schichten sind grundsätzlich auch geeignet für den Oberflächenschutz von metallisierten Textilen, Geweben oder Vliesen. (z.B. wässrige PU Beschichtung, oder Kaschieren, wie z.B. Flammkaschierung, Einstreuen von schmelzbaren, pulverisierten Kunststoffen und anschliessendes Aufschmelzen)
Kunststofffolien und / oder geschmolzenes Polymer (3a)
-Kunststoff als transparente Folie, bevorzugt elastische Folien
Die obere Schicht kann ein- oder mehrlagig aufgebaut sein. Der mehrlagige Aufbau ( zwei oder mehr Folien ) hat den Vorteil, dass jede Folie, und / oder auch aufge- schmolzene Polymerschicht, mit speziellen Leistungseigenschaften vorgesehen wer den kann, je nach Einsatzzweck.
Dabei können für die einzelnen Folienschichten unterschiedliche Kunststoffe, und deren vorteilhafte Eigenschaften, miteinander kom- biniert werden. Grundsätzlich werden da- für Kunststoffe auf Basis synthetischer und/oder halbsynthetischer Polymere und / oder Biopolymere eingesetzt, wie z.B. Duroplaste und Thermoplaste.
Bevorzugt wird dabei ein thermoplastischer und/ o- der elastomerer Kunststoff oder thermoplastische Elastomere für die Folien- schicht(en) eingesetzt , vorzugsweise PVC, auch als gegossenes PVC oder Polyes- ter, Polyethylen (PE), Polyester mit PVC Oberfläche, Polyurethan (PUR) und Ther- moplastisches Polyurethan (TPU), Polypropylen ( PP), Castpropylen (CPP), Oriented Propylen(OPP), Biaxial oriented Propylen (BOPP), Polystyrol (PS), und /oder Po- lyethylenterephthalat ( PET) biaxial orientierte Polyesterfolie (BOPET) Polyester (PES), Polytetraflourethylen ( PTFE), High Density Poly- ethylen (HDPE), Low Density Polyethylen, (LDPE) , Polyamid (PA), Polyethylen- terephthalat (PET) oder Polystyrol (PS), Polylactid (PLA oder PDLA oder PLLA oder PDLLA), Polybutylenterephthalat ( PBT ), Polytrimethylenterephthalat (PTT), Polycarbonat ( PC) Polyethylennaphthalat ( PEN), Polycarbonat ( PC), Polyestercarbonat (PEC), Polyarylate (PAR), ungesättig- tes Polyesterharz (UP), gegossene Alkydharz- folie, gegossene Acrylharzschicht, Po- lyimide (PI), PEI, Polyethersulfon (PES) Polyethylennaphthalat (REN),RETR bzw. Kapton, Polyetherketone wie z.B. PAEK und PEEK, Cellophan und Acetat oder Kombinationen dieser Kunststoffe.
Alternativ können auch Biopolymere zum Einsatz kommen. Biokunststoffe lassen sich aus einer Vielzahl pflanzlicher und tierischer Rohstoffe hersteilen. Die wichtigs- ten Rohstofflieferanten sind Holz (Cellulose und Lignin), Getreidepflanzen und Kartoffeln (Stärke), Zuckerrohr und Zuckerrübe (Zucker) sowie Ölpflanzen (Pflanzenöle) und z.B. Insekten (Chitinpanzer und Krabbenschalen). Cellulosebasierte Kunststoffe sind z.B.: Zelluloid, Cellophan, Viskose und Lyocell, sowie Celluloseacetat und Lignin ba- sierte Biopolymere mit Zugabe z.B. von Naturfasern aus Hanf oder Flachs und cellulosebasierte Biopolymere z. B. aus Baumwolle.
Auch modifizierte Cellulose unter Einsatz von Enzymen kann als Biopolymer zum Einsatz kommen. Stärkebasierte Biopolymere werden gewonnen aus Mais, Weizen, Kartof- fein, sowie Zuckerrohr und Zuckerrüben. Dazu zählen Thermoplastische Stärke (TPS) Polymilchsäure- bzw.Po- lylactid (PLA), Polyhdroxalkanoate wie Polyhydroxybutyrat, Polyester oder thermo- plastischer Biopolyester, wie Polyethylenterephthalat (PET), Po- lytrimethylentereph- thalat (PTT) und Polyethylenfuranoat (PEF). Aus Pflanzenölen lassen sich Fettsäuren gewinnen, die über mehrere chemischen Zwischenstufen in hochwertige Biokunststoffe umgewandelt werden. Pflanzenölbasierte Kunststoffe sind Biopolyamide (Bio- PA) und Biopolyurethane (Bio -PU). Weitere Rohstoffe für Biopolymere sind Kasein, ein Protein aus Milch, Gelatine, ein Protein aus tierischen Knochen oder Haut und Chitin, ein Polysaccharid aus Pilzen, Insekten ( Chitosan ), Krabbenscha len. PHB ( gewonnen aus Bakterien) , Zein und Algen. Biopolymere sind ökologisch nachhaltig da die Rohstoffe dafür nachwachsend sind (nicht erdölbasierend) und biologisch abbaubar. Grundsätzlich können auch polymere und/oder biopolymere Materi almischungen aus den oben erwähnten Kunststoffen eingesetzt werden.
Die oben erwähnten Polymere und Biopolymere können grundsätzlich in Form einer Kunststoffolie zur Metallisierung eingesetzt werden. Darüber hinaus können auch Mischungen einzelner oder mehrerer der vorgenannten Kunststoffe zum Einsatz kommen. Die Kunststofffolien können durch Extrusion oder auch durch Gießen, Kalandrieren oder Blasformen gefertigt werden. Im Blasformverfahren können auch mehrere Folien mit unterschiedlichen Eigenschaften zu einem Foli- enverbund coextrudiert werden. Optional können diese Folien selbstklebend mit Poly- acrylat Kleber beschichtet werden zur Klebekaschierung. Die Folienstärke einer Folienschicht liegt zwischen 20 gm und 2500 gm liegen, bevorzugt zwischen 20 gm und 500 gm, insbesondere bei 20-150 gm. Derzeit handelsübliche Folienmaterialien, für das Bedrucken der Dekorschicht gemäss Punkt 2.e sind z.B.: PVC, Polyester, wie z.B. BOPET, PP und Polyamid.
Eine sehr einfache und wirtschaftliche Ausführungsform ist folgende: Hier besteht die obere Schicht aus nur einer Folie, die unterseitig eine gedruckte Elektronik auufweist. Dabei ist es vorteilhaft die Folie für die Bedruckung mit einer transparenten Druck- / Tinten- / Farbaufnahmeschicht auszurüsten. Das verwendete Kunstoffmaterial muss dabei, die für den Einsatzzweck entsprechende Abrieb,- Kratz- und Verschleißfestigkeit besitzen. Werden zwei Folien als Schichtaufbau verwendet, so kann die Bedruckung der Elektronik auf der Unterseite der obersten Folienschicht und/ oder auf der Oberseite der unteren Folienschicht angeordnet werden.
Im Übrigen kann der vorgenannte Schichtenverbund auch als Vorprodukt in Form eines fest miteinander verbundenen Schichtenverbundes ausgebildet sein. (Siehe dazu bevorzugte Ausfuhrungsformen)
Die Verbindung einzelner Folienschichten wird nachfolgend als Verbundfolie bezeichnet.
Die einzelnen Folienschichten werden üblicherweise extrudiert oder kaschiert bzw. la- miniert. Die Herstellung der Verbundfolie erfolgt durch Kaschieren mehrerer Lagen gleicher oder verschiedener Materialien bzw. Schichten, in diesem Fall von Kunst- Stofffolien, die dem erfindungsgemäßen Schichtaufbau entsprechen, mit Hilfe geeigneter Kaschiermittel (Lack, Leim, Wachs). Kaschiert wird, um ein Material zu schützen und/oder zu dekorieren und/oder eine Addierung günstiger Materialeigenschaften zu erzielen, indem das Material auf oder unter eine Schicht mit den gewünschten Eigen- schäften aufgetragen oder zwischen zwei Schichten eingebracht wird. Um die Kunststofffolie zu bedrucken, kleben und beschichten /coaten ist bei den meisten der o.g. Kunststoffmateralien, (z.B. bei PE, PP, PET) eine Coronavorbehandlung notwen dig. Dabei wird die zu behandelnde Oberfläche für eine kurze Zeit einer elektrischen Coronaentladung ausgesetzt. Alternativen zur Coronabehandlung sind die Flammbehand- lung, die Plasmabehandlung und die Fluorierung.
Die Verarbeitung erfolgt vorzugsweise von der Rolle (Rollenkaschiermaschine) oder als Flächenkaschierung. (Flächenkaschieranlage)
Bei den Kaschierverfahren unterscheidet man Nass-, Trocken - und Thermokaschie- ren. Bei der Nasskaschierung wird ein viskoser Dispersionsklebstoff auf Polyurethanbasis in Schichten von 7- 25 pm auf die Folie aufgetragen und zunächst in einer Trock- nungseinrichtung angetrocknet. Der Klebstoff ist häufig zweikomponentig. Der Be druckstoffwird zugeführt und in einem Walzenspalt unter Druck mit der Folie ver- eint. Anschließend kommt es zur Aushärtung des Klebstoffs. Bei der Trockenkaschierung wird der Schichtenverbund mit einem trockenen Klebstoff erzeugt, wobei überwiegend auf die jeweiligen Substrate abgestimmte 2-Komponenten-Reaktiv-Klebstoffe zur Ka- schierung eingesetzt werden. Die Auftragstechniken der Kaschieranlagen werden vorzugsweise über Kisscoating, Rasterwalzenauftrag, Düsen- und Gieß- kastenprinzip vor gesehen, mit Auftragsgewichten vorzugsweise von lg/m2 bis 20 g/m2.Für die Thermo- kaschierung ist die Folie mit einem thermoaktiven Klebstoff vor- beschichtet. Dieser wird durch Wärme aufgeschmolzen und verbindet unter Einwirkung von Druck die ver- schiedenen Materialien. Die Verbundfolie kann auch durch Laminieren hergestellt werden. Beim Heiß -Laminieren wird unter Druck- und Wärmeeinwirkung (60- 120 °C) ein beidseitiger vollflächiger Verbund des erfindungsgemäßen Schichtaufbaus erzielt. Die Kombinationsmöglichkeit zwischen Foliendicke und flächenbezogener Masse des metallisierten Pa- piers/ Kunststofffolie erlaubt sowohl flexible, noch rollbare, als auch biegesteife Endprodukte.
Bei der Kaltlaminierung sind die Folien mit einem Kleber beschichtet, der normale Klebeeigenschaften bei allen Temperaturen hat. In der Verbindung zwischen Papier / Folie und Folie fungiert der Kleber wie ein doppelseitiges Klebeband.
Neben den zuvor genannten Verfahren können die Folienschicht/en inclusive der metallischen Schicht und einer Trägerplatte und Gegenzug auch in einem Verfahrensschritt, z.B. thermisch miteinander verbunden werden, z.B. durch Heißverpressung und / oder Heißverklebung zum Beispiel mit einer Heißpresse (Hot Press oder Hotmelt Press) oder auch Kurztaktpresse.
Ein weiteres Verfahren zur Verbindung von Kunststoff und Metall ist das Thermische Direktfügen, wobei die metallische Schicht durch Widerstandserwärmung elektrisch er- hitzt wird. Wird diese dann mit der Kunststoffschicht zusammengebracht, schmilzt der Kunststoff auf und bildet unmittelbar nach dem Erstarren einen festen Verbund mit dem Metall.
Von besonderem Vorteil ist es in diesem Zusammenhang, dass die obere Schicht unter- seitig eine PUR-Folienschicht als Haftvermittler zur Trägerschichtausweist. PUR zeichnet sich dadurch aus, dass dieses Material einen niedrigen Schmelzpunkt hat, so dass dieser Kunststoff beim Thermischen Verbinden aufschmilzt und damit als Klebschicht/Haftvermittler zwischen den weiteren Schichten der Oberschicht und dem metallischen Material dient. Die Kunststofffolien können an der äußeren Nutzschicht eine Struktur aufweisen, die beispielsweise durch Prägen erzeugt wird. Damit lassen sich Oberflächenstrukturen, wie z.B. Holz - oder Steinstrukturen herstellen. Eine weitere Ausführungsform ist es die Folienschicht als transparente Melaminschicht auszubilden. Hier können beispielsweise ein- oder mehrere transparente Overlays auf die gedruckte Elektronik aufgebracht werden. Die gedruckte Elektronik kann dann z.B. unter- oder oberseitig auf dem Overlay. vorgesehen werden. Die Verbindung des Overlays zur Trägerschicht/ Trägerplatte erfolgt vorzugsweise durch Thermisches Verbin- den, d.h.Heißverpressen, z.B. über eine Kurztakt- Presse inrichtung( KT Presse) und / oder Kleben oder Heißverkleben.
Ebenso kann die erf dungsgemässe Verbundfolie unterseitig mit einem melaminbe- harztem Papier versehen werden. Dies hat den Vorteil, dass die Verbundfolie in einer KT Presse z.B. auf einen Holzwerkstoff (HDF, MDF) verpresst werden kann. Die Ver- pressung erfolgt unter Druck und Hitze, bei Temperaturen von 160- 200 Grad Celsius. Dabei wird das Melamin in dem beharzten Papier flüssig und verbindet sich durch den Pressvorgang mit der HDF Trägerplatte. Das melaminbeharzte Papier übernimmt hier eine Adapterfunktion zur Verarbeitung der Verbundfolie in einer KT Presse. Vorraus- Setzung für die technische Umsetzbarkeit ist dabei die Verwendung einer erfindungs- gemässen Verbundfolie, die temperaturbeständig ist im Bereich von 160-200 Grad Celsius. Dies bedeutet, dass die verwendeten Einzelkomponenten der Verbundfolie, wie Kunststoff und Kaschierkleber diese Temperaturanforderung erfüllen müssen. Der Schmelzbereich von Polypropylen (PP) liegt bei ca.160 - 165 Grad Celsius, Poly- ethylenterephthalat (PET) hat einen Schmelzpunkt von 250-260 Grad Celsius, Po lyurethan hat einen Schmelzpunkt von 190 Grad Celsius.
Die transparente ein-oder mehrlagige Deckschicht wird vorzugsweise in einer glasklaren Ausführung vorgesehen, damit die gedruckte Elektronik zur vollen Geltung kommt. Es kann jedoch auch vorgesehen werden, dass die transparente ein-oder mehrlagige Deckschicht eine gezielt, tranzluzente Einfärbung aufweist, z.B. als milchige, weißliche Einfärbung. Dadurch kann die transparente ein- oder mehrlagige Deckschicht optisch gezielt matter gestaltet werden. Dies kann auch durch den Einsatz von transluzenten und/oder lasierenden Farben erzeugt werden. Oberflächenausrüstungen (3b)
Darunter sind transparente Oberflächenausrüstungen und/oder Imprägnierungen (z.B. bei Geweben, Vliesen, Textil) vorzugsweise transparente Polymerlacksysteme zu verstehen und / oder auf Naturstoffen basierte Öl- und /oder Wachsbeschichtungen. Bevorzugt werden transparente, hoch strapazierfähige und / oder geruchsarme Beschichtungen auf der Grundlage eines thermoplastischen und/oder elastomeren Kunststoffes. Bevorzugte Kunststoffe: PUR und/oder PLTR- und/ oder PVC und / oder PP- und /oder PE- Besondere Vorteile hat ein wasserverdünnbarer, transparenter PUR-Lack, mit optionalen Zusätzen wie z.B. Polyurethandispersion, Kieselsäure, Wasser, Glyco- lether, heterozyklische Kethone und/ oder Additive. Auch sind Acrylat-Lacke, EB Ac- rylat und Imprägnierungen, elastische Lacke, Polyesterlackierungen (PES), z.B. Im Einbrennverfahren oder ESH Lackierungen einsetzbar. Weitere anwendbare Lacksysteme: Alkydharzlacke (lufttrocknend oder wärmetrocknend), Dispersionslackfarben, Farben und Lacke auf Basis von Acrylpolymeren, High Solids (Nasslacksysteme auf Basis organischer Lösemittel) Phenol-, Harnstoff- und Melaminharz lacke (Wässrig oder lösemittelhaltig) Polyesteranstrichfarben, Polystyrol- und Polyvinylharz lacke, Polyurethanharzlacke, Pulverlacke, Silikonharzfarben, Farben und Lacke auf Basis natür licher Polymere ( Biopolymere, siehe Ausführungen unter 3a.), Farben auf Basis synthetischer Polymere, Zellulosenitrat lacke.
Bevorzugte Stärke der Oberflächenausrüstung von 1 pm bis 1000 pm. Die Oberflächenausrüstungen können auch strukturbildend sein, d.h. eine Oberflächenstruktur auf weisen, z.B um eine dekorative Optik, wie z.B. Holzpore oder dekorative plastische Strukturen zu erzeugen oder eine funktionelle Eigenschaft zu erzielen, wie z.B. Rutsch- hemmung . Die Oberflächenausrüstung kann sowohl direkt auf die Schicht aus gedruckter Elektronik aufgebracht werden unter Verzicht der unter( 3a) beschriebenen Kunststofffolien und/ oder oberseitig als äußere Nutzungsschicht auf die unter (3a) beschriebenen Kunsttoffolien oder auch zwischen den Folien unter -oder oberseitig, z.B. als haftvermittelnde Schicht. Für die Oberflächenausrüstung, kommen z.B. folgende Verfahren in Frage , die sich in charakteristischen Merkmalen unterscheiden und in der Regel Schichtdicken von 5 mhi - 40 gm umfassen können.
1. Vernetzende wässrige Beschichtungen
a. UV-vernetzende wässrige Beschichtungen
-Physikalische Trocknung durch Wärme in Trockenkanälen und/oder durch Infrarot strahlung
-Chemische Vernetzung durch ultraviolette Strahlung (UV)
-Typische Trockenschichtdicke 8 - 15 gm b. Hitze-vernetzende wässrige Beschichtungen
-Chemische Vernetzung durch hohe Temperaturen in Trockenkanälen
-Typische Trockenschichtdicke 8 - 12 gm c.Zweikomponentige wässrige Beschichtungen
-physikalische Trocknung durch Wärme in Trockenkanälen und / oder Infrarotstrah lung
-chemische Vernetzung durch die Härterkomponente
-Typische Trockenschichtdicke 5 - 20 gm
2. Vernetzende 100% - Systeme (Festkörpergehalt)
-Chemische Vernetzung und Härtung zum Beispiel durch ultraviolette Strahlung (UV) -Typische Trockenschichtdicke 10 - 25 gm in Zweischichtaufträgen auch bis 35 - 40 gm
3.Thermisch trocknende wässrige Dispersionen (nicht vernetzt) -Physikalische Trocknung durch Wärme in Trockenkanälen und/oder durch Infrarot strahlung
-Verwendung meist als temporäre Beschichtung
-durch Grundreiniger entfembar
-Typische Trockenschichtdicke 5 - 12 pm
Bevorzugte Ausfuhrungsformen:
4. Der erfindungsgemäße Schichtaufbau des elektronisch angesteuerten Anzei- geele- mentes sieht eine Schicht (1) mit dem elektronischen Element (E) vor, das opti- onal in eine Füllschicht eingebettet wird, die z.B. durch Bedruckung hergestellt wer- den kann.(l ) mit dem darüber befindlichen Anzeigeelement ( 2), z.B. hergestellt durch ein gedruckte Elektronik auf Basis von OLED und / oder Micro LED und /oder elektroni- scher Tinteund einer gegebenenfalls transparenten ein- oder mehrlagigen oberen Schicht (3). wird bevorzugt als vorgefertigte Verbundschicht (A) hergestellt. Diese kann dann beispielsweise als Verbundprodukt weiterverarbeitet werden. Be- vorzugte Stärke der Verbundschicht: 1 pm 2500 pm. Diese Verbundschichten können dann beispielsweise bei der weiteren Verarbeitung auf eine Trägerschicht (5) aufgebracht werden. Grundsätzlich kann die Verbundschicht auf jede geeignete Trägerschicht oder jeden Untergrund aufgebracht werden. Vorzugsweise besteht die Trägerschicht (5) aus folgenden Materialien: Papier, Karton, Kunststoff, Schichtstoff ( HPL,CPL DKS), Kunsstoffolie, Elastomer, Kautschuk, Schaumstoff, Me- tall, Textil, Gewebe oder Vlies, Holz, Holzwerkstoffe, WPC, Kork, Linoleum, Metall, steinbasierten-, feinsteinzeugbasierten -, mineralischen-, keramischen-, zementbasierten-, gipsbasierten- Untergründen und/oder Materialien oder Glas, insbesondere auch Gipskartonplatten, Gipsfaserplatten, Putzuntergründe und OSB-, HDF-,MDF- , Spanplatten oder Kombinationen dieser Materialien. Dabei kann die Trägerschicht (5) auch heterogen und / oder ein- oder mehrschichtig aufgebaut sein. In der Vorfertigung werden die Schichten (1-4) zu einer Verbundschicht (A) zusammengefügt, vorzugsweise durch Kaschieren mit einer Rollenkaschiermaschine, (Ther- mokaschierung oder Nass / Trockenkaschierung), Laminieren, (siehe dazu Ausfuhrun- gen unter 3a.) Thermisches Verbinden und / oder Kleben / Heißkleben oder thermisches Direktfugen, oder auch mit Hilfe doppelseitiger Klebefolien. Die Kunststofffolien in der Definition dieser Erfindung können auch in Form von geschmolzenem Kunststoff, z.B. als geschmolzenes Polymer aufgetragen werden zur Bildung der transparenten ein- oder mehrlagigen obere Schicht, z.B. durch Kalandrieren oder Gießen. Die Verbindung zur Trägerschicht kann mit den gleichen vorher genannten Verfahren erfolgen, vorzugsweise durch Flächenkaschierung auf einer Flächenkaschieranlage.
Dabei ist von Vorteil, wenn die Verbundschicht (A) optional eine unterseitige Schicht (4) als Haftvermittlerschicht und /oder selbstklebende Schicht zur Trägerschicht (5) aufweist. Die Haftvermittlerschicht kann wie in den unter (3a) und (3b) beschriebe- nen Ausführungen vorgesehen werden.
Die unterseitige Schicht (4) kann auch weitere Funktionen übernehmen, wie z.B. als Ausgleichsschicht um Unebenheiten der Trägerschicht auszugleichen. Dies ist vor- teil- haft bei der Oberfläche von Holzwerkstoffen, die aufgrund ihrer Rauigkeit, Unre- gel- mäßigkeiten oder Unebenheiten durch die Verbundfolie„durchtelegrafieren“
Desweitern kann die unterseitige Schicht (4) auch Schutzfunktion für die Schicht aus gedruckter Elektronik sein, um diese im Verarbeitungsprozess vor Feuchtigkeit und mechanischer Beanspruchung zu schützen (Verletzung der Metallschicht z. B. durch Kratzer).
Die unterseitigen Schicht (4) kann auch eine Dämpfungsfunktion übernehmen um beispielsweise die akustischen Eigenschaften der Oberfläche zu verbessern, wie etwa den Trittschall bei Bodenbelägen. Zudem kann die unterseitige Schicht (4) auch als Adapterschicht zu einer spezifischen Trägerschicht ausgebildet werden. Beispiel: Ausbildung als melaminbeharztes Papier für die Verpressung auf Holzwerkstoffe in einer Kurztaktpresse oder als Pa- pier/ Vliesschicht zur Verkelbung mit Kleister auf einer Putzoberfläche.
Diese Ausführungsform ist zum Beispiel für den Anwendungsbereich Tapeten, Dekorpapiere, Dekorfolien und Kantenmaterial in Form einer vorgefertigten Verbundfolie bzw. zur Kaschierung auf eine beliebige Trägerschicht vorgesehen. Zur Verbindung des erfindungsgemäßen Schichtaufbaus mit der Trägerschicht gelten im Übrigen die unter 3.a. genannten Ausführungen zum Thema Kaschieren und Laminieren. Ein besonders bevorzugter Anwendungsbereich ist die Herstellung von bedruckten Dekorpapieren / Folien , bedruckten Dekorfolien, Finishfolien ( fertig veredelte Ober- flächen) und Melaminfilmen für die Holzwerkstoff- und Möbelindustrie mit den Einsatzbereichen Fußboden, Möbel, Innenausbau und Caravan. Derartige Verbundfo- lien können auch für 3 D Anwendungen und Bauteile, wie z.B. als Ummantelungs-, Tiefzieh -, Postformingfolien eingesetzt werden.
Die Verwendung einer Verbundfolie mit aufgedmckter elektronischer Tinte und/ oder die Verwendung eines E-Paper hat zudem den Vorteil, dass ein sogennannter bistabiler Displayzustand entsteht, d.h. bei beendeter Stromzufuhr ist das letzte Bild noch Zusehen. Bei derartigen Displays wird nur beim Bildwechsel Strom benötigt.
Eine bevorzugte Ausführungsform des E Paper ist die Verwendung einer Elekrolytfolie mit Einsatz elektrochromer Moleküle. In eine derartige Folie können auch Muster ein- geprägt werden. Die bevorzugte Stärke einer solchen Folie liegt bei kleiner als 0,5 mm, insbesondere 0,3 mm, wobei die Folie ist hochflexibel, d,h, biegsam und rollbar ist.
5. Ausführungsbeispiel als Verbundfolie (A) Diese bevorzugte Ausführungsform weist zusätzlich eine Technikschicht ( T) auf, z.B. zur Aufbringung von elektrischen Leiterbahnen, vorzugsweise hergestellt durch Bedruckung mit metallischem oder metallhaltigem Material. Hiermit kann die Stromversorgung für das Anzeigeelement und das elektronische Element hergestellt werden. Die Technikschicht dient auch zur optionalen Unterbringung einer Batterie und /oder eines Akkus zur Stromversorgung, wobei die Stromversorgung, vorzugsweise drahtlos und/oder kabelgebunden auf technischer Basis einer Verbindung mit dem Stromnetz und /oder eines Akkumulators und /oder Induktionsstroms und /oder durch Funkstrom oder durch Funkstrom und /oder durch Ultraschallübertragung, vorzugsweise mit piezo- technikbasierten Sensoren erzeugt wird. Beim Induktionsprinzip wird vorzugsweise ein Sender auf Basis einer magnetischen Dipolspule verwendet, beim Funkstrom auf Basis einer Sekundärspule verwendet. Optional kann die Stromzufuhr / Elektronik und Akkutechnik auch in einer externen Anschlussbox ausgelagert, bzw in Bauteielemente in tegriert werden.
Zwischen den Leiterbahnen ist optional eine Füllschicht (F) angeordnet als Isolationsund Ausgleichsschicht, damit sich Unebenheiten, verursacht durch den Querschnitt der Leiterbahn nicht an die Oberfläche sichtbar abzeichnen. Die Füllschicht (F) kann als z.B. als Beschichtung mit einem isolierenden Material (vorzugsweise Kunststoff), z.B. durch Bedruckung oder Lackierung hergestellt werden, oder durch eine separat aufgebrachte makierte Negativschicht.
6. Bevorzugte Ausführungsform: Digitales KFZ- Kennzeichen
Ein sehr innovativer bevorzugter Anwendungsbereich der Erfindung ist die Verwendung eines Anzeigeelementes vorzugsweise für ein Element als amtliches Kennzeichen für ein ein Fahrzeug, vorzugsweise für ein PKW, LKW, Omnibus, Zweirad, Motorrad, E Bike, E Roller, Caravan, Nutzfahrzeug, Anhänger, Strassenbahn, Zug, Flugmobile, insbesondere ein Flugzeug, ein Hubschrauber und ein Schiff.
Der Stand der Technik bei KFZ Kennzeichen besteht im Wesentlichen aus der Kenn- Zeichnung eines Fahrzeuges durch ein Blechnummernschild, zumeist in der Größe 520 xl 10 mm. Dieser Stand der Technik hat sich seit der Entwicklung der ersten PKWs in der Automobilgeschichte nicht wesentlich verändert. Das Schild enthält dabei folgende Informationen: Fahrzeugkennzeichen, Länderkennung, TÜV/ HU Plakette und die Stadt-/ Kreis-/ Landplakette.
Das KFZ Kennzeichen wird bei PKWs in der Regel im Front-und Heckbereich des Fahrzeugs angebracht. Für das hintere Kennzeichen ist eine Kennzeichen- beleuchtung am Fahrzeug vorgeschrieben. Vergleicht man den Stand der Technik eines heutigen Automobils und zeitgemäße Ser- viceangbote zur Mobilität , wie z.B. Elektromobilität, Autonomes Fahren, Fahrhilfen, Vekerhrslenkung, Carsharing Bordcomputer, LED Lichttechnik etc, so mutet das blecherne Kennzeichen an, wie ein altertümliches Relikt aus dem Analogzeitalter unserer Grossväter. Zudem ist es bezogen auf das heutige Automobildesign ein hässliches, un- ästhetisches, unwertiges Fremdelement an einem modern, designten PKW, wie z.B. beim Alfa Romeo, bei dem das Kennzeichen im Frontbereich zudem auch noch asym metrisch angeordnet ist.
Auch die behördliche Abwicklung bei den Strassenverkehrsämtern zur An- und Abmel- düng von Fahrzeugen, die ein persönliches Erscheinen des KFZ Halters oder KFZ Händlers erfordern, ist bürokratisch -, zeit- und kostenintensiv und entspricht nicht den organisatorischen und abwicklungstechnischen Möglichkeiten des digitalen Zeitalters. Erschwerend hinzu kommt das förderalistische Organisationsprinzip Deutschlands, mit den vielen dezentralen Strassenverkehrsämtern der Städte und Kreise der einzelnen Bundesländer, und einer dezentralen Daten- und Informationsverwaltung und Speicherung. Der Erfinder hat sich die Aufgabe gestellt hier ein grundlegend neues Konzept für diese Problemstellung zu entwickeln unter Ausnutzung sämtlicher Möglichkeiten des Digitalzeitalters. Die Grundidee besteht in der Gründung einer bundeseinheitlichen Blockchain Cloud der Strassenverkehrsbehörde (STVB) gesteuert und kontrolliert von den einzelnen Strassenverkehrsämtem (STVA), die die Datenhoheit besitzen. In dieser Blockchain - Cloud sind sämtliche Daten aller relevanten User -Gruppen rund um das Thema Mobili tät gespeichert und werden laufend kontrolliert, sowie aktualisiert. Dabei gibt es für die einzelnen Usergruppen definierte Zugriffs- und Transaktionserlaubnisse, die mittels ei ner Software / App via Smartphone an die Cloud übermittelt werden.
Beispiele für User -Gruppen sind STVA, Führerscheinstelle, KFZ Steuer, Punktekonto/ Bußgeld, KFZ Versicherung, TÜV, Polizei, Verkehrslenkung, KFZ Halter, KFZ Händ- 1er, KFZ Hersteller, Automobiclubs, u.a.m.
Desweiteren schlägt der Erfinder vor jedes Fahrzeug mit einem digitalen KFZ Kennzeichen auszustatten. Dabei handelt es sich um ein vorkonfiguriertes elektrisch angesteuertes Anzeigeelement mit einem integrierten elektronischen Element.
Dieses digitale KFZ Zeichen wird über eine drahtlose Verbindung über das Rechner netz der STVB durch die Blockchain Cloud direkt angesteuert.
Mit anderen Worten besitzt jedes digitale KFZ Kennzeichen - ein Bildschirmdisplay auf dem das Fahrzeugkennzeichen und weitere Informationen bildlich angezeigt werden, wobei diese Informationen über ein STVB eigenes staaatliches Funknetz, vorzugsweise auf 3G / $G / 5G Basis mit eigener geschüzter, Kanalbandbreite, aus der Blockchain- cloud direkt an das digitale KFZ Zeichen gesendet werden und auf diese Weise Zulassungen und Abmeldungen abgewickelt werden. Zur Identifizierung des KFZ Kennzeichens weist das Bildschirmdisplay ein elektronisches Element, z.B. in Form einer 3-5 G Simcard auf die mit einem Verschlüsselungscode gesichert ist. Jedes Digitale Kennzeichen hat einen eigenen ID Code, der der Fahrgestellnummer des KFZ zugeordnet ist.
Das digitale Kennzeichen stellt zudem eine Verbindung zum Bordcomputer des Fahrzeugs her und ermöglicht einen definerten Zugriff und Datenaustausch mit dem Bordcomputer durch die STVB Blockchaincloud. Das Prinzip der Blockchaincloud erlaubt eine sicher verschlüsselte Datenspeicherung und Datenverwaltung. Der o.g. ID Code besteht aus einerm mindestens 8-stelligen Zeichencode, aus einem Zeichenraum von mindestens 89 Zeichen. Dies ergibt eine Kombinationsmöglichkeit von 8 hoch 89, was im mathematischen Ergebnis unendlich ist und so einen Hacker - Angriff nach der Brüte Force Methode unmöglich macht.
Zusammengefasst ergeben sich daraus folgende erfindungsgemäße technische Ausführungen:
Anzeigeelement dadurch gekennzeichnet, dass das elektronische Element eine digitale Verknüpfung mit einer IT-Infrastruktur über ein Rechnernetz aufweist.
Anzeigeelemennt dadurch gekennzeichnet, dass die IT-Infrastruktur ein verschlüssel- tesBuchfuhrungssystem und / oder Verfahren aufweist.
Anzeigeelement dadurch gekennzeichnet, dass das elektronische Element mindestens einen Verschlüsselungscode aufweist und/oder mit mindestens einem Verschlüsselungscode digital verknüpft ist.
Anzeigeelement dadurch gekennzeichnet, dass der Verschlüsselungscode aus mindestens acht Zeichen besteht, basierend auf einem Zeichenraum von mindestens 89 Zeichen.
Anzeigeelement dadurch gekennzeichnet, dass der Verschlüsselungscode in der IT -Infrastruktur gespeichert ist. Die Folie auf Seite 20 zeigt eine besonders bevorzugte Ausftihrungsform des digitalen Kennzeichens.
Das digitale KFZ Kennzeichen ist kompatibel mit gängigen KFZ Kennzeichen Halte- rungen. Es besitzt eine integrierte Schnittstelle bzw. Adapter-Steckverbindung zur Verbindung mit der Autobatterie und wird auf 12 V Basis betrieben. Zu diesem Zweck ist es erforderlich eine Kabelverbindung von der Autobatterie zum vorderen und hinteren Kennzeichen vorzusehen. Zudem enthält das Display eine interne Batterie und / oder Akku, falls die KFZ Stromversorgung ausfällt, dadurch wird eine Stromnotversorgung von z.B. 10 Stunden möglich Das vordere und hintere Kennzeichen können kabellos über Bluetooth und/ oder über eine Kabelverbindung miteinander verbunden werden. Das Display ist in Dauerfunktion, optional kann sich das Display nachts auch automatisch ausschalten. Displayinhalte werden von der STVB Blockchaincloud nach Erfassung der Stammdaten des KFZ automatisch auf das KFZ Kennzeichen Display gesendet und laufend aktualisiert. Den alleinigen, autorisierten Zugriff für das digitale Display hat die regional zuständige Strassenvekehrsbehörde ,d.h. hier liegt die Datenhoheit, die das digitale Kennzeichen steuert und kontrolliert bzw. aktualisiert oder löscht.
Das Strassenverkehrsamt ist zukünftig die zentrale, datenhoheitliche Kommunikations und Koodinationstelle zwischen den verschiedenen Usergruppen,
Alle relevanten Informationen der Usergruppen gehen als Information zunächst an die Behörde und werden dort zentral erfasst, kontrolliert, gespeichert .und laufend aktualisiert. Beispiele: TÜV Prüfer meldet HU Verlängerung, Polizei meldet technische Mängel am Fahrzeug, Halter meldet Wechsel der Haftpflichtversicherung etc.
Darüber hinaus ergeben sich durch das digitale KFZ Kennzeichen und die die digitale Vernetzung von Informationen der verschiedenen User Gruppen zahlreiche neue Zu- satziunktionen, sowie neue Anwendungsmöglichkeiten. Dies fuhrt zu einem neuen Le- vel der Effizienz nicht nur bei den Strassenverkehrsämtern , sondern für alle beteiligten User -Gruppen. Es folgt eine Übersicht über die wesentlichen Vorteile und Möglichkeiten des Gesamtkonzeptes. Neue Anwendungen und Zusatzfunktionen
Neben den Grundfunktionen lassen zukünftig auch ganz neue Zusatzftinktionen über das digitale Kennzeichen realisieren, wie z.B. ein bundesweites Verkehrsleitsystem über die GPS Erfassung des digitalen KFZ Kennzeichens oder auch durch Vernetzung mit dem Bordcomputer des KFZ kann das Strassenverkehrsamt die Einhaltung von Umweltauflagen kontrollieren ,wie .z.B. Kraftstoff -Verbrauchswerten, Abgaswerten, gemäss der Energieverbrauchskennzeichnung der Hersteller oder Fahrverbote für bestimmte Zonen aktivieren oder auch sicherheitsrelevante Kontrollen vornehmen wie etwa Geschwindigkeitskontrolle, Gurtpflicht, Abstandskontrolle... etc. über GPS Funktion mit automatischer Bussgeldzustellung oder eine Stilllegung des Fahrzeugs einstel- len ( z.B. Display komplett rot mit Text:„Ausser Betrieb“). Über die zentrale Digitalisierung der KFZ Daten ist zukünftig auch ein internationaler Datenaustausch zwischen einzelnen Ländern z.B. europaweit möglich und/ oder lässt sich europa- / weltweit vereinheitlichen. (KFZ-Cloud als Speicher) Vorteile für Strassenvekehrsämter (STVA )
a.Erhebliche Verbesserung der Leistungsfähigkeit und Effiziez der Strassenvekehrsbe- hörden:
b.Rasante Schnelligkeit in der Abwicklung von KFZ - Zulassungen durch ausschliessliche online Kommunikation mit relevanten Usern ,
w.z.B. KFZ Halter, KFZ Händler ...etc. Persönliches Erscheinen im Strassenvekehrs- amt nicht mehr notwendig. Zulassung eines Fahrzeuges ist in wenigen Minuten aktiv. Zentralisierung
c.Kostenreduktion in den Verwaltungsabläufend.
d.Eweiterter neuer Aufgaben / Kompetenzbereich
e.Personal übernimmt zukünftig Kommunikations und Kontrollfunktionen, wie z. Umwelt / Sicherheit etc., statt Personal abbauen Darüberhinaus entstehen zukunftsweisende, neue Kontrollfunktionen und Steuerungsmöglichkeiten für das STVA in den Bereichen Sicherheit, Umwelt, Verkehrs lenkung, Verkehrssicherheit, autonomes Fahren, durch Online Zugriff auf Kamera/ Video ( Live Cam) und Sensorfunktionen des digitalen KFZ, sowie definierter Zugriff auf Bordcom- puter. Der Pkw-Verkehr bringt externe Kosten, insbesondere im Bereich Umweltver schmutzung und Unfallfolgekosten, mit sich. Hier können Maßnahmen des STVA zur Erhöhung der Verkehrssicherheit dazu beitragen, dass die Zahl der bei einem Verkehrs unfall getöteten Personen reduziert wird. Weiterhin können damit die Sekundärkosten aller Verkehrsteilnehmer gesenkt werden, wie Unfall- und Umweltkosten (Lärm, Luftschadstoffe) werden, die ansonsten von der Allgemeinheit übernommen werden.
Sowohl Automobilbauer und Zulieferbetriebe als auch Unternehmen aus der IT- Bran- che, insbesondere Google, forschen und entwickeln am autonom fahrenden Kraftfahrzeug. Die Erfindung kann hier im erheblichen Maße zu einer zeitnahen Lösung dieser gesamten Thematik beitragen.
Auch Themen wie Parkleitsysteme, Parkhausbelegung, Vernetzung mit Car-Sharing Angeboten können zukünftig helfen die Innenstädte verkehrsmässig zu entlasten und den Verkehrsfluss zu optimieren. Das Digitale KFZ löst dabei das derzeitige Problem der Kennzeichnung eines Carsharing Fahrzeuges, da dies zum Beispiel durch eine andere Kennzeichenarbe im Display kenntlich gemacht werden kann.
Das STVA kontrolliert zukünftig die Einhaltung des Datenschutzes und führt eine re- gelmäßige Datenlöschung von Altdaten durch.
Es folgt eine beispielhafte Auflistung der neuen Möglichkeiten:
- Polizeikontrolle Über App möglich. Polizei kann sämtliche KFZ und KFZ Halter Informationen abrufen, z.B. Fahrzeugpapiere: Fahrzeugschein, Füherschein ist digital hin- terlegt in App, Durchführung von Fahrzeugkontrollen, :polizeilich gesuchte Fahrzeuge, TÜV Kontrolle, Geschwindigkeitskontrolle , Fahrzeugsicherheit, GPS Ortung von Fahrzeugen. Mängelanzeige KFZ, Stillegungsinfo an Strassenverkehrsamt, Bussgeldinfo
-Führerscheinkontrolle/ Fahrer muss sich zukünftig in Fahrzeug einloggen dadurch wird Führerscheinstatus, Punkte in Flensburg, Führerschein wird digital hinterlegt in App
-Kontrolle: Einhalten von Fahrpausen / vorgeschriebenen Pausen, Fahrtenbuch wird gespeichert, Fahrten Buchfunktion, Fahrtenschreiberfunktion: Überprüfung und Kontrolle von Fahrtzeiten. Automatischer Hinweis auf Fahrpausen auf Bordcomputer
-Diebstahlschutz. Codierung Fahrgestellnummer und Kennzeichen, bei nicht Übereinstimmung:: Fahrsperre aktivieren
-Kontrolle der Gurtpflichterfullung durch Vernetzung mit Bordcomputer über Blue- tooth, automatische Meldung bei Verstoss, mit Bussgeldbescheid
-Kontrolle Telefonierverbot mit Mobilphone während der Fahrt über Verbindung mit Bordcomputer, automatische Meldung bei Verstoß, mit Bussgeldbescheid -Online Kontrolle des STVA Lichtanlage und Bereifung, Profiltiefe Sommer/ Winterreifen
-Pannenhilfe, SOS Funktion, Notruf, Stau: auf dem Display erscheint entsprechender Text , Blinkfunktion etc. Durchsagen über Bordlautsprecher, Stau, Umleitungen, SOS....
-automatische Erkennung von Geschwindigkeitsüberschreitungen per GPS inclusive Bussgeldbescheid -Abstandsmessung zum Vorderfährzeug über Sensor/ inclusive Bussgeldbescheid bei
Verstoss -Mautinformationen : Automatische Erfassung und Abbuchung von Mautpflichtigkeit
-Speicherung aller relevanten Stammdaten von KFZ Halter/ KFZ Händler/ KFZ/ TÜV Hersteller: Fahrzeugschein, Fahrzeugbrief, Führerschein, Fahrzeug, Austattung, Be- triebsanleitung, Reparaturhistorie Versicherungsstatus, Haftpflicht, Kasko ,TÜV TÜV kann durch App Prüfsiegel aktualisieren, separater Zugriff nur auf TÜV bereich,
-Kontrolle und Belohnung defensives Fahren und Teilnahme Fahrsicherheitstraining, Auswertung Fahrverhalten über Bordcomputer, Belohnung: Senkung der KFZ Steuer und Versicherungsbeiträge... Kosten für den Fahrzeughalter senken
-Individualisierung des Kennzeichens z.B. individuelle grafische Gestaltung ,z.B. Auswahl von verschiedenen grafischen Hintergründen -Zusatzfimktionen KFZ Display: Anzeige von Verkehrsinformationen, Gefahr, Stauende, Pannenhilfe, Kommunikation mit anderen Verkehrsteilnehmern....
-Vorteil für Fahrzeughersteller: Intergration des digitalen KFZ Zeichens in Karosseriedesign bei Neuentwicklungen der Autohersteller, neue Designmoöglichkeiten durch flächenbündige Integration in die Karosserie- Aussenhülle, dadurch diebstahlsicher, Bei Neuentwicklungen kann Position, Format, Form und Grösse des Kennzeichens variieren
-Kennzeichen bei Dunkelheit erkennbar, digitales KFZ Display leuchtet Tag und Nacht durchgängig, geringer Stromverbrauch und / oder ohne Strom durch bistabilen Display zustand mittels elekrronischer Tinte, Bessere Erkenn -und Lesbarkeit des Kennzeichens, Mehr Informationen und Zusatzinformationen ablesbar
-Die Kennzeichenbeleuchtung am Heck des KFZ entfällt
-Display ist kompatibel und nachrüstbar für konventionelle Kennzeichen Halterungen -Vermeidung von Metallschildern, die im Lebenszyklus durchschnittlich bis zu 5 x gewechselt werden -digitales KFZ Schild ist i lschungssicher durch doppelte GPS Funktion, d.h. von GPS Bordcomputer und GPS des digitalen Kennzeichens, bei Entfernung des KFZ Zeichens wird abweichende GPS Ortung erkannt und automatisch an STVA gemeldet und automatische Mitteilung an Polizei -Personenerkennung über Sensor/ Kamera
-Diebstahlsicherungsfunktion: Fahrzeugzugriff und Fahrfunktion nur durch Einloggen des Fahrers möglich oder Zugriff nur durch definierten Fahrer- Personenkreis Codierung ob Fahrzeug fremdgeöffnet wurde, GPS Ortung von gestohlenen Fahrzeugen
-Akustische und optische Signale bei Diebstahlversuch, automatische Kameraaktivierung und automatische Bildversendung bei manipulationen am KFZ Schild, Meldung an Polizei -Verkehrslenkung durch eingebaute GPS Erkennung, aktuelle Infos an Bordnavi, automatische Navisteuerung, Verkehrsleitsystem, Stauminimierung
- Parkleitsystem , Parkhausbelegung, -Vernetzung mit Car sharing Angeboten
Ein wichtiger neuer Anwendungsbereich ist die Kontrolle der Fahrzeughersteller. Der Dieselskandal hat gezeigt, dass zukünftig eine staatliche Regulierung und Kontrolle der übermächtigen / kriminellen Autoindustrie erforderlich ist. Durch neue Gesetze könnten die Automobiihersteiier verpflichtet werden, die Einhaltung von Gesetzen und Normen, wie z.B. Umweltauflagen, Schadstoffausstoss, Verbrauchswerte messbar im Bordcom- puter zu hinterlegen. Hier kann die Erfindung dazu beitragen, dass über das digitale KFZ Zeichen in Verbindung mit dem Bordcomputer die Einhaltung sämtlicher Auflagen durch den Staat, durch die Strassenverkehrsbehörde bzw. das Strassenverkehrsamt kontrolliert wird. Es folgt eine beispielhafte Auflistung der neuen Kontrollmöglichkei- ten.
-Einhaltung der Werte Pkw-Verbrauchskennzeichnungsverordnung
-Kontrolle TreibstoffVerbrauch über Bordcomputer Einhaltung des Energieverbrauchs
Klasse a+- G
-Kontrolle Lärm über Bordcomputer
-Kontrolle Schadstoffemission über Bordcomputer
Problemstellung
Die Verbreitung des Internets, das am am 29. Oktober 1969 als Arpanet begann, hat zu umfassenden globalen Umwälzungen in vielen Lebensbereichen geführt. Es trug zu einem Modemisierungsschub in vielen Wirtschaftsbereichen sowie zur Entstehung neuer Wirtschaftszweige bei und hat zu einem grundlegenden Wandel des globalen Kommunikationsverhaltens und der Mediennutzung im beruflichen und privaten Bereich ge- führt. Das Internet gilt bei vielen Experten als eine der größten globalen Veränderungen des Informationswesens seit der Erfindung des Buchdrucks mit großen Auswirkungen auf das alltägliche Leben. Im Jahr 2013 hat der Bundesgerichtshof erklärt, dass das In ternet zur Lebensgrundlage von Privatpersonen gehört. Das Internet wird häufig in politischen Kontexten als rechtsfreier Raum bezeichnet, da nationale Gesetze durch die internationale Struktur des Internets und durch Anonymität als schwer durchsetzbar angesehen werden. Staatliche Stellen hatten lange Zeit von der Funktion des Internets wenig Kenntnisse und wenig Erfahrung mit der Anwendung der Gesetze. Gesetze wurden angepasst und die Rechtsprechung hat eine Reihe von Unsi- cherheiten zumindest de jure beseitigt. Der zunehmende Einfluss des Staates wird dabei teils als Steigerung der Rechtssicherheit begrüßt, teils als Fortschreiten in Richtung auf einen Überwachungsstaat kritisiert, etwa durch das am 1. Januar 2008 in Kraft getretene Gesetz zur Vorratsdatenspeicherung, das am 3. März 2010 vom Bundesverfassungsgericht als verfassungswidrig einge- stuft wurde. Auch international wird die Kontrolle des Internets durch den Staat aufmerksam beobachtet, etwa beim Internet in der Volksrepublik China.
Gerade in dem Nutzen des schnellen, unkomplizierten Datentransfers und der Erfüllung wichtiger organisatorisch-struktureller Aufgaben liegt zugleich auch die Gefahr des In- ternets. Denn Macht bringt immer auch Missbrauch mit sich und so hat sich Cyberkriminalität zu einer massiven Bedrohung für den Staat bzw. das Staatsrecht und seine Bürger etabliert.
Cyberkriminalität (Cybercrime) ist ein weltweit, wachsendes, ungelöstes Problem, das weder an Landesgrenzen noch vor verschlossenen Türen Halt macht. Sie kann überall stattfinden, wo Menschen Computer, Smartphones und andere IT-Geräte benutzen - in Firmen, Behörden, Universitäten, zu Hause und unterwegs. Die Besonderheit der Cyberkriminalität besteht darin, dass die Täter nahezu von jedem Ort der Welt aus agieren und ihre Spuren relativ gut verschleiern können. Zudem muss der Tatort nicht zwingend mit dem Taterfolgsort identisch sein. Nicht nur die Zahl der betroffenen Computer und Smartphones steigt, sondern auch die Professionalität der Täter. Es gibt immer mehr sehr gut vorbereitete Cyberangriffe auf ausgewählte Ziele, bei denen das Schadenspo tenzial für die Betroffenen erheblich ist. Hierzu gehören zum Beispiel Angriffe auf Wirtschaftsunternehmen oder Kritische Infrastruktureinrichtungen.
Im engeren Sinn werden laut Bundeskriminalamt folgende Handlungen als Cybercrime bezeichnet: Ausspähen, Abfangen von Daten einschließlich Vorbereitungshandlungen,, Computerbetrug, Betrug mit Zugangsberechtigungen zu Kommunikationsdiensten, Computersabotage, Datenveränderung, Fälschung beweiserheblicher Daten , Täuschung im Rechtsverkehr bei Datenverarbeitung^ 270) Zur Computerkriminalität im weiteren Sinne zählen in Deutschland alle Straftaten, bei denen die EDV zur Planung, Vorbereitung oder Ausführung eingesetzt wird. Diese erstrecken sich mittlerweile auf nahezu alle Deliktsbereiche, in denen das Tatmittel Internet eingesetzt wird. Beispielsweise: Alle Ausprägungen digitaler Erpressung, Urheber- und Markenrechtsverletzung, unerlaubte Veranstaltung eines Glücksspiels, der Vertrieb verbotener Substanzen, Verstöße gegen das Verbreitungsverbot oder den Jugendmedi enschutz, der Austausch von kinderpornographischen Darstellungen, die onlinebasierte Anbahnung eines sexuellen Missbrauches von Kindern - dem sog. Cyber-Grooming oder Gewalt verherrlichender Propaganda (Volksverhetzung) oder die Verletzung des höchstpersönlichen Lebensbereichs durch Bildaufnahmen, Cyber-Mobbing bis hin zum Cyber-Terrorismus, Cyberspionage, Cyber-Mobbing.
Der Übergang zu Methoden und Verfahren des Cyberwar („Netzkrieg“) ist mittlerweile fließend geworden; im Einzelfall ist durchaus nicht ohne weiteres auszumachen, ob ein Angriff im Netz einschlägig kriminellen Zielen dient oder militärisch bzw. politisch in tendiert ist ,etwa bei einer weitreichenden Sabotage des stark ITK-abhängigen Finanzsystems oder der Webpräsenzen öffentlicher Einrichtungen im weitesten Sinn. Den Beobachtungen zufolge professionalisiert sich die„Malware-Branche“ zunehmend, die Angriffe auf Rechner und Rechnernetze werden immer ausgefeilter.
Bedingt durch den Innovationsfluss der Technik wachsen auch die Möglichkeiten, kriminelle Energien gewinnbringend freizusetzen. An Werbeterror - Belästigungen durch Adware, die sich im Browser als Toolbar oder Add-on einbindet und versucht, z.B. Werbung zu integrieren, hat sich der Intemetuser bereits längst gewöhnt. Auch die Datensammlung durch Datenmonopole wie Google, Facebook, Microsoft wird vom Bürger und von staatlicher Seite geduldet.
Gerade Plattformen wie das sogenannte Darknet sind ein Nährboden für kriminelle Netzwerke. Derartige, von außen nicht ohne weiteres betretbare, dunkle Paralleluniver- sen können der Planung und Durchführung von Handlungen dienen, die zum Cy- bercrime gehören. Ein Beispiel hierfür ist unter anderem der Austausch und die Verbreitung kinderpomographischer Inhalte sowie der Kauf von Waffen oder Drogen.
Doch auch abseits solcher Netzwerke treiben Cyberkriminelle ihr böses Spiel, bei- spielsweise durch„Phishing“-Mails, die dazu dienen, sensible Personendaten zu erhalten. Insbesondere die Infizierung und Manipulation von Computersystemen durch Viren, und Schadsoftware, wie z.B. Spyware , zur Speicherung von sensiblen Nutzerdaten oder schädliche Virencodes, die Programme und Rechner unbrauchbar machen ist eine gängige Praxis. Mittels Trojanern, auch Malware genannt, oder anderer Programme werden persönliche Daten und Zugangsberechtigungen erfasst. Dadurch kann die Identität des Betroffenen gestohlen werden, was es dem Täter beispielsweise ermöglicht, Bank-Konten zu hacken oder auf Social-Media- Plattformen, zum Beispiel Facebook oder Twitter, zuzugreifen. Auch Kyptotrojaner (Ransomware) werden dazu genutzt, sich finanziell zu bereichern. Mittels solcher Malware werden die infizierten Geräte ge- sperrt. Die erneute Freigabe erfolgt dann erst nach der Zahlung eines eingeforderten Lösegeldes. Hier kann beispielsweise der Tatbestand einer Erpressung vorliegen. Tük- kisch sind auch Botnetze, also mehrere infizierte Geräte, die durch den Angreifer aus der Ferne kontrolliert werden können. IT Experten gehen davon aus, dass die Onlinesicherheit, Intemetsicherheit, und IT- Sicherheit, d.h. der Schutz vor Intemetkriminalität, auf Sicht weder machbar, noch beherrschbar ist. Im Gegenteil: Es ist mit einer Zunahme der Internetkriminalität zu rech nen. Von daher besteht dringender Handlungsbedarf die Informationssicherheit von informationsverarbeitenden und -lagernden (technischen oder nicht-technischen) Systemen sicherzustellen, mit den Schutzzielen : Vertraulichkeit, Verfügbarkeit und Integrität Die Informationssicherheit, d.h. der Schutz vor Gefahren bzw. Bedrohungen, und die Ver meidung von wirtschaftlichen Schäden und die Minimierung von Risiken durch Cyber- kriminalität ist eine staatliche Aufgabe von höchster Priorität. Zielsetzung des Staates muss es sein das Recht auf informationeile Selbstbestimmung effektiv und dauerhaft zu gewährleisten, durch innovative Datenschutzverfahren- und Systeme, die als Datenschutzrecht gesetzlich zu verankern sind. Dazu sind radikale Veränderungen im Datenschutzrecht notwendig.
Datenschutz muss verstanden werden als Schutz vor missbräuchlicher Datenverarbeitung und Schutz des Rechts auf informationelle Selbstbestimmung, Schutz des Persön lichkeitsrechts bei der Datenverarbeitung und auch Schutz der Privatsphäre. Datenschutz ist das Recht, dass jeder Mensch grundsätzlich selbst darüber entscheiden darf, wem wann welche seiner persönlichen Daten zugänglich sein sollen. (Datenhoheit) Der Wesenskem eines solchen Datenschutzrechts besteht dabei darin, dass die Machtungleichheit zwischen Organisationen und Einzelpersonen unter Bedingungen gestellt werden wird. Der Datenschutz muss der in der zunehmend digitalen und vernetzten Informationsgesellschaft bestehenden Tendenz zum sogenannten gläsernen Menschen, dem Ausufem staatlicher Überwachungsmaßnahmen (Überwachungsstaat) und der Entstehung von Datenmonopolen von Privatuntemehmen entgegenwirken.
Das Recht auf informationelle Selbstbestimmung ist im Recht Deutschlands das Recht des Einzelnen, grundsätzlich selbst über die Preisgabe und Verwendung seiner perso- nenbezogenen Daten zu bestimmen. Es ist nach der Rechtsprechung des Bundesverfassungsgerichts ein Datenschutz-Grundrecht, das im Grundgesetz für die Bundesrepublik Deutschland nicht ausdrücklich erwähnt wird. Der Vorschlag, ein Datenschutz- Grundrecht in das Grundgesetz einzufiigen, fand bisher nicht die erforderliche Mehrheit. Personenbezogene Daten sind jedoch nach Datenschutz- Grundverordnung und nach Art. 8 der EU-Grundrechtecharta geschützt.
Da jedoch kein Land dieses grenzüberschreitende Problem für sich alleine lösen kann, ist eine gute internationale Zusammenarbeit unabdingbar. Aufgabe der Erfindung
Aufgabe der Erfindung ist es, sämtliche und jedwedes der oben dargestellten Computer / Internet und IT- Sicherheits- Probleme zu lösen, durch eine technisch, innovative digi- tale IT-Systemstruktur bestehend aus einer Anordnung von Hardware- und Software komponenten, sowie einem damit verbundenem Verfahren zur Anwendung dieser Hardware und Softwarekomponenten. Insbesondere ist es Aufgabe der Erfindung eine Verschlüsselung der neuen IT Systemstruktur zur Verfügung zu stellen, die eine 100% Datensicherheit bietet und keinen Missbrauch durch Cybercrime zulässt.
Beschreibung der Erfindung
Die Erfindung schlägt eine neue IT Systemstruktur vor, darauf basierend , dass zunächst eine autarke, zentrale neue IT Systemstruktur in Form einer Cloud zur Verfügung gestellt wird, d.h. ein Rechnernetzwerk, mit onlinebasierten Speicher- und Ser- Verdiensten zum Cloud Computing mit dem Ziel ein alternatives Internet zum World- wide Web zu gründen und zu betreiben.
Cloud Computing (deutsch Rechnerwolke oder Datenwolke) beschreibt die Bereitstellung von IT-Infrastruktur wie beispielsweise Speicherplatz, Rechenleistung oder An- wendungssoftware als Dienstleistung über das Internet.
Technischer formuliert umschreibt das Cloud Computing den Ansatz, IT- Infrastruktu ren über ein Rechnernetz zur Verfügung zu stellen, ohne dass diese auf dem lokalen Rechner installiert sein müssen.
Angebot und Nutzung dieser Dienstleistungen erfolgen dabei ausschließlich durch technische Schnittstellen und Protokolle, etwa mittels eines Webbrowsers. Die Spannweite der im Rahmen des Cloud Computings angebotenen Dienstleistungen umfasst das gesamte Spektrum der Informationstechnik und beinhaltet unter anderem Infrastruktur, Plattformen und Software. Das Konzept ist es, eine zentrale, von staatlicher Stelle gesteuerte Cloud, nachfolgend als„Eurodata“ bezeichnet, zu gründen, in Form eines Rechner- Netzwerkes, mit der Funktion eines zunächst auf europäischer Ebene (EU Länder) betriebenen Internets bzw. Intranets als geschlossene, IT Systemstruktur für Europa, abgekoppelt vom World Wide Web, mit der Option, dass zukünftig weitere -bis alle Länder weltweit darin auf genommen werden können. Zielsetzung ist es das World Wide Web zukünftig abzulösen und durch das sichere„Eurodata“ Netz, welches sich dann zum„Worldata“ Netz weiterentwickelt, zu ersetzen. Die Cloud„Eurodata“ dient dazu, zukünftig, sämtliche, in Europa erzeugten, Daten und Informationen und Transaktionen jedes einzelnen Bürgers zentral sicher zu speichern, zu kontrollieren und zu verwalten, beruhend auf dem Prinzip der informationeilen Selbstbestimmung, d.h. jeder einzelne Mensch/ Bürger entscheidet grundsätzlich selbst darüber, wem und wann und welche seiner persönlichen Daten zugänglich sein sollen. Die Datenhoheit liegt beim Bürger. Die Daten werden geheim gespeichert und aus schliesslich vom jedem EU Bürger persönlich kontrolliert und verwaltet Der Bürger entscheidet über die Teilung von Daten mit Dritten und Zugriffserlaubnisse, die er in seinem Nutzerprofil definiert und zulässt. Zudem gibt es streng reglementierte Zugriffserlaubnisse auf definierte Grunddaten des einzelnen Bürgers z.B. für staatlich, behördli- che z.B. Finanzamt, polizeiliche etc. Kontra llzwecke. Nach dem Tod werden die Daten für immer gelöscht. Beispiele für Daten und Transaktionen: Persönliche Daten: Tele fonnummer, Mobilnummer, Personalausweis, Führerschein, Bank-Kreditkarten, Versicherungsdaten, Krankenkasse, Arztbesuche , Verträge, Steuerliche Daten, Einkünfte, Kapitalerträge, Kindergarten, Schule, Beruf, Ausbildung, Arbeitgeber, Zeugnisse, Di- plom, Selbstständiger, Arbeitsamt, geschäftliche Transaktionen Verträge, Bezahlen im Internet und im Einzelhandel, Speicherung von Privatdaten, z.B. Fotos, Privatdokumenten, Verträgen u.v.a.m. Der Vorteil ist eine Vereinfachung des Lebens für jeden einzel nen Bürger und der Staatsbürokratie. Alle relevanten, persönlichen 100% gesichert, sicher verwahrt. Und jederzeit zugänglich. Nach Übertragung aller bisherigen Daten in die Eurodata Cloud wird jedes Unternehmen, (Datenmonopole wie Google, Facebook, Microsoft etc.) gesetzlich verpflichtet alle perönlichen Daten zu löschen. Das Konzept sieht vor alle in der Vergangenheit gespeicherten Daten auf Null zu setzen.
Das gleiche Prinzip gilt auch für den gesamten, staatlich, öffentlichen und privatwirt schaftlichen-/ gewerblichen Informations - und Datenverkehr, sowie für die Datenspei cherung die zukünftig über die Cloud„Eurodata“ erfasst und abgewickelt wird. Ziel ist es jedwede Inforrmation zu zentralisieren und sicher, informationell selbstbestimmt, durch die„Eurodata“ Cloud zu steuern.
Die Sicherheit der„Eurodata“ Cloud wird dabei gewährleistet durch das Blockchain- Verfahren, einem dezentral geführten Buchführungssystem, unveränderbar, falschungs- und manipulationssicher.
Das Verfahren der Blockchain, eine kryptografischen Verkettung in einem dezentral geführten Buchführungssystem, ist bisher bekannt als die technische Basis für Kryp- towährungen (Bitcoin), kann aber darüber hinaus in verteilten Systemen zur Verbesserung bzw. Vereinfachung der Transaktionssicherheit im Vergleich zu zentralen Syste- men beitragen. Eine Blockchain ist eine verkettete Folge von Datenblöcken, die über die Zeit weiter fortgeschrieben wird. Jeder Block enthält dabei typischerweise einen kryptographisch sicheren Hash (Streuwert) des vorhergehenden Blocks, einen Zeitstempel und Transaktionsdaten. Eine Blockchain wird nicht zentral gespeichert, sondern als verteiltes Register geführt. Alle Beteiligten speichern eine eigene Kopie und schreiben diese fort. Es muss sichergestellt werden, dass eine bei allen Beteiligten identische Kette entsteht. Hierfür müssen zuerst Vorschläge für neue Blöcke erarbeitet werden. Dies geschieht durch Validatoren (die bei Bitcoin„Miner“ genannt werden). Dann müssen sich die Beteiligten einigen, welcher vorgeschlagene Block tatsächlich in die Kette eingefügt wird. Dies erfolgt durch ein sogenanntes Konsensprotokoll, ein algorithmisches Verfahren zur Abstim- mung. Durch kryptographische Verfahren wird sichergestellt, dass die Blockchain nicht nachträglich geändert werden kann. Die Kette der Blöcke ist somit unveränderbar, fal- schungs- und manipulationssicher. Die auf der Blockchain gespeicherten Daten sind von allen Beteiligten einsehbar. Sie sind deshalb aber nicht unbedingt auch für alle sinnvoll lesbar, denn Inhalte können verschlüsselt abgespeichert werden. Blockchains erlauben so eine flexible Ausgestal tung des Vertraulichkeitsgrads. Durch die Nutzung digitaler Signaturen sind Informa tionen in der Blockchain speicherbar, die fälschungssicher nachweisen, dass Teilneh- mende unabstreitbar bestimmte Daten hinterlegt haben, etwa Transaktionen angestoßen haben.
Die Blockchain wird auch genutzt, wenn ein Buchführungssystem dezentral geführt wird und der jeweils richtige Zustand dokumentiert werden muss, weil viele Teilnehmer an der Buchführung beteiligt sind. Dieses Konzept wird als Distributed- Ledger- Technologie (dezentral geführte Kontobuchtechnologie) oder DLT bezeichnet. Was dokumentiert werden soll, ist für den Begriff der Blockchain unerheblich. Entscheidend ist, dass spätere Transaktionen auf früheren Transaktionen aufbauen und diese als rich tig bestätigen, indem sie die Kenntnis der früheren Transaktionen beweisen. Damit wird es unmöglich gemacht, Existenz oder Inhalt der früheren Transaktionen zu manipulie ren oder zu tilgen, ohne gleichzeitig alle späteren Transaktionen ebenfalls zu zerstören. Andere Teilnehmer der dezentralen Buchführung, die noch Kenntnis der späteren Transaktionen haben, würden eine manipulierte Kopie der Blockchain daran erkennen, dass sie Inkonsistenzen in den Berechnungen aufweist.
Der dezentrale Konsensmechanismus ersetzt die Notwendigkeit einer vertrauenswürdi gen dritten Instanz zur Integritätsbestätigung von Transaktionen.
Die Dezentralisierung der IT durch die Eurodata„Cloud“ im Allgemeinen und Block- chain im Speziellen bringt für den gesamten, privaten, staatlichen-, öffentlichen und wirtschaftlichen-/ gewerblichen Informations - und Datenverkehr erhebliche Vorteile: - unveränderbare, fälschungs- und manipulationssichere Daten aus Bürgersicht:
-Abschaffung der Cyber- und Wirtschaftskriminalität, Betrug, Steuerhinterzie- hung,...etc.
-Wertvolle Informationsdaten für gemeinnützige, gesellschaftliche und kulturelle Zwecke in den Bereichen Gesundheit , Medizin, Umwelt etc. -Transparenz sämtlicher Prozesse der Wirtschafts.- und Finanzwelt durch staatliche Kontrollmöglichkeiten mit„Eurodata“
-Schutz großer Datenmengen mittels Verschlüsselung und Zugriffsverwaltung;
-Möglichkeit, große Datenmengen unternehmensübergreifend zu sammeln und analy- sieren einfachere Verifzierung von Datenbezugspunkten
-automatische Aufspüren von Schwachstellen in der Lieferkette, im Zahlungsverkehr und anderen Geschäftsprozessen
-Reduktion oder Vermeidung von unnötigen Kosten für die IT-Infrastrukur
-Reduktion der Kosten für interne und externe Finanztransaktionen, Finanzreporting und Verwaltung
- Schaffung eines Mechanismus zur Verbesserung des Vorstandsreportings und des regulatorischen Reportings -Beschleunigung des Jahresabschlusses. Dieser radikale Schritt der„Eurodata“ Cloud Einführung auf Basis des Blockchain - Verfahrens ist notwendig und alternativlos, um die zuvor dargestellte nicht beherrschbare und nicht lösbare Sicherheitsproblematik des Internets (World Wide Web) endgültig zu beenden. Dies erfordert eine grundlegende, neue europäische Rechtsregelung und Gesetzgebung im Bereich der Informations-und Datensicherheit, die jeden Bürger und jedes Unternehmen / Institution gesetzlich zur Teilnahme an„Eurodata“ verpflichtet.
Für die praktische Durchführung des Cloud Computings mit“Eurodata“ ist es notwendig, dass jeder Bürger/ Teilnehmer bzw. jedes Unternehmen/ Institution eine Zugangs- berechtigung erhält , mittels eines verschlüsselten, fälschungs- und manipulationssiche ren Verfahrens zur Identifizierung und Authentifizierung.
Der Kern der Erfindung schlägt die Verwendung eines elektronischen Elementes mit Prozessor- und Speicherfunktion zur Verwendung als ein Computer-, Smartphone- ,PDA-, Tablet-, PC-, Server-, Spielkonsolen-, Netbook-, Notebook-, Großrechner, Su percomputer, Vorrichtungs-, und /oder Bauteilelement mit Verbindungs- und
/oder Identifikations- und /oder Zuordnungs- und/oder Authentifizierungsfunktion Nutzers im Netz, insbesondere Funknetz, dadurch gekennzeichnet, dass das elektronische Element eine digitale Verknüpfung mit mindestens einem Hardwarelement und/ oder einer (integrierten) Software, vorzugsweise zur Bilderkennung, insbesondere Iriserkennung, aufweist.
Die Erfindung sieht vor, den Irisscan als Erkennungsverfahren einzusetzen, als Zu gangsberechtigung zur„Eurodata“ Cloud. Der Irisscan ist eine wissenschaftlich aner- kannte, sichere Methode zur Identifizierung eines Menschen. Die Iriserkennung ist eine Methode der Biometrie zum Zweck der Authentifizierung oder Identifizierung von Personen. Dafür werden mit speziellen Kameras Bilder der Iris (Regenbogenhaut) des Auges aufgenommen, mit algorithmischen Verfahren die charakteristischen Merkmale der jeweiligen Iris identifiziert, in einen Satz numerischer Werte (Merkmalsvektor, engl. „Template“) umgerechnet und für die Wiedererkennung durch einen Klassifizierungs- algorithmus wie z. B. ein Neuronales Netz gespeichert bzw. mit einem oder mehreren bereits gespeicherten Templates verglichen. Kommerzielle Erkennungsverfahren erfassen etwa 260 individuelle optische Merkmale der Iris. Dazu ist notwendig, dass jeder Bürger gesetzlich verpflichtet wird an einem amtlichen Irisscan teilzunehmen, z.B. des rechten Auges, der dann als Daten und/oder Bilddatensatz in der„Eurodata“ Cloud für die Identifizierung jedes einzelnen Bürgers gespeichert wird.
Als weitere Sicherheitsstufe für die Zugangsberechtigung zur„Eurodata“ Cloud schlägt die Erfindung ein sicheres Verschlüsselungsverfahren vor, bei dem ein Identitätscode für jeden einzelnen Bürger mit einer Software generiert wird, der mit dem Irisscan in der„Eurodata Cloud“ digital verknüpft wird. Der Identitätscode wird durch die Software anonym und für jedermann streng geheim generiert und dem amtlichen Irisscan jedes einzelnen Menschen / Bürgers als Verknüpfung zugeordnet und ist ausschliesslich in der Eurodata Cloud gespeichert. Das Sicherheitskonzept sieht vor, das jedem Menschen / Bürger bei Geburt dieser Identitätscode von staatlicher Seite einmalig zugeord- net wird als lebenslanger Identitätscode, der gleichzeitig Passwordfünktion übernimmt, für alle Angelegenheiten des Lebens/ digitalen Lebens von A-Z ( Ausweisfunktion, Einkäufe im Internet, Arzt, Versicherungen... etc.) als einziges lebenslanges Password, der nur ist nur gültig ist in Verknüpfung mit einer aktuellen Iriserkennung und Irisidentifikation jedes einzelnen Bürgers.
Die Erfindung sieht vor, dass mindestens einen Verschlüsselungscode für die Identifizierung eingesetzt wird. Weiterhin ist vorgesehen, dass der Verschlüsselungscode aus mindestens acht Zeichen besteht, basierend auf einem Zeichenraum von mindestens 89 Zeichen.
Das bedeutet mathematisch, dass es 89 hoch 8 Möglichkeiten der Bildung eines Codes/ Passwortes gibt, was im mathematischen Ergebnis unendlich ergibt. Ein deratiger Code ist zu 100% sicher, da er nicht entschlüsselt werden kann, da die Rechenzeit beipiels- weise mit einem Brute-Force-Angriff durch einen Hacker unendlich lang ist. Im Ergebnis ist der Identitätscode/ Password anonym und absolut geheim in der Eu- rodata Cloud gespeichert und ist niemandem, selbst dem einzelnen Bürger nicht, be kannt. Vorteil: Das bisherige Password Chaos durch immer neue, geänderte und vergessene Passwörter im Internet entfällt vollständig und das Password muss nicht aufgeschrieben oder auswendig gelernt werden da es nur in Verbindung mit einem aktuellen Irisscan gültig ist. Weiterhin sieht die Erfindung ein Verfahren vor mit dem die Zugangsberechtigung zur „ Eurodata“ Cloud jedes einzelnen Bürgers sicher ausgeübt werden kann. Damit kann jeder Bürger z.B. Daten speichern, im Internet bezahlen etc.
Dazu wird von staatlicher Seite ein elektronisches Element, genannt Omnicard, mit Prozessor- und Speicherfunktion für jeden einzelnen Bürger mit dem individuellen Identifijkationscode des Bürgers konfiguriert, bereitgestellt. Dieses elektronische Element wird zum Beispiel in einen Rechner, z.B. Smartphone eingebaut. Das Elektronische Element (Omnicard) hat die Funktion einer SIM Karte, die sich über den Irisscan des Bürgers automatisch mit der Eurodata Cloud verbindet und bei Erkennung des Bür- gers den Zugang bzw. eine Transaktion ffeischaltet. Dazu ist notwendig, dass es zukünftig nur noch ein einziges, staatlich gesteuertes Kabel und Funknetz gibt und auch die Herstellung und der Einbau des elektronischen Elements ( Omnicard ) in z.B. Computer-, Smartphone-, PDA-, Tablet-, PC-, Server-, Spielkonsolen-, Netbook-, Notebook- , Großrechner, Monitore , Displays oder / und in sonstige Vorrichtungs-, und /oder Bau- teilelemente , unter staatliche Kontrolle gestellt wird, beispielsweise durch staatlich zertifizierte Unternehmen.
Die Erfindung sieht weiter vor, das die Iriserkennung über ein Hardwarelement, vorzugsweise durch eine Kamera und /oder einen Scanner erfolgt, der in das elektronische Element integriert wird und /'oder in Verbindung damit steht. Weiter ist vorgesehen, dass das elektronische Element mit einer vorkonfigurierten staatlichen Software ausge- statet ist wird und /oder in Verbindung damit steht, die mindestens ein Programm zur Bilderkennung, insbesondere Iriserkennung, aufweist.
Als Identifizierung beispielsweise zum Bezahlen im Supermarkt, erstellt der Bürger mit seinem Smartphone über die Omnicard- Software/ App und die Kamera einen Irisscan, vorzugsweise des rechten Auges, wodurch automatisch eine Verbindung zur„Eurodata“ cloud hergestellt wird, wo der aktuelle Irisscan, z.B. durch eine Bilderkennungssoftware mit dem amtlich gespeicherten Irisscan abgeglichen wird, und mit dem Identifikationscode verknüpft ist und bei Erkennung eine Freischaltung der Bezahlung erfolgt. Damit solche Transaktionen absolut sicher sind, erstellt die Omnicardsoftware einen aktuellen Zeitstempel des Irisscans, der nur begrenzte Zeit gültig ist, z.B. 9 Minuten. Dadurch wird ein Missbrauch durch z.B. durch Hackerangriffe mit gefälschten Irisscans ausgeschlossen, da ausschliesslich eine Kamerauafnahme über die Omnicard Software und Kamera mit Zeitstempel akzeptiert wird.
Die Erfindung schlägt vor, dass die Omnicard Software/ App neben der Iriserkennung weitere Programme aufweist. Die Omnicard App enthält beispielsweise folgende Funktionen: 1. Scanner, Camera Software für Iris- Identifizierung
2. Geschäftliche Transaktionen und Einkäufe, Bezahlen im Internet und Einzelhandel 3. Speicher und Verwaltungsprogramm für alle digitalen Angelegenheiten des Bürgers ^Einstellungen des Nutzerprofils, ( z.B.Teilen von Daten mit Dritten)
5. Kommunikationssoftware, Email, Eurotalk ( wie whatsapp)
6. Gemeinschaftsdatenbank mit Zugriff für Bürger, Steuern und Abgaben - Gesundheit
, Umwelt und Ökologie , Sicherheit, Presse etc.
Das gleiche Prinzip gilt auch für den gesamten, staatlich, öffentlichen und wirtschaftlichen-/ gewerblichen Informations - und Datenverkehr, sowie für die Datenspeicherung die zukünftig über die Cloud„Eurodata“ erfasst und abgewickelt wird. Dazu wird jedes in Europa agierende Unternehmen zur Teilnahme an der Eurodata Cloud gesetzlich verpflichtet. Wer nicht teilnimmt hat keine Geschäftsberechtigung und schliesst sich selber aus. Zur eindeutigen Zuordnung von Verantwortlichkeiten erfolgen sämtliche Transaktionen in diesem Bereichen auschliesslich über den Identitätscode jeden einzelnen Bürgers verknüpft mit seiner Funktion z.B. als Angestellter eines Unternehmens, im staatlichen/ öffentlichen Dienst, z.B. Staatsregierung, Polizei, Behörden z.B. Finanz amt, Politiker... etc., Hier schlägt die Erfindung vor eine Datenbank Struktur mit Zugriffsberechtigungen für die verschiedenen Nutzergruppen zur Verfügung zu stellen. Insebesondere in die Besteuerung von Internet -Unternehmen wie Google, Facebook, Microsoft etc. kann dadurch gesetzlich neu geregelt und kontrolliert werden.
Mit anderen Worten schlägt die Erfindung als technischen Kern bzw. Beitrag die Verwendung eines elektronischen Elementes mit Prozessor- und Speicherfunktion zur Verwendung als ein Computer-, Smartphone-,PDA-, Tablet-, PC-, Server-, Spielkonsolen-, Netbook-, Notebook-, Großrechner, Supercomputer, Monitor, Display, Vorrich- tungs-, und /oder Bauteilelement mit Verbindungs- und /oder Identifikations- und /oder Zuordnungs- und/oder Authentifizierungsfunktion eines Nutzers im Netz, insbesondere Funknetz, dadurch gekennzeichnet, dass das elektronische Element eine digitale Verknüpfung mit mindestens einem Hardware lement und/ oder einer ( integrierten) Soft ware, vorzugsweise zur Bilderkennung, insbesondere Iriserkennung, aufweist.
Nach meiner Einschätzung ist eine Einführung der Omnicard im Jahre 2025 in Europa realisierbar.
Weitere Ausführungsformen und Begriffsdefinitionen für die Erfindung:
1.Computer
Ein Computer [kom'pju:ti?] oder Rechner (veraltet elektronische Datenverarbeitungsanlage) ist ein Gerät, das mittels programmierbarer Rechenvorschriften Daten verarbeitet. Charles Babbage und Ada Lovelace gelten durch die von Babbage 1837 entworfene Rechenmaschine Analytical Engine als Vordenker des modernen universell program- mierbaren Computers. Konrad Zuse (Z3, 1941 und Z4, 1945), John Presper Eckert und John William Mauchly (ENIAC, 1946) bauten die ersten funktionstüchtigen Geräte die- ser Art. Bei der Klassifizierung eines Geräts als universell programmierbarer Computer spielt die Turing-Vollständigkeit eine wesentliche Rolle. Sie ist benannt nach dem englischen Mathematiker Alan Turing, der 1936 das logische Modell der Turingmaschine eingefuhrt hatte.
Die frühen Computer wurden auch (Groß-)Rechner genannt; ihre Ein- und Ausgabe der Daten war zunächst auf Zahlen beschränkt. Zwar verstehen sich moderne Computer auf den Umgang mit weiteren Daten, beispielsweise mit Buchstaben und Tönen. Diese Daten werden jedoch innerhalb des Computers in Zahlen umgewandelt und als solche ver- arbeitet, weshalb ein Computer auch heute eine Rechenmaschine ist.
Mit zunehmender Leistungsfähigkeit eröffneten sich neue Einsatzbereiche. Computer sind heute in allen Bereichen des täglichen Lebens vorzufinden, meistens in speziali sierten Varianten, die auf einen vorliegenden Anwendungszweck zugeschnitten sind. So dienen integrierte Kleinstcomputer (eingebettetes System) zur Steuerung von Alltagsgeräten wie Waschmaschinen und Videorekordern oder zur Münzprüfung in Warenautomaten; in modernen Automobilen dienen sie beispielsweise zur Anzeige von Fahrdaten und steuern in„Fahrassistenten“ diverse Manöver selbst. Universelle Computer finden sich in Smartphones und Spielkonsolen. Personal Computer (engl für Persönliche Computer, als Gegensatz zu von vielen genutzten Großrechnern) dienen der Informationsverarbeitung in Wirtschaft und Behörden sowie bei Privatpersonen; Supercomputer werden eingesetzt, um komplexe Vorgänge zu simulieren, z. B. in der Klimaforschung oder für medizinische Berechnungen.
Grundsätzlich unterscheiden sich zwei Bauweisen: Ein Rechner ist ein Digitalrechner, wenn er mit digitalen Geräteeinheiten digitale Daten verarbeitet (also Zahlen und Textzeichen); er ist ein Analogrechner, wenn er mit analogen Geräteeinheiten analoge Daten verarbeitet (also kontinuierlich verlaufende elektrische Messgrößen wie Spannung oder Strom). Heute werden fast ausschließlich Digitalrechner eingesetzt. Diese folgen gemeinsamen Grundprinzipien, mit denen ihre freie Programmierung ermöglicht wird. Bei einem Digitalrechner werden dabei zwei grundsätzliche Bestandteile unterschieden: Die Hardware, die aus den elektronischen, physisch anfassbaren Teilen des Computers gebildet wird, sowie die Software, die die Programmierung des Computers beschreibt.
Ein Digitalrechner besteht zunächst nur aus Hardware. Die Hardware stellt erstens einen Speicher bereit, in dem Daten portionsweise wie auf den nummerierten Seiten eines Buches gespeichert und jederzeit zur Verarbeitung oder Ausgabe abgerufen werden können. Zweitens verfiigt das Rechenwerk der Hardware über grundlegende
Bausteine für eine freie Programmierung, mit denen jede beliebige Verarbeitungslogik für Daten dargestellt werden kann: Diese Bausteine sind im Prinzip die Berechnung, der Vergleich und der bedingte Sprung. Ein Digitalrechner kann beispielsweise zwei Zah- len addieren, das Ergebnis mit einer dritten Zahl vergleichen und dann abhängig vom Ergebnis entweder an der einen oder der anderen Stelle des Programms fortfahren. In der Informatik wird dieses Modell theoretisch durch die eingangs erwähnte Turing- Maschine abgebildet; die Turing- Maschine stellt die grundsätzlichen Überlegungen zur Berechenbarkeit dar.
Erst durch eine Software wird der Digitalcomputer jedoch nützlich. Jede Software ist im Prinzip eine definierte, funktionale Anordnung der oben geschilderten Bausteine Berechnung, Vergleich und bedingter Sprung, wobei die Bausteine beliebig oft verwendet werden können. Diese Anordnung der Bausteine, die als Programm bezeichnet wird, wird in Form von Daten im Speicher des Computers abgelegt. Von dort kann sie von der Hardware ausgelesen und abgearbeitet werden. Dieses Funktionsprinzip der Digitalcomputer hat sich seit seinen Ursprüngen in der Mitte des Jahrhunderts nicht wesentlich verändert, wenngleich die Details der Technologie erheblich verbessert wurden. Analogrechner funktionieren nach einem anderen Prinzip. Bei ihnen ersetzen analoge Bauelemente (Verstärker, Kondensatoren) die Logikprogrammierung. Analogrechner wurden früher häufiger zur Simulation von Rege Ivo rgängen eingesetzt (siehe: Rege- lungstechnik), sind heute aber fast vollständig von Digitalcomputern abgelöst worden. In einer Übergangszeit gab es auch Hybridrechner, die einen Analog- mit einem digita len Computer kombinierten. Mögliche Einsatzmöglichkeiten für Computer sind:
-Mediengestaltung (Bild- und Textverarbeitung)
-Verwaltungs- und Archivierungsanwendungen
-Steuerung von Maschinen und Abläufen (Drucker, Produktion in der Industrie durch z. B. Roboter, eingebettete Systeme)
-Berechnungen und Simulationen (z. B. BOINC)
-Medienwiedergabe (Internet, Fernsehen, Videos, Unterhaltungsanwendungen wie - Computerspiele, Lernsoftware)
-Kommunikation (Chat, E-Mail, soziale Netzwerke)
-Softwareentwicklung
Hardwarearchitektur Das heute allgemein angewandte Prinzip, das nach seiner Beschreibung durch John von Neumann von 1946 als Von-Neumann- Architektur bezeichnet wird, definiert für einen Computer fünf Hauptkomponenten:
-das Rechenwerk (im Wesentlichen die arithmetisch-logische Einheit (ALU)),
-das Steuerwerk,
-die Buseinheit,
-das Speicherwerk sowie
-die Eingabe-/ Ausgabewerk(e).
In den heutigen Computern sind die ALU und die Steuereinheit meistens zu einem Baustein verschmolzen, der so genannten CPU (Central Processing Unit, zentraler Prozes- sor)
Der Speicher ist eine Anzahl von durchnummerierten, adressierbaren„Zellen“; jede von ihnen kann ein einzelnes Stück Information aufnehmen. Diese Information wird als Binärzahl, also eine Abfolge von ja/nein-Informationen im Sinne von Einsen und Nullen, in der Speicherzelle abgelegt. Bezüglich des Speicherwerks ist eine wesentliche Designentscheidung der Von- Neumann-Architektur, dass sich Programm und Daten einen Speicherbereich teilen (dabei belegen die Daten in aller Regel den unteren und die Programme den oberen Speicherbereich). Demgegenüber stehen in der Harvard-Architektur Daten und Programmen ei- gene (physikalisch getrennte) Speicherbereiche zur Verfügung. Der Zugriff auf die Speicherbereiche kann parallel realisiert werden, was zu Geschwindigkeitsvorteilen führt. Aus diesem Grund werden digitale Signalprozessoren häufig in Harvard- Architektur ausgeführt. Weiterhin können Daten-Schreiboperationen in der Harvard- Architektur keine Programme überschreiben (Informationssicherheit).
In der Von-Neumann- Architektur ist das Steuerwerk für die Speicherverwaltung in Form von Lese- und Schreibzugriffen zuständig.
Die ALU hat die Aufgabe, Werte aus Speicherzellen zu kombinieren. Sie bekommt die Werte von der Steuereinheit geliefert, verrechnet sie (addiert beispielsweise zwei Zahlen) und gibt den Wert an die Steuereinheit zurück, die den Wert dann für einen Vergleich verwenden oder in eine andere Speicherzelle schreiben kann.
Die Ein-/ Ausgabeeinheiten schließlich sind dafür zuständig, die initialen Programme in die Speicherzellen einzugeben und dem Benutzer die Ergebnisse der Berechnung anzu- zeigen.
Softwarearchitektur
Die Von-Neumann- Architektur ist gewissermaßen die unterste Ebene des Funktionsprinzips eines Computers oberhalb der elektrophysikalischen Vorgänge in den Leiter- bahnen. Die ersten Computer wurden auch tatsächlich so programmiert, dass man die Nummern von Befehlen und von bestimmten Speicherzellen so, wie es das Programm erforderte, nacheinander in die einzelnen Speicherzellen schrieb. Um diesen Aufwand zu reduzieren, wurden Programmiersprachen entwickelt. Diese generieren die Zahlen innerhalb der Speicherzellen, die der Computer letztlich als Programm abarbeitet, aus Textbefehlen heraus automatisch, die auch für den Programmierer einen semantisch verständlichen Inhalt darstellen (z. B. GOTO für den„unbedingten Sprung“). Später wurden bestimmte sich wiederholende Prozeduren in so genannten Bibliotheken zusammengefasst, um nicht jedes Mal das Rad neu erfinden zu müssen, z. B.: das Interpretieren einer gedrückten Tastaturtaste als Buchstabe„A“ und damit als Zahl„65“ (im ASCII-Code). Die Bibliotheken wurden in übergeordneten Bibliotheken gebündelt, welche Unterfunktionen zu komplexen Operationen verknüpfen (Beispiel: die Anzeige eines Buchstabens„A“, bestehend aus 20 einzelnen schwarzen und 50 einzelnen weißen Punkten auf dem Bildschirm, nachdem der Benutzer die Taste„A“ gedrückt hat). In einem modernen Computer arbeiten sehr viele dieser Programmebenen über- bzw. untereinander. Komplexere Aufgaben werden in Unteraufgaben zerlegt, die von ande ren Programmierern bereits bearbeitet wurden, die wiederum auf die Vorarbeit weiterer Programmierer aufbauen, deren Bibliotheken sie verwenden. Auf der untersten Ebene findet sich aber immer der so genannte Maschinencode - jene Abfolge von Zahlen, mit der der Computer auch tatsächlich gesteuert wird.
Arten
Basierend auf Arbeitsweise des Computers
-Analogrechner
-Digitalrechner
-Hybridrechner
Basierend auf der Größe
-Smartphone
-Personal Digital Assistant oder PDA, waren die Vorläufer der Smartphones.
-Tabietcomputer
-Micro Computer (veraltet)
-Eingebettetes System, z. B. im Auto, Fernseher, Waschmaschine usw.
-Einplatinencomputer, z. B. Raspberry Pi, billigste, sehr kleine Computer. Wer- den meist als eingebettete System verwendet.
-Personal Computer oder PC, hier ais Desktop-Computer oder auch Arbeits- piatzrech- ner verstanden. -Hostrechner oder auch Server, eingebunden in einem Rechnemetz, meist ohne eigenen -Display, Tastatur usw.
-Thin Client sind Rechner, die nur in Zusammenarbeit mit einem größeren Rechner, meist Server, richtig funktionieren.
-Heimcomputer (veraltet), der Vorläufer des PC.
-Spielkonsole
-Netbook, ein kleines Notebook.
-Laptop oder Notebook
-Mini Computer (veraltet)
- Superminicomputer (veraltet)
-Mikrocomputer (veraltet)
-Mainffame Computer oder Großrechner.
-Super Computer, die schnellsten Rechner ihrer Zeit, brauchen den Platz einer Turnhalle, die Energie einer Kleinstadt und sind sehr teuer.
Zukunftsperspektiven
Zukünftige Entwicklungen bestehen voraussichtlich aus der möglichen Nutzung biolo gischer Systeme (Biocomputer), weiteren Verknüpfungen zwischen biologischer und technischer Informationsverarbeitung, optischer Signalverarbeitung und neuen physika- lischen Modellen (Quantencomputer).
Ein großer Megatrend sind derzeit (2017) die Entwicklung künstlicher Intelligenzen. Bei diesen simuliert man die Vorgänge im menschlichen Gehirn und erschafft so selbstlernende Computer, die nicht mehr wie bislang programmiert werden, sondern mit Da- ten trainiert werden ähnlich einem Gehirn. Der Zeitpunkt an dem künstliche Intelligenz die menschliche Intelligenz übertrifft nennt man technologische Singularität. Künstliche Intelligenz wird heute (2017) bereits in vielen Anwendungen, auch alltäglichen, eingesetzt (s. Anwendungen der künstlichen Intelligenz). Hans Moravec bezifferte die Rechenleistung des Gehirns auf 100 Teraflops, Raymond Kurzweil auf 10.000 Teraflops. Diese Rechenleistung haben Supercomputer bereits deutlich überschritten. Zum Ver gleich liegt eine Grafikkarte für 800 Euro (5/2016) bei einer Leistung von 10 Teraflops.[7] (s. technologische Singularität)
Für weitere Entwicklungen und Trends, von denen viele noch den Charakter von Schlagwörtern bzw. Hypes haben, siehe Autonomie Computing (= Rechnerautonomie), Grid Computing, Cloud Computing, Pervasive Computing, ubiquitäres Computing (= Rechnerallgegenwart) und Wearable Computing.
Die weltweite Websuche nach dem Begriff„Computer“ nimmt seit Beginn der Statistik 2004 stetig ab. In den 10 Jahren bis 2014 war diese Zugriffszahl auf ein Drittel gefallen.
2. Hardware
Hardware [/'haid.wso/ bzw. /'haid.w o-/ (AE)] (gelegentlich mit„HW“ abgekürzt) ist der Oberbegriff für die physischen Komponenten (die elektronischen und mechanischen Bestandteile) eines datenverarbeitenden Systems, als Komplement zu Software (den Programmen und Daten).[l]
Wortherkunft
Ursprünglich ist das englische hardware ungefähr bedeutungsgleich mit
„Eisenwaren“ und wird heute im englischsprachigen Raum noch in diesem Sinne ver- wendet— also nicht nur für Computer hardware.
Abgrenzung Hardware und Software
In einem Computersystem kommen Hard- und Softwarekomponenten zum Einsatz. Hardware ist vereinfacht ausgedrückt der Teil eines Computers, den man anfassen kann: Jede einzelne darin verbaute Komponente, vom einfachen Kondensator bis hin zur komplett bestückten Platine, das Gerät als Ganzes sowie sein Zubehör wie beispielsweise Maus, Tastatur, Bildschirm und Drucker.
Software ist Information und kann nicht angefasst werden, da sie immateriell ist. [2] Sie ist unterteilbar in Programme und Daten und bestimmt, was ein Computer tut und wie er es tut (in etwa vergleichbar mit einem Manuskript). [3] Die Hardware (das Gerät selbst) fuhrt Software aus (arbeitet sie ab) und setzt sie so in die Tat um.
In den 1950er Jahren wurde Software auf Lochstreifen gespeichert. Jede mögliche Lochposition steht für ein Bit. Die Löcher sind jedoch nicht die Software; sie sind Teil der Hardware. Auch moderne Datenträger sind nicht die Software, sondern immer Hardware, die Software lediglich enthalten.
Ebenso wie Information kann Software nicht existieren ohne physische Repräsentation: Software kann zwar auf bestimmten Medien gespeichert, gedruckt, angezeigt oder transportiert werden. Diese sind aber nicht die Software, sondern sie enthalten sie nur. Als Analogie dazu ist es für eine ,Oper‘ nicht begriffsbestimmend, ob sie im Theater aufgeführt, über Radio/TV übertragen oder als CD verkauft oder gehört wird, ob sie im Opernführer beschrieben oder in der Partitur aufgezeichnet ist. Auch hier enthalten die- se Medien die Oper nur.
Das hard- und softwaregesteuerte Arbeitsprinzip
Es braucht nicht zwingend eine Software, um eine Hardware in ihrem Arbeitsablauf automatisiert zu steuern. Selbst komplexe Arbeitsabläufe lassen sich komplett in Hard- wäre umsetzen - das hardwaregesteuerte Arbeitsprinzip. Als Beispiel sei eines der frühen Spielhallenspiele genannt, das von Atari 1976 produzierte Spiel Breakout.
Das komplette„Programm“ (der Ablauf, die Logik) bestand ausschließlich aus Hardware, bildlich gesehen aus„fest verdrahteten Schalttafeln“. [4]
Auch in modernen Geräten werden automatisierte Arbeitsabläufe teilweise direkt in der Hardware implementiert, in Form von Logikgattern. Sie setzen einen bestimmten Ablauf von Instruktionen um. Ihre Funktion ist fest durch die Struktur der Hardware vorgegeben und kann nachträglich kaum mehr verändert werden. Für ein Update auf neue Funktionen oder zum Beheben von Fehlern muss die Hardware (zumindest teilweise) ausgetauscht, ergänzt oder durch anderweitige physische Eingriffe angepasst werden. Dafür ist die Verarbeitungsgeschwindigkeit in der Regel höher und der Energieverbrauch geringer als bei einer Softwarelösung. Soll ein Arbeitsablauf ohne physische Eingriffe anpassbar sein, so kommt das softwaregesteuerte Arbeitsprinzip zum Tragen: Dafür erhält die Hardware einen Prozessor. Dieser ist in der Lage, Software„zu verstehen“, sie abzuarbeiten.
Software kann wiederum einfach angepasst und sogar komplett ausgetauscht werden, ohne die Hardware dafür verändern zu müssen. So lassen sich auf ein und demselben Gerät nahezu beliebige Anwendungen nutzen.
Komplexere Hardwaresysteme enthalten oft eine Kombination aus hardware- und softwaregesteuerten Komponenten.
Im obigen Beispiel verwendete das von Atari produzierte Spielhallengerät von 1976 keinen Prozessor. Bereits ein Jahr später wurde das Spielprinzip auf ein prozessorgesteuertes Gerät übertragen, den Computer. Seither gab es das Spiel auch als Software. Das Computerspiel bestand nicht mehr aus„verdrahteten Schalttafeln“, sondern aus Anweisungen für einen Prozessor inklusive der für die Abarbeitung notwendigen weiteren Informationen (den Daten), die gemeinsam auf einem Datenträger gespeichert und von dem Computer ausgewertet wurden.
Unterteilung
Hauptplatine (englisch Mainboard)
Eine mögliche Realisierung bzw. Aufteilung der Hardware ist die 1945 vorgestellte Von-Neumann-Architektur. Sie unterscheidet abstrakt zwischen Steuerwerk, Rechenwerk („ALU“), Speicherwerk und Eingabe-/Ausgabewerk (Peripheriegerät). Heutzutage ist eine solche Aufteilung zum Verständnis der Struktur eines Rechners immer noch sinnvoll und notwendig, obwohl mittlerweile bei modernen Prozessoren viele Funktionen in einem Hardwarechip integriert sind, etwa:
-Steuerwerk zur ALU und zur Befehlskodierung gleich mehrere Male zur Parallelverarbeitung;
-Steuerwerk MMU zur Speicherverwaltung;
-der Cache als Teil des Speicherwerks, -die Steuerung für ein Bus-System, das interne und externe Komponenten miteinander verbindet.
Bei sogenannten embedded Prozessoren (für z. B. PDAs oder Waschmaschinen) findet man im gleichen Gehäuse noch ein Ein-/Ausgabewerk in Form serieller Schnittstellen (z. B. USB), digitalem I/O (Input/Output) z. B. für einen Touchscreen und analogem I/O für z. B. Lämpchen oder E-Motoren.
Noch stärker integriert sind sogenannte SoC (System on a Chip) für z. B. Smartphones, die weitere Komponenten integrieren, bis hin zu Arbeitsspeicher (RAM) und Flash- Speicher.
Zur Computer-Hardware gehören die PC-Komponenten:
-Die Grundbestandteile der Rechnerarchitektur: Hauptplatine (auch Motherboard oder Mainboard genannt) mit Chipsatz (für 10), Prozessor und Arbeitsspeicher (RAM) -Massenspeicher: Laufwerke (Festplattenlaufwerk, Flash-Speicher, CD-ROM- Lauf- werk, DVD-Laufwerk, Zip-Laufwerk, Jaz-Laufwerk, ...) und Speicherme- dien
-Erweiterungskarten (Grafikkarte, Soundkarte, Netzwerkkarte, TV-Karte, ISDN- Karte, USB-Karte, PhysX-Karte, ...)
-Netzteil, Gehäuse, Lüfter
-Peripheriegeräte:
- Ausgabegeräte (Drucker, Bildschirm, Beamer, Lautsprecher, ...)
-Eingabegeräte (Tastatur, Maus, Joystick, ...)
-Einlesegeräte (Mikrofone, Karten lesegeräte, verschiedene Arten von Scannern,
. . .)
Alle diese Peripheriegeräte und Baugruppen eines Computers sind großteils mit logi- sehen Schaltungen aufgebaut.
Häufig ist Hardware mit einer FCC-Nummer versehen, die eine eindeutige Identifizie rung des Herstellers erlaubt.
3. Bildschirm
Ein Bildschirm (auch Monitor bzw. englisch Screen oder Display) ist eine elektrisch angesteuerte Anzeige ohne bewegliche Teile zur optischen Signalisierung von verän- derlichen Informationen wie Bildern oder Zeichen. Der Bildschirm kann dabei ein eigenständiges Gerät oder Teil eines Gerätes sein.
Begriffsabgrenzung
Die Begriffe Bildschirm, Monitor, Screen und Display werden im Deutschen häufig synonym verwendet; für die beiden letztgenannten englischer Herkunft gibt es gleichwohl sprachliche Unterschiede. So ist die Darstellung eines Bildschirms eigentlich direkt auf dem Gerät sichtbar. Monitor (vergleiche monitoring für, Überwachung‘) werden demnach allein Bildschirme genannt, die als Bauteile und Peripheriegeräte einge- setzt werden.
Im Gegensatz dazu wird die Projektionsfläche eines Projektors, etwa die Leinwand, im Englischen ebenfalls als screen bezeichnet (in etwa , Schirm4). Hingegen werden im Deutschen wiederum auch alle Anzeigegeräte im weiteren Sinne Display genannt (in etwa , Anzeige4), zum Beispiel Flip-dot-Displays.
Geschichte
Als Ausgabegerät kommen Bildschirme auf Basis von Braunschen Röhren seit den 1930er Jahren zum Einsatz, zunächst mit vektorieller Ansteuerung (siehe Vektorbild- schirm). Die später aufgekommenen Videoterminals verwenden vorwiegend Rastergrafiken zum Aufbau des Bildes. Bei den meisten Videoterminals lassen sich die einzelnen Bildpunkte nicht direkt ansprechen, vielmehr übernimmt ein Zeichengenerator (charac- ter prozessor) die Darstellung von einzelnen Zeichen; die Anzahl und das Aussehen darstellbarer Zeichen sind somit vorgegeben.
In den frühen 1980er Jahren wurde zunehmend die graphische Ausgabe wichtiger, treibend hierbei war unter anderem die Entwicklung von CAD und von grafischen Benutzeroberflächen (GUI, Graphical User Interface), die mit dem Macintosh populär wurden. 2003 wurden nach einer Erhebung der Gesellschaft für Unterhaltungs- und Kommunikationselektronik (gfu) in Deutschland erstmals mehr Flüssigkristallbildschirme abgesetzt als konventionelle Geräte mit Bildröhre. Die Bildschirmdiagonalen für typische Desktop-Anwendungen liegen heute meistens zwischen 50 und 75 cm, für Notebooks sind etwa 34 bis 43 cm üblich.
Frühe Personal Computer verfügten wie damalige Computerterminals häufig über integrierte Bildschirme. Heute ist das nur noch bei portablen Computern wie Notebooks und Handheids üblich. Bildschirme für ortsfesten Einsatz werden in der Regel in sepa- rate Gehäuse eingebaut, die auch die Elektronik zu ihrer Ansteuerung beinhalten und meist über standardisierte Schnittstellen wie VGA oder DVI an eine in den Computer eingesteckte Grafikkarte angeschlossen werden.
Seit etwa 2001 gibt es auch Bildschirme, die dreidimensionale Bilder darstellen können, sogenannte autostereoskopische Displays oder auch 3D-Monitore. Die Entwicklung be- findet sich noch im Anfangsstadium, eine perfekt ausgearbeitete virtuelle Realität ist mit ihnen noch nicht möglich.
Bei einem sogenannten Smart Display handelt es sich um einen Monitor, der per Funk mit dem Rechner verbunden und so in Grenzen portabel ist.
Eigenschaften
Die Bildschirmdiagonale ist die Größenangabe des Bildschirms und bezieht sich immer auf die Diagonale der Bildröhre, diese war bei Bildröhren etwas größer als die sichtbare Diagonale. Weitere Kennzeichen eines Monitors sind das Seitenverhältnis, die maxima- le Zeilenfrequenz, aus der sich für eine bestimmte Bildhöhe die Bildwiederholfrequenz ergibt, der maximale Pixeltakt (aus diesen drei Frequenzen sowie dem vertikalen und horizontalen blanking interval ergibt sich die Auflösung), die Helligkeit, der Kontrast, die Reaktionszeit sowie besonders bei Flüssigkristallbildschirmen die Anzahl der Pixel und der maximale Blickwinkel. Bei Röhrenmonitoren ist noch die Art (Loch-, Streifen- oder Schlitzmaske) und das Raster der Maske relevant. Mehrfachanzeige
Eine Mehrfachanzeige, auch Multifunktionsanzeige, dient der Darstellung mehrfacher Informationen. Dies kann ein einzelnes elektronisches Gerät oder ein Verbundsystem mit mehreren Bildschirmen sein. Sinn und Zweck dabei ist, eine große Anzahl von be- nötigten Werten oder auch Bildern und Signalen zur gleichen Zeit mit mehreren Anzeigegeräten oder nacheinander auf demselben Display anzeigen zu können.
Dazu müssen vorgegebene oder aktuell aufbereitete Daten visualisiert und ausgegeben werden.
Heute wird dies bei einer Vielzahl von Anwendungen verwendet, beispielsweise beim elektronischen Fluginstrumenten- Anzeigesystem in Luftfahrzeugen, bei Mobiltelefonen
(Handys), bei Tablet-PCs oder bei digitalem Fernsehen.
Bekannte und weitverbreitete Methoden zur simultanen Darstellung ist die Fenstertechnik - die dem Betriebssystem Windows zu seinem Namen verhalf - beim Personalcomputer. Hierbei können verschiedene Programme in sogenannten
„Fenstern“ nebeneinander angeordnet werden, wobei auch hier ein oder mehrere Moni- tore eingesetzt werden können.
Darstellungstechniken
Verwendete Darstellungstechniken sind:
-Feldemissionsbildschirm („FED“)
-Flüssigkristallbildschirm („LCD“)
-Dünnschichttransistorbildschirm („TFT-LCD“)
-Kathodenstrahlröhrenbildschirm („CRT“)
-Plasmabildschirm
-Organische Leuchtdiode („OLED“)
-Surface-conduction Electron-emitter Display („SED“)
-Kathodenstrahlröhre mit kontinuierlicher fluoreszierender Beschichtung (Oszilloskop) -Bildpunkt-Maskentypen (Pixeling)
-Röhrenmonitor- Wiedergabe (Lochmaske)
-Röhrenmonitor-Wiedergabe (Streifenmaske) -Röhrenmonitor-Wiedergabe (Bildausschnitt). Alle Farbpunkte liegen auf einer Linie, die von drei Elektronenstrahlen (je Farbe einer) zeilenweise zum Leuchten angeregt werden.
-Matrix eines Fernsehbildschirmes
Anwendungsgebiete
Anwendung finden diese in
-Bedienelementen von Maschinen und Geräten aller Art
-Anzeigegeräte in allen Bereichen der Technik
-Fernsehgeräten
-Computermonitoren
-Radargeräten, Oszilloskopen
-bildgebenden Verfahren in Wissenschaft
-medizinischen Diagnose- und Überwachungsgeräten (Monitore)
-Notebooks, PDAs (Handheids, Organizer), Mobiltelefonen
-Digitalkameras und Camcordern
-elektronischen Navigationsgeräten
-Werbeanzeigen, Informationsschildern im Straßenverkehr
Siehe auch
-Bildschirmarbeitsverordnung
-Bildschirmmedien
-Breitbildmonitor
-Display PostScript
-Elektronisches Papier
-Head-Mounted Display
-Kontrastverhältnis
-TCO (Standard)
-Touchscreen 4. Anzeige (Technik) Die Anzeige beschreibt in der Technik allgemein eine Vorrichtung zur optischen Signalisierung von veränderlichen Informationen (Zustände und Werte), insbesondere Mess werten. Sie unterscheiden sich dadurch von Kennzeichen, welche gleichbleibende In formationen darbieten. Im Arbeitssystem stellen Anzeigen eine Schnittstelle zwischen dem Menschen und einem technischen Prozess oder der Umwelt dar.
Eine Anzeige kann sehr unterschiedliche Bauformen aufweisen und auf unterschiedlicher technischer Umsetzung basieren. Man unterscheidet mechanische, elektromechanische und elektronische Anzeigen. Nach der Art und Aussage der Anzeige selbst kann man sie auch in binäre Anzeigen, Skalenanzeigen, Ziffernanzeigen und grafische An- zeigen unterteilen. In der Ergonomie unterscheidet die DIN EN 8942 -2[1] zwischen optischen, akustischen und taktilen Anzeigen.
Bauformen und technische Umsetzungen von Anzeigen Mechanische Anzeigen
Bei mechanischen Anzeigen wiederum werden kontinuierliche und diskrete Anzeigen unterschieden.
Beispiele für kontinuierliche mechanische Anzeigen:
-Mechanische Tachometer setzen die Drehzahl einer Welle in einen dazu pro- portiona- len Winkel eines Zeigers um.
-Eine mit einem Zeiger kombinierte Aufwickeleinrichtung für einen Faden misst, wie tief ein an dem Faden hängender Schwimmer abgesunken ist, und zeigt damit den Füll- stand an, u. a. an Öltanks.
-Pegelstandanzeiger oder kurz Pegel, wie sie an vielen Flüssen zu finden sind, oder auch Wasser- bzw. Füllstandsanzeigen, z. B. an Kesseln oder Kaffeema- schinen, zeigen durch direkten Blick auf den Flüssigkeitsstand an einer Skale, oftmals über ein Schauglas, den Füllgrad bzw. den Wasserstand an.
-Flüssigkeitsthermometer
-Bimetallthermometer
-analoge mechanische Waagen (Zeiger, bewegte oder projizierte Skale)
-Abstimm-Skale zur Senderwahl an Radios Beispiel für diskrete mechanische Anzeigen:
-Eisenbahn-Formsignale in verschiedenen Bauformen für Anweisungen wie -„Fahrt“ und„Halt“
-Kennmelder an Schmelzsicherungen signalisieren einen durchgebrannten Schmelzlei ter
-mechanische Schrittzähler und Kilometerzähler; allgemein: Rollenzählwerke
-Wasserzähler, Gaszähler
Elektromechanische Anzeigen
Kontinuierliche elektromechanische Anzeigen:
-Skalenanzeigen
-mechanischer Zeiger
-Drehspulmesswerk
- Dreheisenmesswerk
- Lichtzeiger
-Spiegelgalvanometer
-sonstige
-Zungenfrequenzmesser
-elektrolytischer Betriebsstunden- oder Strommengenzähler
-Elektrometer
Diskrete elektromechanische Anzeigen:
-Elektromechanische Zähler mit Ziffernrollen
-mit Ferrarismotor in Energiezählern
-in Kilometerzählern
-Fallblattanzeigetafeln an Flughäfen und Bahnhöfen für Texte und Uhrzeiten
-Schauzeichen
-Fallklappenrelais Elektrische und elektronische Anzeigen: -Elektrisch angesteuerte Anzeigen ohne bewegte Teile können binäre Anzeigen, Ziffernanzeigen, aber auch analoge Anzeigen (Bargraph-Anzeige, Magisches Auge) oder Bilddarstellungen sein. Mit dem Begriff Digitalanzeige ist meist eine Ziffemanzeige gemeint.
Technische Realisierung (Beispiele):
-Meldelampen [Leuchtmittel Glühlampe oder Leuchtdioden (LEDs), Organische Leuchtdioden (OLEDs)]
-binär, Farbwechsel, Ziffernanzeige oder Bargraph
-Helligkeitsvergleich oder mit unterschiedlicher Frequenz blinkend
-Flüssigkristallanzeigen (LCDs); Zeichen-, Symbol- Ziffern- oder Bilddarstellung (Smartphones, Flachbildschirme)
-Fluoreszenzanzeigen (VFDs); Zeichen- oder Symboldarstellung, auch Bar- graph- Anzeigen, Magisches Auge
-Braunsche Röhren; y-x-Darstellung bei Bildröhren, Oszilloskopen, Spektrum- Analy- zem, Messempfängern, Darstellung in Polarkoordinaten in Radargeräten
-Nixie-Röhren (Ziffernanzeige)
Großformatige LED-Matrixanzeige auf einem japanischen Verkehrsknotenpunkt
Übliche Ansteuerarten komplexer elektrischer oder elektromechanischer Anzeigen sind: -vektororientierte Ansteuerung
-Raster- oder Matrixanzeige
-Segmentanzeige (Sieben-Segment-Anzeige, Vierzehn-Segment-Anzeige, bi- näre Symboldarstellung)
Der Bildschirm (auch Monitor, Display, Smart Display) ist ein sehr universelles Anzei- geinstrument. Als Braunsche Röhre kann er vektor- und rasterorientiert angesteuert werden.
Zunehmend kommen Flüssigkristallbildschirme zur Anwendung, die als Matrizen ra- sterförmig angesteuert werden.
Weit verbreitet sind auch LC-Sieben-Segment- Anzeigen, wie sie unter anderem in digi- talen Messgeräten, Armband- und Funkuhren Vorkommen. Ein Virtual retinal display projiziert die Information direkt auf die Retina des Auges. Projektionsanzeigen projizieren alphanumerische Zeichen oder Symbole an eine Wand oder eine Mattscheibe. Bei Weckern mit Projektionsanzeige wird eine Siebensegmentanzeige projiziert, während u. a. bei frühen Großrechnern Ziffernanzeigen zum Einsatz kamen, die für jede Stelle (Ziffer) je 10 Glühlämpchen, 10 Kollimatorlinsen, Gobos 0...9 und 10 entsprechend ausgerichtete Objektive besaßen, um jede Ziffer an der gleichen Position auf einer Mattscheibe darstellen zu können. Zur Projektion von Videobildern (Videoprojektor) auf Großleinwände waren früher aufwendige Einrichtungen wie das Eidophor-System nötig. Seit den 1990er Jahren gibt es dafür Projektionstechniken mit LCDs oder DLPs, in bestimmten Ländern Beamer genannt.
Head-up-Displays spiegeln sich in einer teiltransparenten Platte (Windschutzscheibe, separate Strahlteilerscheibe). Anzeigen in der Messtechnik
In der für die Messtechnik grundlegenden DIN 1319-2 wird bei„Messgeräte mit direkter Ausgabe“ unter anderem unterschieden in Skalenanzeige und Ziffemanzeige.
Skalenanzeige mittels Flüssigkristallanzeige
Bei einem Messgerät mit Skalenanzeige stellt sich als Ausgangsgröße eine Marke (z. B. eine bestimmte Stelle eines körperlichen Zeigers oder eines Bildschirmzeigers, ein Lichtzeiger (siehe z. B. auch Spiegel-Galvanometer), eine Kante, der Meniskus einer Flüssigkeitssäule) meist kontinuierlich auf eine Stelle der Skale ein, oder die Skale wird darauf eingestellt. Zu körperlichen Zeigern siehe z. B. unter Analogmultimeter, Dreh- spulmesswerk.
Skalenanzeigen finden sich auch an einer Vielzahl mechanischer Messgeräte wie Waagen, Messschieber; letztere verwenden einen Nonius zur genaueren Ablesbarkeit. Spiegelskalen besitzen zusätzlich einen Spiegelsektor hinter dem Zeiger, um senkrechtes Ablesen zu erleichtern und damit einen Parallaxenfehler beim Ablesen zu vermeiden. Zeigeruhren, Stoppuhren und Messschrauben besitzen 2 bis 3 Zeiger, um die Ablesegenauigkeit zu erhöhen.
Bei der Bandanzeige wird entweder diskontinuierlich eine veränderliche Anzahl von Segmenten zum Leuchten gebracht oder kontinuierlich eine veränderliche Länge des Bandes eingestellt. Sie kann zur Messung dienen oder nur zur qualitativen Beurteilung, siehe hierzu Bargraph- Anzeige oder auch Magisches Auge. Die diskontinuierliche Bandanzeige arbeitet digital und verbindet die Digitaltechnik mit den Vorteilen einer Skalenanzeige.
Ziffernanzeige
Bei einem Messgerät, bei dem die Ausgangsgröße eine in fest gegebenen Schritten quantisierte zahlenmäßige Darstellung der Messgröße ist, erscheint diskontinuierlich die Anzahl (Summe) von Quantisierungseinheiten oder die Anzahl (Summe) von Impulsen in einer Ziffernfolge. Die Ziffernanzeigen unterscheiden sich durch die Prinzipien der Zifferndarstellung. Siehe hierzu Abschnitt Elektrische und elektronische An- zeigen. Frühere Ziffernanzeigen verwendeten pro Stelle zehn diskrete, hinterleuchtete Ziffern, die direkt anhand des Aufleuchtens betrachtet oder projiziert wurden.
Ziffernanzeigen haben den Nachteil, dass Trends und die absolute Größe nicht auf den ersten Blick erkennbar sind. Daher besitzen Digitalmultimeter (kurz DMM, d. h. solche mit einer Ziffernanzeige) manchmal zusätzlich einen schnelle Bargraphanzeige oder ein Zeigerelement, die jedoch auch aus diskreten Anzeigeelementen bestehen (siehe Bild rechts).
Vorteile sind z. B. die Darstellbarkeit des Messwertes über weite Bereiche durch variable Kommata und zusätzlich angezeigte Maßeinheiten, die Eindeutigkeit bei der Able sung sowie bei selbst leuchtenden Anzeigen die gute Ablesbarkeit bei schlechten Licht- Verhältnissen.
Zusätze
Bei entsprechender Ausgabetechnik können zusätzlich Bewertungen in der Anzeige enthalten sein; beispielsweise kann auf eine Grenzwertüberschreitung oder Gefahr in der Anlage durch blinkende Anzeige, zusätzliches Leuchtzeichen oder wechselnde Far- be hingewiesen werden. Computermonitor
Ein Computermonitor ist ein Bildschirm, der primär zum Anschluss an einen Computer gedacht ist. Insbesondere in den Jahren zwischen 1985 und 2005 entwickelten sich Fernsehgeräte und Computermonitore sehr weit auseinander (Qualität, Bildraten, Signa- le, Pegel, Stecker), seit 2010 wachsen diese wieder zusammen.
In der Anfangszeit der Computer gab es keine Computer-Monitore und auch keine Computer-Tastaturen und -Mäuse. Eingabe und Ausgabe erfolgten über Lochkar- ten(stapel) oder Lochstreifen. Diese wurde mit Lochkartenstanzern (oder Lochstreifen- Stanzern) erstellt. Drucker (eigentlich Fernschreiber) sorgten schließlich für die Ausgabe der Daten, die auf den Lochkarten oder -streifen gespeichert waren oder vielmehr aus diesen Daten errechnet wurden (Listenausgabe).
Ab Anfang der 1960er Jahre kamen Mainframe-Systeme wie die IBM-S/360-Serie auf den Markt, die mit Hilfe von Text-Kommandos über eine Tastatur bedient werden konnten, wobei die Ausgabedaten mit Hilfe eines Anschlagdruckers auf Endlos- Papier visualisiert wurden. Da für den Ausdruck lediglich die binären Steuercodes für die zu druckenden Zeichen übermittelt werden mussten, war dieses Verfahren im Gegensatz zur digitalen Modulation von Bilddaten bereits vor der Erfindung des Monitors reali- sierbar. Die ersten Computer-Terminals waren so konzipiert, dass sie dieselben Steuerdaten wie ein damaliger Drucker interpretieren konnten, um daraus eine Textausgabe auf dem Bildschirm zu generieren.
Computerterminals
Anfang der 1970er tauchten zunehmend Computerterminals auf. Typische Vertreter waren z. B. die IBM-3270-Terminals oder VTIOO-Terminals, an die ANSI.SYS unter MSDOS noch erinnert. Der Umweg über Lochkarten und Bänder verschwand, man konnte mit Hilfe solcher Terminals direkt mit einem Computer kommunizieren. Als charakteristische Eigenschaft blieb, dass die Kommunikation immer noch gewisse Ähn- lichkeiten mit Fernschreibern und Lochstreifen hatten. Sie wurden meist, analog zu Fernschreibern, seriell mit Text- und Steuerzeichen angesteuert. Eingaben wurden gesammelt dem Zentralcomputer (mit seiner kostbaren Rechenzeit) übermittelt.
Als Monitore selbst kamen meist weiße, grüne oder orange Monochrommonitore zum Einsatz. Die Terminals hatten meist 80 oder 132 Zeichen je Zeile bei 24 oder 43 Zeilen. Die Auflösung lag zwischen 240 und 350 Zeilen, Bildraten bei 50 oder 60 Hz, häufig mit nachleuchtendem Phosphor, um das Flimmern durch den Bildrasteraufbau zu minimieren. Aufkommende Heimcomputer, Anfänge des PCs
Für Heimcomputer griff man auf vorhandene Technik zurück - den heimischen Fernseher. Etwas besser waren spezielle Computermonitore. Die Darstellungsqualität hängt dabei auch von der benutzten Schnittstelle zwischen Computer und Fernseher ab; in aufsteigender Reihenfolge:
-Ansteuerung über einen HF-Modulator. Üblich sind maximal 40 Zeichen pro Zeile.
-Ansteuerung mittels FBAS-Signal über einen Video-Eingang, der u. a. auch für Videorecorder gedacht war.
-Ansteuerung mittels getrenntem Färb- und Helligkeitssignal (S-Video).
-Ansteuerung mittels RGB-Signal (meist über SCART).
Je weiter unten in der Liste das Verfahren steht, desto weniger - der eigentlich nur für die Fernsehübertragung via Antenne notwendigen - Signalverarbeitungsstufen sind bei der Übertragung involviert; dementsprechend entfällt die jeweils innewohnende Limitierung der Signalqualität durch Bandbreitenbegrenzung oder Modulationsartefakte. Allerdings war zu Beginn der Heimcomputer-Ära am vorhandenen Fernseher ein anderer Eingang als der für das HF-Signal (Antenneneingang) nicht selbstverständlich, weshalb über den HF-Modulator praktisch jeder Fernseher für die Ausgabe geeignet ist. Auf der anderen Seite basiert das Bildsignal vieler Heimcomputer gar nicht auf einem RGB- Signal; sie erzeugen direkt ein FBAS- oder S-Video-Signal, weswegen dort ein RGB- Monitor nicht genutzt werden kann.
Aufkommen von hochauflösenden Computermonitoren Sowohl für Heimcomputer wie den C64 wie auch für Büro-Computer wie die IBM-PCs gab es Computermonitore. Während der folgenden Jahrzehnte entwickelten sich die Darstellungsstandards bei der IT-Technik beständig weiter, während aufgrund der be stehenden Normen der Fernsehübertragung dort (abseits von Detailverbesserungen) praktisch kein Fortschritt stattfand. Dies führte dazu, dass sich über knapp 20 Jahre Computermonitore und Fernseher extrem auseinanderentwickelten. Mit dem ersten Schritt weg vom fernsehkompatiblen Heimcomputer war die Darstellung eines Compu terbildes auf einem Fernseher praktisch unmöglich. Die Fortschritte im Bereich der Digitaltechnik ermöglichten später jedoch vergleichsweise einfach eine qualitativ gute Normenwandlung.
Dadurch können einerseits Fernsehsignale aus Computerbilddaten erzeugt werden, zum anderen war das eine Voraussetzung für die Weiterentwicklung von Fernsehnormen un ter Beibehaltung von Abwärts- und Aufwärtskompatibilität, wodurch sich Computer- und Fernsehtechnik wieder einander annähern.
Flachbildschirme, digitale Schnittstellen
Um das Jahr 2000 tauchten sowohl im Computer- wie im Fernsehbereich Flachbildschirme auf. Bei Fernsehern kamen am Anfang Plasmabildschirme zum Einsatz, bei Computern Flüssigkristallbildschirme (LCD) mit Dünnfilmtransistoren (TFT). Mit DVI bei Computern und HDMI bei Fernsehern wurden sehr ähnliche Standards der Ansteuerung von Displays entwickelt.
Anschlüsse
TV und Heimcomputer
Im Bereich der Heimcomputer kommen die zu ihrer Hochzeit in den 1980er-Jahren üblichen Verbindungstechniken für Trägerfrequenzsignale (via HF-Modulator), Video- und RGB-Signale zum Einsatz (z. B. Belling-Lee-Steckverbinder, BNC-, Cinch-, DIN- oder SCART-Stecker).
Monitore
VGA-Stecker und Buchse Die Übertragung von Videosignalen wechselte mehrfach.
-Ära 1 : Videosignale wurden genauso wie beim Fernsehgerät analog übertra- gen. Be liebig viele Farben konnten übertragen werden. Synchronisation wird mit dem Hellig- keitskanal bzw. mit dem Grünkanal übertragen.
-Ära 2: Der IBM-PC favorisierte die digitale Übertragung mit getrennter Übertra- gung der Synchronsignale.
-Monochrom-Monitore wurden über zwei Signale angesteuert (Video, In- tensity) und zwei Synchronsignale (HSync+ und VSync-)
-Color Graphics Adapter-Monitore über vier Signale (Red, Green, Blue,
Intensity) und zwei Synchronsignale (HSync+ und VSync-)
-Enhanced Graphics Array-Monitore über sechs Signale (Red, Green, Blue, Red- Intensity, Green-Intensity, Blue-Intensity) und zwei Syn- chronsignale (HSync+ und VSync-)
-Ära 3: Beim Video Graphics Array wurde von IBM pro Farbe (Rot, Grün, Blau) wie der nur eine Leitung verwendet, über die die Intensität analog übertragen wurde. Dabei wurden bis zu 218 Farben unterstützt. Die beiden Synchronsig- nale blieben erhalten. -Ära 4: Digitale Übertragung von analogen Signalen als digitale Daten über 1 oder 2 Leitungen. Synchronsignale als spezielle Codeworte im digitalen Da- tenstrom.
-Ära 5: In Ära 4 wird das Signal mit dem exakten Timing aus Ära 3 übertragen. Man löst sich auch von dieser Gewohnheit und überträgt Videodaten als asynchrone Pakete.
Synchronsignale
Computermonitore benötigen meist separat übertragene Synchronsignale (HSYNC + VSYNC). Selten werden beide Signale zusammen übertragen (CSYNC). Das Übertra gen mit dem Helligkeitssignal (YUV) oder Sync-on-Green, der Standard bei Video, wird nicht verwendet.
Flachbildschirme
DVI-Stecker und Buchse
Digital Visual Interface (DVI) ist eine Schnittstelle zur Übertragung von Videodaten. Im PC-Bereich entwickelte sich DVI zu einem Standard für den Anschluss von TFT- Monitoren an die Grafikkarte eines Rechners. DVI beinhaltet die gleichzeitige Ausgabe von analogen (DVI-A oder DVI-I) wie digitalen Video-Signalen (DVI-D und DVI-I). DVI ist in weiten Bereichen kompatibel zum später entstandenen HDMI. High Definition Multimedia Interface
High Definition Multimedia Interface (HDMI) ist eine ab Mitte 2003 entwickelte Schnittstelle für die volldigitale Übertragung von Audio- und Video-Daten in der Unterhaltungselektronik. Sie vereinheitlicht existierende Verfahren, erhöht gegenüber diesen die Qualitätsmerkmale, und bietet außerdem auch ein zusammenhängendes Kopier- schütz- Konzept (DRM).
DisplayPort
DisplayPort (DP) ist ein durch die VESA genormter universeller und lizenzfreier Verbindungsstandard für die Übertragung von Bild- und Tonsignalen.
Anwendungsbereiche sind im Wesentlichen der Anschluss von Bildschirmen und Fernsehgeräten an Computern und ähnlichen Geräten.
Quo vadis
Der Weg ist klar vorgezeichnet hin zu einer allgemeinen Schnittstelle, die sowohl zur Stromversorgung und zur Datenübertragung wie auch zur Ausgabe von Videodaten befähigt ist. Siehe USB 3.1 mit Stecker Typ C, Mobile High-Definition Link (MHL) und Thunderbolt.
Analoges TV
Serial Digital Interface
Das Serial Digital Interface (SDI) ist eine serielle digitale Schnittstelle, primär zur Übertragung von unkomprimierten und unverschlüsselten Videodaten über Koaxialkabel oder Lichtwellenleiter. Es kommt hauptsächlich im Bereich professioneller Fernsehstudios und Fernsehsendern zum Einsatz. Die SDI-Schnittstelle wird von der Society of Motion Picture and Television Engineers (SMPTE) spezifiziert, und stellt eine Weiterentwicklung der analogen Videostandards wie dem PAL beziehungsweise NTSC-Verfahren dar. Technische Typen nach Art des Bilddarstellungsverfahrens Rasterdisplays vs. Vektordisplays
Rasterdisplays überstreichen den gesamten Bildschirm in einem festen Raster. Der Elektronenstrahl wird je nach Darstellung hell- oder dunkelgetastet.
V ektorbildschirm
Vektorbildschirme arbeiten ähnlich einem Plotter. Es können schlecht Flächen, aber sehr gut Linien dargestellt werden. Ab einer gewissen Komplexität der Darstellung flimmert das Bild zunehmend, da das Zeichnen zu lange dauert und weniger als 40 Mal das Bild pro Sekunde geschrieben werden kann. Röhrenmonitore
Kathodenstrahlröhrenbildschirm
Flachdisplays: Flüssigkristallbildschirme (oder auch Plasma-Displays)
— >Hauptartikel: Flüssigkristallanzeige
Während neuere LCD-Computermonitore und HDTV -Monitor ausnahmslos quadrati- sehe Pixel besitzen, gibt es bei alten LCD-Computermonitoren und SDTV- Bildschirmen sowohl quadratische wie nichtquadratische Pixel. Nichtquadratische Pixel waren bei frühen CGA- und EGA-Laptop-Displays üblich. SDTV-Monitore orientierten sich häufig an der ITU-R BT.601 und hatten horizontal 352, 704 oder 720 Pixel. Weder bei 4:3 noch bei 16:9 noch bei PAL noch bei NTSC waren dann die Pixel quadratisch.
Datenübertragung
Der Anschluss beim TFT-Monitor ist nicht nur eine Frage der Kompatibilität, sondern auch der Qualität des Bildes. DVI ist eine digitale Schnittstelle für Grafikkarten und Monitore (Digital Visual Interface). VGA ist die analoge Schnittstelle (Video Graphics Array). Die Grafikdaten werden im PC digital verarbeitet, die dann in der Grafikkarte in analoge Signale umgewandelt werden. Ein TFT-Monitor benötigt digitale Signale zur Darstellung der Bilder. Wird jetzt ein TFT-Monitor über einen VGA-Anschluss betrieben, muss im Monitor ein Analog- Di- gital-Wandler das analoge Signal in ein digitales Signal übersetzen. Durch die Umwandlung wird die Qualität des Bildes je nach verwendeten Bauelementen mehr oder weniger gedämpft. Leichte Unschärfe und Flimmern können die Folge sein. Die beste Kombination ist eine Grafikkarte mit digitalem DVI-Ausgang und ein Monitor mit DVl-Eingang. Per DVI-VGA-Adapter kann auch ein TFT-Monitor, der lediglich einen VGA-Anschluss besitzt, an einer Grafikkarte mit DVI-Anschluss betrieben werden, jedoch wird bei diesem Verfahren das Bild weiterhin analog übertragen.
Standardauflösungen
Im Bereich existieren sowohl Grafikstandards, wie auch typische Auflösungen für Gra fikmodi, wobei die meisten über die VESA standardisiert sind. Die Bildschirme sind werksseitig auf ein Gamma von 2,2 und eine Farbtemperatur von 6500 K justiert. Mittels Farbmanagement-Software lassen sich diese Werte (soweit darstellbar) anpassen.
Flachbildschirme haben wie Röhrenbildschirme mit Kathodenstrahlröhre eine maxima- le und minimale darstellbare Bildschirmauflösung. Während bei einem Röhrenmonitor keine Auflösung genau über die native Lochmaske passt und daher alle Auflösungen entsprechend unscharf wiedergegeben werden. Die meisten anderen Auflösungen müssen interpoliert werden, und erscheinen daher weniger scharf. Ausnahmen sind Auflösungen, die in Höhe und Breite Teiler der Maximalauflösung darstellen und bei denen daher keine Zwischenpixel interpoliert werden müssen, wie etwa die Hälfte oder ein Viertel der nativen Auflösung. Die native Auflösung wird in der Typenbeschreibung des Monitors angegeben.
Als Desktop-Bildschirmauflösung des Betriebssystems ist daher heute die native (= maximale) Bildschirmauflösung des verwendeten Flachbild-Monitors besonders zu empfehlen. Moderne Betriebssysteme übernehmen die Skalierung der Bildschirmdar- Stellung in die gewünschte Darstellungsgröße selbst, und ermöglichen der Grafikkarte so, den Flachbildschirm in seiner nativen Auflösung anzusteuem.
Bildschirmmaße
Bei TFT-Monitoren wird die exakte Bildschirmdiagonale angegeben. Bei früheren Röhrenmonitoren wurde die (nicht vollständig nutzbare) Diagonale des Glaskolbens ange geben. Diese Diagonale war etwa 2,5 bis 4 cm größer als die wirklich nutzbare Diago nale. Das Seitenverhältnis bei Röhrenmonitoren war fast(?) ausnahmslos 4:3. Bei Flachdis plays war dies anfangs auch so. 17-Zoll- und 19-Zoll-Geräte gab es meist mit 1280>< 1024er Auflösung und einem Seitenverhältnis von 5:4. Ab dem Aufkommen von 24-Zoll-Geräten um die Jahrtausendwende kamen 16:10 und seit 2008 16:9- Geräte dazu. Letztere haben mittlerweile einen Marktanteil von etwa 90 Prozent.
Eine weitere Größe war bei Röhrengeräten die maximale Zeilenffequenz bzw. die maximale Bildfrequenz bei gegebener Auflösung. Seit der Ära TFT ist diese von geringerer Bedeutung geworden und beträgt meist 60 Hz. Flimmern hat nichts mehr mit der Auffrischrate des Bildinhalts zu tun.
5. Flüssigkristallanzeige
Eine Flüssigkristallanzeige (englisch liquid crystal display, LCD) oder ein Flüssigkristallbildschirm ist eine Anzeige (engl display) oder ein Bildschirm, dessen Funktion darauf beruht, dass Flüssigkristalle die Polarisationsrichtung von Licht beeinflussen, wenn ein bestimmtes Maß an elektrischer Spannung angelegt wird.
LCDs bestehen aus Segmenten, die unabhängig voneinander ihre Transparenz ändern können. Dazu wird mit elektrischer Spannung in jedem Segment die Ausrichtung der Flüssigkristalle gesteuert. Damit ändert sich die Durchlässigkeit für polarisiertes Licht, das mit einer Hintergrundbeleuchtung und Polarisationsfiltern erzeugt wird. Soll ein Display beliebige Inhalte darstellen können, sind die Segmente in einem gleichmäßigen Raster angeordnet (siehe Pixel). Bei Geräten, die nur bestimmte Zeichen darstellen sollen, haben die Segmente oft eine speziell darauf abgestimmte Form, so insbesondere bei der Sieben-Segment-Anzeige zur Darstellung von Zahlen (siehe auch Matrixanzeige).
Eine Weiterentwicklung ist das Aktiv-Matrix-Display, das zur Ansteuerung eine Matrix von Dünnschichttransistoren (engl thin-film transistor, TFT) enthält. Bei Flachbildschirmen dominiert diese Technik seit etwa 2005.
In der Werbung wird seit etwa 2009 häufig von LED-Fernsehern gesprochen. Dabei handelt es sich in den meisten Fällen ebenfalls um Flüssigkristallbildschirme (LCDs) zur Bilddarstellung, bei denen zur Hintergrundbeleuchtung LEDs eingesetzt werden (LED-Backlight). Bildschirme mit organischen Leuchtdioden (OLEDs) sind für groß- flächige Fernsehgeräte erst seit kurzem in Europa erhältlich, nachdem anfänglich nur der Testmarkt in Südkorea bedient wurde.
LCDs finden Verwendung an vielen elektronischen Geräten, etwa in der Unterhaltungselektronik, an Messgeräten, Mobiltelefonen, Digitaluhren und Taschenrechnern. Auch Head-up-Displays und Videoprojektoren arbeiten mit dieser Technik.
Geschichte
1904 veröffentlichte Otto Lehmann sein Hauptwerk Flüssige Kristalle. Im Jahre 191 1 beschrieb Charles Mauguin die Struktur und die Eigenschaften von Flüssigkristallen. 1936 erhielt die American Marconi Wireless Telegraph Company ein Patent auf die erste praktische Anwendung der Technologie, das Flüssigkristall- Lichtventil. 1962 erschien die erste wichtige englischsprachige Publikation über Molekulare Struktur und Eigenschaften von Flüssigkristallen (Original: Molecular Structure and Properties of Liquid Crystals) von George William Gray. Pionierarbeiten über Flüssigkristalle wurden in den späten 1960er Jahren vom britischen Radar Research Establishment in Malvern geleistet. Das dortige Team unterstützte die fortschreitenden Arbeiten von George William Gray, der mit seinem Team an der Universität Hüll in Kingston upon Hüll (England) schließlich flüssigkristalline Cyanobiphenyl-Verbindungen synthetisierte, die die Anforderungen bezüglich Stabilität und Temperaturverhalten für LCD erfüllte.
Das erste funktionierende LCD basierte auf dem dynamischen Streumodus (engl dy- namic Scattering mode, DSM) und wurde 1968 in den USA von einer Gruppe bei der Radio Corporation of America (RCA) unter der Leitung von George H. Heilmeier eingeführt. Heilmeier gründete die Firma Optel, die einige LCDs nach diesem Prinzip entwickelte.
Am 4. Dezember 1970 meldeten Martin Schadt und Wolfgang Helfrich, damals im Central Research Laboratory der Firma Hoffmann-LaRoche tätig, das erste Patent über die „nematische Drehzelle“ (auch TN-Zelle, Schadt-Helffich-Zelle, twisted nematic field effect) in der Schweiz an. Das Patent wurde in 21 Ländern erteilt, nicht jedoch in Deutschland.
Am 22. April 1971 reichte James Fergason von der Kent State University in den USA seine Patentanmeldung über den twisted nematic field effect in Flüssigkristallen ein und stellte 1971 in seiner Firma ILIXCO, die heute (2005) LXD Incorporated heißt, LCD mit dieser Technik her. Sie ersetzten schnell die schlechteren DSM-Typen.
Ideen, welche heute in Aktiv-Matrix-Displays verwendet werden, entstanden bei der Konzeption von Flüssigkristall-Balkenanzeigen (engl bar graph displays). So wurde 1971 ein LC-Matrixdisplay für Balkenanzeigen bei der Firma Brown, Boveri & Cie,
Baden, Schweiz, entwickelt, wobei jedem LC-Segment eine Diode (nichtlineares Element) vorgeschaltet und ein zusätzlicher Kondensator als Speicherelement parallelge schaltet wurde.
Am 28. Juni 1973 wurde in den USA eine Anordnung zur Balkenanzeige zum Patent angemeldet, bei welcher Interdigital-Elektroden auf nur einer Glasplatte angebracht werden, um ein elektrisches Feld parallel zu der Glasplatte zu erzeugen und die Flüs- sigkristalle in einer Ebene umzuorientieren (in-plane switching, IPS, siehe Anzeigetypen).
Am 7. Juli 1983 mit einer Ergänzung vom 28. Oktober 1983 reichten H. Amstutz und seine Miterfinder des Forschungszentrums der Firma Brown, Boveri & Cie, Baden, Schweiz, eine Patentanmeldung ein, welche die Basis für Super-Twisted Nematic STN- LCD bildete (siehe Anzeigetypen). Mit STN-LCD ließen sich erstmals monochrome, passive Matrixanzeigen mit ausreichender Auflösung für einfache Bilddarstellungen realisieren (siehe Darstellung einer Weltkarte unter Elektronische Ansteuerung). Dieses Patent wurde in vielen Ländern erteilt. Vor allem asiatische Hersteller wurden Lizenz- nehmer (weltweit über 60)
Am 9. Januar 1990 meldeten G. Baur und seine Miterfinder der Fraunhofer- Gesellschaft in Freiburg i. Br. ein Patent in Deutschland an, welches die konkrete Basis für optimiertes In-Plane Switching in Matrixanzeigen (IPS-LCDs) bildete.
Dieses Patent wurde in vielen Ländern erteilt, von der Firma Merck KGaA Darmstadt, dem weltweit größten Hersteller von Flüssigkristallsubstanzen, übernommen und an viele Firmen lizenziert.
Am 18. September 1992 mit Nachtrag vom 20. Januar 1993 machten K. Kondo und seine Miterfinder bei Hitachi eine Patentanmeldung in Japan, [8] welche als weiteres wesentliches Element des In-Plane Switching eine spezifisch geeignete Verbindungstechnik der Dünnfilmtransistoren in Matrixform darlegte. Später erfolgte eine weitere Hitachi-Patentanmeldung, welche die Blickwinkelabhängigkeit dieser Art von FK- Anzeigen verbesserte.
Anzeigetypen
Schadt-Helfrich-Zelle/ Vergrößerte Subpixel (TN-Panel) Vergrößerte Subpixel (Multi- Domain-VA-Panel)
Twisted Nematic (TN)
In Flüssigkristalldisplays verwendete Flüssigkristalle sind organische Verbindungen, die sowohl Eigenschaften von Flüssigkeiten als auch von Festkörpern aufweisen. Sie sind einerseits mehr oder weniger fluide als eine Flüssigkeit, andererseits zeigen sie Eigenschaften wie Doppelbrechung.
Ein einfaches Flüssigkristall-Anzeigeelement lässt sich mit der Schadt-Helffich-Zelle (nematische Drehzelle, engl twisted nematic, TN-Zelle) realisieren. In nebenstehender Darstellung sind nur die Bestandteile der unteren Hälfte einer solchen Drehzelle num- meriert.Die Bezugsnummem (x) sind in dieser Beschreibung eingefügt.
Die Innenseiten zweier sehr dünner Glasplatten (Substrate) sind mit einer transparenten Elektrodenschicht (Indium-Zinn-Oxidschicht, ITO) überzogen, dazwischen befindet sich die Flüssigkristallschicht von weniger als 10 Mikrometer Dicke. Die Flüssigkri- Stallmoleküle ordnen sich in eine vorgegebene Richtung, nämlich parallel zu der bei spielsweise mit einem Polyimid beschichteten und in einer Vorzugsrichtung gebürsteten Oberfläche. Die Vorzugsrichtungen der beiden Substratplatten sind um 90° zueinander verdreht. Bei der Herstellung handgefertigter Prototypen kann man zum Bürsten Polystyrolschaum oder mit samtartigen Textilien beschichtete Walzen benutzen.
Zusätzlich sind die beiden Substratplatten mit um 90° zueinander verdrehten Polarisationsfiltern beschichtet. Auf der Rückseite dieser Anordnung kann sich ein Spiegel befinden (Reflektor oder Transreflektor), der das einfallende Licht zurückwirft (reflexive Betriebsart). In der transmissiven Betriebsart befindet sich anstelle des Reflektors eine Beleuchtungseinheit hinter dem Anzeigeelement.
Aus den gegeneinander verdrehten Substratplatten ergibt sich eine schraubenförmige Struktur im Flüssigkristall; bei einer um 90° gedrehten Schraube spricht man von TN. Einfallendes Licht wird also vor dem Eintritt in die Flüssigkristallschicht linear polarisiert. Durch die Verdrillung der Moleküle folgt eine Drehung der Polarisationsrichtung des Lichtes, wodurch das Licht den zweiten Polarisator passieren kann und die Zelle lichtdurchlässig (transparent) ist. Da das Display im Ruhezustand durchsichtig ist, wird diese Betriebsart als Normally- White- Mode bezeichnet. Legt man eine elektrische Spannung an die Elektroden an, so tritt unter dem Einfluss des elektrischen Feldes eine Drehung der Flüssigkristallmoleküle ein, die sich parallel zum elektrischen Feld aus- richten. Die Verdrillung wird damit zunehmend aufgehoben, die Polarisationsrichtung des Lichts wird nicht mehr gedreht und damit kann es den zweiten Polarisationsfilter nicht mehr passieren.
Ordnet man die Polarisationsfilter parallel zueinander an, dann ist die Zelle ohne Span- nung dunkel und wird erst mit zunehmender Spannung transparent. Man spricht dann vom Normally-Black-Mode. Die Schadt-Helfrich-Zelle ist also (wie andere Flüssigkristallanzeigen auch) ein spannungsgesteuertes Lichtventil. Ein Bildschirm kann aus be liebig vielen solcher Zellen (Bildelemente, Pixel) bestehen. Beim Taschenrechner stellt eine einfache 7-Segment-Anzeige jeweils eine Ziffer dar, bei einem farbfahigen Bild- schirm werden pro Bildelement (Pixel) drei Teilbildelemente (Subpixel) für die Grund farben Rot, Grün und Blau verwendet.
Super-Twisted Nematic (STN)
Bei (monochromen) STN-Displays (engl super-twisted nematic) wird der Verdrillwin- kel der Moleküle auf 180° bis 270° erhöht. Dadurch kann eine steilere elektro -optische Kennlinie und so eine verbesserte Multiplexbarkeit als bei TN- Displays erreicht werden. Aufgrund verschiedener technischer Beschränkungen gelingt es nur mit einigem Aufwand (doppelte Zelle = DSTN-Zelle, Kompensation mit doppelbrechenden Verzögerungsfolien - retarder sheets), die Darstellung farbneutral zu gestalten (d. h. nur Graustufen zwischen Schwarz und Weiß zu erzeugen).
Stattdessen sind die Hellzustände gelblich und die Dunkelzustände fallen dunkelblau (mit Violett-Ton) aus. Eine Weiterentwicklung stellt CSTN (engl color super-twist nematic) durch die Firma Sharp dar, bei dem Filter in den drei Grundfarben Rot, Grün und Blau vor den Pixeln für die Darstellung von Farben verwendet werden.
Double Super-Twisted Nematic (DSTN)
Es wurde mit verschiedenen Techniken versucht, eine Schwarz-Weiß-Darstellung auf dem Passiv-Matrix-Display zu erreichen: mit der Guest-Host-Technik, dem OMI- Ver- fahren von Martin Schadt („Optical Mode Interference“) und der Double-Super- Twi- sted-Technik. Durchgesetzt hat sich letztere als DSTN-Technik. Das Aufbauprinzip dieser DSTN-Zelle ist im Bild zu erkennen. Es liegen nun zwei STN-Schichten vor. In der aktiven Zelle - das ist diejenige, an die ein elektrisches Feld gelegt werden kann - ist der Flüssigkristall um 240° gegen den Uhrzeigersinn gedreht. Die passive Zelle enthält ebenfalls nematisches Material, das hier aber um 240° mit dem Uhrzeigersinn gedreht vorliegt. Beide Zellen sind so zueinander gedreht, dass die Orientierung der Stäbchen an der Eingangsseite senkrecht zu der an der Ausgangsseite ist. Die Polarisationsfolien sind ebenfalls um 90° gegeneinander gedreht.
Aufbauschema einer DSTN-Flüssigkristallzelle
In der konventionellen TN- oder STN-Zelle erhält man nach dem Durchgang linear po larisierten Lichtes genau betrachtet nicht einfach linear polarisiertes Licht mit verdrehter Schwingungsebene, sondern elliptisch (oder zirkular) polarisiertes Licht. Die Spitze des elektrischen Feldvektors beschreibt eine Ellipse oder einen Kreis. Solches Licht geht durch den Polarisator hindurch, wobei die durch den Dichroismus bewirkte Farbaufspaltung - abhängig von der Polarisation und der Folienorientierung am Strahlaustritt - zu farbigem Licht fuhrt.
Zur Funktion von DSTN-Zellen
Die Arbeitsweise von DSTN-LCD verdeutlicht: Weißes Licht fallt auf den hinteren Polarisator (im Bild unten) und wird dort linear polarisiert. Dann gelangt es in die aktive STN-Zelle, die (ohne Feld) nun zirkular polarisiertes Licht daraus erzeugt. Dieses Licht ist - wie bei der herkömmlichen STN-Zelle - durch Dichroismus verändert. Der Weg durch die anschließende passive Zelle (die das gleiche Flüssigkristall-Material enthält wie die erste - aktive - Zelle, aber in entgegengesetzter Richtung verdreht) fuhrt zur Kompensation der Farbaufspaltung (die Phasendifferenz wird gleich Null). Als Ergebnis liegt linear polarisiertes Licht vor, das die gleiche Schwingungsebene aufweist wie zuvor nach dem Passieren der hinteren Polarisationsfolie. Weil aber der vordere Polarisator um 90° verdreht ist, lässt er kein Licht durch: Der Bildschirm ist an dieser Stelle schwarz. Liegt an der aktiven Zelle ein elektrisches Feld an, dann geht das linear polarisierte Licht aus dem hinteren Polarisator dort glatt hindurch, ohne verändert zu werden. Erst in der passiven Zelle erfolgt nun zirkulare Polarisation. Weil aber zirkular polarisiertes Licht von Polarisatoren nicht zurückgehalten wird, ist der Bildschirm an dieser Stelle hell. Durch genaues Justieren sowohl des verwendeten Materials als auch der Zellenabmessungen wird das durchgelassene Licht weiß.
Auf diese Weise wurden Displays realisiert, die ein sauberes Schwarz-Weiß mit einem Kontrastverhältnis von bis zu 15:1 bieten.
Triple Super-Twisted Nematic (TSTN; heutzutage als TN oder Film-TN bezeichnet) Aufbauschema einer TSTN-Flüssigkristallzelle: Das Licht der Beleuchtung wird polarisiert , gefiltert , durchquert die hintere Glasscheibe , den STN- Flüssigkristall , die vordere Glasscheibe, die vordere Filterfolie, den vorderen Polarisator und tritt schließ- lieh farbig aus .
Der komplexe Aufbau einer DSTN-Flüssigkristallzelle bedingt einen relativ hohen Aufwand bei ihrer Herstellung. Es wurde deshalb ein neues Verfahren entwickelt, das zu flacheren Displays mit geringerem Gewicht fuhrt. Diese neue Lösung trägt den Na- men„Triple Super-Twisted Nematic“-LCD (TSTN). Das Bild zeigt das Aufbauprinzip eines solchen TSTN-Displays.
Hier findet sich nur eine STN-LC-Zelle. Die Farbstörungen der normalen STN- Technik werden durch zwei spezielle Folien ausgeglichen, die vor und hinter der Zelle - zwischen Polarisator und Glas - angebracht sind. Diese Folien sind verantwortlich für einen weiteren Namen dieser Technik: FST, was bedeutet„Film- Super-Twisted“ (gelegentlich bezeichnet man Displays, in denen nur eine Kompensationsfolie verwendet wird, als FST-, solche mit zwei oder mehr Folien als TST-LCD; ebenfalls geläufig ist die Bezeichnung FSTN für Film-STN). Der verbesserte Kontrast (bis zu 18:1), das ge- ringere Gewicht und die flachere und weniger aufwendige Bauweise haben TSTN-LC- Displays zum Durchbruch verholfen. In Notebook-Computern wurden solche Displays als„VGA-Bildschirm“ erstmals realisiert.
Vertical Alignment (PVA und MVA)
Multi-domain Vertical Alignment
Bei der Patterned-Vertical-Alignment-Technik, auch kurz PVA genannt, handelt es sich um eine Weiterentwicklung der Multi-Domain-Vertical-Alignment-Technik (MVA) eines Herstellers. Beide Techniken basieren auf einem ähnlichen Verfahren. Die Vorteile von MVA-/PVA-Bildschirmen liegen in einem höheren Kontrast (> 1000:1 ist üblich) als bei einem TN-Bildschirm (< 800:1). Zudem bieten MVA-/PVA-Bildschirme eine große Blickwinkel-Unabhängigkeit. Der Nachteil von MVA/PVA-Bildschirmen ist, dass sie langsamer als TN-Bildschirme und daher für Bewegtbilder - wie bei Spielen und Videos - weniger gut geeignet sind. Zudem liegt der Preis über dem von TN- Bildschirmen.
In-Plane Switching (IPS)
Bei der In-Plane-Switching-Technik (IPS, englisch für in der Ebene schaltend) befinden sich die Elektroden nebeneinander in einer Ebene parallel zur Display- Oberfläche. Bei angelegter Spannung drehen sich die Moleküle in der Bildschirmebene; die für TN- Displays typische Schraubenform entfällt. IPS verringert die Blickwinkelabhängigkeit des Kontrastes.
An Untertypen unterscheidet man zwischen S-IPS (Super IPS), AS-IPS (Advanced Super IPS), A-TW-IPS (Advanced True White IPS), H-IPS (Horizontal IPS), seit 2009 E- IPS (Enhanced IPS) sowie seit 201 1 AH-IPS (Advanced High Performance IPS).
Bis auf den H-IPS-Typ lassen sich die anderen IPS-Typen daran erkennen, dass sie, seitlich betrachtet und im Gegensatz zu VA-Panels, einen leichten lila Farbton aufweisen. Die E-IPS-Technologie, die 2009 auf den Markt kam, bietet einen noch größeren Blickwinkel und geringere Schaltzeiten von 5 Millisekunden. Die Weiterentwicklung PLS (Plane-to-Line Switching) wurde von Samsung entwickelt und bietet unter anderem eine höhere Transparenz (geringerer Stromverbrauch bei gleicher Helligkeit) und das Wegfallen des bei IPS-Panels typischen Glitzer-Effektes. Die ersten Bildschirme mit PLS-Panels kamen 201 1 auf den Markt.
Elektronische Ansteuerung
Bei ersten Prototyp-LCDs Anfang der 1970er Jahre wurde erkannt, dass der Gleich strombetrieb irreversible elektrochemische Prozesse in der Flüssigkristallschicht und damit Lebensdauerbeschränkungen der Anzeige verursachen kann. Obschon es sich im Gegensatz zu LCDs nach dem dynamic Scattering mode (engl., DSM) bei TN-Zellen um einen elektrischen Feldeffekt handelt, also kein Stromfluss nötig ist, bestanden trotzdem die erwähnten Probleme beim Anlegen einer Gleichspannung. Deshalb wurden lange Zeit alle kommerziell eingesetzten LCDs mit Wechselspannung betrieben. Im Wesentlichen ist ein LCD- Element eine kleine elektrische Kapazität, welche periodisch durch eine impulsartige elektrische Spannung umgeladen wird. Für diesen Zweck eig neten sich die schon damals verfügbaren elektronischen Komplementär -MOS- Schaltkreise (CMOS-ICs) sowohl bezüglich einstellbarem Spannungshub wie auch Symmetrie der Eigenschaften ausgezeichnet. Einer der Vorteile von TN-Zellen ist die tiefe Betriebsspannung und damit die geringe Stromaufnahme. Schon früh wurden Flüssigkristallsubstanzen für TN-LCDs synthetisiert, welche bei 3 -Volt-Betrieb einen guten Kontrast ergaben und einen brauchbaren Betriebstemperaturbereich hatten.
Der Betrieb von Passiv-Matrix-Displays hängt davon ab, wie ausgeprägt eine elektroop tische Schwellenspannung vorhanden ist. Weil die Ansteuerung der einzelnen Bildele- mente (Pixel) periodisch wiederholt werden muss, um nicht nur eine Zeile, sondern alle Pixel einer Matrix anzusteuern, werden z. B. die Zeilen einer Matrix sequenziell im- pulsförmig angesteuert. Bei den Kolonnen wird die Bildinformation derart eingegeben, dass bei den aktivierten Bildelementen eine möglichst große Spannungsdifferenz zu den Zeilenimpulsen und an den nicht aktivierten Bildelementen eine Spannungsdifferenz unterhalb des Schwellenwerts entsteht. Entscheidend zur Optimierung war die Erkenntnis von Peter J. Wild, dass bei impulsartiger, periodisch wiederholter Ansteuerung der Effektivwert (englisch Root Mean Square, RMS) der Spannungsdifferenzen maßgebend ist. Detaillierte Angaben über die bestmöglichen Ansteuerungstechniken für Passiv- Matrix-Displays finden sich in we Verführender Literatur. Wie schon erwähnt, ist eine elektrooptische Kennlinie mit ausgeprägtem Schwellenwert und daraufhin steilem Anstieg bei höherer Spannung Voraussetzung zur Realisierung von Passiv-Matrix-Displays mit vielen Zeilen und Spalten. Nur so kann ein ausreichender Kontrast auch bei Matrizen mit vielen Pixeln erzielt werden. Die langwierige Optimierung der Spannungs-Kontrast-Kennlinie durch Flüssigkristallsubstanzwahl und Zellstruktur von TN-Zellen brachte nicht die gewünschten Resultate. Es dauerte über 10 Jahre, bis 1983 der Durchbruch mit der Entdeckung der superverdrillten nematischen LCDs (englisch super-twisted nematic lcds, STN-LCDs) bei Brown, Boveri & Cie, Baden (heute Asea Brown Boveri, ABB) gelang. Die Kennlinie von STN-Zellen ist viel besser zur Ansteuerung von Passiv- Matrix-Displays geeignet als diejenige von TN- Zellen.
Schon relativ früh wurde versucht, jedem Pixel individuell Schalttransistoren vorzuschalten, um derart die Kennlinienbeschränkungen eines Passiv-Matrix-Display zu umgehen. Dazu mussten Dünnschichttransistoren (englisch thin-film transistor, TFT) ge- eigneter Dimension und Verbindungstechnik in Matrixanordnung auf dem Glassubstrat der Flüssigkristallanzeige aufgebracht werden. Man nennt eine Anzeige dieser Technik Aktiv-Matrix-Display, weil der Betrieb der einzelnen Pixel durch die zugeordneten Transistoren aktiv gesteuert wird. Obschon die Ideen dazu bereits 1968-1973 bei der Radio Corporation of America (RCA) und bei Westinghouse Research Laboratories, USA, formuliert wurden, dauerte es noch lange, bis die technologischen Voraussetzungen für die Massenfertigung erarbeitet waren.
Insbesondere wurde mit verschiedenen Halbleitermaterialien experimentiert, bis sich schließlich eine spezielle Art von amorphem Silizium (siehe Dünnschichttransistor) als am besten geeignet für Feldeffekttransistoren in Dünnschichttechnik durchsetzte. Dieser materialtechnische Durchbruch gelang in Europa. Bei der Realisierung von kommerzi- eilen Produkten waren japanische Firmen federfiihrend. Ohne die erwähnten Fortschritte bei der elektronischen Ansteuerung wären großflächige Femseh- Flüssigkristallbildschirme nicht möglich geworden. Allerdings sind Aktiv- Matrix- Displays wegen der zahlreichen zusätzlichen Prozess schritte für TFTs in der Herstel- lung teurer und können zudem deswegen Pixelfehler aufweisen, sodass für einfachere Anzeigen mit geringerem Informationsgehalt immer noch Passiv-Matrix- Displays zum Einsatz kommen.
Kontaktierung
Von Beginn an bestand die Aufgabe, die transparenten Leiterbahnen auf beiden LCD- Glassubstraten mit der Ansteuerungselektronik zu verbinden. Dazu wurden neuartige Verbindungstechniken entwickelt.
Für Anzeigen mit nicht zu engem Kontaktraster kommen sogenannte Zebras (siehe Leitgummi) zum Einsatz, welche abwechselnd aus isolierenden und leitenden Elasto- mer„kanälen“ bestehen. In nebenstehender Aufnahme mit einem Vergleichsmaßstab in cm ist das dunkle Raster des Zebragummis von 180 Mikrometer deshalb nur bei Anklicken des Bildes mit Vergrößerung sichtbar: im rosaroten isolierenden Elastomer- Band befinden sich die schwarzen Leitelemente, separiert durch isolierende Elemente. Durch den Aufbau (die Elemente sind wesentlich kleiner als die zu kontaktierenden Flächen) spielen Lagetoleranzen des Gummis keine Rolle. Der Gummi kann Maßtoleranzen abfedern. Typische Anwendungen sind Displays mit Siebensegmentanzeigen.
Früh wurden auch Lösungen mit Chip-on-Glass erprobt. Dabei wurden auf die Kontakte der Ansteuerungsschaltkreise Lötpunkte aufgebracht, dann der Chip auf den korrespon dierenden Kontakten der Anzeige positioniert und daraufhin bei erhöhter Temperatur angelötet.
Einen wichtigen Fortschritt bedeutete die Verwendung von flexiblen, dünnen Leiterplatten mit entsprechenden Verbindungsbahnen zur Anzeige, welche ein sehr enges Kontaktraster erlauben. Diese Leiterplatten tragen auch oft die ICs als Nacktchips (Flip- Chip-Montage), die die digitalen seriellen Datenströme wandeln. Passiv- Matrix-Displays
Bei Passiv-Matrix-Displays werden die Bildelemente (ein Segment oder ein Symbol) im Zeitmultiplexbetrieb angesteuert. Das heißt, dass jedes Bildelement direkt und permanent mit einer Ansteuerschaltung verbunden ist, deren Ausgang einen geringen Wi- derstand hat. Deshalb baut sich die zum Zeitpunkt der Adressierung aufgebrachte Ladung relativ schnell wieder ab und muss in der folgenden Bildperiode (engl, ffame) wieder erneuert werden. Dieser Wechsel in der elektrischen Ansteuerung führt zu ausgeprägten Modulationen der optischen Antwort der Anzeige (sog. ffame response). Bei Adressierung und Ansteuerung über eine Matrix mit aktiven Bauelementen bei Ak- tiv-Matrix-Displays wird zum Zeitpunkt der Adressierung eine Ladung auf das Bildelement aufgebracht, dem meist noch ein zusätzlicher Kondensator parallelgeschaltet ist (Speicherkondensator). Nach dem Aufbringen der Ladung, deren Höhe der Dateninformation entspricht, wird das aktive Bauelement (meist ein Dünnschichttransistor, TFT) wieder in den hochohmigen Zustand geschaltet, wodurch die Ladung und somit die Ansteuerung während einer Bildperiode im Wesentlichen erhalten bleibt.
Diese Art der Ansteuerung bewirkt bei Aktiv-Matrix-Displays eine höhere effektive Spannung über dem Bildelement, damit eine höhere Aussteuerung des Flüssigkristalls und damit einen verbesserten Kontrast und eine reduzierte Abhängigkeit des Kontrastes von der Betrachtungsrichtung.
Die LC-Bildschirme haben gegenüber den älteren Kathodenstrahlröhrenbildschirmen (CRT) einige Vorteile.
1. Geringere Leistungsaufnahme: Unabhängig vom Bildinhalt werden LC-Bild- schirme über die gesamte Anzeigenfläche konstant beleuchtet. Trotz dieser prinzipiellen Schwäche ist die Lichtausbeute (englisch luminous efficacy) bei LCD mit typisch 2 bis 4 lm/W noch immer etwa doppelt so hoch wie bei Pias- mabildschirmen mit Filterscheibe (normaler Auslieferzustand).
2. Strahlungsarmut: LCD strahlen keine Röntgenstrahlung ab (gilt auch für CRTs ab
TCO 99) und erzeugen ein geringeres Magnetfeld. Elektromagnetische Fel- der werden jedoch abgestrahlt und enthalten ebenso wie bei CRTs die Bildin- formation (sog. kompromittierende Abstrahlung, Problem Abhörsicherheit, s. Van-Eck-Phreaking).
Darüber hinaus besitzen sie ein flimmerfreies, verzerrungsfreies, bei Idealauflösung scharfes Bild, ein geringeres Gewicht sowie eine geringe Einbautiefe.
Im Gegensatz zu Anzeigegeräten mit Kathodenstrahlröhre werden Flüssigkristallbildschirme in der Praxis nicht durch Magnetfelder wie das Erdmagnetfeld oder die Magnetfelder von Oberleitung, NMR-Geräten, Transformatoren oder Lautsprechern beein- trächtigt.
Während der Entwicklung der Geräte, mindestens bis zur Entwicklung von mit TFTs angesteuerten LCD, bestanden Nachteile durch den geringen Kontrast und die langen Schaltzeiten. Mittlerweile kann die Farbwiedergabe von LCD (der darstellbare Farbraum, engl color gamut) durch Anpassung der Hintergrundbeleuchtung sogar extremen Anforderungen gerecht werden (extended gamut, multi-primary display).
Ein weiteres Problem war der eingeschränkte Bereich von Betrachtungsrichtungen mit konstantem Kontrast und gleichbleibendem Farbeindruck; neuere Techniken wie In- Plane-Switching (IPS), Multi-domain Vertical Alignment (MVA) und Pattemed Verti- cal Alignment (PVA) sowie die Anwendung von doppelbrechenden Kompensationsfolien (retarder sheets) schafften hier Abhilfe. Diese Nachteile existieren weiterhin, sind aber bei weitem nicht mehr so gravierend wie früher. Da jeder Pixel eine eigene kleine Einheit darstellt, kommt es produktionsbedingt zu vereinzelten Fehlern (Pixelfehler): Pixel, die durchgängig nur in einer Farbe leuchten oder die vorgegebene Farbe fehlerhaft wiedergeben. Je nach Anzahl der fehlerhaften Pixel werden die Displays in verschiedene Fehlerklassen eingestuft, die Einfluss auf den Preis haben können.
Bei der Herstellung wird die physikalische Bildauflösung festgelegt, die Ansteuerung mit einem Signal anderer Auflösung kann zu Qualitätsverlusten führen. Ein TFT- ba- sierter LC-Biidschirm liefert im Vergleich zu einem CRT-Biidschirm ein viel schärferes Bild - allerdings nur in seiner konstruktionsbedingten physikalischen Auflösung. Signale geringerer Auflösung müssen interpoliert werden und erscheinen verschwommen. Alternativ lässt sich das Bild auch mit schwarzen Rändern zentriert in voller Schärfe darstellen (bei digitalem Anschluss lässt sich das üblicherweise im Grafikkartentreiber einstellen).
Die Hintergrundbeleuchtung durch sog. Kaltkathodenröhren wird gefiltert, um die Grundfarben der Pixel (zumeist rot, grün und blau) zu erhalten, allerdings muss der Kompromiss zwischen Helligkeit und Farbwiedergabequalität gefunden werden. Die Farben von LCD sind keineswegs weniger gesättigt als bei der CRT- oder Plasmabild- Schirmtechnologie. Vom erzeugten Licht dringen nur etwa 4 % durch das Panel (bei weißen Bildinhalten).
Ein Grund dafür, warum Röhrenmonitore (CRT) in Tests oft besser abschnitten als Flachbildschirme, ist keinesfalls der bessere Schwarzwert im Dunkelraum und der Kon- trast zu den hellen Bildstellen, wenn kein Umgebungslicht auf den Bildschirm fallt, sondern die bessere Wiedergabe von bewegten Bildinhalten.
Mittlerweile ist die LCD-Technik jedoch so weit fortgeschritten, dass teils sogar bessere Ergebnisse (je nach Art des Panels) als mit CRT-Monitoren erreicht werden können.
Die Leuchtstoffföhren der Hintergrundbeleuchtung haben eine begrenzte Lebensdauer (etwa 100.000 Stunden). Die durch die Hintergrundbeleuchtung beeinflusste Qualität der Darstellung von Weißflächen ändert sich schon deutlich nach nur wenigen Tausend Betriebsstunden meist stärker ins Gelbliche, da sich die Leuchtstärke der Leuchtstoff- röhren mit der Zeit verringert. Allerdings lässt auch die Helligkeit von Röhrenmonitoren im Laufe des Betriebs nach. Die Hintergrundbeleuchtung mittels LEDs ist zwar alterungsbeständiger, zeigt aber auch je nach Typ der verwendeten Leuchtdioden und Betriebsweise langsame Alterungserscheinungen. Zudem erlaubt Beleuchtung mittels LEDs eine kompaktere Bauweise, homogenere Ausleuchtung und Kontraststeigerung durch selektive, vom Bildinhalt abhängige Ansteuerung (LED Backlight). Schaltzeiten und Techniken
Die Reaktionszeit moderner LCDs liegt derzeit zwischen 1 ms und 5 ms. Hierbei ist die Reaktionszeit die Zeitspanne, die bei der Änderung der Leuchtdichte (Helligkeit) eines Bildbereiches von 10 % nach 90 % verstreicht; hierbei sind 0 % und 100 % die Leucht- dichten der stationären (eingeschwungenen) Zustände. Die Bildaufbauzeit nach ISO 13406-2 ist die Summe der Schaltzeiten von Hell nach Dunkel (oder umgekehrt) und wieder zurück. Aufgrund des asymptotischen Schaltverlaufs werden jedoch nach ISO 13406-2 Schaltzeiten von < 3 ms benötigt, um sichtbare Schlierenbildung zu vermei den.
Formeln
Die Einschaltzeit (zunehmende Spannung) und die Ausschaltzeit
(abnehmende Spannung) ergibt sich nach den Formeln von Jakeman und Raynes. Hierbei ist die Rotationsviskosität des Flüssigkristalls, die die„Trägheit“ des Flüssigkristalls auf eine Änderung der Ausrichtung beschreibt; der Abstand
zwischen den Glasplatten (= Dicke der Flüssigkristallschicht); und die Elastizitätskonstante, welche die„Kraft“ (Drehmoment) der Rückstellung der Kristalle in die ur sprüngliche Ausrichtungslage angibt.
Beispielsweise beschleunigt ein großes die Rückstellung des Kristalls in den Aus gangszustand, wirkt jedoch auch der Ausrichtung des Kristalls bei Anlegen einer Spannung entgegen (durch die entsprechend erhöhte Schwellenspannung, ) Auch lassen sich durch eine Verringerung der Schichtdicke, die Schaltgeschwindigkei ten erhöhen. Wenn die Schichtdicke beispielsweise um 30 % verringert wird gehen die Schaltzeiten auf etwa die Hälfte zurück.
Bewegungsunschärfe
Bei Hold-Type-Displays wie LCD und OLED-Bildschirmen bleibt der Zustand eines Pixels für die Dauer einer Bildperiode bestehen, bis die angelegte Spannung im Zuge des Bildaufbaus eines neuen Bildes geändert wird (Erhaltungsdarstellung). Da das Auge bei der Verfolgung eines bewegten Bildinhalts (englisch smooth pursuit eye tracking) die„Helligkeit“ über eine Bildperiode integriert, während der Bildinhalt aber fixiert bleibt, kommt es zum Verwischen des Bildes auf der Netzhaut des Betrachters. Dies fallt besonders bei der Darstellung schnell bewegter Szenen auf und wird deshalb auch als Bewegungsunschärfe (auch engl motion blur) bezeichnet. Es ist zu beachten, dass selbst bei verschwindend geringen Schaltzeiten, das heißt bei nahezu unendlich schnellem Schalten, wegen der Erhaltungsdarstellung die Bewegungsunschärfe nicht beseitigt wäre, weshalb der Verwischeffekt auch bei schnellen OLED-Bildschirmen auftritt Neben dieser prinzipbedingten Unschärfe erzeugt die verzögerte Annahme des Soll- Werts bei einzelnen Pixel-Elemente ebenfalls unerwünschte Effekte („Schlieren“
"Schweif', "Schmieren"), die ähnlich störend wirken. Bei heutigen LCDs ist diese Art der Bewegungsunschärfe schon erheblich reduziert. Die Reaktionszeit von„grau nach grau“ (engl gray to gray) liegt durchschnittlich bei 6 ms, dennoch können die Schaltzeiten in extremen Situationen (weiß-nach-schwarz, schwarz-nach-weiß, schwarz-nach- grau) erheblich davon abweichen.
Ansätze zur Optimierung Viskosität
Der Bewegungsunschärfe versucht man unter anderem dadurch entgegenzuwirken, dass man die Schaltzeiten der Displays weiter reduziert, vor allem durch eine Reduktion der Viskosität der eingesetzten Flüssigkristallmaterialien.
Einfache Overdrive-Technologien
Bei der Overdrive-Technik wird an die LCD-Zelle kurzzeitig eine Spannung angelegt, die höher ist als die für den eigentlichen Helligkeitswert erforderliche. Dadurch richten sich die Kristalle schneller aus. Das nächste Bild muss hierzu zwischengespeichert werden. Diese Information wird zusammen mit an das jeweilige Display speziell angepassten Korrekturwerten verwendet, um die genaue Zeit berechnen zu können, während der die Überspannung anliegen darf, ohne dass das jeweilige Pixel übersteuert wird. Das funktioniert jedoch nicht bei der Rückstellung des Kristalls: da es nicht weniger als keine Spannung gibt (die Ansteuerung erfolgt mit Wechselspannung), muss der Kristall passiv entspannen. Durch die Zwischenspeicherung wird das Bild etwa zwei bis fünf Takte verspätet angezeigt. Dieser Versatz kann sich beim Betrachten von Filmen durch Bild- Ton-Asynchronität bemerkbar machen (der Ton eilt dem Bild voraus). Auch bei Computerspielen, die schnelle Reaktionen des Spielers verlangen, macht sich die Bildpufferung negativ bemerkbar.
Vorverzerrung (inverse Filtering)
Hierbei wird aus den Daten des aktuellen und nächsten Bildes die Integration des Auges aus dem jeweils nächstem Bild herausgerechnet. Dazu werden ebenfalls die genauen Schalteigenschaften des jeweiligen Paneltyps benötigt.
Black Stripe Insertion
Um der Bewegungsunschärfe aufgrund der Erhaltungsdarstellung entgegenzuwirken, können die Pixel bzw. das gesamte Display auch kurzzeitig dunkel geschaltet werden. Die Dunkelphase darf bei 50 Hz Ansteuerfrequenz allerdings 55 % der Bildzeit nicht überschreiten (bei 60 Hz sind es 70 % und bei 75 Hz sind es 85 %): sonst flimmert das Bild.
Blinking Backlight
auch„strobing“ genannt: Bei der Verwendung von LEDs zur Hintergrundbeleuchtung von LCD (sogenannte LED-Fernseher oder - Bildschirme) lässt sich diese Methode einfacher als Black Stripe Insertion realisieren, da hierbei nicht die Pixel schneller ange steuert werden müssen, sondern für Pixelbereiche bzw. das gesamte Display die Hintergrundbeleuchtung für den Bruchteil einer Vollbilddauer ausgeschaltet werden kann. Scanning Backlight
auch„field sequential“ genannt: Hierbei wird das LC-Display nicht mit weißem Licht, sondern nacheinander von roten, grünen und blauen Primärlichtern (häufig per LED) beleuchtet. Da bei LCD mit zeitsequentieller Ansteuerung mit den Primärfarben keine helligkeitreduzierenden Farbfilter erforderlich sind und hohe Leuchtdichten vorhanden sind, lässt sich der Helligkeitsverlust durch die Sequenzabfolge leichter kompensieren. Allerdings trifft man mit dieser Technik einen alten Bekannten der Projektionstechnik wieder: den Regenbogeneffekt.
100/120-Hz-Technik und 200/240-Hz-Technik
Hier werden synthetische Zwischenbilder berechnet und anschließend zusammen mit den Originalbildern ausgegeben. Dadurch erhöht sich die reale Bildfrequenz um ein ganzzahliges Vielfaches. Aus 24 fps (Kinostandard) werden so 48, 72, 96 oder sogar 120 fps. Schlieren durch Hold-Displays können so deutlich reduziert werden. Neben der Reduktion von Bewegungsunschärfen werden auf diese Weise Bewegungen und Kamerafahrten deutlich flüssiger wiedergegeben. Allerdings kann durch die Bewegungsinter- polation insbesondere bei leicht rauschenden Bildquellen eine mehr oder weniger deutliche Trennung zwischen Vorder- und Hintergrund im Bild beobachtet werden (Soap- Opera-Effekt). Die 100/120-Hz-Technik kommt mittlerweile (2008) in vielen höher wertigen Displays zum Einsatz. 240-Hz- Geräte sind angekündigt. Ein weiterer Vorteil dieser Technik ist es, dass Overdrive feiner dosiert angewendet werden kann. Es ist al- lerdings zu bedenken, dass die größte Verbesserung zwischen den„100/120-Hz- Displays“ und solchen mit geringeren Frameraten zu sehen ist, da das menschliche Gehirn ohne Übung nur größere Differenzen zwischen den Frequenzen bewusst verarbeiten kann. Einsatzmöglichkeiten
In Digitaluhren und Taschenrechnern werden LCDs schon seit Anfang der 1970er Jahre verwendet. Diese einfarbigen Displays ohne Hintergrundbeleuchtung zeichnen sich durch geringsten Energieverbrauch und sehr hohe Lebensdauer aus und finden alternativlos überall dort Anwendung, wo ein langer wartungsfreier Betrieb erforderlich ist.
Später fanden LCDs als Aktiv-Matrix-Displays mit Hintergrundbeleuchtung Verbreitung über weitere tragbare oder batteriegespeiste Geräte wie etwa Mobiltelefone, Notebooks und ähnliches.
Typische Auflösungen bei Computer-Flachbildschirmen reichen von 1024x768 Pixel (38 cm/15") über 2560x 1600 Pixel (76 cm/30"), bis 3840 x 2160 Pixel, bei Notebooks reichen sie von 800x480 Pixel bis 3200x 1800 Pixel. PDAs und portable DVD-Spieler weisen Auflösungen zwischen 320x240 und 800x480 Pixel, Displays von Standbild- und Videokameras zwischen 160x176 Pixel (84 Tausend Pixel) und 640x480 Pixel (900 Tausend Pixel) auf. Insbesondere bei Smartphones hat die Firma Apple mit dem „Retina-Display“ einen neuen Marketingbegriff für hohe Bildauflösung geschaffen. Mittlerweile haben LCD- und Plasma-Displays die Kathodenstrahlröhre weitgehend verdrängt. Dies betrifft Computermonitore (seit 2006) und Fernsehgeräte mit größeren Bilddiagonalen (seit 2008). Auch andere Anwendungsgebiete wie Oszilloskope sind schon seit längerem in der Hand von computerangesteuerten LCD. 2003 wurden in Deutschland bereits mehr LCD als herkömmliche Röhrenmonitore für PCs und 2006 mehr Flachbildfernseher - also LCD und Plasmabildschirme - als Röhrengeräte verkauft.
Versuche, mit LCD-Matrixanzeigen Bildschirmprojektoren zu realisieren gab es ab den 1970er Jahren. Der Imagina 90 war weltweit der erste in Serie gefertigte Videogroß- bildprojektor mit Flüssigkristallbildgenerator, der sich auch für den Dauerbetrieb eignete.
Produktion
Die LCD-Technik hat in den letzten Jahren insbesondere durch die Entwicklung von Flachbildschirmen einen enormen Aufschwung erlebt. Große Produktionsstätten für Flachbildschirme wurden zunächst in Japan errichtet. Schon bald setzte jedoch die Abwanderung der Industrie in die neuen asiatischen Industrienationen ein, in denen billige Arbeitskräfte und üppige staatliche Förderung lockte. Derzeit befindet sich der Schwer punkt der Flachbildschirmindustrie in Taiwan und insbesondere Südkorea. In Südkorea betreiben die dort ansässigen weltweit größten Flachbildschirmhersteller - Samsung, LG Display und Chi Mei Optoelectronics (CMO) - die zurzeit (2008) größten LC- Bildschirm-Produktionsstätten. Die Wanderung der Industrie geht jedoch weiter.
Auf der Suche nach noch kostengünstigeren Produktionsstandorten hat der Boom inzwischen China erreicht. Produktionsstätten zur Herstellung hochwertiger Flachbild- schirme sind dort derzeit (2008) im Aufbau. Umweltschutz
Aus der Sicht des Klimaschutzes wird die Flüssigkristallbildschirmfertigung als problematisch angesehen, da in der traditionellen Produktion sehr große Mengen klimage- fahrdender Substanzen eingesetzt würden. Im wichtigen„Arrayprozess“, in dem die TFT-Steuermatrix großflächig auf dünne Glasscheiben aufgebracht wird, werden potente Treibhausgase wie Schwefelhexafluorid (SF6) - GWP 22800 C02e - und Stick- stoffirifluorid (NF3) - GWP 17200 C02e - in sehr großem Umfang verwendet und in die Atmosphäre ffeigesetzt, wie eine Studie aus dem Jahre 2008 aufzeigt.
Siehe auch
-Cholesterische Flüssigkristallanzeige (ChLCD)
-Ferroelectric Liquid Crystal Display (FLCD)
-Fransenflügler beschädigt Monitore
6. Software
Software ['snf(t)w :] (dt. = weiche Ware [von] soft = leicht veränderbare Komponenten [...], Komplement zu , Hardware4 für die physischen Komponenten)[l] ist ein Sammel begriff für Programme und die zugehörigen Daten.[2] Sie kann als Beiwerk zusätzlich Bestandteile wie z. B. die Softwaredokumentation in der digitalen oder gedruckten Form eines Handbuchs enthalten.
Software bestimmt, was ein softwaregesteuertes Gerät tut und wie es das tut (in etwa vergleichbar mit einem Manuskript). Die Hardware (das Gerät selbst) führt Software aus (arbeitet sie ab) und setzt sie so in die Tat um. Software ist die Gesamtheit von In formationen, die man der Hardware hinzufügen muss, damit ein softwaregesteuertes Gerät für ein definiertes Aufgabenspektrum nutzbar
Durch das softwaregesteuerte Arbeitsprinzip kann eine starre Hardware individuell arbeiten. Es wird heute nicht nur in klassischen Computern angewendet, sondern auch in vielen eingebetteten Systemen, wie beispielsweise in Waschmaschinen, Mobiltelefonen, Navigationssystemen und modernen Fernsehgeräten. Definition
Der Begriff Software ist bis heute nicht einheitlich und auch nicht eindeutig definiert. Das geht u. a. darauf zurück, dass„innerhalb der Softwaretechnik eine einheitliche solide, konsistente und systematische Begriffsbildung durch eine hohe Innovationsge- schwindigkeit und Praxisnähe behindert“ wird. Es existieren daher verschiedene Definitionen, die sich je nach Autor und Kontext oft auch nur in Details unterscheiden.
Die Bezeichnung Software wird im allgemeinen Sprachgebrauch meist nur auf Programme bezogen, nicht aber auf andere Daten. Daneben können aber auch der Quelltext, weitere Daten oder die Dokumentatio je nach Definition hinzugezählt werden. Außerdem wird Software auch als Gattungsbegriff für unterschiedliche Arten von Programmen verwendet (Grafiksoftware, Anwendungssoftware, Standardsoftware, Sicher heitssoftware u. v. a.).
Etymologie
Der Ausdruck Software ist ein Kunstwort, das von John W. Tukey im Jahr 1958 im American Mathematical Monthly als Gegenstück zu dem wesentlich älteren Wort Hardware das erste Mal verwendet wurde. Dabei bezeichnet Hardware alle physischen Bestandteile eines Computers. In diesem Sinn könnten unter Software - als dem Gegenstück zur Hardware - grundsätzlich alle elektronisch gespeicherten Daten verstan- den werden. Als Definition genügt diese Sichtweise jedoch nicht.
Definitionen nach ISO/IEC-Norm 24765
Die aktuelle ISO/IEC-Norm 24765 ersetzte die DIN-Norm 44300 und enthält für Soft ware folgende Definitionen:
-Software ist ein Programm oder eine Menge von Programmen, die dazu dienen, einen Computer zu betreiben.
-Software sind Programme sowie die zugehörige Dokumentation.
-Software sind Programme und ggf. die zugehörige Dokumentation und weitere Daten, die zum Betrieb eines Computers notwendig sind.
Welche dieser Definitionen zutrifft, hängt vom jeweiligen Kontext ab, wobei auch hier die Übergänge fließend sind.
Software als Programm In der Softwaretechnik besteht Software aus„Computerprogrammen in jeder Erscheinungsform, vom Quelltext bis zum direkt ausführbaren Maschinencode“. Computerprogramme bestehen oft aus mehreren Komponenten, die sich auch über mehrere Dateien verteilen können.
Software als Programm und Dokumentation
Im Softwarerecht (oft im Zusammenhang mit dem Softwareerwerb) wird Software auch als Softwareprodukt bezeichnet, das„als Beiwerk zusätzlich Bestandteile wiez.B. die Dokumentation in digitaler oder gedruckter Form enthalten kann oder muss“. So auch im Urheberrecht, bei dem das Entwurfsmaterial zur Software gehört, wie der Quelltext, auch Quellprogramm genannt. D. h. der Urheberrechtsschutz gilt i. d. R. auch für den Quellcode [als Schutzgegenstand].
Software als Programm, Dokumentation und Daten
Einige Definitionen nennen neben dem Programm selbst (und evtl der Dokumentation) auch weitere Daten als zur Software gehörend („zugehörige Daten“). Im Glossar des IEEE für Softwareentwickler werden Beispiele für derartige nicht-ausführbare Softwareteile genannt, wie Schriftarten, Grafiken, Audio- und Videoaufzeichnungen, Vorlagen, Wörterbücher, Dokumente und Informationsstrukturen (wie Datenbank- Datensätze).
Weiterhin gibt es Software-Definitionen, die sämtliche Daten umschließen, die das Computerprogramm nutzt und darüber hinaus auch die Dokumentation einbeziehen. Demgegenüber gibt es auch Definitionen, die sowohl die Dokumentation, als auch die zur Verarbeitung vorgesehenen Daten ausschließen.
Eine klare Trennlinie ist jedoch nicht näher definiert, die beschreibt, welche Daten konkret gemeint sind (z. B. die zu verarbeitenden Daten) oder welche Daten
, notwendig4 oder , zugehörig4 [2] sind.
Geschichte
In den 1950er Jahren waren Software und Hardware noch verbunden und als Einheit wahrgenommen. Die Software war dabei Teil der Hardware und wurde als Pro- grammcode bezeichnet. 1958 prägte der Statistiker John W. Tukey den Begriff Software erstmals.
Später sorgte dann die Entscheidung der US-Regierung in den 1970er Jahren für eine Neuheit, dass IBM auf Rechnungen Software und Hardware getrennt zu berechnen und aufzuführen habe. Das entsprach einer Anerkennung der Einzelhaftigkeit von Software von offizieller Seite und einer endgültigen Aufspaltung von Hardware und Software bzw. einer Abgrenzung der Software von der Hardware. Dieser Entwicklung folgte dann in den 1970er Jahren die Gründung von Firmen, die erstmals nur mit Software handelten und nur Software und keine Hardware entwickelten. Zu diesen Firmen gehörte in den USA Microsoft und in Deutschland SAP. Die Existenz solcher Firmen erscheint im 21. Jahrhundert als Selbstverständlichkeit, stellte damals jedoch eine erhebliche Neuerung dar.
Der logische Übergang zwischen Hard- und Software lässt sich an den frühen Spielhallenspielen verdeutlichen, wie das Spiel Breakout, das im April 1976 veröffentlicht wur de. Damals bestand deren komplettes Programm (der Ablauf, die Logik) bildlich gesehen aus„vorverdrahteten Schalttafeln“. Das von Atari produzierte Spielhallengerät verwendete keinen Prozessor. Bereits ein Jahr später, als das Spiel für den Computer programmiert wurde, und man anfing bei prozessorgesteuerten Geräten zwischen den Begriffen , Hardware' und , Software' zu unterscheiden, gab es Breakout als Software. Das Spiel bestand nicht mehr aus,, vorverdrahteten Schalttafeln“, sondern aus Anweisungen für einen Prozessor inklusive der für die Abarbeitung notwendigen weiteren In- formationen, die gemeinsam auf einem Datenträger hinterlegt wurden.
Besondere Merkmale von Software
Software ist immateriell und besteht aus den Sprachen und Notationen, in denen sie formuliert ist. Software kann zwar auf bestimmten Medien gespeichert, gedruckt angezeigt oder transportiert werden. Diese sind aber nicht die Software, sondern sie enthalten sie nur. ns -
Es ist zwar vorstellbar, Bits sichtbar und greifbar auf einem Trägermedium zu hinterlegen, doch grundsätzlich ist , Software1 ein abstrakter, von Trägermedien unabhängiger Begriff. Das trifft für den Gattungsbegriff ohnehin zu, aber auch für konkrete Ausprägungen wie ein bestimmtes Anwendungsprogramm. Als Analogie dazu ist es für den Begriff ,Oper‘ oder , Zauberflöte4 nicht begriffsbestimmend, ob sie im Theater aufgeführt, über Radio/TV übertragen oder als CD verkauft oder gehört wird, ob sie im Opernführer beschrieben oder in der Partitur aufgezeichnet ist.
In Details unterschiedliche Bedeutungen
-Im Zusammenhang mit der Ausführung auf einem Computer wird unter Software primär alles verstanden, was auf dem Rechner ausgeführt werden kann (das Programm im engeren Sinn, bestehend aus Befehlen und Datendefinitio- nen). Dazu kommen die mit den Programmen verbundenen Ressourcen, die zum Betrieb der Software erforderlich sind. Das sind, abhängig von den ver- wendeten Entwicklungswerkzeugen, zum Bei- spiel Konfigurationsdateien, Schriftart-Dateien, Lookup-Tabellen, Datenstrukturen für Datenbanken etc.
-In engstem Sinn wäre unter , Software4 nur von der Hardware ausführbarer Maschinencode zu verstehen. Jedoch fällt darunter auch alles, was durch beliebige ,inter- pretierende Systeme4, die Teil der Systemsoftware sind, ausgeführt werden kann, wie das bei Verwendung höherer Programmiersprachen und Entwicklungsumgebungen na hezu immer der Fall ist.
-So ist in der Softwareentwicklung (als zentraler Arbeitsgegenstand) und in der Quali- tätssicherung (als bedeutender Prüfgegenstand; siehe Softwarequalität) auch der Quellcode ein wesentliches Software-Artefakt.
-Sprachlich wird der Ausdruck , Software4 unterschiedlich verwendet: Er steht für konkret benannte Komponenten (Programm XY, Unterprogramm ABC, Konfigurationsda- tei XXX. INI). Er wird als Sammelbegriff für unterschiedliche Gesamtheiten/Mengen von Programmen benutzt, zum Beispiel für eine aus vielen Einzelprogrammen beste hende Buchhaltungssoftware, für alle Anwen- düngen eines Unternehmens („unsere Unternehmenssoftware“), oder, wie be- reits erwähnt, als Typ-/Gattungsbegriff für un terschiedliche Arten von Software (wie Grafiksoftware, Standardsoftware, Systemsoftware etc).
Fließende Grenze zwischen Software und Daten
Zur Verarbeitung bestimmte Daten zählen im allgemeinen Sprachgebrauch nicht zum Begriff Software. Jedoch ist die Grenze zwischen Software und Daten fließend, denn je nach Situation können Daten und Programme in unterschiedlichen Rollen auftreten und die Begriffe dabei vertauscht werden:
Auf der Dateiebene können Mischformen auftreten, beispielsweise in Office- Dokumenten oder bei einer Tabellenkalkulationsdatei. Hier enthält eine Datei sowohl Daten im Sinne von das Bearbeitete (Texte oder Zelleninhalte) als auch funktionale Anwei- sungen (Makroanweisungen, Zellformeln).
Vertauscht sind die Rollen beispielsweise, wenn ein Quellprogramm von einem Compi ler in ein Maschinenprogramm umgewandelt wird: Sowohl das Quellprogramm als auch das erzeugte Binärprogramm sind ,Daten‘, der Com-piler ist die Software. Ebenso verwendet ein Interpreter ein Ouellprogramm oder ein Emulator ein Binärprogramm als Daten und erzeugt daraus speicherintern den ausführbaren Code. Die so verarbeiteten Programmdateien sind Software, rollenspezifisch aber gleichzeitig Daten.
Dieser Zusammenhang, dass ein Programm sowohl als Daten als auch als Funktion auf- treten kann, ist zentral in verschiedenen Disziplinen der Informatik, darunter die theoretische Informatik (u. a. Rekursionstheorie, Automatentheorie, Domaintheorie) und die technische Informatik (z. B. Von-Neumann-Architektur).
Unterscheidung zwischen Hard- und Software
Je nach Zusammenhang ist bei der Unterscheidung zwischen Hard- und Software eine oder mehrere der folgenden Bedeutungen gemeint: Leicht veränderbare Komponente (Software) vs. schwer veränderbare Komponente (Hardware) in einem Computerdesign.
Instruktionskode (Software) vs. Universelle Maschine (Hardware).
Nicht greifbar im Sinne von Funktionsbestandteilen eines Computersystems, die sich „nicht anfassen lassen“ (Software) vs. greifbare Komponenten (Hardware). Software ließe sich über eine Telefonleitung übertragen, Hard- wäre dagegen nicht.
Die Gegensätze sind in der englischsprachigen Begriffsprägung (soft=weich, hard=hart) beabsichtigt. Verschiedene Blickwinkel auf Software
Software kann aus vielen unterschiedlichen Gesichtspunkten betrachtet werden, zum Beispiel:
Zusammenwirken mit der Hardware (Execution) Software: Typisierung, Zusammenhänge, Überblick
„Zwischen Hard- und Software besteht eine gewisse Aufgabenverteilung: Die Hard ware garantiert Quantität, also Tempo und Speicherkapazität, die Software sorgt für die Abbildung der Anforderungen auf die strukturell primitive Hardware“ Obwohl dem Begriff , Software4 teilweise Attribute wie Flexibilität, Individualität, Leistungsfähigkeit etc. zugeschrieben werden, wird letztlich alles, was der Computer Tatsächlich tut4, nicht von der Software, sondern ausschließlich durch die Hardware ausgeführt. Software , beschreibt4 lediglich, was getan werden soll und in welcher Form das geschieht.
Dazu wird auf unterster Ebene der Maschinencode der Software unter Nutzung des Betriebssystems (d. h. ebenfalls durch dessen Maschinenbefehle) in den Hauptspeicher des Computers geladen und dem Rechenwerk Schritt für Schritt (siehe Befehlszähler) zur Ausführung zugeführt. Dieses Arbeitsprinzip gilt für jede Art von Software, auch wenn sie z. B. von Interpretern ausgeführt wird: Diese sind ebenfalls Software, deren Maschinencode an der Hardwareschnittstelle ebenfalls wie beschrieben ausgeführt wird und die Maschinenbefehle nur speicherintern erzeugen. Auch Compiler, Makroprozessoren und jede andere Art von Systemsoftware werden nach diesem Prinzip ausgeführt.
Der Maschinencode muss dafür in einer Form/Struktur vorliegen, die von der Hardware über deren darin implementierte Schnittstelle interpretiert und ausgeführt werden kann. Die Befehle zeigen durch ihren Inhalt und ihre Struktur an, was zu tun ist, welche Datenbereiche im Hauptspeicher dabei benutzt oder verändert werden sollen (über im Befehl enthaltene Adressierungsangaben) und ggf., an welcher Stelle das Programm fort zusetzen ist.
Bei der Ausführung wirken also viele Schichten zusammen und führen als Gesamtheit zu Zustandsänderungen in der Hardware bzw. final zu den vorgesehenen Ergebnissen, etwa der Ausgabe einer Druckzeile, einem Datenzugriff oder der Anzeige eines Feldinhalts am Bildschirm. Bei in höheren Programmiersprachen entwickelten Anwendungen können so schon für relativ einfache Funktionen (wie Lesen aus der Datenbank) oft Hunderttausende oder Millionen von Maschinenbefehlen durchlaufen werden.
Das in modernen Computern mögliche parallele Ausführen mehrerer Program me/Prozesse wird im Wesentlichen durch das Betriebssystem bewirkt, das bei bestimm- ten Ereignissen den Wechsel von einer zur anderen Task einleitet und verwaltet. Siehe auch Multitasking.
Im systematischen Zusammenwirken vieler Komponenten, das nur unter Anwendung klar definierter Schnittstellen möglich ist,„gehört Software also zu den komplexesten Artefakten, die Menschen bislang geschaffen haben“.
Die Software trägt zudem maßgeblich dazu bei, wie effizient die Hardware genutzt wird. Je nach Gestaltung der Algorithmen können mit derselben Hardware unterschiedliche Systemleistungen erreicht werden. Entwicklung von Software
Die Entwicklung von Software ist ein komplexer Vorgang. Dieser wird durch die Softwaretechnik, einem Teilgebiet der Informatik, systematisiert. Hier wird die Erstellung der Software schrittweise in einem Prozess von der Analyse über die Softwaremodellie- rung bis hin zum Testen als wiederholbarer Prozess beschrieben.
In aller Regel wird die Software nach der Entwicklung mehrfach angepasst und erweitert. Der Software-Lebenszyklus kann durchaus mehrere Jahre betragen. -Software wird unter Nutzung bestimmter Verfahren, Methoden und , Werkzeuge1 entwickelt. Dabei werden unterschiedliche Entwicklungsstadien durchlaufen, in denen jeweils unterschiedliche Zwischenstände der Software entstehen: Analysetätigkeiten (zahlreiche Entwicklungsdokumente) > Programmie- rung (Quellcode) > im Betrieb (Maschinencode oder ausführbarer Code). Im engeren Sinn der Ausführung auf dem Computer gilt lediglich Letzteres als 'Software'. Siehe auch Softwareentwicklung.
-In diesem Zusammenhang ist Software Bearbeitungsgegenstand von System- Pro grammen: Wenn z. B. ein Compiler den Quellcode eines Programms liest, verarbeitet und einen Maschinen- oder Zwischencode erzeugt, so sind das aus dessen Sicht 'Daten'.
-Einmal erzeugte Software kann mit verhältnismäßig geringen Kosten verviel- faltigt werden, die meist durch Datenträger, Werbung und dem Herstellen von Verpackung und zu Papier gebrachten Dokumentationen anfallen. -Software verschleißt nicht durch Nutzung, unterliegt jedoch mit der Zeit der Softwarealterung.
-Software ist meist austauschbar, fähig zur Aktualisierung, korrigierbar und erweiterbar, insbesondere dann, wenn bestehende Richtlinien eingehalten werden und der Quelltext verfügbar ist
Software tendiert dazu, umso mehr Fehler zu enthalten, je komplexer sie ist. Fehler werden in aktualisierten Softwareversionen oder mithilfe eines Patches und i. d. R. nach Durchführung von Softwaretests behoben. Softwarefehler bezeichnet man auch als Programmfehler oder als„Bugs“.
Weil Software unter Einsatz vieler unterschiedlicher Programmiersprachen und in vie- len unterschiedlichen Betriebssystemen und Systemumgebungen entwickelt werden kann, sind Softwarestandards erforderlich, um Informationen System- und unterneh- mensübergreifend , verstehbar1 und austauschbar zu machen. Siehe auch Elektronischer Datenaustausch (Beispiele), Programmierstil. Auswahl von Software
In der Entscheidung zur Anschaffung von Software lässt sich i. W. der Einsatz von Standardsoftware oder die eigene Herstellung (Individualsoftware) unterscheiden. Besonders im betrieblichen Umfeld zieht diese Entscheidung häufig hohe Kosten nach sich. Auch können solche Entscheidungen Grundlage zur Umsetzung der Unterneh- mensstrategie sein oder sollen Unternehmensprozesse maßgeblich verbessern. Zur Vermeidung von Fehlinvestitionen sollte der Anschaffung ein systematischer Entscheidungsprozess vorausgehen.
Betrieb von Software
-Der Einsatz von Software erfordert je nach Einsatzbereich ein gewisses Maß an Organisation, um die zusammengehörenden Teile richtig einzusetzen und durch neue Versionen abzulösen (zum Beispiel in größeren Unternehmen im Releasemanagement).
-Mitunter kann Software vorkonfiguriert werden, um so eine Neuinstallation zu be- schleunigen und um Fehler bei der Konfiguration zu minimieren.
Software aus Sicht der Betriebswirtschaft und Arbeitssoziologie
Im Wesentlichen für betriebliche Anwendungssoftware geltend kann Software aus (be- triebs-) wirtschaftlicher Sicht als 'im Voraus geleistete geistige Arbeit', also als Investi- tion betrachtet werden. Zum Beispiel erarbeiten die Programmautoren ein Lösungsverfahren für die korrekte Trennung aller deutschen Wörter in einem Textverarbei- tungsprogramm. Damit ist im Voraus, also bevor diese Tätigkeit tatsächlich anfallt, schon für alle Schreiber, die mit diesem Textverarbeitungsprogramm arbeiten, die geistige Arbeit„korrektes Trennen deutscher Wörter“ geleistet. Dabei wird die Eigenschaft von Computern genutzt, auf sie verlagerte Aufgaben erheblich schneller und zuverläs- siger ausführen zu können als es bisher Menschen möglich war. Besonders auch in der Softwareentwicklung wird intensiv auf „im Voraus“ entwickelte Algorithmen und Codeteile - als Teile eines Programms - zurückgegriffen ('Software- W iederverwendung') . Ein ähnlicher Zusammenhang wird in der Arbeitssoziologie gesehen: Derartige softwarebasierte Maßnahmen sind geeignet, Arbeitsinhalte und -abläufe erheblich zu verändern. Die Bandbreite reicht dabei vom Bereitstellen einfacher Hilfsmittel (etwa zur Summierung oder Durchschnittsermittlung) bis hin zur völligen Umgestaltung von Prozessen (durch Konzentration früher getrennter oder durch Zerlegung früher zentralisier- ter Arbeitsabläufe) - oder gar bis zu deren vollständigen Ersatz durch IT- Lösungen. Brödner u. a. nennen das„materialisierte“ Kopfarbeit. Siehe auch Rationalisierung, Optimierung, Taylorismus.
Kategorisierung von Software
Nach ISO/IEC 2382 wird Software wie folgt gegliedert (und bezeichnet):
-Systemsoftware: Anwendungsunabhängige Software, die das Ausführen von Anwendungssoftware ermöglichen bzw. unterstützen (z. B. Betriebssystem, sowie Gerätetrei ber und Dienstprogramme)
-Unterstützungssoftware, d. h. Programme, die bei der Entwicklung, Wartung helfen oder eine nicht-anwendungsspezifische Leistung erbringen (z. B. Edito- ren, Compiler, Virenscanner, Datenbankmanagementsysteme, ...)
-Anwendungssoftware, die den Benutzer bei der Ausführung seiner Aufgaben unter stützt und ihm dadurch erst den eigentlichen, unmittelbaren Nutzen stiftet (z. B. eine Tabellenkalkulation)
Unterteilung nach dem Grad der Individualität -Standardsoftware wird von einem Softwareanbieter zum Einsatz bei mehre- ren/vielen Kunden erstellt, die diese Software erwerben können.
-Individualsoftware wird für einen einzelnen Anwender zur Lösung einer spezifi- sehen Aufgabenstellung individuell erstellt oder modifiziert, alternativ durch ei- nen Soft- wareanbieter oder durch eigene Entwickler bzw. Entwicklungsabtei- lungen eines Unternehmens.
Rechtlich wird beim Erwerb von Software zwischen Individualsoftware und Standardsoftware unterschieden: Für Individualsoftware wird ein Werkvertrag bzw. Werkliefe- rungsvertrag abgeschlossen, der Erwerb von Standardsoftware gilt als Sachkauf.
Unterteilung nach der Art der erzeugten Ergebnisse
Diese entstehen im Verlauf des Herstellungsprozesses von Software und können beispielsweise sein:
-Quellcode, Zwischencode, Maschinencode, Gerätetreiber und andere erforderliche Module (als Programmbibliothek ausgeliefert)
-Installationsprogramme und dazugehörende Anweisungen
-Weitere Unterlagen wie die Dokumentation für Softwareentwickler und Soft- warebe- nutzer
Software nach der Art der Einbettung
-Nicht eingebettete Software, die nachträglich installiert wird
-Fest in einem Gerät zu dessen Steuerung untergebrachte Software (z. B. in einem ROM oder als Teil eines eingebetteten Systems) bezeichnet man als Firmware oder auch als eingebettete (oder ,embedded‘) Software
Einstufung nach Nutzungsrecht (Lizenz)
-Adware
-Beerware
-Cardware (auch Postcardware)
-Careware
-Crippleware -Donationware
-Freeware
- Nagware
-Shareware
-Freie Software
Unterteilung nach Quellcode-Verfügbarkeit
-Freie Software
-Open Source
-Proprietäre Software
Einstufung nach Verfügbarkeit
-Abandonware
-Vaporware
Weitere Softwarebegriffe
-Portable Software: Auf verschiedenen Computer(typen) lauffähig
-Native Software: Zur Ausführung auf einem bestimmten Computersystem erstellt oder kompiliert. Der Programmcode nutzt die individuelle Funktionalität eines bestimmten Systemtyps, Allgemeingültigkeit und Portabilität gelten nicht als Entwicklungsziel.
-Bananenware (unausgereifte Software)
-Schlangenöl (Programm ohne echte Funktion, wird aber als Wundermittel an- gepriesen)
-Shovelware (Sammlung von Software, wobei die Quantität zählt)
-Riskware
-Bloatware (mit Funktionen ohne synergetischen Nutzen überladene Software)
Spyware
-Gebraucht-Software Lizenzmodelle Die Verbreitung und Nutzung von Software unterliegt dem Urheberrecht. In diesem Zusammenhang gibt es mehrere typische Überlassungsmodelle:
Verkauf
Der vollständige Verkauf von Software, inklusive der Überlassung von Weiterverbreitungsrechten, kommt praktisch nur zwischen Unternehmen vor, in der Regel im Rahmen von Auftragsprogrammierung oder beim Verkauf eines Softwareentwicklungsunternehmens. Nutzungsrecht
Bei der meisten Software, die zum Beispiel für PCs„gekauft“ werden kann, wird in Wirklichkeit nur ein Nutzungsrecht überlassen. Dieses Modell ist auch bei der Auf tragsprogrammierung üblich, bei der ein Unternehmen ein Programm für den Eigengebrauch eines anderen Unternehmens speziell entwickelt. Bei Freeware ist dieses Recht kostenlos, was nicht mit freier Software verwechselt werden darf.
Die Software wird bei einem Dienstleister gehostet, die eigentliche Nutzung der Software kann entweder pro Zeitraum oder pro Nutzungseinheit berechnet werden. Sie findet oft auf einem einfachen PC und z. B. per Webbrowser statt.
Freie Software/Open Source/GPL
Freie Software darf von jedem genutzt, beliebig verändert und weiterverbreitet werden. Oft unterliegt dieses Recht gewissen Einschränkungen, wie zum Beispiel der Nennung des Autors oder die Verpflichtung, veränderte Versionen unter die gleiche Lizenz zu stellen (GPL). Software, die nicht zu dieser Gruppe zählt, wird proprietär genannt.
Zwischen den oben genannten Hauptformen der Softwareverbreitung gibt es zahlreiche Zwischen- und Mischstufen.
Siehe auch: Lizenzen der freien Software und Lizenzmanagement
Freie Software und Open Source
, Freie Software’ ist eine soziale Bewegung, die unfreie Software als gesellschaftliches
Problem begreift. Wobei„frei“ hier nicht„kostenlos“ bedeutet (, Freie Software’ ist nicht dasselbe wie , Freeware’), sondern die Freiheiten für die Gesellschaft meint, die ein derart lizenziertes (auch kommerzielles) Produkt bietet. In den Augen der von Richard Stallman 1985 gegründeten Free Software Foundation (FSF) ist die Entscheidung für oder gegen freie Software deshalb primär eine ethische und soziale Entschei- düng.
Dagegen begreift die 1998 gegründete Open Source Initiative (OSI) quellofFene Software als bloßes Entwicklungsmodell, wobei die Frage, ob Software quelloffen sein sollte, dort eine rein praktische und keine ethische Frage ist. Die FSF wirft der OSI daher eine Ablenkung von den wesentlichen Punkten vor. Eric S. Raymond hat den Begriff ,Open Source’ in der Annahme eingeführt, dass das unpopuläre Thema , Freiheit’ Geldgeber für solche Projekte abschrecken könne.
Auch wenn es sich heute um zwei unterschiedliche Bewegungen mit unterschiedlichen Ansichten und Zielen handelt, verbindet sie die gemeinsame Wertschätzung für quelloffenen Code, was in zahlreichen Projekten mündet, in denen sie Zusammenarbeiten.
7. Anwendungssoftware
Als Anwendungssoftware (auch Anwendungsprogramm, kurz Anwendung oder Appli- kation; englisch application Software, kurz App) werden Computerprogramme bezeichnet, die genutzt werden, um eine nützliche oder gewünschte nicht systemtechnische Funktionalität zu bearbeiten oder zu unterstützen. Sie dienen der„Lösung von Benutzerproblemen“. Beispiele für Anwendungsgebiete sind: Bildbearbeitung, E-Mail- Programme, Webbrowser, Textverarbeitung, Tabellenkalkulation oder Computerspiele. Aus dem englischen Begriff application hat sich in der Alltagssprache auch die Bezeichnung Applikation, kurz App, eingebürgert. Im deutschen Sprachraum wird die Abkürzung App seit dem Erscheinen des iOS App Store (2008) fast ausschließlich mit mobiler App gleichgesetzt, also Anwendungssoftware für Mobilgeräte wie Smartpho- nes und Tabletcomputer. Allerdings wird inzwischen auch teilweise Desktop- Anwendungssoftware App genannt, zum Beispiel bei Microsofts Betriebssystem Win- dows seit Windows 8 (Windows-Apps), das sowohl auf Desktop- PCs als auch Tablets eingesetzt wird, oder bei Apples Betriebssystem macOS mit dem Mac App Store.
In Unternehmen
Anwendungssoftware wird in erheblichem Umfang zur Unterstützung der Verwaltung in Behörden und Unternehmen eingesetzt. Anwendungssoftware ist zum Teil Standardsoftware, zu großen Teilen werden auf den jeweiligen Anwendungsfall zugeschnittene Branchenlösungen als Individualsoftware eingesetzt. Im Bereich der strategischen und wirtschaftlichen Anwendungssoftware innerhalb eines Unternehmens (wie Enterprise- Resource-Planning-Systeme oder Portal-Software) spricht man auch von Business- Anwendungen, Business Software oder Unternehmenssoftware.
Auf Mobilgeräten
Mobile Apps können über einen in das mobile Betriebssystem integrierten App Store bezogen und direkt auf dem Gerät installiert werden. Mobile Web-Apps werden über den Webbrowser des Mobilgeräts abgerufen und müssen nicht installiert werden.
In Webbrowsern
Eine besondere Form von Anwendungssoftware sind Webanwendungen. Auf diese wird vom Arbeitsplatzrechner oder Mobilgerät über einen Webbrowser zugegriffen und sie laufen im Browser ab. Webanwendungen erfordern im Gegensatz zu Desktop- Anwendungen kein spezielles Betriebssystem, teilweise jedoch spezielle Laufzeitumgebungen.
Abgrenzung zu systemnaher Software
Anwendungssoftware steht (nach ISO/IEC 2382) im Gegensatz zu Systemsoftware und Dienstprogrammen. Dazu„zählen die Programme, die für den korrekten Ablauf einer Rechenanlage erforderlich sind, sowie alle Programme, die die Programmerstellung unterstützen, z. B. Übersetzer und Testwerkzeuge und allgemeine Dienstleistungen bereitstellen (Formatierung, Dateiverwaltung, Datentransfer) die aber keinen Endbenutzer- bezogenen rNutzen! bringen. Beispiele sind das Betriebssystem, Compiler für verschiedene Programmiersprachen oder Datenbanksysteme.
Anwendungssoftware kann sowohl lokal auf einem Desktop-Computer (Desktop- An- wendung) bzw. auf einem Mobilgerät installiert sein oder auf einem Server laufen, auf den vom Desktop-Computer bzw. Mobilgerät zugegriffen wird (Client-Server- bzw. Webanwendung). Sie kann, abhängig von der technischen Implementierung, im Modus Stapelverarbeitung oder im Dialogmodus (mit direkter Benutzer-Interaktion) ausgeführt werden. Diese beiden Unterscheidungen gelten aber für alle Computerprogramme, grundsätzlich auch für Systemsoftware.
8. Mobile App
Als Mobile App (auf Deutsch meist in der Kurzform die App [er], eine Abkürzung für den Fachbegriff Applikation; teils auch das App [ 1 ] ; auf engl [aep] als Kurzform für englisch application) wird eine Anwendungssoftware für Mobilgeräte beziehungsweise mobile Betriebssysteme bezeichnet. Obwohl sich der Begriff App auf jegliche Art von Anwendungssoftware bezieht, wird er im deutschen Sprachraum oft mit Anwendungssoftware für Smartphones und Tablets gleichgesetzt. Bei mobilen Apps wird zwischen nativen Apps, die nur auf einer Plattform funktionieren, und plattformunabhängigen Web-, Hybrid- und Cross-Plattform-Apps unterschieden.
Es gibt sie für die verschiedensten Bereiche, diese reichen von einfachsten Dienstprogrammen und Spaßanwendungen mit nur einer Funktion bis hin zu Programmpaketen mit umfangreicher Funktionalität. So zum Beispiel Office-Anwendungen, Spiele, Rat- geber, Fitness-Apps, zur Emulation älterer Heimcomputer und programmierbarer Taschenrechner, als Hilfestellung für Diabetiker und vieles mehr. Mithilfe von mobilen Remote-Apps werden zunehmend digitale Geräte ferngesteuert, wie zum Beispiel Kameras, Action-Camcorder oder Quadrocopter. Der Großteil dieser Apps ist kostenlos, ein kleinerer Teil muss, für meist geringe Beträge, im jeweiligen App Store gekauft werden. Mit Webbrowsern, wie z. B. dem Dolphin Browser, ist das Surfen im Internet auf einem Mobilgerät möglich
Schon die ersten Mobiltelefone enthielten oft kleine Anwendungen wie etwa Kalender, Taschenrechner oder kleine Spiele. Diese waren vom Hersteller für das jeweilige Betriebssystem konzipiert, fest installiert und nur mit Root-Rechten löschbar. Mit dem Erscheinen von Java auf Mobiltelefonen (Java ME) bekamen Anwender die Möglichkeit, einfache Anwendungen und Spiele von ihrem Mobilfunknetzbetreiber oder aus dem Internet über WAP (MIDlets) herunterzu laden, die häufig schon plattformunabhängig wa- ren. Es entwickelte sich eine Hobby- Programmiererszene, aber auch professionelle Softwarehäuser boten solche Anwendungen kostenpflichtig an. Auch auf diversen PDAs konnten Anwendungen installiert werden. Als Vorläufer von Smartphone-Apps können die Palm-OS-PDA- Anwendungen gelten, die meist nur aus einer Datei bestehen und nach dem Transfer direkt nutzbar sind. Auf Psion-Organisern konnten Pro- gramme mit dem Gerät selbst erstellt werden.
Für Mobiltelefone mit eigenem Betriebssystem und der Möglichkeit, entsprechende Apps zu installieren, setzte sich um das Jahr 2000] der Begriff Smartphone durch. Dieser Begriff wurde der im Mobilbereich erstmals von Ericsson für den Prototypen GS88 verwendet. Weite Verbreitung fand um dieselbe Zeit die Communicator-Serie von Nokia, auf deren späteren Modellen das Betriebssystem Symbian lief. Zu den ersten im Massenmarkt verfügbaren Smartphones zählten 2002 das Siemens S55 und das Nokia 7650, auf denen sich Java-Programme manuell übertragen und ausführen ließen. Erst mit dem Erscheinen des Apple iPhone 2007 und später der Android-Mobiltelefone und weiteren Smartphones wurde die Möglichkeit der Installation von Anwendungen auf mobilen Geräten breiten Bevölkerungskreisen geläufiger, unterstützt durch entsprechend verstärktes Marketing der Hersteller. Auf den meisten Smartphones sind einige Apps, wie zum Beispiel ein Webbrowser, ein E-Mail-Programm und ein Kalender, bereits vorinstalliert. Im Juni 2016 wurden allein für iOS über zwei Millionen Apps ange- boten. Weltweit wurden im Jahr 2016 über 90 Milliarden Apps heruntergeladen (iOS-App- Store und Google-Play-Store). In Deutschland stieg der Umsatz im Vergleich zum Vorjahr um 40 Prozent auf 750 Millionen Dollar. Durchschnittlich verbrachte ein Android- Smartphone-Nutzer mehr als 1 ,5 Stunden am Tag in Apps. Die Liste der beliebtesten Apps (die meisten Downloads) in Deutschland fuhrt 2016 WhatsApp an, gefolgt von Facebook Messenger und Facebook-App. Den vierten Platz belegt Snapchat und auf Rang fünf folgt Instagram. Die umsatzstärksten Apps waren Lovoo, Spotify und Tinder.
Native Apps
Native Apps zeichnen sich dadurch aus, dass sie speziell an die Zielplattform angepasst sind. Da eine native App die Programmierschnittstellen (APIs) der Zielplattform direkt benutzt, ist die Bandbreite der Anwendungen sehr hoch. Zudem kann auf alle plattformspezifischen Hard- und Software-Funktionen zugegriffen werden, wie Dateien, GPS, Beschleunigungssensoren, Mikrofon und Kamera. Durch die verschiedenen Software- Plattformen ist es jedoch nicht möglich, etwa eine Android-App auf einem iPhone aufzuspielen oder umgekehrt. Somit muss ein Softwareunternehmen die Anwendung für jedes Endgerät einzeln entwickeln. Jede mobile Plattform besitzt ihr eigenes Software Development Kit (SDK) und ihre eigene integrierte Entwicklungsumgebung (z. B. Android Studio oder Xcode), welche von Entwicklern genutzt werden können. Die bevor- zugten Programmiersprachen für die größten Systeme sind:
-Java und Kotlin für Googles Android
-Objective-C und Swift für Apples iOS
-C#, C und C++ für Microsofts Windows Mit nativen Apps können die verschiedensten Typen von Geräten auf einmal bedient werden, wenn alle auf einer Plattform basieren. So ist es mit der Universal Windows Platform möglich, auf einmal native Windows-Apps für Desktop-PCs, Laptops, Tablets, Smartphones und die Xbox One zu schreiben.
Plattformunabhängige Apps
Die rasante Entwicklung unterschiedlicher Betriebssysteme, wie Android, Windows, iOS und mobiler Endgeräte, von Smartphones, über Tablets bis zu Notebooks und Smart-TVs, bringt Unternehmen zum Umdenken. Laut einer Studie des Marktforschungsinstitutes GfK nutzen mehr als 60 % der Erwachsenen in den USA mindestens zwei Geräte täglich und etwa 25 % mindestens drei Geräte. Daher ist es wichtig, dass die App auf allen unterschiedlichen Geräten verfügbar ist und problemlos funktioniert. Diese Erwartungshaltung hat den Bedarf nach plattformunabhängige Hybrid- und Cross-Plattform- Anwendungen erhöht.
Plattformunabhängige Apps werden gerade in Unternehmen, die unterschiedliche Geräte benötigen, immer wichtiger. Vor allem durch das Aufkommen des Phänomens Bring your own device (kurz: BYOD, auf Deutsch in etwa:„Bring Dein eigenes Gerät mit“) werden Unternehmen vor die Aufgabe gestellt, firmeninterne Programme und Anwendungen für alle Betriebssysteme und Gerätearten bereitzustellen. Auch spielt Mobilität, beziehungsweise Flexibilität eine tragende Rolle. Eine Anwendung, die auf Desktop- Computern läuft, soll z. B. auch bei dem externen Kundenbesuch auf dem Tablet funk- tionieren oder unterwegs auf dem Smartphone. Dabei wird versucht, möglichst einfach für mehrere Plattformen gleichzeitig zu entwickeln. Google portiert dazu große Teile des Quellcodes von Inbox, mit Hilfe der Software„J20bjC“, von Java nach Objective- C. Auch Microsoft bietet mit der„Windows Bridge“ eine Möglichkeit, Windows Apps mit iOS APIs zu entwickeln.
Web Apps
Mit einem Webbrowser können Web-Apps (z. B. Büroprogramme) aufgerufen werden, z.B. Google Docs.
Siehe auch: Webanwendung und Progressive Web App
Mobile Web-Apps werden über den Webbrowser des Mobilgeräts abgerufen und bedürfen keiner Installation. Sie benutzen Webstandards wie HTML5 oder JavaScript, damit sie auf beliebigen Endgeräten betrieben werden können. Im Gegensatz zu mobilen Apps, die für jede Plattform neu implementiert werden müssen, kann eine Implementierung von Web-Apps auf vielen verschiedenen Plattformen genutzt werden. Eine mobile Web-App verhält sich im Idealfall genau so wie eine native App, wird also vom Nutzer nicht wie eine Webseite wahrgenommen, sondern bietet stattdessen eine Benutzerober- fläche, die sich in das mobile Endgerät optisch und ergonomisch integriert. Nachteile von Web-Apps sind, dass sie nicht auf alle Hardware-Komponenten zugreifen können und dass die zur Verfügung stehende Datenübertragungsgeschwindigkeit eine wichtige Rolle spielt. Eine langsame Internetverbindung (beispielsweise bedingt durch schlech- ten Netzempfang) kann zu spürbaren Verzögerungen in der Interaktivität führen.
Bei der Nutzung von Web-Apps müssen meist mehr Daten übertragen werden als bei der Nutzung einer nativen App. Somit können höhere Übertragungs-Gebühren (besonders Roaming-Gebühren im Ausland) für den entstehenden Datenverkehr ein Hindernis für viele Nutzer darstellen, mobile Web-Apps z. B. im Urlaub zu nutzen.
Das Zwischenspeichern der benötigten Daten in einem lokalen Speicher (Cache) stellt einen praktikablen Ausweg dar, um diese auch im Offline-Betrieb zur Verfügung zu stellen. Allerdings ist die im Gerät mit Hilfe von Web-Storage-Technik zu speichernde Datenmenge meist stark begrenzt.
Mobile Web-Apps können, im Gegensatz zu allen anderen Typen von mobilen Apps, nicht in App Stores angeboten werden. Hybrid-Apps
Hybrid- Apps stellen eine Sonderform einer mobilen App dar. Sie vereinen die Vorteile von nativen und Web-Apps, indem sie auf viele Hard- und Software-Komponenten des mobilen Endgeräts zugreifen und gleichzeitig unterschiedliche Plattformen bedienen können. Sie können sowohl auf unterschiedlichen Mobilgeräten (Smartphone & Tablet) und PCs als auch auf unterschiedlichen Betriebssystemen laufen.
Hybrid-Apps vereinen die Vorteile von nativen Apps und Webanwendungen, indem Quellcode plattformübergreifend verwendet werden kann. Der Code wird in Webtechnologien wie HTML-, CSS- und JavaScript geschrieben. Hybrid-Apps laufen - für den Nutzer nicht sichtbar - innerhalb des nativen Webbrowsers der jeweiligen Plattform, z. B. Safari oder Google Chrome. Durch das genutzte Framework werden alle Bedienele- mente des Browsers, wie beispielsweise die Menüleiste mit URL- oder Lesezeichen- Leiste unterdrückt.
Für die Entwicklung von Hybrid-Apps stehen verschiedenen Frameworks zur Verfü- gung. Eine der größten Entwicklungsplattformen ist Cordova der Apache Software Foundation und das darauf basierende PhoneGap von Adobe. Es bieten weitere Unternehmen wie Ansca Mobile mit dem Corona SDK und Drifty mit Ionic Lösungen zur Entwicklung von Hybrid-Apps an. Es gibt verschiedene Entwicklungsumgebungen, wie zum Beispiel Microsofts Visual Studio, die die Entwicklung von Hybrid-Apps unter- stützen.
Das Framework lädt eine Bibliothek, die die Kommunikation zwischen JavaScript und der jeweiligen betriebssystemspezifischen Sprache herstellt. Dadurch können Hybrid- Apps auf diverse Hard- und Software-Komponenten des mobilen Endgerätes zugreifen. Ein Zugriff ist unter anderem auf Kontakte, Kamera, Bewegungssensor, GPS und Da teien möglich. Moderne Render-Engines erhöhen die Berechnungsgeschwindigkeit der Interpretation des HTML5-, CSS3- und JavaScript- Codes. Dadurch kann die Ausführungsgeschwindigkeit um ein Vielfaches erhöht werden. Durch Technologie wie WebGL werden komplexe 3D-Grafiken ohne zusätzliche Erweiterungen durch die Hardware beschleunigt.
Ein wesentlicher Vorteil der Hybrid-Apps liegt darin, dass mit einer Entwicklung viele
Plattformen abgedeckt werden können und keine teurere parallele Entwicklungen für die jeweiligen Ökosysteme stattfinden muss. Infolgedessen sinkt der Entwicklungsauf- wand auf Seiten des Softwareunternehmens erheblich, dadurch kann die Benutzeroberfläche und Funktionalität über mehrere Plattformen hinweg auf den gleichen Stand gehalten werden. Jedoch können nicht alle Geräte- beziehungsweise Betriebssystemspezifischen Eigenschaften benutzt werden und bei der Umsetzung der Hybrid-App können plattformspezifische Interaktionsdesigns und das Look and Feel der jeweiligen Platt- form nur beschränkt beachtet werden. Zudem sind stark verlangsamte Ladezeiten und eine viel schlechtere Rechenleistung, beispielsweise bei komplexen Spielen, möglich, da sie mit der Zwischenschicht des Webbrowsers agieren.
Cross-Plattform- Apps
Eine Cross-Plattform- App ist, ähnlich einer Hybrid-App, eine Anwendung, die unabhängig von der Plattform auf verschiedenen Betriebssystemen und Endgeräten ausge führt werden kann. Im Gegensatz zur Hybrid-App wird die Benutzeroberfläche meist mit den nativen APIs des jeweiligen Betriebssystems gebaut und nicht in einem Webbrowser angezeigt. So lassen sich bis zu 75 % des Quellcodes zwischen den ver- schiedenen Plattformen teilen, ohne dass es zu starken Einbußen bei der Performance kommt. [19] Der Quellcode wird meist in C#, C++ oder JavaScript geschrieben.
Frameworks für die Cross-Plattform-Entwicklung sind die„Xamarin Plattform“ von Xamarin, Appcelerators„Titanium Mobile“ und React Native von Facebook. Alle drei Frameworks unterstützen die Entwicklung von Cross-Plattform- Apps für Android, iOS und Windows. Mit„Xamarin. Forms“ lassen sich auch große Teile des Benutzeroberflä- chen-Codes zwischen den Plattformen teilen, dabei wird bei Laufzeit das plattform- übergreifende Platzhalter-Bedienelement in ein natives Bedienelement verwandelt. Googles Flutter SDK ermöglicht die Entwicklung von Cross-Plattform-Apps für iOS und Android in der Programmiersprache Dart. Flutter nutzt keine nativen Bedienelemente, sondern mit einer eigenen Rendering-Engine Gezeichnete.
Es lässt sich aber auch Model-Layer-Code in C++ zwischen diesen Plattformen teilen, ohne dass ein Framework genutzt werden muss.
Entwicklung
Siehe auch: Programmierung
Bei der Entwicklung von mobilen Apps müssen einige Einschränkungen im Vergleich zu Anwendungen für Desktop-Computer beachtet werden, so sind z. B. die Prozessoren von Smartphones leistungsschwächer und laufen mit Akkubetrieb. Zudem gibt es eine große Anzahl an verschiedenen Bildschirmgrößen, Hardwarekonfigurationen und Softwareversionen. Mobile Apps werden meist mit Hilfe einer integrierten Entwicklungsumgebung und dem Software Development Kit der entsprechenden Plattform entwickelt. Die Software kann mit einem Emulator getestet werden, bevor sie auf echten Geräten ausprobiert wird.
Viele Entwickler setzen mittlerweile auf Sprachdialogsysteme, im Gegensatz zu „normalen“ mobilen Benutzerschnittstellen. Diese können entweder in der Form von Spracherkennung, wie z. B. mit Siri, oder in Form von Chatbots, z. B. in Skype oder Facebook Messenger, umgesetzt werden. Diese Form von Interaktionen mit Anwendungen wächst, da viele Nutzer von der Vielzahl an Apps überwältigt werden. Microsofts CEO Satya Nadella sieht Chatbots "als nächstes großes Ding", welches so tiefgreifende Änderungen wie zuvor das iPhone für Touchscreens oder die Nutzung von grafischen Benutzeroberflächen bringen wird.
Der Beschäftigungsbereich für Softwareentwickler von Apps für mobile Plattformen wächst immer weiter, bis 2012 wurden, laut einem Bericht von„TechNet“, allein in den USA 466.000 neue Jobs geschaffen. In Europa sollen es, laut einem Bericht des„Progressive Policy Institute“, Anfang 2016 1 ,64 Millionen Arbeitsplätze sein, die von mo- bilen Apps abhängen. Die Hersteller von mobilen Betriebssystemen versuchen mit verschiedenen Methoden, Softwareentwickler für ihre Plattform zu gewinnen. So will Apple im Oktober 2016 ein„iOS App Development Center“ in Neapel, Italien eröffnen, in dem Entwickler geschult werden. Google will in Indien zwei Millionen Entwickler schulen und bietet über Udacity verschiedene Kurse im Bereich der Android- Entwicklung an.
Vertrieb
Apps können meist über eine in das Betriebssystem integrierte Internet- Vertriebsplatt- form bezogen und direkt auf dem Gerät installiert werden in Folge des großen Markterfolgs von Smartphones und Tablets haben praktisch alle Hersteller mobiler Betriebssy- steme eigene Plattformen entwickelt, um die für ihre jeweiligen Geräte entwickelten Apps zu vermarkten. Die Apps können dort von Kunden kostenlos oder kostenpflichtig herunterge laden werden. Die Vertriebsplattform mit der größten Anzahl an Programmen ist der Google Play Store für Android-Geräte, [34] gefolgt vom App Store für iOS. Daneben gibt es auch für Geräte mit anderen Betriebssystem eigene App Stores. Einnahmen gehen zum größten Teil an die Entwickler, der Betreiber des Vertriebsportals ist an den Gewinnen ebenfalls beteiligt. So behalten Apple, Google und Microsoft 30 Prozent des Kaufpreises einer App als Provision ein. Im Regelfall werden Apps durch die Portalbetreiber technisch geprüft, teilweise findet zusätzlich eine inhaltliche Über- prüfung statt.
Es gibt grundsätzlich verschiedene Wege, wie eine App auf ein Gerät gelangt: direkt über die mobile Intemetverbindung oder WLAN des Geräts oder mit Hilfe eines PC, mit dem über entsprechende Software (wie etwa iTunes) bei Anbindung des Mobilge- räts Apps installiert werden können. Manche App-Plattformen ermöglichen es auch, die App über den PC zu kaufen und automatisch auf allen synchronisierten Geräten zu installieren, wobei die App von den Geräten automatisch heruntergeladen wird. [35] Sofern die Hersteller ihr mobiles Betriebssystem auch für externe Quellen zur Installation von Anwendungssoftware zugänglich halten, gibt es darüber hinaus weitere, oft plattformübergreifende Angebote durch Shops verschiedener Anbieter im Internet, sowie die Möglichkeit des direkten Bezugs auf den Webseiten der App- Entwickler.
Datenschutz
Viele mobile Apps werden von Verbraucherschützern kritisiert, weil sie ohne das Wis- sen des Benutzers oder dessen Zustimmung Daten versenden, die für die Funktion der App gar nicht erforderlich sind oder die unverschlüsselt oder nicht anonymisiert sind, und daher leicht ausspioniert werden können. Die Betreiber von Plattformen im Internet, wie zum Beispiel soziale Netzwerke oder Einkaufsportale, werden mit Apps in die Lage versetzt, Daten zu sammeln und für gezielte und effiziente Werbezwecke einzu- setzen oder an Dritte weiterzuieiten. Besonders kritisch ist es, wenn zum Beispiel bei Shopping-Apps sensible persönliche Daten, wie Kontodaten oder Kreditkarteninforma- tionen, ausspioniert werden können. Viele Apps sammeln zudem Daten über automatisierte Analytics-Dienste, wie Google Analytics oder Twitters Fabric.
Native Apps können wie alle anderen Programme Sicherheitslücken enthalten. Es be- darf daher grundsätzlich der Sicherstellung der Aktualisierungen des Endgeräts sowie der Softwarepflege durch den Anbieter. Native Apps laufen als eigenständiges Programm auf dem jeweiligen Gerät und haben damit erweiterten Zugriff auf Ressourcen. Diesem Problem wird durch die Verwendung einer Sandbox begegnet, wodurch der Zugriff auf vom Hersteller bereitgestellte Programmschnittstellen beschränkt wird, und somit reguliert werden kann.
Einsatz in Unternehmen
In Unternehmen werden Mobile Apps in verschiedenen Bereichen eingesetzt. Dabei werden Anwendungen, die im Unternehmen von den Mitarbeitern an PCs genutzt wer- den, z. B. Enterprise-Resource-Planning (ERP), Customer-Relationship- Management (CRM) oder Microsoft Outlook, auch auf den Mobilgeräten verfügbar, so dass ortsunabhängig gearbeitet werden kann. Ein anderer Anwendungsbereich ist der Einsatz im Marketing. Apps werden dort zum Beispiel zur Unterstützung der Vertriebsmitarbeiter eingesetzt, etwa durch Bereitstellen von internen Produktkatalogen oder Ersatzteillisten mit direkter Online-Bestellmöglichkeit, auch verbunden mit der vorherigen Abfrage von Lager beständen und/oder Prognosen zur momentanen Lieferzeit eines Produkts.
Sicherheit
Mobile Apps bedeuten für Unternehmen im Bring-your-own-device-Kontext oft ein hohes Sicherheitsrisiko, da sie zum Teil ohne Wissen und Zustimmung der Nutzer ungeschützt sensible Daten übertragen. Das bedeutet nicht nur den Verlust vertraulicher Informationen, sondern macht Unternehmen angreif- und erpressbar. Im Untemeh- menseinsatz sorgen sogenannte Mobile-Device-Management-Systeme dafür, dass erwünschte Apps zentral auf die Geräte verteilt werden können, zum Teil durch ein eige- nes Bezugsportal. Im Fall reiner Firmen-Smartphones oder Tablets wird die Installation anderer Apps durch den Anwender aus Sicherheitsgründen technisch häufig unterbun- den, da andernfalls ein möglicher Angriffspunkt für Industriespionage und andere Risiken durch Schadprogramme geschaffen würde.
Zur sauberen Trennung von Apps auf Unternehmens-Mobilgeräten mit teilweiser priva- ter Nutzung können sogenannte Persona zur Trennung der jeweiligen Daten und Anwendungen genutzt werden. Sofern im Unternehmenseinsatz nicht auf interne IT- und Sicherheitsrichtlinien verzichtet wird, kommt der herkömmliche Vertriebsweg über ei nen App Store in der Regel nicht in Frage, denn darüber wären die - oft selbstentwik- kelten - mobilen Apps des Unternehmens auch öffentlich zugänglich. Stattdessen wer- den solche Apps durch einen Systemadministrator des Unternehmens zentral über Mobile- Device-Management-Lösungen dem Anwender zur Verfügung gestellt bezie hungsweise auch automatisch auf das Smartphone installiert.
App Wrapping
Eine Möglichkeit zur Absicherung von Unternehmensdaten ist App Wrapping. Beim App Wrapping werden unternehmensrelevante Anwendungen in einer weiteren App verschlüsselt. So wird gewährleistet, dass im Unternehmen nur sichere und zugelassene Anwendungen zum Einsatz kommen. Das hat aber auch Nachteile, es kann zu Urheberrechtsverletzungen bis hin zum Verlust von Gewährleistungsrechten kommen.
Natives App Management
Alternativ gibt es die Möglichkeit durch Mobile-Device-Management native Apps sicher anzubieten, ohne dass die native Benutzererfahrung leidet. Diese Funktion bietet unter anderem Apple seit iOS 7, Google mit„Android for Work“ und Samsung mit Knox.
9. Internet
Das Internet (von englisch internetwork, zusammengesetzt aus dem Präfix inter und network , Netzwerk4 oder kurz net ,Netz‘), umgangssprachlich auch Netz, ist ein weltweiter Verbund von Rechnernetzwerken, den autonomen Systemen. Es ermöglicht die Nutzung von Intemetdiensten wie WWW, E-Mail, Telnet, SSH, XMPP, MQTT und FTP. Dabei kann sich jeder Rechner mit jedem anderen Rechner verbinden. Der Datenaustausch zwischen den über das Internet verbundenen Rechnern erfolgt über die technisch normierten Intemetprotokolle. Die Technik des Internets wird durch die RFCs der Internet Engineering Task Force (IETF) beschrieben.
Die Verbreitung des Internets hat zu umfassenden Umwälzungen in vielen Lebensbe reichen geführt. Es trug zu einem Modemisierungsschub in vielen Wirtschaftsbereichen sowie zur Entstehung neuer Wirtschaftszweige bei und hat zu einem grundlegenden Wandel des Kommunikationsverhaltens und der Mediennutzung im beruflichen und privaten Bereich geführt. Die kulturelle Bedeutung dieser Entwicklung wird manchmal mit der Erfindung des Buchdrucks gleichgesetzt.
Die Übertragung von Daten im Internet unabhängig von ihrem Inhalt, dem Absender und dem Empfänger wird als Netzneutralität bezeichnet.
Infrastruktur
Das Internet besteht aus Netzwerken unterschiedlicher administrativer Verwaltung, die zusammengeschaltet sind. Darunter sind hauptsächlich
-Providemetzwerke, an die die Rechner der Kunden eines Intemetproviders angeschlos sen sind,
-Firmennetzwerke (Intranets), die die Computer einer Firma verbinden, sowie
-Universitäts- und Forschungsnetzwerke. Physikalisch besteht das Internet im Kembereich, also bei Verbindungen zwischen den oben genannten Netzwerken und in den Backbones großer Netzwerke, kontinental und interkontinental hauptsächlich aus Glasfaserkabeln, die durch den Router zu einem Netz verbunden sind. Glasfaserkabel bieten eine enorme Übertragungskapazität und wurden vor einigen Jahren zahlreich sowohl als Land- als auch als Seekabel in Erwartung sehr großen Datenverkehr- Wachstums verlegt. Da sich die physikalisch mögliche Übertra gungsrate pro Faserpaar mit fortschrittlicher Lichteinspeisetechnik (DWDM) aber im- mens vergrößerte, besitzt das Internet hier zurzeit teilweise Überkapazitäten. Schätzungen zufolge wurden im Jahr 2005 nur drei Prozent der zwischen europäischen oder US- amerikanischen Städten verlegten Glasfasern benutzt. [17] Auch Satelliten und Richtfunkstrecken sind in die globale Internet-Struktur eingebunden, haben jedoch einen ge- ringen Anteil.
Auf der sogenannten letzten Meile, also bei den Hausanschlüssen, werden die Daten oft auf Kupfer leitungen von Telefon- oder Fernsehanschlüssen und vermehrt auch über Funk, mittels WLAN oder UMTS, übertragen. Glasfasern bis zum Haus (FTTH) sind in Deutschland noch nicht sehr weit verbreitet. Privatpersonen greifen auf das Internet entweder über einen Schmalbandanschluss, zum Beispiel per Modem oder ISDN (siehe auch Internet by Call), oder über einen Breitbandzugang, zum Beispiel mit DSL, Kabelmodem oder UMTS, eines Intemetproviders zu. Firmen oder staatliche Einrichtungen sind häufig per Standleitung auf Kupfer- oder Glasfaserbasis mit dem Internet ver- bunden, wobei Techniken wie Kanalbündelung, ATM, SDH oder - immer häufiger - Ethernet in allen Geschwindigkeitsvarianten zum Einsatz kommen.
In privaten Haushalten werden oft Computer zum Abrufen von Diensten ans Internet angeschlossen, die selbst wenige oder keine solche Dienste für andere Teilnehmer be- reitstellen und nicht dauerhaft erreichbar sind. Solche Rechner werden als Client- Rechner bezeichnet. Server dagegen sind Rechner, die in erster Linie Intemetdienste anbieten. Sie stehen meistens in sogenannten Rechenzentren, sind dort schnell angebunden und in klimatisierten Räumlichkeiten gegen Strom- und Netzwerkausfall sowie Einbruch und Brand gesichert. Peer-to-Peer-Anwendungen versetzen auch obige Client - Rechner in die Lage, zeitweilig selbst Dienste anzubieten, die sie bei anderen Rechnern dieses Verbunds abrufen. So wird hier die strenge Unterscheidung des Client-Server- Modells aufgelöst.
An Internet-Knoten werden viele verschiedene Backbone-Netzwerke über leistungsstarke Verbindungen und Geräte (Router und Switches) miteinander verbunden. Darauf wird der Austausch von Erreichbarkeitsinformationen zwischen jeweils zwei Netzen vertraglich und technisch als Peering, also auf der Basis von Gegenseitigkeit organisiert und somit der Datenaustausch ermöglicht.
Am DE-CIX in Frankfurt am Main, dem größten Austauschpunkt dieser Art, sind bei- spielsweise mehr als hundert Netzwerke zusammengeschaltet. Eine solche Übergabe von Datenverkehr zwischen getrennten administrativen Bereichen, sogenannten auto nomen Systemen, kann auch an jedem anderen Ort geschaltet werden, es ist meist je doch wirtschaftlich sinnvoller, dies gebündelt an verschiedenen Internet- Knoten vorzunehmen. Da in der Regel ein autonomes System, wie ein Internetprovider, nicht alle an- deren auf diese Art erreichen kann, benötigt es selbst mindestens einen Provider, der den verbleibenden Datenverkehr gegen Bezahlung zustellt.
Dieser Vorgang ist technisch dem Peering ähnlich, nur stellt der sog.Upstream- oder Transitprovider dem Kundenprovider alle via Internet verfügbaren Erreichbarkeitsin- formationen zur Verfügung, auch diejenigen, bei denen er selbst für die Zustellung des zu ihnen führenden Datenverkehrs bezahlen muss. Es gibt derzeit neun sehr große, sogenannte Tier- 1 -Provider, die ihren gesamten Datenverkehr auf Gegenseitigkeit abwik- keln oder an ihre Kunden zustellen können, ohne einen Upstreamprovider zu benötigen. Da das Arpanet als dezentrales Netzwerk möglichst ausfallsicher sein sollte, wurde schon bei der Planung beachtet, dass es keinen Zentralrechner geben soll, also keinen Ort, an dem alle Verbindungen zusammenlaufen. Diese Dezentralität wurde jedoch auf der politischen Ebene des Internets nicht eingehalten. Die Internet Corporation for As- signed Names and Numbers (ICANN) ist als hierarchisch höchste Organisation zustän- dig für die Vergabe von IP-Adressbereichen, die Koordination des Domain Name Systems (DNS) und der dafür nötigen Root-Nameserver- Infrastruktur sowie für die Festlegung anderer Parameter der Intemetprotokollfamilie, die weltweite Eindeutigkeit verlangen. Sie untersteht formal dem US- Handelsministerium. Die netzartige Struktur sowie die Heterogenität des Internets tragen zu einer hohen Aus fallsicherheit bei. Für die Kommunikation zwischen zwei Nutzern existieren meistens mehrere mögliche Wege über Router mit verschiedenen Betriebssystemen, und erst bei der tatsächlichen Datenübertragung wird entschieden, welcher benutzt wird. Dabei können zwei hintereinander versandte Datenpakete beziehungsweise eine Anfrage und die Antwort je nach Auslastung und Verfügbarkeit verschiedene Pfade durchlaufen. Deshalb hat der Ausfall einer physikalischen Verbindung im Kembereich des Internets meistens keine schwerwiegenden Auswirkungen; nur ein Ausfall der einzigen Verbindung auf der letzten Meile lässt sich nicht ausgleichen.
Intemetprotokoll und Domain Name System
Das Internet basiert auf der Internetprotokollfamilie, die die Adressierung und den Datenaustausch zwischen verschiedenen Computern und Netzwerken in Form von offenen Standards regelt. Das Protokoll, in dem die weltweit eindeutige Adressierung von angebundenen Rechnern festgelegt und benutzt wird, heißt Internetprotokoll (IP). Die Kommunikation damit geschieht nicht verbindungsorientiert, wie beim Telefon, son- dern paketorientiert. Das heißt, dass die zu übertragenden Daten in IP- Paketen einer Größe von bis zu ca. 65.000 Byte, meist aber nur 1500 Byte, übermittelt werden, die jeweils IP-Adressen als Absende- und Zielinformation beinhalten. Der Empfänger setzt die Daten aus den Paketinhalten, auch Nutzdaten genannt, in festgelegter Reihenfolge wieder zusammen.
Die Netzwerkprotokolle sind je nach Aufgabe verschiedenen Schichten zugeordnet, wobei Protokolle höherer Schicht samt Nutzdaten in den Nutzdaten niederer Schichten transportiert werden. Die Standards und Protokolle des Internets werden in RFCs beschrieben und festgelegt. Ein großer Vorteil des Internetprotokolls ist, dass die Pa- ketübertragung unabhängig von der Wahl der verwendeten Betriebssysteme und unabhängig von den Netzwerktechniken der Protokollschichten unterhalb von IP geschehen kann, ähnlich wie ein ISO-Container im Güterverkehr nacheinander per Schiff, Bahn und Lastwagen transportiert werden kann, um an sein Ziel zu gelangen. Um einen bestimmten Computer ansprechen zu können, identifiziert ihn das Internetprotokoll mit einer eindeutigen IP-Adresse. Dabei handelt es sich bei der Version IPv4 um vier Byte (32 Bit), die als vier Dezimalzahlen im Bereich von 0 bis 255 durch einen Punkt getrennt angegeben werden, beispielsweise 66.230.200.100. Bei der neuen Version IPv6 sind dies 16 Byte (128 Bit), die als acht durch Doppelpunkt getrennte Blöcke aus je vier hexadezimalen Ziffern angegeben werden, z.B. 2001 :0db8:85a3:08d3: 1319:8a2e:0370:7344. Man kann sich diese Adressen wie Telefonnummern für Computer mit dem Domain Name System (DNS) als automatischem Telefonbuch vorstellen.
Das DNS ist ein wichtiger Teil der Internet-Infrastruktur. Es ist eine über viele admini- strative Bereiche verteilte, hierarchisch strukturierte Datenbank, die einen Übersetzungsmechanismus zur Verfügung stellt: Ein für Menschen gut merkbarer Domänenname (zum Beispiel„wikipedia.de“) kann in eine IP-Adresse übersetzt werden und umgekehrt. Dies geschieht - vom Nutzer unbemerkt - immer dann, wenn er etwa im Webbrowser auf einen neuen Hyperlink klickt oder direkt eine Webadresse eingibt. Der Browser fragt dann zuerst mittels IP-Paket einen ihm bekannten DNS-Server nach der IP-Adresse des fremden Namens und tauscht dann IP-Pakete mit dieser Adresse aus, um die Inhalte der dort angebotenen Dienste wie beispielsweise Webseiten abzurufen. Zum Ermitteln der IP-Adresse befragt oft der DNS-Server selbst der Hierarchie folgend andere DNS-Server. Die Wurzel der Hierarchie, die in den Namen durch die Punkte er- kennbar wird, bilden die Root- Nameserver. So wird also das Erreichen der erwähnten Dienste mit IP-Paketen ermöglicht, durch die den Anwendern erst ein Nutzen aus dem Internet entsteht.Auch das DNS selbst ist genau genommen schon ein solcher, wenn auch sehr grundlegender Dienst, ohne den die Nutzer zum Verbinden mit anderen Rechnern IP-Adressen statt Namen angeben müssten.
Im Kernbereich des Internets müssen die IP-Pakete durch ein weit verzweigtes Netz. Die Verzweigungsstellen sind Router, die über den kürzesten Weg zur Ziel-IP- Adresse des Paketes entscheiden. Sie verwenden dazu Routingtabellen, die über Routingprotokolle automatisch erstellt und aktuell gehalten werden; so wird automatisch auf ausge- fallene Verbindungen reagiert. In Routingtabellen werden mehrere mögliche Ziel-IP- Adressen mit Hilfe von Netzmasken - bei IPv6 spricht man von Präfixlängen - zu Ziel- netzen zusammengefasst, und diesen wird jeweils ein Ausgang des Routers, zum Beispiel in Form der Sprungadresse zum nächsten Router (Next Hop IP Address), zum Weiterleiten zugeordnet. « Zwischen autonomen Systemen geschieht der Austausch dieser Erreichbarkeitsinformationen heute ausschließlich über das Border Gateway Protocol, innerhalb eines auto nomen Systems stehen viele andere Routingprotokolle zu Verfügung. Für Computer und Router, die nicht im Kernbereich des Internets stehen, reicht eine statische, nicht durch Routingprotokolle erzeugte, Routingtabelle aus. Diese enthält dann eine Default - Route, oft auch Standard- oder Default-Gateway genannt, die für alle Zielnetze, die nicht anders eingetragen sind, in Richtung des Kernbereichs des Internets weist, ähnlich einem Wegweiser„Alle Richtungen“ im Straßenverkehr. Die Router im Kernbereich verwalten zurzeit Routingtabellen mit bis zu 540.000 Zielnetzen für IPv4 und 21.000 für IPv6.
In den Nutzdaten des Intemetprotokolls werden abhängig vom verwendeten Dienst immer noch Protokolle höherer Schichten (wie TCP oder UDP) übertragen, so wie ein ISO-Container im Güterverkehr Postpakete beinhalten kann, in denen wiederum Güter eingepackt sind. Die meisten Webseiten benutzen, aufbauend auf TCP, das Hypertext Transfer Protocol (HTTP) und für verschlüsselte Seiten das Hypertext Transfer Protocol Secure (HTTPS). E-Mails benutzen das Simple Mail Transfer Protocol (SMTP), eben falls aufbauend auf TCP, das DNS wird dagegen weitgehend mittels UDP abgewickelt. Bei IPv4 erhalten oft viele Arbeitsplatzrechner in dem Netzwerk einer Firma oder Organisation private IP-Adressen, die bei nach außen gerichteter Kommunikation per Network Address Translation (NAT) auf wenige öffentliche, global eindeutige IP- Adressen übersetzt werden. Auf diese Rechner kann aus dem Internet nicht direkt zuge- griffen werden, was meistens zwar aus Sicherheitsgründen erwünscht ist (siehe auch: Firewall), aber auch offensichtliche Nachteile hat. Für IPv6 stehen erheblich mehr öffentliche Adressen zur Verfügung, so kann laut RFC 4864 auf NAT verzichtet werden und die Filterung des Datenverkehrs hat mehr Möglichkeiten. Datenaufkommen
Im Jahr 2012 betrug das Datenaufkommen im festverkabelten, öffentlich zugänglichen Internet mehr als 26,7 Exabyte (1 Exabyte = 1 Mrd. Gigabyte) pro Monat, was einem täglichen Datenaufkommen von annähernd einem Exabyte entspricht. Die Datenmenge von einem Exabyte ist vergleichbar mit der mehr als 2500-fachen Datenmenge aller Bücher, die je geschrieben wurden. Das mobile Datenaufkommen (Datenaustausch über Mobilfunknetze) beläuft sich im Jahr 2012 auf über 1 ,1 Exabyte Daten monatlich. Bis zum Jahr 2015 wird das Datenaufkommen im festverkabelten Internet voraussichtlich auf annähernd 60 Exabyte pro Monat wachsen. Im mobilen Internet wird ein Da- tenaufkommen von mehr als 6,2 Exabyte monatlich prognostiziert. Über die Hälfte der übertragenen Daten machen Videodienste (Video-on-Demand) aus.
Weltweit wird der IP-Datenverkehr für 2017 auf 1,4 Zettabyte angenommen, allein in Deutschland werden 38 Exabyte angenommen, gegenüber einem Aufkommen im Jahre 2012 von 17 Exabyte. Dabei wird eine Steigerung im mobilen Datenverkehr mit Smart- phones und Tablets bis 2017 um jährlich 60 % auf dann 13,6 Exabyte erwartet.
10. Intemetzugang
Ein Intemetzugang (auch Intemetanschluss, Internetverbindung) bezeichnet im Allge- meinen die Nachrichtenverbindung eines Computers oder eines Netzwerkes mit dem Internet.
Grundsätzlich wird unterschieden zwischen der Breitband-Datenfernübertragung (in der Regel per DSL- oder Kabelmodem) und den herkömmlichen Schmalband- Verbindun- gen per Telefonmodem oder per ISDN sowie den mobilen Verbindungen über LTE, HSDPA, UMTS, EDGE oder GPRS.
Voraussetzungen
Intemetverbindungen für private Teilnehmer sind in der Regel nur mit einem Dienstlei- stungsvertrag mit einem Intemetdienstanbieter (Internet Service Provider, ISP), der gleichzeitig Zugangsdienste anbietet oder einem Internetzugangsanbieter (Internet Ac- cess Provider, 1AP) möglich (auch bei einer Intemet-by-Call-Verbindung besteht ein Dienstleistungsvertrag). Die Verbindung wird über einen Einwahlknoten bzw. einen Breitband-PoP und ein kundenseitig installiertes Modem oder ISDN- Endgerät aufgebaut, im Fall von leitungsgebundenem Zugang regelmäßig über die Teilnehmeran- Schlussleitung oder das TV-Kabelnetz.
Das Endgerät muss weiter mit dem einzelnen Rechner oder dem lokalen Rechnemetz verbunden werden - per Kabel (LAN, d. h. drahtgebunden), Wireless LAN, Bluetooth (Funk) oder über das Stromnetz. Ferner ist für das Modem ein Gerätetreiber notwendig. Der Datendurchsatz des Datenaustausche wird mit Bit pro Sekunde (bit/s oder b/s) bemessen, im weitverbreiteten DSL-Standard werden im Allgemeinen mindestens 1024 kbit/s (kilobit/s) in Download- und 128 kbit/s in Uploadrichtung übertragen.
Eine Verbindung kann über GMDSS, UMTS oder anders mobiles Internet oder einen Surfstick aufgebaut werden. Die SIM-Karten müssen zuvor für das Internet ffeigeschal- tet werden.
Zusammenfassend sind die folgenden telekommunikativen Verbindungen denkbar: Dial-up, ISDN, DSL-Varianten (ADSL, SDSL, VDSL, PortableDSL, Intemetzugang über Satellit), Kabelmodem, WLAN, WiBro, WiMAX, Mobilfunk (LTE, CSD, und HSCSD, GPRS, EDGE, UMTS mit HSDPA, WAP), Glasfasernetz, Trägerif equenzan- lage (Powerline Communication) und xMax (nur in Nordamerika).
Nutzung und Technik
Modem (V.34-Standard) nach ISA-Standard, obsolet seit den 1990er Jahren
-IP-Telefonie und ISDN over IP
-Intemetsurfen (Ansteuern von Dateien, die über Server erreichbar sind, bei- spielsweise Homepages/Websites/Netzpublikationen, E-Mails (sofern via POP3), Webcam) -Datenübertragung zwischen Server und Client, oder dezentral zwischen vielen Clients untereinander, etwa durch FTP oder Peer to Peer
-IPTV (Fernsehen)
-Internet Protocol -Intemetprotokollfamilie
-WAP und I-mode (jeweils für moderne Mobiltelefone)
Eine Internetverbindung besteht ab der Einwahl in das Netz des ISP, nicht zwingend durch das Aktivieren des Browser-Fensters.
Nach 24 Stunden Online-Zeit wird bei vielen Providern eine Zwangstrennung vorgenommen.
Vertragsrecht
Die Bereitstellung der Intemetleitung ist in Deutschland gemeinhin ein Dienstvertrag. Die Abschaltung des Anschlusses erfolgt in Deutschland gern. § 45k Telekommunikationsgesetz, nicht nur nach jeweiliger AGB. Hierzu gibt es zahlreiche Entscheidungen in der Rechtsprechung. 1 1. World Wide Web
Das World Wide Web [,w3:ld,waid'w6b] (englisch für„weltweites Netz“, kurz Web, WWW, selten und vor allem in der Anfangszeit und den USA auch W3) ist ein über das Internet abrufbares System von elektronischen Hypertext-Dokumenten, sogenannten Webseiten. Sie sind durch Hyperlinks untereinander verknüpft und werden im Internet über die Protokolle HTTP oder HTTPS übertragen. Die Webseiten enthalten meist Texte, oft mit Bildern und grafischen Elementen illustriert. Häufig sind auch Videos, Tondokumente und Musikstücke eingebettet.
Allgemeines
Umgangssprachlich wird das World Wide Web oft mit dem Internet gleichgesetzt, es ist jedoch jünger und stellt nur eine von mehreren möglichen Nutzungen des Internets dar. Andere Internet-Dienste wie E-Mail, IRC oder Telnet sind nicht in das World Wide Web integriert. Zum Aufrufen von Inhalten aus dem World Wide Web wird ein Webbrowser benötigt, der z. B. auf einem PC oder einem Smartphone läuft. Mit ihm kann der Benutzer die auf einem beliebigen, von ihm ausgewählten Webserver bereitgestellten Daten herunterladen und auf einem geeigneten Ausgabegerät wie einem Bildschirm oder einer Braillezeile anzeigen lassen. Der Benutzer kann dann den Hyperlinks auf der angezeigten Webseite folgen, die auf andere Webseiten verweisen, gleichgültig ob diese auf dem- selben Webserver oder einem anderen gespeichert sind. So ergibt sich ein weltweites Netz aus Webseiten. Das Verfolgen der Hyperlinks wird auch als„Surfen im Internet“ bezeichnet.
Mit dem so genannten Web 2.0 wurden ab etwa den 2000er Jahren Webseiten populär, deren Inhalt der Nutzer nicht nur wie etwa bei Nachrichten-Seiten passiv ansehen, sondern selbst ändern und ergänzen kann, z. B. um eigene Inhalte zu veröffentlichen oder mit anderen Nutzern zu kommunizieren. Dazu zählen Blogs als private Meinungsseiten, von einer losen Autorengemeinschaft geschaffene Seiten nach dem Wiki-Prinzip und Soziale Netzwerke. Serverseitige Techniken und (Skript-)Sprachen, die diese Interakti- vität umsetzen, sind vor allem CGI, Python, ASP, Apache Wicket, JSF, ColdFusion, Ruby und SSI. Zu clientseitigen Techniken, die z. B. über Filter die Inhalte individualisieren, gehören unter anderem CSS, JavaScript oder Java, wobei Java hauptsächlich zur plattformneutralen Ausführung von Programmen dient, die oft als Webanwendungen über das Internet geladen werden und mit internetbasierenden Datenbanken (z. B. SAP- Clients) kommunizieren. Mit der Interaktivität wurde der Einsatz von Suchmaschinen möglich, die die bis dato vorhandenen Webverzeichnisse ergänzten und bis heute weitgehend verdrängten.
Mit der zunehmenden Komplexität von Formaten, Protokollen und Techniken entstan- den neue Berufsbilder, wie z. B. Webdesigner und Mediamatiker. Zu ihren Aufgaben gehört neben der Programmierung von Inhalten auch die Auswertung von Nutzerverhalten im Rahmen der Logdateianalyse.
Das WWW wurde unter Weiterentwicklung bekannter ähnlicher Konzepte 1989 von Tim Berners-Lee und Robert Cailliau am europäischen Forschungszentrum CERN in Genf entwickelt. Berners-Lee entwickelte dazu das HTTP-Netzwerkprotokoll und die Textauszeichnungssprache HTML. Zudem programmierte er den ersten Web- Browser und die erste Webserver-Software. Er betrieb auch den ersten Webserver der Welt auf seinem Entwicklungsrechner vom Typ NeXTcube. Das Gesamtkonzept wurde der Öffentlichkeit 1991 unter Verzicht auf jegliche Patentierung oder Lizenzzahlungen zur freien Verfügung gestellt, was erheblich zur heutigen Bedeutung beitrug.
Die weltweit erste Webseite info.cern.ch wurde am 6. August 1991 veröffentlicht. Eine Nachbildung dieser Seite ist über nachfolgenden Link erreichbar:
http://info.cern.ch/hypertext/WWW/TheProject.html
Das WWW führte zu umfassenden, oft als revolutionär beschriebenen Umwälzungen in vielen Lebensbereichen, zur Entstehung neuer Wirtschaftszweige und zu einem grundlegenden Wandel des Kommunikationsverhaltens und der Mediennutzung. Es wird in seiner kulturellen Bedeutung, zusammen mit anderen Internet-Diensten wie E-Mail, teilweise mit der Erfindung des Buchdrucks gleichgesetzt.
Funktionsweise
Das WWW basiert auf drei Kernstandards:
-HTTP als Protokoll, mit dem der Browser Informationen vom Webserver anfor- dem kann.
-HTML als Auszeichnungssprache, die festlegt, wie die Information gegliedert ist und wie die Dokumente verknüpft sind (Hyperlinks).
-URLs als eindeutige Bezeichnung einer Ressource, die in Hyperlinks verwen- det wird.
Folgende Standards kamen später dazu:
-Cascading Style Sheets (CSS) legen das Aussehen der Elemente einer Web- seite fest, wobei Darstellung und Inhalt getrennt werden.
-Hypertext Transfer Protocol Secure (HTTPS) ist eine Weiterentwicklung von HTTP, bei dem das Protokoll SSL zwischen TCP und HTTP geschoben wird und in der Folge der Datentransfer komplett verschlüsselt wird. -Document Object Model (DOM) als Programmierschnittstelle für externe Pro- gramme oder Skriptsprachen von Webbrowsern.
Das World Wide Web Consortium (W3C), das heute vom Erfinder des WWW Tim Berners-Lee geleitet wird, und andere entwickeln den HTML- und den CSS- Standard; andere Standards kommen von der Internet Engineering Task Force, der ECMA und Herstellern wie Sun Microsystems. Nicht vom W3 -Konsortium standardisiert ist die am weitesten verbreitete Skript- oder Makrosprache von Webbrowsern:
JavaScript ist eine Skriptsprache mit Anweisungen für den Browser, mit der Program- me (Skripte) eingebettet werden können. Dadurch können Webseiten mit Hilfe des Document Object Models (DOM) dynamisch geändert werden. Skripte sind üblicher weise kleine Programme, können aber auch als Client Manager mit Hilfe des DOM die vollständige Kontrolle über die Anzeige über- nehmen. Eine von Microsoft entwickelte Variante von JavaScript heißt JScript. Beide Sprachen sind ähnlich, allerdings nicht kompatibel zueinander. Diese Inkompatibilität war ein entscheidender Teil des sogenannten Browserkriegs.
Das WWW wurde und wird durch andere Techniken ergänzt. Schon früh wurden Bilder zur Illustration benutzt; man verwendete die Formate GIF für Grafiken und Animatio- nen und JPEG für Fotos. Später wurde GIF mehr und mehr von PNG verdrängt, da für dessen Verwendung - im Gegensatz zu GIF - keine Lizenzgebühren anfielen.
Zudem konnten in Browsern zahlreiche weitere Dateitypen durch Browsererweiterungen, so genannte Plug-ins, dargestellt werden. Dadurch ließen sich Multimediainhalte von Animationen bis hin zu Musik und Videos oder ganze Anwendungen wie zum Bei spiel Versicherungsrechner oder Navigationsoberflächen darstellen. Beispielsweise ermöglichten Java-Applets das Einbetten von Programmen, die lokal auf dem Computer des WWW-Benutzers ablaufen und Flash wurde für interaktive Inhalte oder Animationen verwendet. Mit der Einführung von HTML5 und weiteren standardisierten Webtechnologien wurden Plug-ins schnell vom Markt verdrängt, da die Funktionen für Animationen und Multimediainhalte o. ä. jetzt direkt in die Browser eingebaut waren und somit ohne externe Abhängigkeiten umgesetzt werden konnten. Aus Sicherheits- und Stabil itätsgrün- den deaktivieren die meisten größeren Browser meist große Teile bzw. die gesamte NPAPI-Schnittstelle, die für diese Plug-ins genutzt wurde. Weiterhin beliebt sind allerdings beispielsweise Formate wie PDF zum Anzeigen von Dokumenten, die meist mittlerweile auch durch in den Browser eingebaute PDF- Reader angezeigt werden können. Dynamische Webseiten und Webanwendungen
Mit Hilfe der dynamischen WWW-Seiten kann das WWW als Oberfläche für verteilte Programme dienen: Ein Programm wird nicht mehr konventionell lokal auf dem Rechner gestartet, sondern ist eine Menge von dynamischen WWW-Seiten, die durch einen Webbrowser betrachtet und bedient werden können. Vorteilhaft ist hier
dass die Programme nicht mehr auf den einzelnen Rechnern verteilt sind und dort (dezentral) administriert werden müssen.
Dynamische Webanwendungen werden entweder am Webserver oder direkt im Browser ausgeführt.
-Ausführen von Webanwendungen am Webserver: Der Inhalt wird durch in Skriptsprachen (wie PHP oder Perl) oder kompilierte Anwendungen (wie JSP, Servlets oder ASP.NET) geschriebene Webanwendungen erzeugt und an den Browser geliefert. -Dynamische Websites am Client: Der Browser erzeugt oder ändert Inhalt mit- tels JavaScript.
-Gemischte Ausführung: Eine gemischte Ausführung stellt AJAX dar - hier sen- det der Browser mittels JavaScript einen Request, der vom Webserver bear- beitet wird und so dynamisch Teile der HTML-Struktur erneuert.
Nachteilig sind die begrenzten Ausdrucksmöglichkeiten von WWW-Seiten, so dass Programme in Form von Internetseiten im Allgemeinen nicht so einfach bedient werden können wie konventionelle Programme. Ein Trend, der versucht, beides in Einklang zu bekommen, sind Rieh Internet Applications. Zurzeit ist zu beobachten, dass immer mehr Dienste, die ursprünglich vom WWW getrennt waren und als eigenes Programm liefen, über das WWW angeboten werden und mittels eines Browsers genutzt werden können:
So wird Webmail oft als E-Mail-Client oder WebFTP als FTP-Client genutzt; Webfo- ren ersetzen das Usenet und Webchats den IRC.
Kompatibilität und Zugänglichkeit
Oft führten Browser-Hersteller neue Möglichkeiten ein, ohne auf eine Standardisierung zu warten. Umgekehrt werden jedoch immer noch nicht alle Teile von Standards wie HTML oder CSS korrekt implementiert. Das führt zu Inkompatibilitäten zwischen bestimmten Webseiten und manchen Browsern. Besonders„hervorgetan“ durch solche Inkompatibilitäten hatte sich zu Beginn des Internet-Booms die Firma Netscape, heute vor allem das Unternehmen Microsoft mit seinem Internet Explorer. Außerdem ging durch die Vielzahl der Ad-hoc-Erweiterungen von HTML ein wesentlicher Vorteil dieser Sprache verloren - die Trennung von Inhalt und Darstellung. Durch diese Trennung können die in HTML ausgezeichneten Inhalte optimal für das jeweilige Ausgabegerät - ob Bildschirm, Display des Mobiltelefons oder Sprachausgabe (für Benutzer mit Sehschwierigkeiten) - aufbereitet werden.
Das W3C und andere Initiativen treiben daher die Entwicklung in die Richtung einer Standardisierung und browserübergreifenden Vereinheitlichung von HTML/XHTML und CSS voran, um diese Vorteile von HTML wiederzuerlangen. Auch der zunehmende Verzicht auf Plug-ins, wie Flash, unterstützen diesen Trend und führten zu einer bes- seren Barriereffeiheit. XHTML wurde später zugunsten von HTML5 aufgegeben, welches auch explizite Features zur Verbesserung der Barrierefreiheit und Maschinenlesbarkeit einbaute, die visuell nicht sichtbar sind.
12. Cloud Computing (deutsch Rechnerwolke oder Datenwolke) beschreibt die Bereitstellung von IT- Infrastruktur wie beispielsweise Speicherplatz, Rechenleistung oder Anwendungssoftware als Dienstleistung über das Internet. Technischer formuliert umschreibt das Cloud Computing den Ansatz, IT- Infrastrukturen über ein Rechnernetz zur Verfügung zu stellen, ohne dass diese auf dem lokalen Rechner installiert sein müssen.
Angebot und Nutzung dieser Dienstleistungen erfolgen dabei ausschließlich durch technische Schnittstellen und Protokolle, etwa mittels eines Webbrowsers. Die Spannweite der im Rahmen des Cloud Computings angebotenen Dienstleistungen umfasst das gesamte Spektrum der Informationstechnik und beinhaltet unter anderem Infrastruktur, Plattformen und Software. Begriffsbestimmung
201 1 veröffentlichte das National Institute of Standards and Technology (NIST) eine Definition, die auf weitgehende Akzeptanz stieß und unterschiedliche Definitionsansätze bündelt:
Servicemodelle
Cloud Computing enthält drei verschiedene Servicemodelle:
Software as a Service (SaaS)
Clouds bieten Nutzungszugang von Software-Sammlungen und Anwendungsprogrammen. SaaS-Diensteanbieter offerieren spezielle Auswahlen von Software, die auf ihrer Infrastruktur läuft. SaaS wird auch als Software on demand (Software bei Bedarf) bezeichnet.
Platform as a Service (PaaS)
Clouds bieten Nutzungszugang von Programmierungs- oder Laufzeitumgebungen mit flexiblen, dynamisch anpassbaren Rechen- und Datenkapazitäten. Mit PaaS entwickeln Nutzer ihre eigenen Software- Anwendungen oder lassen diese hier ausfuhren, inner- halb einer Softwareumgebung, die vom Dienstanbieter (Service Provider) bereitgestellt und unterhalten wird.
Inffastructure as a Service (IaaS)
Clouds bieten Nutzungszugang von virtualisierten Computerhardware- Ressourcen wie Rechnern, Netzen und Speicher. Mit IaaS gestalten sich Nutzer frei ihre eigenen virtuel len Computer-Cluster und sind daher für die Auswahl, die Installation, den Betrieb und das Funktionieren ihrer Software selbst verantwortlich. Liefermodelle
Darstellung von Cloud-Liefermodellen
Zudem enthält die Definition des National Institute for Standards and Technology (NIST) vier Liefermodelle: Public Cloud - die öffentliche Rechnerwolke
Bietet Zugang zu abstrahierten IT-Infrastrukturen für die breite Öffentlichkeit über das Internet. Public-Cloud-Diensteanbieter erlauben ihren Kunden, IT- Infrastruktur zu mieten auf einer flexiblen Basis des Bezahlens für den tatsächlichen Nutzungsgrad bzw. Verbrauch (pay-as-you-go), ohne Kapital in Rechner- und Datenzentrumsinfrastruktur investieren zu müssen.
Private Cloud - die private Rechnerwolke
Eine Private Cloud ist eine Cloud-Umgebung, die ausschließlich für eine Organisation betrieben wird. Das Hosten und Verwalten der Cloud-Plattform kann intern (beispiels- weise durch firmeneigene Rechenzentren), aber auch durch Dritte erfolgen.
Hybrid Cloud - die hybride Rechnerwolke
Bietet kombinierten Zugang zu abstrahierten IT-Infrastrukturen aus den Bereichen von Public Clouds und Private Clouds, nach den Bedürfnissen ihrer Nutzer.
Community Cloud - die gemeinschaftliche Rechnerwolke Bietet Zugang zu abstrahierten IT-Infrastrukturen wie bei der Public Cloud - jedoch für einen kleineren Nutzerkreis, der sich, meist örtlich verteilt, die Kosten teilt (z. B. meh rere städtische Behörden, Universitäten, Betriebe oder Firmen mit ähnlichen Interessen, Forschungsgemeinschaften, Genossenschaften).
Weiterhin gibt es Mischformen der oben genannten Cloud-Typen:
Virtual Private Cloud - eine private Rechnerwolke auf prinzipiell öffentlich- zugänglichen IT-Infrastrukturen
Die Abschottung der„virtuell privaten“ Bereiche auf der öffentlichen Infrastruktur wird durch geeignete Sicherheitsmaßnahmen (z. B. VPN) gewährleistet.
Multi Cloud - Bündelung verschiedener Cloud-Computing-Dienste
Weiterentwicklung der Hybrid Cloud, bei der mehrere Cloud-Computing- Dienste in einer heterogenen Systemarchitektur gleichzeitig genutzt werden können.
Essenzielle Charakteristika
Das NIST listet fünf essenzielle Charakteristika für Cloud Computing:
On-demand self-service
Selbstzuweisung von Leistungen aus der Cloud durch den oder die Nutzer, die bei Bedarf bereitstehen soll.
Broad network access
Leistungen aus der Cloud sind über Standardmechanismen über das Netzwerk erreich- bar.
Resource pooling
Ressourcen wie Rechenleistung, Netzwerk oder Storage werden zwischen unterschiedlichen Projekten und Kunden geteilt.
Rapid elasticity Virtuelle Ressourcen skalieren schnell und aus Nutzersicht nahezu unbegrenzt und können auch automatisiert auf Laständerungen angepasst werden.
Measured Service
Ressourcennutzung kann gemessen und überwacht werden. Zum Beispiel für Abrechnung oder auch automatische Skalierung.
Demzufolge geht Cloud Computing über andere gegenwärtig diskutierte Ansätze (z. B. Virtualisierung) hinaus. Unter der Bedingung einer öffentlichen Verfügbarkeit, ähnlich beispielsweise dem öffentlichen Telefonnetz, kann man Cloud Computing je nach Architektur auch als Summe von SaaS und Utility Computing ansehen.
Abgrenzung von anderen Techniken
Bei„Grid-Computing“ geht es um die gemeinschaftliche Nutzung der gemeinsamen Ressourcen und es gibt keine zentrale Steuerung. Im Fall von Cloud Computing hat man einen Anbieter der Ressourcen und einen Nutzer. Die Steuerung der Ressourcen ist zentralisiert.
Fog Computing stellt die dezentralisierte Erweiterung des Cloud Computings dar. Res- sourcen wie Speicher, Rechenleistung und Software-Anwendungen werden näher an den Endgeräten platziert, um durch eine optimiert Aufteilung eine bessere Effizienz und geringere Latenzzeiten zu erreichen. An die zentralen Systeme werden dann nur noch relevante und gegebenenfalls komprimierte Daten geleitet. Fog Computing steht in engem Zusammenhang mit Edge Computing, wo beispielsweise Sensordaten direkt im Sensorsystem aufbereitet werden, um sie dann an Fog und Cloud weiterzuleiten. Zwischen Fog und Edge Computing gibt es große Überschneidungen, weshalb sie teilweise synonym benutzt werden.
Architektur
Da Clouds primär durch den Skalierungsgedanken entstanden sind, finden sich dort auch die stärksten Unterscheidungsmerkmale. Um sich der Architektur zu nähern, kann man sich einen einfachen Rechner vorstellen. Er hat Prozessorkeme, Arbeitsspeicher, eine Festplatte und Programme. Diese Komponenten finden sich auch in einer Cloud, nur in einer Form, die massive Skalierung ermöglicht.
Demzufolge lesen sich die Kenndaten einer„Cloud-Festplatte“ dann auch anders als die einer klassischen Festplatte im Computer. Amazon sagt über seine Persistenzschicht (S3) :„Die Anzahl der speicherbaren Objekte ist unbegrenzt.“ Google hat seine Persistenzschicht Google File System auf etwa 15.000 einzelne Rechner verteilt (Stand 2009).
Für die anderen Komponenten wie Programme oder Prozessorkeme gelten ähnliche große Maße. Warum dies so ist, erklärt sich allein durch die Zahlen. Im Jahr 2008 gibt Google bekannt, 10 Milliarden Datensätze, die über 1000 physische Computer verteilt sind, innerhalb von 68 Sekunden sortieren zu können.
“We are excited to announce we were able to sort 1 TB (stored on the Google File System as 10 billion 100-byte records in uncompressed text flies) on 1,000 Computers in 68 seconds.” „Wir freuen uns, bekanntzugeben, dass wir in der Lage waren, 1 TB (gespeichert im Google File System in 10 Milliarden Dokumenten mit je 100 Bytes Datensatzgröße in unkomprimierten Textdateien), verteilt auf 1000 Computer, innerhalb von
68 Sekunden zu sortieren.“ Technische Realisierungen von Cloud Computing
Es gibt unterschiedliche Arten von Cloud Computing. Eine mögliche Gliederung ist der sogenannte technische Cloud-Stack mit drei Schichten, in der obere Schichten auf den unteren Schichten aufbauen können, es aber nicht müssen:
Cloud-Computing-Architektur
-Anwendung
-Plattform -Infrastruktur
Jede Schicht stellt hier einen Grad an Abstraktion dar. Auf diese Art können auch die unterschiedlichen Typen von„Clouds“ klassifiziert werden.
Anwendung (SaaS) Software as a Service
Die Anwendungsschicht stellt die abstrakteste Schicht auf Cloud-Dienste dar. Hierbei bringt der Benutzer seine Applikation weder in eine Cloud-Plattform ein, noch muss er sich um Skalierbarkeit oder Datenhaltung kümmern. Er nutzt eine bestehende Applika- tion, die ihm die Cloud nach außen hin anbietet. Dieser Anwendungsfall inkludiert die beiden darunterliegenden Ebenen, da die Cloud-Funktionalitäten wie hochskalierender, verteilter Speicher, ausfallsichere Infrastruktur und üblicherweise ein hochskalierendes Queuingsystem zwar die Grundlage der benutzten Anwendung sind, der Nutzer des SaaS-Dienstes damit allerdings nicht in Kontakt kommt.
Eine„Cloud-Anwendung“ im SaaS-Modell berücksichtigt typischerweise die folgenden Aspekte:
-Das Design soll modular und serviceorientiert sein (Aufsetzbarkeit auf dem PaaS- Szenario).
-Die Last ist nicht vorhersehbar, denn über Nutzungsintensität und Nutzerzahl einer Anwendung kann oft keine zuverlässige Aussage gemacht werden.
-Die Anwendung soll dynamisch, verteilt und mandantenfähig sein.
Bekannte Beispiele für Cloud-Anwendungen sind Apple iCloud, Google Drive, Microsoft OneDrive, ownCloud, Nextcloud oder Salesforce.com.
Plattform (PaaS)
Ein Entwickler erstellt eine Anwendung und lädt diese in eine Cloud-Plattform. Diese kümmert sich dann selbst um die Aufteilung auf die eigentlichen Verarbeitungseinheiten. Im Unterschied zu IaaS hat der Benutzer hier keinen direkten Zugriff auf die Re- cheninstanzen. Er betreibt auch keine virtuellen Server. Im PaaS-Szenario bringt er aus- schließlich seine Programmlogik in die Cloud-Plattform ein, die ihm gegenüber als Programmierschnittstelle auftritt.
Die Infrastruktur der Cloud selbst kümmert sich hierbei um die erforderliche Instanziie- rung der Verarbeitungseinheiten und das Verteilen der zu verarbeitenden Daten.
Als Beispiel können hier die Produkte Windows Azure von Microsoft,„App Engine“ von Google oder„force.com“ von Salesforce.com der Plattform-Schicht zugeordnet werden.
Dadurch, dass der Benutzer hier nur seine Applikationslogik liefert, kann die Cloud- Plattform die Anzahl der tatsächlich arbeitenden Instanzen nach Belieben erhöhen oder reduzieren. Die Abstraktion von jeglicher technischen Komponente ist hierbei explizit gewünscht, da der Benutzer der Cloud in erster Linie Daten verarbeiten, nicht aber das System administrieren möchte.
Infrastruktur (IaaS) Infrastructure as a Service
Die Infrastruktur oder„Cloud Foundation“ stellt die unterste Schicht im Cloud Compu ting dar. Der Benutzer greift hier auf bestehende Dienste innerhalb des Systems zu, verwaltet seine Recheninstanzen (siehevirtueller Server) allerdings weitestgehend selbst. Dienste innerhalb des IaaS-Konzeptes sind typischerweise verteilte Persistenz
(siehe Amazons Simple Storage Service) und ein Nachrichtendienst (siehe Message
Oriented Middleware). Sind die Cloud-Dienste selbst noch hochskalierend ausgelegt, trifft dies nicht zwingend auf die Programme zu, die auf den vom Benutzer eingebrach- ten Recheninstanzen laufen.
Der Vorteil gegenüber traditionellen Datencentern ist die Skalierbarkeit: Die Recheninstanzen können je nach Anforderungen beliebig um weitere Instanzen erweitert oder verkleinert werden. Der Benutzer hat dabei vollen Zugriff auf die Instanzen mit der Eigenschaft, dass er für die Instanzen ab der Betriebssystemebene selbst verantwortlich ist. Die größten Beispiele hierfür sind Amazon Web Services und die Open Telekom Cloud.
Organisatorische Arten von Clouds
Man kann neben dem technischen Cloudstack auch zwischen verschiedenen Organisationsformen von„Clouds“ unterscheiden, die je nach Anwendungsfall ihre Berechtigung haben. Die Definitionen für die Begriffe„private“,„public“ usw. wurden vom NIST geprägt, werden in gleicher Art von den Wirtschaftsprüfern verwendet (führend hierzu sei für die Definition der Standards die ISACA angeführt) und sind seit 2014 auch in ISO/IEC 17788 verfügbar. Die Definitionen durch diese Gremien sind von hohem Erkenntniswert, da hier die korrekten Definitionen der Deployment Models international gültig festgelegt sind.
Zusammenfassend lässt sich sagen, dass die Definitionen sich auf den möglichen Nut- zerkreis beziehen und nichts damit zu tun haben, wo„die Cloud“ betrieben wird oder wie Eigentumsverhältnisse aussehen. Unter„Private Cloud“ ist demnach eine Cloud zu verstehen, bei der die Ressourcen durch einen vordefinierten Benutzerkreis angesprochen wird und wo die Verwaltung durch ausgezeichnete User erfolgt. Am anderen Ende der Skala ist dann die„Public Cloud“ zu finden, bei der a priori keinerlei Information über die möglichen Nutzer vorhanden ist. Mischformen dazwischen sind möglich (z. B. „Hybrid Cloud“), beziehen sich aber ebenfalls auf den Nutzerkreis und nicht auf die technische Ausgestaltung.
Die Begrifflichkeiten, wie sie teilweise gemeinhin anzutreffen sind, und im Rahmen de- ren Verwendung„Public Cloud“ mit„off premise“ und„Private Cloud“ mit„on premi- se“ gleichgesetzt werden, sind irreführend und entsprechen in dieser Verwendung weder der Grundidee der ISO/IEC Normen noch der anderer Gremien.
Cloud Computing in der Wirtschaft
Cloud Computing verlagert die Investition für Anwendungsprogramme auf den Anbieter der Dienste und eine der tatsächlichen Leistung entsprechende Gebühr. Das erlaubt es, schwerfällige Entscheidungsprozesse in dem Unternehmen des Bestellers der Dienste abzulösen.
Vorteile und Probleme
Ebenso wie die Virtualisierung ermöglicht Cloud Computing Kostenvorteile gegenüber konventionellen Systemen. Dies ist der Fall, wenn sich beispielsweise die Bezahlung nach der Dauer der Nutzung des Dienstes richtet und der Dienst nur gelegentlich genutzt wird. Lokale Ressourcen (Software und Hardware) lassen sich einsparen. Zunehmend wird diese Ressourceneffizienz auch in Verbindung mit der nachhaltigen Nutzung von IKT-Systemen gebracht, wobei entsprechende Überlegungen keineswegs neu sind. Ein häufig zitiertes Beispiel ist die Realisierung von E-Mail-Systemen auf Ba sis von Cloud Computing, denn hier nimmt die Komplexität der Anwendung durch Maßnahmen zur Unterbindung von Kompromittierungsversuchen kontinuierlich zu, so dass kleinere Unternehmen von einer Auslagerung profitieren können. Vorteile ergeben sich auch im Fall von stark schwankender Nachfrage: Normalerweise müsste man genug Kapazität Vorhalten, um Lastspitzen bedienen zu können. Bei Nutzung von Cloud Computing lässt sich die genutzte Kapazität variabel an den tatsächlichen Bedarf kurzfristig anpassen.
Das gilt besonders für volatile Geschäftsfelder, die externen Anforderungen umgehend entsprechen müssen, wie beispielsweise die Logistik. Ständig schwankende und vom Markt abhängige Warenvolumina erfordern zeitnahes Reagieren und die durchgehende Verfügbarkeit der zur Ausführung benötigten Kapazitäten. Dank der Flexibilität und der Skalierbarkeit der Cloud wäre die Bereitstellung benötigter Ressourcen für logistische Software (wie zum Beispiel WMS, TMS, ERP usw.) wesentlich günstiger und einfa cher zu bewerkstelligen, als es momentan mit statischen Systemen der Fall ist. Laut einer aktuellen Studie des Fraunhofer-Instituts für Materialfluss und Logistik IML ist eine Kostenreduktion im Bereich Warehouse Management um bis zu 56 Prozent im ersten Jahr und 48 Prozent in den Folgejahren machbar. Konzepte zur praktischen Umsetzung existieren und befinden sich bereits in der Anwendung. Weitere Kostenvorteile ergeben sich für den Servicenutzer bei Public Cloud Angeboten beispielsweise bei der IT-Govemance (etwa durch (Teil-)Auslagerung bei der IT-Prüfung an den Dienstleister), durch den geringeren Investitionsbedarf und dem (steuerlichen und handelsrechtlichen) Ansatz der monatlichen Gebühren in voller Höhe.
Problematisch stellt sich Datensicherheit beim Cloud Computing dar: Eines der Grund probleme, nämlich die Absicherung des Zugriffs auf die Anwendungsdaten beim Transfer zwischen lokalem Client und entferntem Server, kann heute befriedigend gelöst werden. Es existieren zahlreiche Entwicklungen im Bereich der sicheren Übertragung, wie beispielsweise SSL/TLS-Verschlüsselung. Ein weiteres Grundproblem ist die Verschlüsselung der Daten, die in Datenbanken und Datei-Systemen der Cloud gespeichert werden. Auch dieses Problem ist grundsätzlich technisch gelöst und wird von State-of- the-Art-Cloud-Anbietern angewandt (Kryptographie). Jedoch findet man (Stand 2012) hierauf noch keine Hinweise in den Datenschutzerklärungen der großen Cloud- Anbieter.
Das dritte Grundproblem, nämlich dass Administratoren des Cloud-Anbieters und der Dienste Zugriff auf die Nutzerdaten während der Verarbeitung haben, ist hingegen grundsätzlich ohne ein komplexes Management des verteilten Authentisierens und des dynamischen Autorisierens sowie der Kryptografie nicht zu lösen.
Kritiker behaupten, dass die Kontrolle der privaten Daten von Benutzern durch die marktdominanten Anbieter, wie etwa Google, hierdurch überhandnähme. Allerdings gibt es mittlerweile Algorithmen, die Berechnungen so auf einzelne Instanzen aufteilen können, dass es selbst allen Instanzen gemeinsam nicht möglich ist, Rückschlüsse auf die verarbeiteten Daten zu ziehen.
Dies ist lediglich der ausführenden Instanz möglich, da nur sie den genauen Algorith- mus kennt, mit dem die Teilergebnisse wieder zusammengeführt werden. Ein weiterer Ansatz, der sich zur Behebung dieses Problems eignet, ist die Anwendung einer voll homomorphen Verschlüsselung. Dabei wird innerhalb der Cloud ausschließlich auf verschlüsselten Daten gerechnet, die im privaten Bereich dann wieder entschlüsselt werden können. Die Herausforderung liegt hier jedoch darin, Verschlüsselungsalgorithmen zu finden, die für einen massiven, großflächigen Einsatz beim Cloud Computing effizient genug arbeiten.
Ein alternativer Ansatz, der ebenfalls die Daten in der Cloud unzugänglich macht, ist das Konzept der Sealed Cloud. Dabei kommt eine Schlüsselverteilung zum Einsatz, die zwar eine Verschlüsselung der Daten, jedoch nicht deren Entschlüsselung durch die Schlüssel zulässt, die den Administratoren zugänglich sind, und es erfolgt eine geordne te Sicherung und anschließende Löschung von unverschlüsselten Daten, bevor ein Administrator, beispielsweise zu Wartungszwecken, Zugriff zur Computing- Infrastruktur erhält. Eine weitere Herausforderung in der Cloud ist die Abhängigkeit (Lock-in-Effekt) vom jeweiligen Cloud-Anbieter, da die angebotenen Schnittstellen meist sehr herstellerspezifisch sind. Privatanwender stehen zudem vor der hypothetischen Frage, was mit ihren Daten in der Cloud passiert, wenn der Anbieter eines Cloud- Dienstes Insolvenz anmeldet. Daher bieten neue Anbieter die Rücksicherung der Daten auf dem eigenen Compu- ter an.
Kosten
Es gibt verschiedene Untersuchungen über die Kosten von Cloud Computing. Nach ei- ner Untersuchung von Dachyuk (2018) ist Colocationing ab etwa 150 großen AWS- Instanzen (m4.2xlarge) günstiger als Cloud Computing.
Ersatzlösungen
Da viele Privatanwender zunehmend Bedenken haben, ihre Daten bei großen Unter- nehmen zu speichern, wenn diese beispielsweise ihre Geschäftsbedingungen jederzeit ändern könnten, stellen viele NAS-Systeme für zu Hause Funktionen bereit, wie man sie von Cloud-Speicher-Betreibem kennt. In diesem Fall spricht man von einer Personal Cloud, da die Infrastruktur der Datenspeicherung vollständig vom Anwender selbst betrieben wird. NAS-Lösungen übernehmen jedoch kein Verarbeiten von Daten. Abgrenzung von anderen Dienstleistungsformen
Cloud Computing ist in einigen Elementen mit dem klassischen Online Outsourcing verwandt. Es grenzt sich jedoch in wesentlichen Punkten von diesem ab. In der Regel wird im Bereich der Infrastructure as a Service-Anbieter die IT-Infrastruktur von mehreren Kunden genutzt, so dass Kapazitätsspitzen leichter verteilt werden können und Reserven gemeinsam genutzt werden. So können Cloud-Dienstleistungen kurzfristig angepasst werden und unterscheiden sich dadurch vom klassischen Modell, in dem Kunden Rechnerinfrastruktur„exklusiv“ nutzen. Weiterhin erfolgt die Steuerung und Administration der Dienste durch den Nutzer via Webinterface selbst. Rechtliche Fragen
Rechtlich müssen sowohl die Beziehungen zwischen Cloud-Anbietem und ihren Kunden als auch die Rechte betroffener Dritter betrachtet werden.
Datensicherheit
Es ist zu berücksichtigen, dass der gesetzlich geforderte Datenschutz grundsätzlich ohne technische Datensicherheit nicht erreicht werden kann. Die Datensicherheit wird durch die verwendete Technik des Anbieters und durch die verwendeten Anwendungen des Anbieters bestimmt. Datenschutz
Nach Urteil des Europäischen Gerichtshofs dürfen nur eingeschränkt Daten in die USA gelangen, wo sich über 90 % der Cloud-Computing-Infrastruktur befinden.[26] Nationale Datenschutzagenturen stützen sich auf Arbeiten der ENISA, wenn sie darlegen, warum Cloud Computing trotz Safe Harbor beispielsweise für Schulen unzulässig ist. Auch die Datenschutzbeauftragten der Schweiz warnen insbesondere vor Verletzung des Datenschutzrechts bei Verwendung von Rechenzentren im Ausland. Wenn personenbezogene Daten Dritter online gespeichert werden, müssen sich beispielsweise deutsche Auftraggeber vorab und anschließend regelmäßig nachvollziehbar vor Ort davon überzeugen, dass die Vorgaben des Bundesdatenschutzgesetzes eingehal ten werden. Weil namhafte Cloud-Anbieter Datenbestände ihrer Kunden weitergeben, drohen den Kunden Bußgelder. Cloud- Betreiber mit Sitz in den USA unterliegen dem US-Recht und demnach dem Patriot Act. Unternehmen mit Sitz in den USA sind deshalb gezwungen, auch Daten an amerikanische Behörden auszuliefem, die sich auf Servern in fremdem Hoheitsbereich befinden. Dies ist beispielsweise von Amazon, Microsoft und Google bestätigt worden.
Nicht zuletzt wegen dieser Problemlagen im Datenschutz sowie in der Frage, inwieweit der Einzelne die Verfügungsgewalt über seine Daten tatsächlich behält, erhielt die Cloud bzw. Cloud Computing als Technik 2012 den Negativpreis Big Brother Award in der Kategorie„Kommunikation“, die Laudatio hielt Rena Tangens vom FoeBuD
Leistungsschuld
Bei den Cloud-spezifischen Leistungen werden in der Regel Web- oder Filespace, Datenbanken, Applikationen und Hostingservices zur Verfügung gestellt. Beim Webhosting (ggf. auch für das Storage-Management), bei dem Daten auf den Host des Hosting-Providers gespeichert werden, wird vertreten, dass es sich hierbei nicht um ei nen Mietvertrag nach §§ 535 ff. BGB handelt, sondern um einen Werkvertrag nach §§ 631 ff. BGB. Der Hosting-Provider schuldet als Leistung lediglich, dass die Website des Kunden bei ihm irgendwo gespeichert wird und dass sie im Internet aufgerufen werden kann. Eigentliche Leistung ist daher die Aufbewahrung der Information und ihr Zurverfügunghalten für den Abruf im Internet. Für den Kunden ist vor allem wichtig, dass die Inhalte dauernd abrufbar sind. Wie der Hosting-Provider oder Cloudanbieter diese Leistung erbringt, ist dem Kunden gleichgültig. Damit wird nicht primär Speicherplatz überlassen, sondern primär ein Erfolg, nämlich die Abrufbarkeit im Internet geschuldet. Das Einspeichem der Website ist nur technische Voraussetzung des ge- schuldeten Erfolgs. Bei der Zurverfügungstellung von Applikationen wird in der Regel ein Software-as-a- Service- (SaaS) oder„Application-Service-Providing“-Modell (ASP) gewählt. Hierbei wird vom ASP-Anbieter einem Kunden die temporäre Nutzung von Applikationen zur Verfügung gestellt. Der Bundesgerichtshof hat entschieden, dass auf Application- Ser- vice-Providing-Verträge grundsätzlich die mietrechtlichen Vorschriften Anwendung finden. Auch wenn diese Entscheidung sicherlich bedeutsam gewesen ist, bedarf es doch einer erheblichen vertraglichen Gestaltung, insbesondere bei der Gestaltung der Service-Levels, da hier die mietrechtlichen Regelungen des §§ 535 ff. BGB allein nicht ausreichend sein dürften.
Die Einordnung von Hosting- Verträgen für Datenbanken in die vertragstypologische Einordnung des BGB richtet sich nach der vertraglich geschuldeten Leistung. Hierbei ist grundsätzlich zu unterscheiden, ob wie weiter oben beschrieben Filespace zur Speicherung der Datenbank vom Provider zur Verfügung gestellt wird (sogenanntes Daten- bank-Hosting) oder eine Applikation wie eine Oracle-Datenbank (zur zeitweiligen Nut zung) zur Verfügung gestellt wird. Schuldet der Cloud-IT-Anbieter über die Hosting- Leistung hinaus Leistungen, wie z. B. bei der Gestaltung der Datenbanken, sind ggf. die Regelungen von §§ 87a bis 87e UrhG zu berücksichtigen.
Urheberrecht
Zu beachten sind auch urheberrechtliche Fragestellungen, wenn urheberrechtlich geschützte Daten online gespeichert werden. Der Upload von Daten stellt rechtlich gesehen nichts anderes als eine Vervielfältigung gern. § 16 UrhG dar, die der Zustimmung des Urhebers bedarf. Nur wenn der Upload zu rein privaten Zwecken geschieht und die Datei nicht öffentlich zugänglich gemacht wird, kann der Upload als Privatkopie gern. § 53 UrhG zulässig sein. Die öffentliche Zugänglichmachung von Dateien der Cloud (§ 19a UrhG) ist jedoch ohne Zustimmung des Urhebers immer rechtswidrig. Hinzu kommt, dass nach Marcel Bisges durch Cloud Computing das derzeitige System der Urhebervergütung ausgehebelt werden kann, indem dem Urheber der Anspruch auf angemessene Vergütung (für Privatkopien) vermindert wird. Aus urheberrechtlicher Sicht ist Cloudcomputing andererseits, so Bisges, für die Hersteller von Software von Vorteil, da im Gegensatz zu herkömmlicher Softwareüberlassung die Schäden durch illegale Kopien vermieden werden.
Cloud Services Made in Germany
In Deutschland wurde 2010 die Initiative Cloud Services Made in Germany ins Leben gerufen. Dabei geht es um die Rechtssicherheit beim Einsatz von Cloud-Computing- Lösungen. Denn bei den Unternehmen, die daran beteiligt sind, liegen die Kundendaten ausschließlich in Deutschland und unterliegen damit dem deutschen Recht und Datenschutz. Folgende Aspekte sind bei der Initiative wichtig:
-Das Unternehmen des Cloud-Service-Betreibers wurde in Deutschland gegründet und hat dort seinen Hauptsitz.
-Das Unternehmen schließt mit seinen Cloud-Service-Kunden Verträge mit Service- Level-Agreement (SLA) nach deutschem Recht.
-Der Gerichtsstand für alle vertraglichen und juristischen Angelegenheiten liegt in Deutschland.
-Das Unternehmen stellt für Kundenanfragen einen lokal ansässigen, deutsch- sprachigen Service und Support zur Verfügung.
13. Cloud Commerce
Cloud Commerce ist eine Verbindung der Bereiche E-Commerce und Cloud Computing. Konkret befasst sich das Thema Cloud-Commerce nur mit dem Teilbereich Soft- wäre as a Service des Cloud-Computing, kurz SaaS. Die im SaaS- Model angebotene Software ist in diesem Fall ein eCommerce-System (primär ein Shop-System).
Analog dem SaaS-Modell, basiert Cloud-Commerce auf dem Grundsatz, dass das eCommerce-System und die IT-Infrastruktur bei einem externen IT-Dienstleister, dem Hersteller der Software, betrieben und vom Kunden als Service genutzt werden. Der Servicegeber übernimmt die komplette IT-Administration und weitere Dienstleistungen wie Wartungsarbeiten und Updates. Zu diesem Zweck wird die gesamte IT- Infrastruktur, einschließlich aller administrativen Aufgaben, ausgelagert, und der Servicenehmer kann sich auf sein Kerngeschäft konzentrieren.
SaaS-Modellen, wie dem Cloud-Commerce, werden eine immer größere Bedeutung eingeräumt. Das Marktforschungsunternehmen Gärtner prognostizierte für 201 1 einen Umsatz von 12,1 Milliarden US-Dollar. Dies bedeutet einen Anstieg um 20,7 Prozent im Vergleich zum Vorjahr (2010: 10 Mrd. Dollar). Der nordamerikanische Markt stellt dabei die größte Nachfrageballung dar (201 1 : 7,7 Mrd. Dollar). Cloud-Commerce bietet klein- und mittelständischen Unternehmen eine Vielzahl von Vorteilen gegenüber dem traditionellen Lizenzkauf und dem eigenen Betrieb einer IT- Inffastruktur.
Vorteile
-Geringes Investitionsrisiko
-Transparente IT-Kosten
-Beschleunigte Implementierung
-Verringerung der IT-Prozesskomplexität
-Mobilität
-Konzentration auf das Kerngeschäft
Der Servicenehmer hat ein geringeres Investitionsrisiko, da er für die Softwareeinfüh rung keinerlei IT-Hardware benötigt. Zwei Studien der McKinsey Consulting und Yankee Group besagen, dass die Investitionskosten einer SaaS- Lösung, wie dem Cloud- Commerce, im Vergleich zu einer On-Premise-Lösung um 30 Prozent gesenkt werden können, unabhängig von der Benutzeranzahl. Ein weiterer Vorteil ist die Auslagerung der Prozesskomplexität, indem Wartungsarbeiten, Updates und weitere IT-Aufgaben durch den Servicegeber übernommen werden. Der Softwarezugriff über das Internet sorgt für eine hohe Mobilität, da der Servicenehmer zeit- und ortsunabhängig auf das System zugreifen kann. Mit einer ausgelagerten IT-Inffastruktur können sich Unter- nehmen auf ihr Kemgeschäft bzw. die Wertschöpfung konzentrieren und somit die lä stigen IT- Aufgaben umgehen. Damit ist die IT ein leicht zu handhabendes Gebrauchs- gut, um Wachstum, Flexibilität, Wettbewerbsfähigkeit und somit auch die Existenz des Unternehmens zu sichern.
Nachteile
-Abhängigkeit vom Servicegeber
-Geringere Anpassungsmöglichkeiten
-Daten- und Transaktionssicherheit
Als Nachteil von Cloud-Commerce-Software ist zu werten, dass sich die Servicenehmer in einem Abhängigkeitsverhältnis befinden, da der Kunde nicht Eigentümer der Software ist. Es besteht die Gefahr, dass der Servicegeber das System aus einem bestimm- ten Grund (z. B. bei Insolvenz) abschaltet. Die SaaS- Lösungen sind meist standardisiert, sodass es wenige Anpassungsmöglichkeiten des Funktionsumfangs gibt.
Aus Sicht des Servicegebers
Auch für den Servicegeber ergeben sich durch Cloud-Commerce Vor- und Nachteile, die nachfolgend beschrieben werden:
Vorteile
-Erweiterung des IT-Leistungsangebots und Erzielung zusätzlicher Umsatzer- löse -Längerfristig gesicherte Einnahmen und bessere Liquiditätsplanungsoption
-Geringere Wahrscheinlichkeit des Auftretens von Softwarepiraterie
Der Servicegeber hat die Möglichkeit, sein IT-Leistungsangebot zu erweitern und somit weitere Erlöse zu generieren. Da der Servicenehmer meist monatliche Gebühren für die Nutzung der Software zahlt, können längerfristiger Einnahmen gesichert und somit auch die Liquidität besser geplant werden. Außerdem werden weniger Verluste durch die Software-Piraterie erzielt, da die Software zentral beim Servicegeber verwaltet wird. Nachteile
-Investitionsrisiko
-Akzeptanzprobleme auf dem IT-Markt
-Möglicher Imageschaden und Umsatzverluste Der Cloud-Commerce- Anbieter hat das Problem des hohen Investitionsrisikos, sollte die Software vom Kunden nicht wie erwartet angenommen werden. Zudem muss er beim Kunden Überzeugungsarbeit leisten, da derzeitige Akzeptanzprobleme oft mit den Nachteilen begründet werden.
Datenschutz
Bei Cloud-Commerce liegen die Kunden- oder Umsatzdaten des Kunden nicht mehr auf eigenen Rechnern, sondern beim jeweiligen Systemanbieter. Zwischen dem Anbieter und seinem Kunden liegt regelmäßig ein Fall der Auftragsdatenverarbeitung nach § 1 1 Bundesdatenschutzgesetz (BDSG) vor. Der Kunde ist verpflichtet, den Anbieter sorgfältig auszuwählen, regelmäßig zu kontrollieren und das Ergebnis der Kontrollen zu dokumentieren. Der Kunde bleibt für die Rechtmäßigkeit der Datenverarbeitung verantwortlich. Cloud-Commerce-Unternehmen
Beispiele für Cloud-Commerce-Angebote sind z. B. Magento Go, Amazon Webstore und Shopify in den USA; Big Cartel in Großbritannien; Big Commerce in Australien; Supr.com sowie XSITE, Jimdo und Onshop.de in Deutschland.
14. Online-Datensicherung
Als Online-Datensicherung, Online-Backup oder Web-Backup bezeichnet man eine Datensicherung über das Internet. Diese erfolgt auf Datenspeichern eines Intemetdienstan- bieters in einem Rechenzentrum.
Das Verfahren entlastet den Anwender, selbst zuverlässige Datenspeicher zu beschaf fen, regelmäßig zu prüfen, zu verwalten und vor Verlust zu sichern.
Vorgehensweise
Der Kunde erhält nach Anmeldung einen Benutzernamen und ein Kennwort für den Zugang zur Datensicherung. Technische Voraussetzung ist ein Intemetzugang. Die Software für eine Datensicherung oder auch der Upload über eine Webseite sollten eine sichere Verschlüsselung gewährleisten, um die übertragenen Daten vor fremdem Zugriff zu schützen.
Weil die Datenübertragungsrate von Intemetzugängen meist nur einen Bruchteil derer von Laufwerken und Local Area Networks beträgt, kann die Software eine Datenkompression durchfuhren, soweit das möglich ist. Schon komprimiert gespeicherte Daten - zum Beispiel in den Dateiformaten ZIP, JPEG, MPEG oder MP3 - kann sie kaum wei ter komprimieren. Über einen Internetzugang mit einer Datenübertragungsrate von 1 Mbit/s können theoretisch 450 MB pro Stunde beziehungsweise 10,5 GB pro Tag übertragen werden. Dies ist beispielsweise eine mögliche Datenübertragungsrate beim Hochladen über ADSL 6000 in Deutschland. Mit schnelleren Internet -Zugängen wiez. B. per VDSL sind noch höhere Datenübertragungsgeschwindigkeiten möglich. Einige Dienstleister bieten an, größere Datenmengen mittels Festplatte oder DVDs auf dem Postweg auszutauschen, was sich insbesondere für eine größere Erst- Sicherung anbietet.
Wegen der relativ niedrigen Datenübertragungsrate kommt dem Verfahren der inkrementeilen Datensicherung, bei dem nur neue und geänderte Daten kopiert werden, be- sondere Bedeutung zu. Einige Anbieter durchsuchen mit ihrer Software Dateien nach geänderten Teilen und übertragen nur die veränderten Datenblöcke an den Datenspeicher (Block-Level). Einige erkennen, wenn Dateien nur umbenannt wurden und übertragen sie nicht erneut. Umbenannte Dateiordner und verschobene Dateien können nicht immer wiedererkannt werden, was zu erneuten Dateiübertragungen führen kann.
Manche Lösungen wie z. B. Netzdrive, Novell iFolder, Dropbox, Fabasoft Folio Cloud oder Recovery Guard bieten Merkmale wie eine Verschlüsselung von Daten auf dem Server, die Vergabe von Datei-Zugriffsrechten an bestimmte andere Nutzer oder Nutzergruppen, die Replikation von Daten auf mehrere Server und eine Versionskontrolle von Änderungen an, wodurch ähnliche Eigenschaften wie von sogenannten verteilten Dateisystemen erreicht werden. Sofern eine Einschränkbarkeit des Zugriffs besteht, überschneidet sich die Funktionalität dieser Software teilweise mit solcher zum Filesharing.
Einige Lösungen unterhalten Ihre Serverstruktur ausschließlich in Deutschland, weshalb der gesamte Datenverkehr den strengen deutschen Datenschutzgesetzen untersteht, mit der Folge zusätzlicher Sicherung gegen nicht autorisierten Zugriff.
Wenige Lösungen bieten darüber hinaus noch eine Ende-zu-Ende-Verschlüsselung, durch welche die Daten bereits lokal auf dem eigenen Rechner verschlüsselt werden und somit bereits auf dem Weg zum Server hin sicher verschlüsselt sind.
Moderne Anbieter bieten in ihrer Software nicht nur Online Backup an, sondern auch die parallele Sicherung auf lokale Medien, wie ein Bandlaufwerk oder USB Peripherie. Firmen sollten darauf achten, dass SQL-Datenbanken wie z. B. Microsoft SQL Server unterstützt werden und eine komplette Systemwiederherstellung Disaster Recovery im Fall eines Serverausfalls enthalten ist. Nützlich ist auch ein direkter, in der Online Backup Software integrierter Virenscanner, welcher die zu sichernden oder wiederherzustellenden Daten überprüft und somit die Sicherheit des Backups erhöht.
15. Blockchain
Eine Blockchain ist eine dezentrale Datenbank, die eine stetig wachsende Liste von Transaktionsdatensätzen vorhält. Die Datenbank wird chronologisch linear erweitert, vergleichbar einer Kette, der am unteren Ende ständig neue Elemente hinufügt werden (daher auch der Begriff "Blockchain" = "Blockkette"). Ist ein Block vollständig, wird der nächste erzeugt. Jeder Block enthält eine Prüfsumme des vorhergehenden Blocks.
Entwickelt wurde das technische Modell der Blockchain im Rahmen der Kryptowäh- rung Bitcoin - als webbasiertes, dezentralisiertes, öffentliches Buchhaltungssystem aller Bitcoin-Transaktionen, die jemals getätigt wurden. Die Bitcoin-Blockchain wächst stetig, da ständig neue Blöcke mit neu abgeschlossenen Bitcoin-Transaktionen hinzu- kommen. Jeder Computer, der an das Bitcoin-Netz angeschlossen ist, neue Bitcoins er- zeugt und/oder die bisher erzeugten verwaltet, verwaltet eine l :l-Kopie der vollständigen Blockchain, die Ende 2015 bereits rund 50 Gigabyte groß war. Noch ausführlichere technische Informationen zur Bitcoin-Blockchain gibt es bei Wikipedia.
Was ist was bei Blockchain, Bitcoin und Co.?
Ethereum
Eine weitere Kryptowährung, die auf dem Blockchain-Prinzip basiert. Bietet eine Plattform für programmierbare Smart Contracts. Die "Ether" werden von Fans als legitime Nachfolger der Bitcoins angesehen. Ethereum.org
Was ist überhaupt Bitcoin?
Bitcoin ist eine rein digitale Währung - begründet 2009 -, die auf einem dezentralen
Bezahl-Netzwerk basiert und die eine Blockchain als Rückgrat benötigt. Wer im Web mit Bitcoins bezahlt, zahlt geringere Transaktionsgebühren als bei traditionellen On- line-Payment-Anbietem. Ein weiterer möglicher Vorteil von Bitcoin ist, dass die Währung nicht durch eine zentrale Staatsbank oder ähnliche Einrichtung gesteuert wird. Nachteile sind die überschaubare Zahl von Akzeptanzstellen und der mittlerweile sehr hohe Aufwand, neue Bitcoins zu berechnen - entsprechend stark steigt ihr Wert.
Es existieren keine physikalischen Bitcoins, sondern nur Kontostände, die mit öffentlichen und privaten Schlüsseln verbunden sind. Diese Kontostände werden in einem öffentlichen Buchhaltungssystem abgelegt - der Blockchain -, zusammen mit allen jemals getätigten Bitcoin-Transaktionen. Die für die Verwaltung dieser massiven Datenmenge notwendige Rechenpower wird durch ein großes Netz von Computern bereitgestellt.
Was macht die Blockchain so besonders?
Die Blockchain ist die wohl größte technologische Erfindung des Bitcoin-Universums. Ohne Blockchain würde das Bitcoin-System nicht funktionieren, weil neue Bitcoins nur auf Grundlage der bisher erzeugten Bitcoins errechnet werden können und deshalb nachgehalten werden muss, was in der Vergangenheit schon passiert ist.
Dennoch muss das Blockchain-Prinzip losgelöst von Bitcoin betrachtet werden. Stellen Sie sich die Blockchain als Rohrleitung vor und Bitcoin als das Wasser, das dort durch- fließt. Oder Blockchain als Straße und Bitcoin als Auto. Der daraus folgende Clou: Auf der Grundlage der Blockchain-Technologie lassen sich neue Applikationen entwickeln und komplett neue Ökosysteme begründen.
Welche Vor- und Nachteile hat eine dezentrale Technologie wie Blockchain?
Die Dezentralisierung der IT im Allgemeinen und Blockchain im Speziellen bringt einige Vor- und Nachteile mit. Als Vorteile lassen sich anführen:
-Schutz großer Datenmengen mittels Verschlüsselung und Zugriffsverwaltung;
-Möglichkeit, große Datenmengen untemehmensübergreifend zu sammeln und analysieren;
-einfachere Verifzierung von Datenbezugspunkten;
-automatische Aufspüren von Schwachstellen in der Lieferkette, im Zahlungsverkehr und anderen Geschäftsprozessen;
-Reduktion oder Vermeidung von unnötigen Kosten für die IT-Inffastrukur;
-Reduktion der Kosten für interne und externe Finanztransaktionen, Finanzreporting und Verwaltung;
-Schaffung eines Mechanismus zur Verbesserung des Vorstandsreportings und des regulatorischen Reportings;
-Beschleunigung des Jahresabschlusses. Als Nachteile sind zu nennen:
-noch wenig individuelle Skalierbarkeit;
-geringer Datendurchsatz;
-Einschränkungen beim Speicherplatz;
-schwer zu verwaltende Berechtigungen;
-schwierige Integration mit bestehender Legacy im Unternehmen.
Wie kommt die Blockchain in der Finanzbranche schon zum Einsatz?
Schon heute ist vieles in der IT dezentralisiert - dem Internet und der Cloud sei Dank. Mit Anwendungen, die auf dem Blockchain-Prinzip basieren, kommen weiter neue Entwicklungen dazu, die dafür sorgen werden, die aufgefuhrten Nachteile nach und nach abzubauen. So basiert auch die Krypto Währung Ethereum auf dem Blockchain- Prinzip der dezentralen Rechenleistung und kann als eine Art Brücke zwischen Block- chain und Unternehmens-Systemen gesehen werden.
Die "skalierbare Blockchain-Datenbank" BigchainDB kann bis zu einer Millionen Schreibvorgänge pro Sekunde verwalten, Petabytes an Daten speichern und wartet trotzdem mit einer Latenzzeit von unter einer Sekunde auf - das alles dezentralisiert verwaltet und bei höchster Datenintegrität.
Blockchain-Anwendungsplattformen für die Finanzindustrie, die sich noch in der Ent- wicklung befinden - wie ERIS oder R3CEV - sollen die "Business-Regeln" der Block- chain-Technologie aufstellen und neue transparente, sichere und nachprüfbare Geschäftsmodelle in die IT, insbesondere der Finanzbranche, bringen. Für den CIO heißt ein solcher neuer dezentralisierter Technologiestack samt wachsendem Ökosystem, dass er seinen Aufgaben besser nachkommen kann: schnellere Fertigstellung für den Geschäftsbetrieb, eine sicherere Transaktionsabwicklung, Kostenreduzierung und engere Orientierung an regulatorischen Vorschriften.
Die Integration mit bereits bestehenden Systemen stellt noch eine Herausforderung dar, ist aber nicht unüberwindbar und lässt sich mit den durch Blockchain zu erwartenden Vorteilen sowohl für die IT als auch fürs Business sehr gut rechtfertigen.
Warum können auch andere Industrien von der Blockchain profitieren?
Die IT entwickelt zunehmend dezentrale Strukturen, weil die Anwender ihre digitalen Daten selbst im Auge behalten möchten. Durch dezentrale Systeme können Informatio- nen in einem Netz von mehreren Rechnern gespeichert werden, die über das Internet zugänglich sind. Mit dem Internet begann die Dezentralisierung der Kommunikation und jeder Mensch erhielt mehr Verfügungsgewalt über die Informationen, die er konsumiert. Im nächsten Schritt werden neben der Kommunikation auch Rechenleistung und Speicher dezentralisiert (Cloud Computing), und mit der Blockchain kommt nun ein weiteres Element hinzu. Die Blockchain befeuert Ideen, nicht nur Kryptowährungen wie Bitcoin über dezentrale Netze zu steuern, sondern auch andere digitale Inhalte wie Kunst, Musik, Texte oder Fotos.
Erste konkrete Praxisbeispiele für den Einsatz von Blockchains in verschiedenen Indu- strien haben wir im im Artikel "Blockchain im Einsatz" zusammengestellt.
Wie sehen die Blockchain- Angebote der großen IT-Konzeme aus?
Große IT-Konzeme springen auf den Blockchain-Zug auf und basteln derzeit an Software- und Service-Ökosystemen rund um die Technologie. So bietet IBM- sowieso schon länger in der Bitcoin-Initiative der Linux Foundation aktiv - innerhalb seiner Cloud Entwicklern die Möglichkeit, eigene Blockchains aufzusetzen. Dazu hat Big Blue auf seiner Entwicklerplattform Bluemix den der Bitcoin-Blockchain zugrundelie genden Hyperledger-Code zur Verfügung gestellt.
Durch die gleichzeitige Integration des Container-Dienstes Docker sei es "für Entwick- 1er mm in zwölf Sekunden möglich, eine eigene Mini-Blockchain innerhalb einer Sandbox zum Laufen zu bekommen", wie Jerry Cuomo, bei IBM für die Blockchain- Angebote zuständig, im Rahmen der Vorstellung der Services im Februar 2016 unterstrich. "Und nur eine Minute später ist dann die erste vollständige Blockchain- Applikation live."
Auch Microsoft hat den Nutzen von Blockchain erkannt und unter dem Dach von "Ethereum Blockchain as a Service" in der Azure Cloud das "Project Bletchley" gestar tet. In nächster Zeit sollen verschiedene Middleware-Tools gelauncht werden, die den Business-Nutzen von Blockchain erweitern. So spricht man beispielsweise mit "Block- chain as a Service"in erster Linie Entwickler an. Als technisches Werkzeug der Lösun gen dienen sogenannte "Cryptlets", mit deren Hilfe Anwender externe Daten in eine Blockchain einpflegen können, ohne ihre Sicherheit und Integrität zu zerstören.
Diese Cryptlets lassen sich in jeder beliebigen Prorammiersprache entwickeln und laufen analog zum IBM-Angebot innerhalb eines sicheren Containers. Microsoft sieht den Nutzen der Blockchain-Technologie vor allem in Security-relevanten Themen wie Iden- titäts-Management und Verschlüsselung und hat entsprechende Services bereits in Pro- ject Bletchley integriert.
Weitere große IT-Player wie SAP oder HPE haben die Technologie ebenfalls schon länger unter Beobachtung und evaluieren eigenen Aussagen zufolge noch die Möglichkeiten, Angebote rund um Blockchain zu entwickeln.
Eine Blockchain (auch Block Chain, englisch für Blockkette) ist eine kontinuierlich erweiterbare Liste von Datensätzen, genannt„Blöcke“, welche mittels kryptographischer Verfahren miteinander verkettet sind. Jeder Block enthält dabei typischerweise einen kryptographisch sicheren Hash (Streuwert) des vorhergehenden Blocks, [6] einen Zeitstempel und Transaktionsdaten.
Der Begriff Blockchain wird auch genutzt, wenn ein Buchführungssystem dezentral ge- führt wird und der jeweils richtige Zustand dokumentiert werden muss, weil viele Teilnehmer an der Buchführung beteiligt sind. Dieses Konzept wird als Distributed- Led- ger-Technologie (dezentral geführte Kontobuchtechnologie) oder DLT. bezeichnet.
Was dokumentiert werden soll, ist für den Begriff der Blockchain unerheblich. Ent- scheidend ist, dass spätere Transaktionen auf früheren Transaktionen aufbauen und diese als richtig bestätigen, indem sie die Kenntnis der früheren Transaktionen beweisen. Damit wird es unmöglich gemacht, Existenz oder Inhalt der früheren Transaktionen zu manipulieren oder zu tilgen, ohne gleichzeitig alle späteren Transaktionen ebenfalls zu zerstören. Andere Teilnehmer der dezentralen Buchführung, die noch Kenntnis der spä- teren Transaktionen haben, würden eine manipulierte Kopie der Blockchain daran erkennen, dass sie Inkonsistenzen in den Berechnungen aufweist.
Das Verfahren der kryptografischen Verkettung in einem dezentral geführten Buchführungssystem ist die technische Basis für Kryptowährungen, kann aber darüber hinaus in verteilten Systemen zur Verbesserung bzw. Vereinfachung der Transaktionssicherheit im Vergleich zu zentralen Systemen beitragen. Eine der ersten Anwendungen von B locke hain ist die Krypto Währung Bitcoin.
Die Funktionsweise ähnelt dem Journal der Buchführung. Es wird daher auch als „Internet der Werte“ (Internet of value) bezeichnet. Eine Blockchain ermöglicht es, dass in einem dezentralen Netzwerk eine Einigkeit zwischen den Knoten erzielt werden kann. (Siehe auch: Byzantinischer Fehler.)
Geschichte
Erste Grundlagen zur kryptografisch abgesicherten Verkettung einzelner Blöcke wurden 1991 von Stuart Haber und W. Scott Stometta, 1996 von Ross J. Anderson und 1998 von Bruce Schneier & John Kelsey beschrieben. 1998 arbeitete auch Nick Szabo an einem Mechanismus für eine dezentralisierte digitale Währung, die er„Bit Gold“ nannte Im Jahr 2000 entwickelte Stefan Konst eine allgemeine Theorie zu kryptogra- fisch abgesicherten Verkettungen und leitete daraus verschiedene Lösungen zur Umsetzung ab.
Das Konzept der Blockchain als verteiltes Datenbankmanagementsystem wurde erstmals 2008 von Satoshi Nakamoto im White Paper zu Bitcoin beschrieben. Im Jahr dar- auf veröffentlichte er die erste Implementierung der Bitcoin-Software und startete dadurch die erste öffentlich verteilte Blockchain.
Eigenschaften
Neue Blöcke werden über ein Konsensverfahren geschaffen und anschließend an die Blockchain angehängt. Das populärste Konsensverfahren ist hierbei die Proof- of- Work-Methode; es bestehen jedoch zahlreiche andere Formen, Konsens herzustellen (Proof of Stake, Proof of Capacity, Proof of Burn, Proof of Activity).
Durch die aufeinander aufbauende Speicherung von Daten in einer Blockchain können diese nicht nachträglich geändert werden, ohne die Integrität des Gesamtsystems zu be- schädigen. Hierdurch wird die Manipulation von Daten erheblich erschwert. Der dezen- trale Konsensmechanismus ersetzt die Notwendigkeit einer vertrauenswürdigen dritten Instanz zur Integritätsbestätigung von Transaktionen.
-Verkettungsprinzip: Eine Blockchain ist eine verkettete Folge von Datenblöcken, die über die Zeit weiter fortgeschrieben wird.
-Dezentrale Speicherung: Eine Blockchain wird nicht zentral gespeichert, sondern als verteiltes Register geführt. Alle Beteiligten speichern eine eigene Kopie und schreiben diese fort.
-Konsensmechanismus: Es muss sichergestellt werden, dass eine bei allen Beteiligten identische Kette entsteht. Hierfür müssen zuerst Vorschläge für neue Blöcke erarbeitet werden. Dies geschieht durch Validatoren (die bei Bitcoin„Miner“ genannt werden). Dann müssen sich die Beteiligten einigen, welcher vorgeschlagene Block tatsächlich in die Kette eingefügt wird. Dies erfolgt durch ein sogenanntes Konsensprotokoll, ein algorithmisches Verfahren zur Abstimmung.
-Manipulationssicherheit: Durch kryptographische Verfahren wird sichergestellt, dass die Blockchain nicht nachträglich geändert werden kann. Die Kette der Blöcke ist somit unveränderbar, falschungs- und manipulationssicher.
-Transparenz / Vertraulichkeit: Die auf der Blockchain gespeicherten Daten sind von allen Beteiligten einsehbar. Sie sind deshalb aber nicht unbedingt auch für alle sinnvoll lesbar, denn Inhalte können verschlüsselt abgespeichert werden. Blockchains erlauben so eine flexible Ausgestaltung des Vertraulichkeitsgrads.
-Nichtabstreitbarkeit: Durch die Nutzung digitaler Signaturen sind Informationen in der Blockchain speicherbar, die falschungssicher nachweisen, dass Teilnehmende unab- streitbar bestimmte Daten hinterlegt haben, etwa Transaktionen angestoßen haben. Bei Bitcoin besteht eine Blockchain aus einer Reihe von Datenblöcken, in denen jeweils eine oder mehrere Transaktionen zusammengefasst und mit einer Prüfsumme versehen sind, d. h., sie werden jeweils paarweise zu einem Hash-Baum zusammengefasst. Die Wurzel des Baumes (auch Merkle-Root, bzw. Top-Hash genannt) wird dann im zu- gehörigen Header gespeichert. Der gesamte Header wird dann ebenfalls gehasht; dieser Wert wird im nachfolgenden Header abgespeichert.
So wird sichergestellt, dass keine Transaktion verändert werden kann, ohne den zugehörigen Header und alle nachfolgenden Blöcke ebenfalls zu ändern.
Die Blockchain von Bitcoin ist die älteste Blockchain. Sie startete im Januar 2009, hatte Anfang Dezember 2017 eine Größe von ca. 144,5 GB und lag am
9. Dezember 2017 auf ca. 1 1.900 Knoten redundant und öffentlich zugriffsbereit vor.
Anwendungsbeispiel Auditing
Beim Auditing in der Informationstechnik geht es darum, sicherheitskritische Operationen von Softwareprozessen aufzuzeichnen. Dies betrifft insbesondere den Zugriff auf und die Veränderung von vertraulichen oder kritischen Informationen. Das Auditing eignet sich hierbei deshalb fiir eine Blockchain, weil es relativ geringe Datenmengen produziert und gleichzeitig hohe Sicherheitsanforderungen aufweist.
Eine Blockchain kann hierbei das Audit-Log (auch als Audit-Trail bezeichnet) vor Veränderung schützen. Zudem sollten die einzelnen Einträge mit einer digitalen Signatur versehen werden, um die Echtheit zu gewährleisten. Ein dezentraler Konsensmecha nismus, wie bei Bitcoin, wird nicht zwingend benötigt.
Da einerseits vertrauliche Informationen gespeichert werden und andererseits kein Element der Blockchain gelöscht werden kann, ohne diese ungültig zu machen, kann zu dem eine Verschlüsselung der einzelnen Einträge erfolgen. Da die Implementierung von Blockchains derzeit (Stand Mai 2017) mangels einfach zu verwendender Implementierungen sehr aufwändig ist, empfiehlt sich der Einsatz nur für besonders schüt- zenswerte Informationen. Einsatzbeispiele sind das Auditing bei Systemen für medizinische Informationen (z. B. Elektronische Gesundheitsakte), Verträgen und Geldtransaktionen mit hohem finanziellen Wert, militärischen Geheimnissen, der Gesetzgebung und der elektronischen Stimmabgabe, dem Sicherheitsmanagement kritischer Anlagen oder Daten von Großun- temehmen, welche unter den Sarbanes-Oxley Act oder ähnlichen Richtlinien fallen.
Wie im Juli 2018 bekannt wurde, testen die vier Wirtschaftsprüfungsgesellschaften Deloitte, KPMG, PricewaterhouseCoopers International und Emst & Young einen Blockchain-Dienst zur Prüfling der Zwischenberichte von Aktiengesellschaften. Ziel ist es, den Wirtschaftsprüfiingsunternehmen die Möglichkeit zu geben, die Geschäftsvorgänge durch eine nachvollziehbare und manipulationssichere Datenkette auf dezentrale Weise zu verfolgen, wodurch der Bestätigungsprozess optimiert und automatisiert wird.
Anwendungsbeispiel Kapitalmärkte
Die Blockchain wird auch als Anwendung in den Kapitalmärkten in Betracht gezogen. Das R3 Konsortium hat mit mehreren Finanzinstitutionen die Plattform Corda veröffentlicht, welche einen Unterbau für Blockchain- Anwendungen für Kapitalmärkte darstellen soll.
Die größten Anwendungsgebiete für Kapitalmärkte bestehen im Bereich des Settlement von Aktien und anderen Finanzinstrumenten, der Ausgabe von Konsortialkrediten und der Finanzierung von Unternehmen mit Eigenkapital.
Anwendungsbeispiel Lieferketten für Lebensmittel
Der Einsatz einer Blockchain, in der die Beteiligten die Transaktionen der Lieferkette gemeinsam dokumentieren, kann hier deutliche Kosten- und Zeiteinsparungen ermöglichen. Eine Blockchain könnte das Misstrauen gegenüber einem zentralen registerführenden Akteur aufheben, da ein Blockchain-Register für alle Teilnehmenden zugänglich ist. Die Buchführungs- und Leserechte können dabei gestuft verteilt werden, angepasst an die unterschiedlichen Nutzergruppen und deren Bedürfnisse, wie zum Beispiel Her- steiier, Spediteure, Zoii und verschiedene Verbraucherinnen und Verbraucher. Somit herrscht keine vollständige Transparenz, die Wettbewerber ausnutzen könnten. Für Endverbraucherinnen und -Verbraucher können zum Beispiel lediglich Leserechte eingeräumt werden, anhand derer die Herkunft und die gesamte Lieferkette von der Ernte über Verarbeitung, Logistik, Verzollung, Zertifizierung, Lebensmittelüberwachung, den Großhändler bis zum Einzelhandel transparent und überprüfbar nachvollzogen werden können.
Zudem gibt es Automatisierungspotenziale für die einzuhaltenden Dokumentationspflichten: So könnte beispielsweise ein im Container angebrachter Sensor die Temperatur von Lebensmitteln messen, die Messdaten in die Blockchain schreiben und so eine lückenlose Einhaltung der Kühlkette dokumentieren. Würde sie nicht eingehalten, könnte ein entsprechend aufgesetzter Smart Contract automatisch Alarm schlagen.
16. Informationelle Selbstbestimmung
Das Recht auf informationelle Selbstbestimmung ist im Recht Deutschlands das Recht des Einzelnen, grundsätzlich selbst über die Preisgabe und Verwendung seiner personenbezogenen Daten zu bestimmen. Es ist nach der Rechtsprechung des Bundesverfassungsgerichts ein Datenschutz-Grundrecht, das im Grundgesetz für die Bundesrepublik Deutschland nicht ausdrücklich erwähnt wird. Der Vorschlag, ein Datenschutz- Grundrecht in das Grundgesetz einzufügen, fand bisher nicht dieerforder liehe Mehrheit. Personenbezogene Daten sind jedoch nach Datenschutz- Grundverordnung und nach Art. 8 der EU-Grundrechtecharta geschützt.
Allgemeines
Der Begriff des informationeilen Selbstbestimmungsrechts geht zurück auf ein Gutach ten von Wilhelm Steinmüller und Bernd Lutterbeck aus dem Jahr 1971. Das informationelle Selbstbestimmungsrecht ist eine Ausprägung des allgemeinen Persönlichkeitsrechts und wurde vom Bundesverfassungsgericht im sogenannten Volkszählungsurteil 1983 als Grundrecht anerkannt. Ausgangspunkt für das Bundesverfassungsgericht ist das sogenannte allgemeine Persönlichkeitsrecht (APR), also Art. 2 Abs. 1 GG in Verbindung mit Art. 1 Abs. 1 GG. Die Selbstbestimmung bei der freien Entfaltung der Persönlichkeit werde gefährdet durch die Bedingungen der modernen Datenverarbeitung. Wer nicht wisse oder beein flussen könne, welche Informationen bezüglich seines Verhaltens gespeichert und vor- rätig gehalten werden, werde aus Vorsicht sein Verhalten anpassen (siehe auch: Panop- tismus). Dies beeinträchtige nicht nur die individuelle Handlungsfreiheit, sondern auch das Gemeinwohl, da ein freiheitlich demokratisches Gemeinwesen der selbstbestimmten Mitwirkung seiner Bürger bedürfe.„Mit dem Recht auf informationeile Selbstbestimmung wären eine Gesellschaftsordnung und eine diese ermöglichende Rechtsord- nung nicht vereinbar, in der Bürger nicht mehr wissen können, wer was wann und bei welcher Gelegenheit über sie weiß.“ [Referenz benötigt]
Das Recht auf informationelle Selbstbestimmung leitet sich nach Ansicht des Europäischen Parlamentes auch aus Art. 8 Abs. 1 der Europäischen Menschenrechtskonvention ab:„Jede Person hat das Recht auf Achtung ihres Privat- und Familienlebens, ihrer Wohnung und ihrer Korrespondenz.“- EMRK Art. 8 Abs. 1
Aufbauend auf dieser Begründung hatte das EU-Parlament gegen die EU- Kommission Klage erhoben, weil die verbindliche Speicherung der Verkehrsdaten der EU-Bürger gegen diese Regelung verstoße.
Schutzbereich
Das Recht auf informationeile Selbstbestimmung ist weit gefasst. Es wird nicht unterschieden, ob mehr oder weniger sensible Daten des Einzelnen betroffen sind. Das Bun desverfassungsgericht stellte fest, dass unter den Verarbeitungs- und Verknüpfungs- möglichkeiten der Informationstechnologie auch ein für sich gesehen belangloses Datum einen neuen Stellenwert bekommen könne und es insoweit keine belanglosen Daten gebe.
Eingriffe
Einschränkungen des Grundrechts seien zwar möglich, bedürften aber einer gesetzlichen Grundlage. Dabei habe der Gesetzgeber abzuwägen zwischen dem Geheimhal- tungsinteresse des Betroffenen und dem öffentlichen Informationsinteresse der verar beitenden Stelle.
Einschränkungen sind nur zulässig im überwiegenden Allgemeininteresse. Sie bedürfen einer gesetzlichen Grundlage, die dem Gebot der Normenklarheit entsprechen muss.
Es wird differenziert zwischen Maßnahmen, die ohne oder gegen den Willen des Betroffenen vorgenommen werden, und solchen, die freiwillig erfolgen. Für erstere muss die gesetzliche Ermächtigung auch„bereichsspezifisch, präzise und amtshilfefest“ sein (Volkszählungsurteil, BVerfGE 65, 1 )
Zudem kann man unterscheiden zwischen anonymisierten Daten, die keinen Rückschluss auf den Betroffenen zulassen (z. B. für statistische Erhebungen), und Daten, die personalisierbar sind. Bei anonymisierten Daten ist die Zweckbindung gelockert, für Daten, die personalisierbar sind, gilt eine strenge Zweckbindung. Der Gesetzgeber muss Vorkehrungen treffen, um Datenmissbrauch zu verhindern (Verfahrensvorschriften, Datenschutzbeauftragte, ...).
Auswirkungen
Das informationeile Selbstbestimmungsrecht wurde die Grundlage für die bestehenden Datenschutzgesetze wie das Bundesdatenschutzgesetz oder die Landesdatenschutzgesetze und beeinflusste auch die Entwicklung der Richtlinie 95/46/EG (Datenschutzrichtlinie).
Auch in jüngerer Zeit hat das Recht auf informationelle Selbstbestimmung in der ver- fassungsgerichtlichen Rechtsprechung eine große Rolle gespielt. So wurde die Rasterfahndung in Nordrhein- Westfalen für verfassungswidrig erklärt, sofern sie nur auf Grundlage einer„allgemeinen Bedrohungslage“ geschieht; die § 100c und
§ lOOd StPO (der sogenannte Große Lauschangriff) mussten um einen Straftatenkatalog und um explizite Löschungsvorschriften ergänzt werden (BVerfGE 109, 279). Das Recht auf Nichtwissen gilt als„negative Variante des Rechts auf informationelle Selbstbestimmung“.
Ausspähen
Das Ausspähen privater Daten aus einem staatlichen Interesse heraus ist strengen Beschränkungen unterworfen. Es bedarf nach dem Legalitätsprinzip generell der gesetzlichen Regelung und nach den Grundsätzen der Gewaltenteilung der richterlichen Anordnung. Nach bestimmter Frist muss dem Ausgespähten zudem Kenntnis über den Vorgang gegeben werden. Eine beabsichtigte Ausspähung auf Vorrat wird damit kaum in Gesetzesrang kommen.
Zuletzt hat das Bundesverfassungsgericht die gesetzlichen Regelungen des Landes Nordrhein- Westfalen als verfassungswidrig gekippt. [5] Klarstellungen des Bundesministeriums des Innern werden für die entsprechenden bundesgesetzlichen Regelungen erwartet. Siehe auch: Ausspähen von Daten
Vereinbarungen
Unter der Maßgabe der aktuellen Rechtsprechung (s. o.) bedarf jede Verknüpfung personenbezogener Daten für Zwecke Dritter der Zustimmung, wenn der Rechtsanspruch der Beteiligten nicht eingeschränkt sein soll. Dazu sind Vereinbarungen möglich, die zwischen den Beteiligten getroffen werden und damit die ausdrückliche Zustimmung der Beteiligten dokumentieren. Es kann nicht durch Vereinbarung zweier Parteien eine Gültigkeit für Dritte erreicht werden. Im Umkehrschluss kann ebenso eine Vereinbarung zwischen zwei Parteien nicht durch eine Vereinbarung mit Dritten aufgehoben oder unwirksam werden.
Insoweit ist im Zusammenhang mit neuen Techniken und Verfahrensweisen (Technologien) davon auszugehen, dass eine Verletzung der Rechte der informationellen Selbstbestimmung beispielsweise durch Einrichtungen zur Ortsbestimmung technisch möglich ist. Diese technische Möglichkeit aber generellals gesetzeswidrig auszuschlie- ßen, ist keine haltbare Position. Dies wird allein durch die bekannten Einrichtungen der Mobilfunktechnik bestätigt. Verstöße
Nutzt ein Unternehmen für den Betroffenen erkennbar persönliche Daten, hat der Betroffene generell einen Rechtsanspruch auf Auskunft über die Speicherung dieser Daten und den Verwendungszweck dieser Daten. Geht die Speicherung über einfache Adress- daten hinaus, hat der Betroffene generell einen Rechtsanspruch auf Löschung der Speicherung dieser Daten, wenn er mit dem Unternehmen keine Vertragsbeziehungen hat (siehe auch: Bundesdatenschutzgesetz: Rechte der Betroffenen).
Wird ein Unternehmen beispielsweise durch Werbeaktionen lästig, kann der Betroffene in jedem Einzelfall durch Formschreiben unter Angabe der Adresse Auskunft einholen. Erfolgt keine Auskunft durch das Unternehmen, kann der Betroffene rechtliche Mittel nutzen, um per Abmahnung durch einen Rechtsanwalt oder per Klage bei Gericht Auskunft und Löschung durchzusetzen. Die Kosten trägt zunächst der Betroffene. 17. Informationssicherheit
Information (oder Daten) sind schützenswerte Güter. Der Zugriff auf diese sollte beschränkt und kontrolliert sein. Nur autorisierte Benutzer oder Programme dürfen auf die Information zugreifen. Schutzziele werden zum Erreichen bzw. Einhalten der Informationssicherheit und damit zum Schutz der Daten vor beabsichtigten Angriffen von IT- Systemen definiert.
Allgemeine Schutzziele:
-Vertraulichkeit (englisch: confidentiality): Daten dürfen lediglich von au- torisierten Benutzern gelesen bzw. modifiziert werden, dies gilt sowohl beim Zugriff auf gespeicherte Daten, wie auch während der Datenüber- tragung.
-Integrität (englisch: integrity): Daten dürfen nicht unbemerkt verändert werden. Alle Änderungen müssen nachvollziehbar sein. -Verfügbarkeit (englisch: availability): Verhinderung von Systemausfal- len; der Zugriff auf Daten muss innerhalb eines vereinbarten Zeitrah- mens gewährleistet sein.
Weitere Schutzziele der Informationssicherheit:
-Authentizität (englisch: authenticity) bezeichnet die Eigenschaften der Echtheit, Überprüfbarkeit und Vertrauenswürdigkeit eines Objekts.
-Verbindlichkeit/Nichtabstreitbarkeit (englisch: non repudiation): Sie er- fordert, dass „kein unzulässiges Abstreiten durchgeführter Handlungen“ möglich ist. [4] Sie ist unter anderem wichtig beim elektronischen Ab- Schluss von Verträgen. Erreichbar ist sie beispielsweise durch elektronische Signaturen.
-Zurechenbarkeit (englisch: accountability):„Eine durchgeführte Hand- lung kann ei- ne Kommunikationspartner eindeutig zugeordnet werden.
-in bestimmtem Kontext (zum Beispiel im Internet) auch Anonymität
Jedes noch so gut geplante und umgesetzte IT-System kann Schwachstellen besitzen. Sind bestimmte Angriffe zum Umgehen der vorhandenen Sicherheitsvorkehrungen möglich, ist das System verwundbar. Nutzt ein Angreifer eine Schwachstelle oder eine Verwundbarkeit zum Eindringen in ein IT-System, sind die Vertraulichkeit, Dateninte grität und Verfügbarkeit bedroht (englisch: threat).
Angriffe auf die Schutzziele bedeuten für Unternehmen Angriffe auf reale Unterneh- menswerte, im Regelfall das Abgreifen oder Verändern von unternehmensinternen In formationen. Jede mögliche Bedrohung ist ein Risiko (englisch: risk) für das Unter nehmen. Unternehmungen versuchen durch die Verwendung eines Risiko managements (englisch: risk management) die Wahrscheinlichkeit des Eintretens eines Schadens und die daraus resultierende Schadenshöhe zu bestimmen. Nach einer Risikoanalyse und Bewertung der unternehmensspezifischen IT- Systeme, können entsprechende Schutzziele definiert werden. Anschließend folgt die Auswahl von IT-Sicherheitsmaßnahmen für die jeweiligen Geschäftsprozesse eines Unternehmens. Dieser Vorgang zählt zu den Tätigkeiten des IT- Sicherheitsmanagements. Eine genormte Vorgehensweise wird durch das Verwenden von IT-Standards ermöglicht.
Im Rahmen des IT-Sicherheitsmanagements findet die Auswahl und Umsetzung entsprechender IT-Sicherheitsstandards statt. Zu diesem Zweck existieren im Bereich IT- Sicherheitsmanagement verschiedene Standards. Mit Hilfe des ISO/IEC 27001- oder des IT-Grundschutz-Standards wird mit anerkannten Regeln versucht, die Komplexität soziotechnischer Systeme für den Bereich des IT- Sicherheitsmanagements zu reduzieren und ein geeignetes Maß an Informationssicherheit zu finden.
Bedeutung der Informationssicherheit
In den frühen Kindertagen des (Personal-)Computers verstand man unter Computersi cherheit die Sicherstellung der korrekten Funktionalität von Hardware (Ausfall von zum Beispiel Bandlaufwerken oder anderen mechanischen Bauteilen) und Software (richtige Installation und Wartung von Programmen). Mit der Zeit änderten sich die Anforderungen an die Computer (Internet, Speichermedien); die Aufgaben zur Computersicherheit mussten anders gestaltet werden. Somit bleibt der Begriff der Computersicherheit wandelbar.
18. Inter- und supranationales Datenschutzrecht
Vereinte Nationen
Bereits die Allgemeine Erklärung der Menschenrechte, verkündet am 10. Dezember 1948 von der Generalversammlung der Vereinten Nationen, maß der Privatsphäre der Menschen Bedeutung zu. In Art. 12 der Menschenrechtserklärung heißt es:
„Niemand darf willkürlichen Eingriffen in sein Privatleben, seine Familie, seine Wohnung und seinen Schriftverkehr [...] ausgesetzt werden. Jeder hat Anspruch auf rechtli- chen Schutz gegen solche Eingriffe oder Beeinträchtigungen.“ Obgleich die Erklärung rechtlich nicht verbindlich war und ist und die in ihr statuierten Rechte ausschließlich deklaratorischer Art sind, kann sie doch zu den Vorläufern oder gar Grundpfeilern des supranationalen Datenschutzrechts gezählt werden. Im September 2005 forderte die 27. Internationale Konferenz der Beauftragten iur den Datenschutz und den Schutz der Privatsphäre die Vereinten Nationen auf, die Rechte auf Privatsphäre („privacy“) und auf Datenschutz als Menschenrechte inhaltlich weiter auszugestalten. Europarat
Nicht zuletzt im Hinblick auf die kurz zuvor verkündete UN-Menschenrechtserklärung enthielt auch die 1950 Unterzeichnete und 1953 in Kraft getretene Europäische Menschenrechtskonvention des Europarats eine Regelung zum Datenschutz - auch wenn der Begriff damals noch nicht gebräuchlich war. Gemäß Art. 8 Abs. 1 der Europäischen Menschenrechtskonvention hat Jedermann [...] Anspruch auf Achtung seines Privat- und Familienlebens, seiner Wohnung und seines Briefverkehrs“.
Dieser - eher deklaratorisch und programmatisch zu verstehende - Satz ist noch heute gültig; in Deutschland steht er im Rang einem Bundesgesetz gleich. Nachdem die elektronische Datenverarbeitung und damit der Datenschutz in den 1970er Jahren immer mehr an Bedeutung gewannen, bereitete der Europarat eine eigene Konvention zum Datenschutz vor, die 1981 als Übereinkommen zum Schutz des Menschen bei der automatischen Verarbeitung personenbezogener Daten vereinbart wurde. Die Europäische Datenschutzkonvention, wie das Übereinkommen umgangssprachlich ge- nannt wurde, trat 1985 in Kraft. Durch die Konvention verpflichten sich die ihr beige tretenen Staaten, bei der automatisierten Datenverarbeitung bestimmte elementare Da tenschutzprinzipien zu beachten und diese im eigenen Hoheitsgebiet auch gegenüber Dritten durchzusetzen. OECD Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) formulierte 1980 Leitlinien für den Schutz des Persönlichkeitsbereichs und den grenzüberschreitenden Verkehr personenbezogener Daten. Die Leitlinien sollen insbesondere den grenzüberschreitenden Datenaustausch erleichtern. Sie stellen jedoch nur unverbindli- che Empfehlungen dar und können mittlerweile als inhaltlich überholt gelten. Praktische Bedeutung haben die OECD-Empfehlungen nicht.
Europäische Union
Das Datenschutzrecht der Europäischen Union stand bis zum Jahr 2000 vornehmlich unter dem Gedanken der Schaffung und Stärkung des gemeinsamen Europäischen Binnenmarktes. Unterschiedliche nationale Datenschutzgesetze werden dabei als mögliche Handelshemmnisse angesehen. Erst mit der Verabschiedung der Charta der Grundrechte der Europäischen Union wurde der Datenschutz als Grundrecht anerkannt.
Grundrechtecharta
Im Jahr 2000 proklamierten die Staats- und Regierungschefs der EU-Mitgliedstaaten die Charta der Grundrechte der Europäischen Union. Art. 7 der Charta gewährleistet jeder Person„das Recht auf Achtung ihres Privat- und Familienlebens, ihrer Wohnung sowie ihrer Kommunikation“. Art. 8 der Charta statuiert darüber hinaus ein Recht auf Schutz von personenbezogenen Daten. Der Datenschutz wurde damit auf Ebene der Europäischen Union ausdrücklich als Grundrecht anerkannt. Durch den Vertrag von Lissabon wurde die Grundrechtecharta für die EU und ihre Mitgliedstaaten verbindliches Recht. Art. 16 Abs. 1 des Vertrags über die Arbeitsweise der Europäischen Union legt fest, dass jede Person das Recht auf Schutz der sie betreffenden personenbezogenen Daten hat.
Private und öffentliche Unternehmen sind heute in allen Bereichen ihrer Geschäftstätig- keit, Privatpersonen in den meisten Belangen des täglichen Lebens auf IT-Systeme angewiesen. Da neben der Abhängigkeit auch die Risiken für IT- Systeme in Unterneh- mungen in der Regel größer sind als für Computer und Netzwerke in privaten Haushalten, ist Informationssicherheit überwiegend Aufgabe von Unternehmen.
Entsprechende Verpflichtungen lassen sich im gesamten deutschsprachigen Raum aus den verschiedenen Gesetzen zum Gesellschaftsrecht, Haftungsrecht, Datenschutz, Bankenrecht usw. herleiten. Dort stellt Informationssicherheit einen Baustein des Risikomanagements dar. International spielen Vorschriften wie Basel II und der Sarbanes- Oxley Act eine wichtige Rolle. Kritik am Datenschutzrecht
Das geltende Datenschutzrecht kann seinen Zweck heute nur noch unvollkommen erfüllen. Es beruht in seinen grundsätzlichen Strukturen auf dem Datenschutzkonzept der 1970er Jahre, das sich wiederum an der elektronischen Datenverarbeitung der damaligen Zeit orientiert. Diese war durch die zentrale Datenspeicherung auf Großrechnern, beschränkte Speicherkapazitäten und einen relativ kleinen Kreis von
- meist staatlichen - Datenverarbeitern gekennzeichnet.
Die technische Entwicklung der letzten 30 Jahre hat das staatliche Datenschutzrecht nur zum Teil und mit erheblicher Verzögerung berücksichtigt. Technische Neuerungen, die den Datenschutz beeinträchtigen können - beispielsweise Internet, Videoüberwachung, Biometrie, RFID - sind gesetzlich nicht oder nur unzureichend geregelt. Daran haben auch zahlreiche Gesetznovellierungen nichts ändern können.
Zudem gilt insbesondere das deutsche Datenschutzrecht als„überreguliert, zersplittert, unübersichtlich und widersprüchlich“ (Alexander Roßnagel). Heute können selbst Fachleute das Datenschutzrecht nicht mehr in ihrer Gesamtheit überblicken. Hinzu kommt ein„massives Vollzugsdefizit im Datenschutz“ (Johann Bizer): Verstöße gegen Datenschutzregelungen haben meist keine Konsequenzen, weil die betroffenen Personen von einer missbräuchlichen Datenverarbeitung in der Regel keine Kenntnis haben und die staatlichen Datenschutzbehörden nicht über die notwendigen personellen Ressourcen verfugen, um die Datenverar beiter effektiv zu kontrollieren. 19. Intemetkriminalität
Intemetkriminalität sind Straftaten, die auf dem Internet basieren oder mit den Techniken des Internets geschehen. Dies ist nicht zu verwechseln mit Computerkriminalität, bei der primär der Computer, auch ohne Internetnutzung, als Tatwaffe eingesetzt wird. Den Schutz vor Internetkriminalität nennt man auch Onlinesicherheit. Dieser Begriff ist zu unterscheiden von Internetsicherheit, zu dem auch der Schutz der Infrastruktur selber gehört, also auch der Schutz vor Straftaten gegen das Internet selbst, online oder materiell, aber auch vor sonstigen Gefahren, als Teil der IT-Sicherheit. Erscheinungsformen
Die Erscheinungsformen sind sehr vielfältig; Beispiele sind Internetbetrug, das Ausspähen von Daten, Verstöße gegen das Verbreitungsverbot oder den Jugendmedienschutz, Identitätsdiebstahl, Urheberrechtsverletzung, CyberTerrorismus, Cyber-Mobbing, Volksverhetzung sowie das Verbreiten von Kinderpornographie.
Der Übergang zu Methoden und Verfahren des Cyberwar („Netzkrieg“) ist mittlerweile fließend geworden; im Einzelfall ist durchaus nicht ohne weiteres auszumachen, ob ein Angriff im Netz einschlägig kriminellen Zielen dient oder militärisch bzw. politisch intendiert ist (etwa bei einer weitreichenden Sabotage des stark ITK-abhängigen Finanz- Systems oder der Webpräsenzen öffentlicher Einrichtungen im weitesten Sinn). Den Beobachtungen zufolge professionalisiert sich die„Malware-Branche“ zunehmend, die Angriffe auf Rechner und Rechnernetze werden immer ausgefeilter.
Laut Antivirensoftware-Entwickler stieg z. B. die Infektion von Rechnern mit Schad- Software, die zum Identitätsdiebstahl dient (etwa der Ausspähung von Bankkontendaten), vom ersten zum zweiten Halbjahr 2008 um 800 Prozent.
Im Bankenbereich nehmen neben Online- Attacken auf die Konten von Privatkunden vor allem die Angriffe direkt auf das Interbankengeschäft mit Hilfe gefälschter Versio- nen von Zahlungsaufträgen zu. Die dabei verwendete Schadsoftware dringt dabei in das Netz der angebundenen Institute ein und verursacht jährliche Schäden von zig Millio nen Dollar.
Zielobjekt des CEO Fraud sind Firmen, die laut einer FBI-Verlautbarung von 2015 um über 740 Mio. Dollar geprellt wurden.
Technischer Fortschritt
Beinahe schon seit der allgemeinen Etablierung des Internets seit den 1990er Jahren und der zunehmenden Elektronisierung weiter Felder des öffentlichen Lebens, vor allem auch auf wirtschaftlichem Gebiet, liefern sich Kriminelle und Sicherheitsexperten einen Hase- und Igel- Wettlauf auf den unterschiedlichsten Feldern, das bislang meist mit einem„positiven Patt“ für die Sicherheit ausging. In jüngster Zeit (2010er Jahre) werden die Methoden der Cyberverbrecher zusehends raffinierter und elaborierter (was z. B. auch für viele Virenprogrammierer gilt, deren Produkte unterdessen ein erstaunliches, im Einzelfall beängstigendes technisches Niveau erreicht haben.
Nach Aussage des US-Telekommunikationsdienstleisters Verizon Business sei es Kriminellen in den Vereinigten Staaten gelungen, die Verschlüsselung beim Übertragen von PIN-Codes zu knacken. Dabei konnten die Hacker sowohl an verschlüsselte als auch an unverschlüsselte PINs gelangen. Fachleute gehen Medienberichten zufolge da- von aus, dass das Problem nur gelöst werden kann, wenn die Finanzindustrie den elektronischen Zahlungsverkehr insgesamt überholt.
Situation in Deutschland
Für seinen von HP Enterprise Security gesponserten Bericht 2014 zu den Kosten von Intemetkriminalität befragte das Ponemon Institute ein repräsentatives branchenüber- greifendes Sample von 46 Betrieben in Deutschland. Die Umfrage ergab eine durch schnittliche Schadenhöhe von 6,1 Mio.€, mit einer Spannbreite von 425 Tsd.€ bis 20,2 Mio.€ pro Jahr. Phishing, Social Engineering und Web-Attacken machten mehr als 35 % der Kosten aus.
Das Bundeskriminalamt (BKA) hat im Jahr 2012 in Deutschland 229.408 Straftaten festgestellt, auf die das Merkmal„Tatmittel Internet“ zutraf. „Phishing“ bildet laut BKA trotz eines Rückgangs der Fallzahlen um 46 % weiterhin „im Hinblick auf das vorhandene Schadenspotenzial und die Lukrativität für die Täterseite weiterhin einen Schwerpunkt im Bereich Cybercrime.“ Knapp 3.500 Fälle will das BKA 2012 ermittelt haben, bei einer durchschnittlichen Schadenshöhe von ca. 4.000 Euro pro Fall. Für den Rückgang wird Sensibilisierung der Anwender, verstärkte Schutzmaßnahmen und effektives IT-Management verantwortlich gemacht.
Aktuell sind Smartphones weiterhin ein interessantes Ziel für Kriminelle. Nutzer setzen diese immer vielfältiger wie z. B. für Onlinebanking, zur Autorisierung von Transaktio- nen, zum unmittelbaren Zugriff auf E-Mail-Konten und Konten sozialer Netzwerke oder gar zur Nutzung geschäftliche Daten ein und seien sich der mobiler Betriebssysteme unzureichend bewusst.
Die Zahl der Straftaten, die mit dem Tatmittel Internet begangen wurden, ist im Jahr 2016 leicht gestiegen. Im Vergleich zum Vorjahr (244.528 Fälle) wurden 2016 insgesamt 253.290 Fälle erfasst. Dazu gehören Delikte wie Waren- und Warenkredit betrug, Computerbetrug, Leistungs- und Leistungskreditbetrug, die Verbreitung pornografischer Schriften und Straftaten gegen die Urheberrechtsbestimmungen. Wie die Infogra- fik der Polizei zeigt, entfielen allein 27,8 Prozent der Fälle auf den Warenbetrug; beach- tenswert ist auch der Anteil von 20,7 Prozent beim Warenkreditbetrug. Waren- und Wa renkreditbetrug machen somit fast die Hälfte aller Fälle aus. Von den 101.654 Tatverdächtigen waren 68,7 Prozent männlich und 31 ,4 Prozent weiblich. Die Aufklärungsquote lag bei 65 Prozent. [13] Die Polizeiliche Kriminalstatistik wies 2007 allerdings auch einen erheblichen Anstieg bei Urheberrechtsverletzungen aus: um 54,6 Prozent auf 32.374 Fälle. Dafür wurde vor allem das verschärfte Vorgehen der Musikindustrie gegen illegales Herunterladen von urheberrechtlich geschützten Daten verantwortlich gemacht.
Es gibt auf Online-Plattformen eine Zunahme von betrügerischen Fakeshops, bei denen bezahlte Ware nicht oder nicht in der bestellten Qualität geliefert wird. Die Kriminalsta- tistik der Polizei für das Jahr 2015 weist für Deutschland fast 75.000 Fälle von Warenbetrug im Internet aus. Das deutsche Bundeskriminalamt nennt dies ein
„Massenphänomen, das die Strafverfolgungsbehörden vor große Herausforderungen stellt“.
Nach einer BITKOM-Studie sind bis Mitte 2008 fast vier Millionen Deutsche schon einmal Opfer von Computer- oder Internetkriminalität geworden. Sieben Prozent aller Computemutzer ab 14 Jahren haben demnach bereits einen finanziellen Schaden etwa durch Viren, bei Online-Auktionen oder durch Datenmissbrauch beim Onlinebanking erlitten. Beklagt wurde gleichwohl das geringe Sicherheitsbewusstsein der Nutzer.[16] In seinem auf der CeBIT vorgestellten Bericht Die Lage der IT- Sicherheit in Deutsch land 2009 hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) seine Be sorgnis über die wachsende Internetkriminalität ausgedrückt; die Situation wurde als „überaus ernst“ und„schlimmer als befürchtet“ eingeschätzt.
Der unbesorgte Umgang mit Daten in den„Mitmach“-Anwendungen des Webs, vor allem in den immer beliebter werdenden sozialen Netzwerken, schreckt Sicherheitsexperten demnach besonders auf.„Bedenkenlos geben Anwender in ihren Benutzerprofilen detailliert private Informationen preis. Dabei vergessen sie oft, dass Informationen im Netz praktisch jedermann zugänglich sind und es auch bleiben“, heißt es in der BSI- Studie.
Botnets, mittels derer Cyber-Kriminelle oftmals hunderttausende gekaperter Privat- und Bürorechner ohne Wissen der Benutzer vernetzen und missbrauchen, laut BSI „Teil einer professionell und international aufgestellten Schattenwirtschaft“, haben sich unterdessen zu einer herausragenden Bedrohung entwickelt. Seit 2007 kam es zu einer Reihe prominenter Aufdeckungen (vgl. GhostNet; Trojaner).
Bei einer jüngst veröffentlichten Forsa-Umfrage im Auftrag der Schufa aus dem Jahr 2018 gaben 39 Prozent der Befragten an, selbst schon einmal Opfer von Internetkrimi- nalität geworden zu sein, 12 Prozent wurden dabei konkret Opfer von Identitätsmissbrauch im Internet. Bekämpfung der Internetkriminalität
Wegen der erheblich gestiegenen Gefahren hat die Europäische Kommission Ende März 2009 deshalb einen Fünf-Punkte-Plan zum Schutz kritischer Informationsinffa- Strukturen in den Mitgliedsstaaten der Europäischen Union vorgestellt.
Neben einer forcierten Koordination zwischen den Mitgliedstaaten sieht er vor:
-Prävention und Abwehrbereitschaft
-Erkennung und Reaktion; Einrichtung eines Frühwarn- und Informationsnetzes -Folgenminderung und Wiederherstellung
-Internationale Zusammenarbeit
-Aufstellung von einheitlichen Kriterien für europäische kritische IKT-Infrastrukturen
Die Europäische Agentur für Netz- und Informationssicherheit (ENISA) soll laut EU- Kommission die Initiative vorantreiben. Die Kommission werde zudem zusammen mit den Mitgliedstaaten„einen Fahrplan zur Förderung von Grundsätzen und Leitlinien auf globaler Ebene ausarbeiten. Als Mittel zur globalen Konsensbildung wird die strategische Zusammenarbeit mit Drittstaaten gefordert, vor allem in den Dialogen zu Themen der Informationsgesellschaft.“
Übereinkommen über Computerkriminalität (Cybercrime-Konvention)
Bereits am 23. November 2001 Unterzeichneten die 26 Länder des Europarats neben den USA, Kanada, Japan und Südafrika das„Übereinkommen über Computerkriminalität“, auch „Budapester Konvention gegen Datennetzkriminalität“ oder kurz Cy- bercrime-Konvention genannt, um die länderspezifischen Computerstrafrechtsregelungen anzugleichen. Unter anderem sollen Intemetanwender oder Domain-Besitzer grenzüberschreitend identifiziert oder Web- Sites, deren Inhalte gegen die Konvention verstoßen, grenzüberschreitend aus dem Netz entfernt werden können. Rechte unverdächtiger Dritter sind nicht gesondert geschützt. Rassistische bzw. fremdenfeindliche Inhalte sind auf US- Wunsch mit Hinweis auf die Meinungsfreiheit nicht berücksichtigt. Das Übereinkommen repräsentiere zudem„einen Markstein im Vertragssystem des Eu- roparates zur Bekämpfung von Terrorismus und organisiertem Verbrechen“ (Hans Christian Krüger, damals stellvertretender Generalsekretär des Europarates).
Ein rund um die Uhr tätiges internationales Kontaktnetzwerk zur raschen Amtshilfe wurde eingerichtet.
Deutschland
Zur Bekämpfung der Internetkriminalität wurde in Deutschland beim Bundeskriminalamt das Technische Servicezentrum Informations- und Kommunikationstechnologien (TeSIT) aufgebaut, dessen vornehmliche Aufgabe es nach Angaben des Innenministeri- ums ist,„technische Unterstützung bei Exekutivmaßnahmen und Ermittlungen in Da tennetzen zu leisten“.
Dem TeSIT ist zudem die Anfang 1999 eingerichtete Zentralstelle für anlassunabhängige Recherchen in Datennetzen (ZaRD) zugeordnet. Das Bundeskriminalamt wertet ei- genen Angaben zufolge das Internet„rund um die Uhr systematisch und anlassunabhängig auf polizeilich relevante - insbesondere kinderpornographische - Inhalte aus und fuhrt gegebenenfalls die Beweiserhebung, -Sicherung und - dokumentation durch“. Es wird auf„eine beachtliche Zahl“ von Fahndungserfolgen verwiesen. Hervorgehoben wird auch,„dass die Polizei mit der rasanten technischen Entwicklung Schritt halten muss“. Bei der Verfolgung sei es jedoch ein großes Problem, dass Täter global agieren könnten, Behörden jedoch nur national und regional begrenzt.
Auch die Polizeien der einzelnen Bundesländer sind an der Bekämpfung der Internetkriminalität beteiligt. Beispielsweise besteht seit 2009 beim Landeskriminalamt Nieder sachsen eine„Zentralstelle Internetkriminalität“ mit 20 Mitarbeitern.
Der Bund Deutscher Kriminalbeamter (BDK) und die Stiftung Deutsches Forum für Kriminalprävention (DFK) haben unter Mitarbeit von Vertretern aus Forschung und Wirtschaft im Juni 2009 der Bundesregierung ein fertiges und sofort umsetzbares Konzept für mehr Sicherheit im Internet vorgelegt. Es handelt sich um das Online- Angebot Web Patrol unter dem Motto Der 8. Sinn im Netz. Grund dafür sind ungefilterter Internetzugänge mit Inhalten wie Pornographie, Pädophilie, Islamismus, Rechts- und Linksextremismus, Terrorismus, die für Kinder und Jugendliche frei verfügbar sind. Web Patrol beinhaltet ein Informationsportal das zielgruppenorientiert über Fragen der Sicherheit und des Verhaltens informieren soll und ein Programm, das in der Lage ist verdächtige Inhalte direkt zu melden. Internetnutzer sollen so durch einfaches Anklik- ken eines zusätzlichen Buttons im Browser mittels einer automatisch generierten Meldung Erkenntnisse über suspekte Inhalte, fragwürdige Umtriebe, Datenklau, Übergriffe in Chatrooms und strafrechtlich relevantes Material an eine unabhängige Clearingstelle, die sich aus einem interdisziplinären Team aus Kriminalisten, Psychologen und Soziologen zusammensetzt, übermitteln können.
Diese bewertet eingehende Meldungen gibt eine erste Rückmeldung und leitet den Vorgang an zuständige Institutionen weiter. [26] Da das Internet zunehmend als Medium für die Vorbereitung und die Ausführung abweichenden Verhaltens bis hin zur Durchführung krimineller Taten genutzt werde und nicht sensibilisierte Personen ein leichtes Op- fer für Internetkriminelle würden oder selbst durch die Möglichkeiten des Internets zu kriminellen Taten angeregt würden, fordert der BDK, das Modell noch vor der nächsten Legislaturperiode umzusetzen.
20. Computerkriminalität
Der Begriff Computerkriminalität oder Cyberkriminalität (engl. Cybercrime) umfasst
„alle Straftaten, die unter Ausnutzung der Informations- und Kommunikationstechnik (luK) oder gegen diese begangen werden“.
Definition
Es gibt keine allgemein gültige Definition des Begriffs Computerkriminalität. Gewöhnlich sind darunter alle Straftaten zusammengefasst, die unter Ausnutzung der Informations- und Kommunikationstechnik oder gegen diese begangen werden. Im polizeilichen Bereich wird darüber hinaus zwischen Computerkriminalität im engeren Sinn und Computerkriminalität im weiteren Sinn unterschieden.
Cyberkriminalität lässt sich dabei unterscheiden in: -Computerkriminalität im engeren Sinne, für diese Straftaten wird lediglich ein Computer mit oder ohne Internetnutzung als Tatwaffe eingesetzt
-Intemetkriminalität, diese Straftaten basieren auf dem Internet oder gesche- hen mit den Techniken des Internets
Die Unterscheidung ist, dass unter Internetkriminalität auch viele Straftaten und Verge hen fallen, die auch ohne Internet möglich wären (unter anderem Verbreitung verbotener Inhalte, Belästigung), während Computerkriminalität sich in diesem Sinne speziell auf den Kontext der elektronischen Daten bezieht.
Cybercrime im engeren Sinne bezieht sich gemäß dem Deutschen Bundeskriminalamt (BKA) auf„spezielle Phänomene und Ausprägungen dieser Kriminalitätsform, bei denen Elemente der elektronischen Datenverarbeitung (EDV) wesentlich für die Tatausführung sind“.
Der Begriff Computerkriminalität im weiteren Sinne wird in Deutschland umgangssprachlich auch für im Zusammenhang mit Computern stehende Handlungen verwandt, die zwar keine Straftaten, jedoch rechtswidrige Handlungen darstellen. Dabei hängt die Zuordnung zu den jeweiligen Bereichen insbesondere davon ab, ob am entsprechenden Tatort einschlägige Strafvorschriften existieren.
Formen
Zu Cybercrime im engeren Sinn zählt das Cybercrime Bundeslagebild 2011 des deut schen Bundeskriminalamts:
-Ausspähen, Abfangen von Daten einschließlich Vorbereitungshandlungen
-Computerbetrug, Betrug mit Zugangsberechtigungen zu Kommunikations- diensten -Computersabotage
-Datenveränderung
-Fälschung beweiserheblicher Daten
-Täuschung im Rechtsverkehr bei Datenverarbeitung (§ 270) Das österreichische Bundeskriminalamt fast ebenfalls darunter Straftaten, bei denen Angriffe auf Daten oder Computersysteme unter Ausnutzung der Informations- und Kommunikationstechnik begangen werden (beispielsweise Datenbeschädigung, Hakking, DDoS -Attacken).
Zur Computerkriminalität im weiteren Sinne zählen in Deutschland alle Straftaten, bei denen die EDV zur Planung, Vorbereitung oder Ausführung eingesetzt wird. Diese erstrecken sich mittlerweile auf nahezu alle Deliktsbereiche, in denen das Tatmittel Inter net eingesetzt wird. Beispielsweise:
-alle Ausprägungen digitaler Erpressung
-Urheber- und Markenrechtsverletzung
-unerlaubte Veranstaltung eines Glücksspiels
-der Vertrieb verbotener Substanzen
-der Austausch von kinderpornographischen Darstellungen oder Gewalt ver- herrli- ehender Propaganda oder
-die Verletzung des höchstpersönlichen Lebensbereichs durch Bildaufnahmen
-die onlinebasierte Anbahnung eines sexuellen Missbrauches von Kindern - dem sog.
Cyber-Grooming Diese Delikte werden in der Polizeilichen Kriminalstatistik (PKS) nicht unter dem Begriff Cybercrime registriert, sondern mit speziellen PKS-Schlüsselnummern.
In Österreich versteht man unter Straftaten der Computerkriminalität im weiteren Sinne, Delikte bei denen die Informations- und Kommunikationstechnik zur Planung, Vorbereitung und Ausführung für herkömmliche Kriminalstraftaten eingesetzt wird, wie bei- spielsweise Betrugsdelikte, Kinderpornografie und Cyber-Mobbing.
Fallzahlen in Deutschland
Gemäß BKA-Lagebild wurden 2012 insgesamt 63.959 Fälle von Cybercrime im engeren Sinn erfasst.
Die Fälle von Computerbetrug (24.817) sind gegenüber 201 1 um 7, 13 % gefallen, auch „Betrug mit Zugangsberechtigung zu Kommunikationsdiensten“ (2.952) haben 2012 um rund 38 % abgenommen. Bei den Delikten„Fälschung beweiserheblicher Daten, Täuschung im Rechtsverkehr bei Datenverarbeitung“ (8.539) ist eine Zunahme um rund 1 1 % zu verzeichnen. Während die„Straftaten durch Ausspähen, Abfangen von Daten einschließlich Vorbereitungshandlungen“ 16.794 Fälle ausmachten. Delikte„Datenver- änderung/ Computersabotage“ (10.857) sind gegenüber 201 1 um fast 140 % gestiegen. Mit einem Anteil von rund 39 % ist Computerbetrug die größte Straftatengruppe aller im Lagebild ausgewiesenen Fälle.
Computerkriminalität im weiteren Sinn bezieht über die unter Cyberkriminalität sub- sumierten Straffalle hinaus auch die Intemetkriminalität ein. Welche Bedeutung das Tatmittel Internet "gewonnen" hat, zeigt sich daran, dass Internetkriminalität mit 229.408 Fällen fast 10-mal so viele Fälle aufweist, wie Cybercrime im engeren Sinn. Allein Phishing in Zusammenhang mit Onlinebanking verursachte 2012 einen Gesamt schaden von 13,8 Mio.€.
Durch Cybercrime verloren bereits 2/3 der deutschen Unternehmen Firmengeheimnisse. Damit steht Deutschland auf Platz 2, hinter den USA und vor Frankreich.
Situation in der Schweiz
Mit der Ratifikation der Europaratskonvention über die Cyberkriminalität beteiligt sich die Schweiz an der verstärkten internationalen Bekämpfung der Computer- und Internetkriminalität. Die Konvention trat für die Schweiz am 1. Januar 2012 in Kraft. Zum gleichen Zeitpunkt hat der Bundesrat die erforderlichen Gesetzesanpassungen in Kraft gesetzt. Der Straftatbestand des unbefugten Eindringens in eine elektronische Datenverarbeitungsanlage (EDV) („Hacking“, Art. 143 bis 147 schweizerisches StGB) liegt nun im Bereich der Strafbarkeit. Auch werden neu bereits das Zugänglichmachen und das in Umlaufbringen bringen von Passwörtern, Programmen und anderen Daten unter Strafe gestellt, wenn der Betreffende weiß oder in guten Glauben davon ausgehen muss, dass diese für das illegale Eindringen in ein geschütztes Computersystem verwendet werden können (Siehe Hackerparagraph, bezogen auf Deutschland § 202c deutsches StGB). In der Schweiz ist es die schweizerische Koordinationsstelle zur Bekämpfung der Internetkriminalität (KOBIK) welche Statistik über verfolgte Computerverbrechen führt und diese in einem jährlichen Rechenschaftsbericht veröffentlicht. Für das Geschäftsjahr 2012 wurden im Mai 2013 die aktuelle Statistik veröffentlicht. Über das Onlineformular auf der Webseite wurden 8242 Meldungen abgegeben, verglichen zum Vorjahr ist das ein Anstieg von 55 %. Zum ersten Mal seit Bestehen von KOBIK überholte die Anzahl der Meldungen über strafbare Handlungen gegen das Vermögen (3260 Meldungen) die der Meldungen über strafbaren Handlungen gegen die sexuelle Integrität (3083 Mel- düngen). In deutlich geringerem Umfang wurden strafbare Handlungen gegen Leib und Leben (99 Meldungen) und strafbare Handlungen gegen den öffentlichen Frieden (85 Meldungen) verübt. Dabei sei zu bemerken, dass die eingegangen Meldungen mit 80 % strafrechtlicher Relevanz von guter Qualität sind. Situation in Österreich
Im Jahr 2013 verzeichnete das österreichische Bundeskriminalamt 1 1.199 angezeigte Fälle von Cybercrime. Aufgeklärt wurden 17,8 %. 421 Fälle davon betreffen Datenverarbeitungsmissbrauch mit Bereicherungsabsicht inklusive gewerbsmäßigem betrügerischem Datenmissbrauch, bei dem Daten eingegeben, verändert, gelöscht, unterdrückt oder auf andere Art der Datenverarbeitungsablauf gestört wird (§ 148a StGB). Unter diesen Paragraphen fallen auch Phishing und Malware-Angriffe. Die Funktionsfähigkeit eines Computersystems gemäß § 126b StGB wurde 2013 in Österreich in 470 Fällen gestört und zur Anzeige gebracht. Unter diesen Paragraphen fallen auch DDoS-Attacken. Der widerrechtliche Zugriff auf Computersysteme ist in Österreich in § 1 18a StGB geregelt. 2013 wurden 391 Fälle angezeigt. 45,6 Prozent der Tatverdächtigen sind zwischen 26 und 40 Jahre alt, 26,9 % der Tatverdacht igen sind über 40. Die Täter stammten zu 58,3 Prozent aus dem österreichischen Inland. 468 Tatverdacht ige wurden in Deutschland geortet, 373 in Serbien, 176 in Nigeria. Man versucht, die Arbeit zur Bekämpfung von Computerkriminalität in Österreich zu professionalisieren, um der zunehmenden Professionalisierung der Täter gegenübertreten zu können. Deshalb wurde im österreichischen Bundeskriminalamt ein Cybercrime- Competence-Center (C4) eingerichtet. Die Ermittler und IT- Forensiker werden auf in- ternationale Schulungen geschickt, wie etwa der International Association for Computer Informations Systems (IACIS) und der European Cybercrime Training and Education Group (ECTEG). Im Sommer 2013 wurde aufgrund eines Hinweises vom FBI im Rahmen der Europol-Operation "BlackShades" 19 tatverdächtige Hacker festgenommen. Schäden
Gemäß Lagebild werden in der deutschen Kriminalstatistik (PKS) nur die Schadens summen bei den Straftaten "Computerbetrug" und "Betrug mit Zugangsberechtigungen zu Kommunikationsdiensten" erfasst. Diese Schäden sind 201 1 um rund 16 % auf rund 71,2 Mio. Euro gestiegen (2010: 61,5 Mio. Euro). Davon entfallen 201 1 rund 50 Mio. Euro auf den Bereich Computerbetrug und rund 21 ,2 Mio. Euro auf den Betrug mit Zugangsdaten zu Kommunikationsdiensten. Für Phishing im Bereich Onlinebanking hat das BKA eine durchschnittliche Schadenssummen errechnet: für 201 1 rund 4.000 Euro pro Fall und insgesamt 25,7 Mio Euro. Vergleicht man die errechnete (ungefähre) Schadenssumme mit der von 15,7 Mio Euro für 2007, so ergibt sich ein Anstieg von 35 %. Angesichts des "vorhandenen Schadenspotenzials und der Lukrativität für die Täterseite" bildetPhishing "weiterhin einen Schwerpunkt im Bereich Cybercrime" (gemeint ist: Computerkriminalität im weiteren Sinn - der Verf.).
Die Schaffung einer europaweiten„European cybercrime Plattform“ gehört zu den Handlungsfeldern der„Digitalen Agenda“. Gemäß Symantec ist Deutschland (2012) "mit einem Schaden durch bösartige Software von 24 Milliarden Euro die Nr. 1 in Europa"; weltweit entstand ein "Schaden von 284 Milliarden Euro", so die Sicherheits-Managerin Orla Cox von Symantec, Dublin. Gegenmaßnahmen
In verschiedenen Ländern wurden inzwischen spezielle Polizeieinheiten mit der Bekämpfung von Computerkriminalität beauftragt. Europol hat seit 2013 eine eigene Abteilung zur Koordination der Zusammenarbeit eingerichtet, das Europäische Zentrum zur Bekämpfung der Cyberkriminalität (EC3). In Deutschland wurden seit 2014 bei den Landeskriminalämtern und beim Bundeskriminalamt sogenannte Zentrale Ansprechstellen Cybercrime (ZAC) eingerichtet.
21. Darknet
Darknet (englisch für„Dunkles Netz“) beschreibt in der Informatik ein Peer-to-Peer- Overlay-Netzwerk, dessen Teilnehmer ihre Verbindungen untereinander manuell her- stellen. Dieses Konzept steht im Gegensatz zu konventionellen Peer-to-Peer- Netzwerken, bei denen zumeist die Verbindungen zu den Clients fremder Personen automatisch und willkürlich initiiert werden. Im Ergebnis bietet ein Darknet ein höheres Maß an Si- cherheit, da einem Angreifer der Zugriff auf das Netzwerk nicht ohne weiteres möglich ist— oder er im Idealfall gar nichts von der Existenz des Netzwerks weiß. Um neue Personen in ein Darknet zu integrieren, müssen diese gewöhnlich von Teilnehmern eingeladen oder akzeptiert werden. Stellenweise ist dies auch nur Teilnehmern möglich, die über Privilegien verfügen.
Überblick
Die Daten werden häufig verschlüsselt übertragen und gespeichert. Ihre Anwendung reicht von normalem Datenaustausch zwischen Privatpersonen über kleine Tauschbör- sen-Netzwerke für Musik und Filme bis hin zur Vernetzung von Regimekritikern. Um dem Vorwurf der Nutzung beispielsweise zur Urheberrechtsverletzung durch Musik- tausch zu begegnen, wird von Darknet- Betreibern betont, dass die Meinungsfreiheit, besonders in Zensurländern wie China, durch solche Netzwerke gestärkt werden kann.
Arbeitsweise
Der Einstieg ins Darknet mit dem Tor Browser
Falls das Netz dem Filesharing dient, bezeichnet Darknet eine Art von Friend-to- ffiend-Netzwerk (F2F). Die meisten Filesharingprogramme sind keine Darknets, da die Knoten (Peers) mit jedem anderen Knoten (öffentliche, ungeprüfte peers) im Netzwerk kommunizieren können.
Ein Freund-zu-Freund-Netzwerk unterscheidet sich von einem Darknet insofern, als ein Freund-zu-Freund-Netzwerk die Weiterleitung von Dateien auch an die Freunde der Freunde unterstützt, die IP-Adressen der Freunde jedoch den Freunden nicht ersichtlich sind. Ein F2F-Netzwerk muss daher dezentral organisiert sein (man kennt die IP- Adressen der Freunde, aber deren Freunde nicht), ein Darknet kann auch zentral organisiert sein (das heißt, auch ein Hub mit allen Freunden könnte ein Darknet sein; hier kennen jedoch alle die IP-Adressen von allen).
Die vielleicht bekannteste Darknet-Software ist WASTE von Nullsoft. Ein echtes F2F- Netzwerk kann über den Instant Messenger Turtle F2F errichtet werden, der auch File sharing über den Client giFT erlaubt. Dabei kennt man als Teilnehmer - anders als WASTE im Broadcasting-Modus - die Freunde der Freunde nicht. In Turtle wird somit ein Schildkröten-Netzwerk gegründet, in dem sich nur Verbindungen etablieren lassen, die von geprüften Freunden kommen. Turtle scheint jedoch nicht weiter entwickelt zu werden, ähnliche Ansätze werden aber auch von RetroShare, HybridShare, OnShare, ExoSee, GigaTribe oder Gazzera verfolgt.
Freenet, ein Netz zum anonymen und zensurfreien Informationsaustausch, arbeitet ab Version 0.7 darauf hin, ein globales Darknet zu bilden, das Millionen Teilnehmer haben kann. Solch ein untypisches Darknet soll durch eine Anwendung des Kleine- Welt- Phänomens möglich sein. Begriffsgeschichte
Bereits in den 1970er Jahren wurde mit dem Begriff Darknet vom ARPANET isolierte Netzwerke bezeichnet[3] und durch den Artikel The Darknet and the Future of Content Distribution aus dem Jahre 2002 weiter popularisiert. Vier Microsoft-Angestellte argumentieren darin, das Vorhandensein von Darknets sei das wesentliche Hindernis in der Entwicklung funktionierender Techniken zur digitalen Rechteverwaltung.
Rezeption
Aufgrund der Eigenschaften des Darknets werden erhebliche Möglichkeiten für kriminelle Aktionen, wie etwa illegalem Drogen- oder Waffenhandel gesehen. Dahingehende kriminalistische Ermittlungen werden in jüngerer Zeit verstärkt durchgefiihrt. Eine Anfang Februar 2016 veröffentlichte Studie des britischen Thinktanks International Institute for Strategie Studies stufte 57 Prozent von 5205 untersuchten aktiven Seiten im Darknet inhaltlich als„illegal“ ein.
Jedoch würde über ein Drittel der Angebote legal genutzt, darunter auch Hidden Services wie jene von Facebook oder Mailbox.org. Constanze Kurz, Sprecherin des Chaos Computer Clubs (CCC), kritisierte auf netzpolitik.org eine einseitige Sicht der Mas- senmedien auf das Darknet; so würden„verschlüsselte Netzwerke genauso von Journalisten, von Menschenrechtsorganisationen, von Whistleblowern oder von Menschen, die sich aus anderen Gründen schützen müssen, verwendet.“ Der Sprecher des CCC Linus Neumann sagte:„Das Darknet ist das Internet, wie man es sich eigentlich wünschen würde.
Ein Netz ohne Zensur und Überwachung, mit all seinen Vor- und Nachteilen“. Die in Deutschland geführte Debatte um Darknet-Kriminalität zeige auch, dass man in einer relativ freien Gesellschaft lebe.„In einem Land wie China landest du schneller im Darknet, weil du deine Kommunikation stärker schützen musst.“ Der Geschäftsführer der Menschenrechtsorganisation Reporter ohne Grenzen (ROG), Christian Mihr, verweist auf die Kommunikation per Darknet in Ländern wie Syrien oder Iran. Jedoch würde gerade das Darknet auch für Deutschland relevant sein, da„auch hier [...] das Internet immer mehr überwacht“ werde. Mit zunehmender Überwachung steige„die Zahl derer, die die Anonymität von Darknets schätzen lernen.“ Man habe ein Recht auf „anonyme Kommunikation“, und eine Gleichsetzung von Kriminalität und Darknet sei „brandgefährlich“.
Besondere Bedeutung hat das Darknet auch für Whistleblower, diesbezüglich haben auch schon bedeutende Zeitungen wie die New York Times Seiten im Darknet eingerichtet, um dort anonymisiert vertrauliche Information erhalten zu können.
Der Telegram Messenger gehört aufgrund seiner Merkmale mit Verschlüsselungund nach dem Verbot von Territorien verschiedener Länder zum Darknet. Aufgrund der Anonymität enthält es verschlüsselte Kanäle für den Verkauf verbotener Substanzen, die Rekrutierung verschiedener Organisationen und die Koordination regierungsfeindli- eher Maßnahmen.
22. Peer-to-Peer
Peer-to-Peer-Modell
Peer-to-Peer (P2P) (von englisch peer„Gleichgestellter“,„Ebenbürtiger“) und Rechner- Rechner- Verbindung sind synonyme Bezeichnungen für eine Kommunikation unter Gleichen, hier bezogen auf ein Rechnernetz. In einigen Kontexten spricht man auch von Querkommunikation. In einem reinen Peer-to-Peer-Netz sind alle Computer gleichberechtigt und können so wohl Dienste in Anspruch nehmen, als auch zur Verfügung stellen. In modernen P2P- Netzwerken werden die Netzwerkteilnehmer jedoch häufig abhängig von ihrer Qualifikation in verschiedene Gruppen eingeteilt, die spezifische Aufgaben übernehmen. Kernkomponente aller modernen Peer-to-Peer-Architekturen, die meist bereits als Overlay-Netz auf dem Internet realisiert werden, ist daher ein zweites internes Overlay- Netz, welches normalerweise aus den besten Computern des Netzwerks besteht und die Organisation der anderen Computer sowie die Bereitstellung der Such-Funktion übernimmt.
Mit der Suchfunktion („lookup“) können Peers im Netzwerk diejenigen Peers identifi- zieren, die für eine bestimmte Objektkennung (Object-ID) zuständig sind. In diesem Fall ist die Verantwortlichkeit für jedes einzelne Objekt mindestens einem Peer fest zugeteilt, man spricht daher von strukturierten Overlays. Mittels der Such- Operation können die Peers nach Objekten im Netzwerk suchen, die gewisse Kriterien erfüllen (z. B. Datei- oder Buddynamen-Übereinstimmung). In diesem Fall gibt es für die Objekte im P2P-System keine Zuordnungsstruktur, man spricht also von unstrukturierten Over lays.
Sobald die Peers, die die gesuchten Objekte halten, in dem P2P-System identifiziert wurden, wird die Datei (in Dateitauschbörsen) direkt, d. h. von Peer zu Peer, übertra- gen. Es existieren unterschiedliche Verteilungsstrategien, welche Teile der Datei von welchem Peer heruntergeladen werden soll, z. B. BitTorrent.
Der Gegensatz zum Peer-to-Peer-Modell ist das Client-Server-Modell. Bei diesem bietet ein Server einen Dienst an und ein Client nutzt diesen Dienst. In Peer-to-Peer- Net- zen ist diese Rollenverteilung aufgehoben. Jeder Teilnehmer ist ein peer, denn er kann einen Dienst gleichermaßen nutzen und selbst anbieten.
Charakterisierung von Peer-to-Peer-Systemen
Typische, aber nicht notwendige Charakteristika von Peer-to-Peer-Systemen sind: -Peers weisen eine hohe Heterogenität bezüglich der Bandbreite, Rechenkraft, Online- Zeit, ... auf.
-Die Verfügbarkeit und Verbindungsqualität der Peers kann nicht vorausgesetzt werden
(„Churn“)·
-Peers bieten Dienste und Ressourcen an und nehmen Dienste anderer Peers in An- spruch (Client-Server-Funktionalität) -Dienste und Ressourcen können zwischen allen teilnehmenden Peers ausgetauscht werden.
-Peers bilden ein Overlay-Netzwerk und stellen damit zusätzliche Such-Funktionen zur Verfügung.
-Peers haben eine signifikante Autonomie (über die Ressourcenbereitstellung).
-Das P2P-System ist selbstorganisierend.
Alle übrigen Systeme bleiben konstant intakt und nicht skaliert.
(nach: Steinmetz, Wehrle 2006) Typen von Peer-to-Peer-Systemen
P2P-Systeme lassen sich in unstrukturierte und strukturierte P2P-Systeme unterteilen. Unstrukturierte P2P-Systeme unterteilen sich nochmals nach der Art ihres Aufbaus. Man untersche idet :
-Zentralisierte P2P-Systeme (Beispiel: Napster), welche einen zentralen Server zur Verwaltung benötigen, um zu funktionieren
-Reine P2P-Systeme ohne zentrale tnstanz (Beispiele: RetroShare, Gnutella 0.4, Free- net) Eine spezielle Art eines reinen, dezentralen Netzwerkes bildet das friend-to-friend- oder Web-of-Trust-Netzwerk, bei dem keinerlei Verbin- düngen zu unbekannten IP- Adressen unterhalten werden, sondern aus- schließlich Verbindungen zu Freunden (tru- sted ffiends) etabliert werden. -Hybride bzw. Hierarchische P2P-Systeme, welche dynamisch mehrere zent- rale Server („Superknoten“) zur Verwaltung bestimmen (Beispiele: Gnutella 0.6, Gnutella2 (G2), JXTA)
Zentralisierte und reine P2P-Systeme bezeichnet man als Systeme erster Generation, während dezentrale Systeme als Systeme zweiter Generation bezeichnet werden. Sy- steme, die Dateien über nicht-direkte Verbindungen weiterreichen, sind Systeme dritter Generation. Siehe dazu auch ausführlich den Begriff Filesharing.
Strukturierte P2P-Systeme verwenden oftmals eine Verteilte Hashtabelle (DHT). In strukturierten Systemen können daher Suchen aus einem verteilten Index heraus beantwortet werden.
Standardisierung und Zukunft
Die Zukunft der Peer-to -Peer-Technik wird vor allem davon abhängen, ob es gelingt, einen Standard zu definieren - eine Art Plattform-Technik, die es ermöglicht, weitere Anwendungen aufzusetzen.
JXTA ist ein solcher Standard, der stark von Sun Microsystems unterstützt wurde und Open Source ist. Sun stellte die zurzeit umfangreichste und stabilste Referenzimple- ment ierung her.
Gnutella ist ein weiterer offener Standard, der umfangreich getestet ist, jedoch bisher fast ausschließlich für Dateiverteilung und dezentrales Suchen von Dateien genutzt wird.
Außerdem ist es denkbar, dass die Netzwerkübertragungsleistung ähnlich der Rechenleistung bei den PCs steigen wird, sodass die Möglichkeit besteht, dass ein Peer noch den„übernächsten“ Peer kennen kann und dass die Sichtweite eines Peer über Datenbestände und andere Peers weiter anwachsen kann.
23. Overlay-Netz
Beispiel eines Overlay-Netzwerks
Ein Overlay-Netz ist ein Rechnernetz, das auf ein bestehendes Netz (Underlay genannt) aufsetzt. Hauptmerkmale eines Overlay-Netzes sind:
-(logisches) Netz oberhalb existierender Infrastruktur -oftmals eigener Adressraum mit eigener Adressierung (unabhängig vom Un- derlay) -ggf. Einsatz eigener Wegewahlverfahren
Das Overlay-Netz wird daher zum Aufbau einer zusätzlichen Topologie (physikalisch, logisch, strukturell,...) genutzt. Mit der neu entstandenen Struktur lassen sich beispielsweise aktuelle Technologien wie IPv6 testen oder alternative Routen für die Daten an- legen. Peer-to-Peer-Netze, wie zum Beispiel Gnutella und Chord, sind ebenfalls auf einer Overlay-Netzstruktur aufgebaut, über die beispielsweise effizientes Suchen und eine gewisse Netzkoordination erst möglich werden. Auch auf diese Overlays können weite- re Overlays aufsetzen, z. B. für das Monitoring des P2P Overlays wird SkyEye genutzt, das einen eigenen Adressraum einführt und eigene Protokolle mitbringt, die die Funktionalität der P2P Overlays voraussetzen.
Das Internet war in seinen Anfängen ein Overlay-Netz über dem bestehenden Telefon- netz. Teilweise ist dies auch heute so, da es noch immer Nutzer gibt, die sich per Modem mit dem Internet verbinden. Mittlerweile wird das Telefonnetz durch VoIP aber zunehmend zu einem Overlay-Netz, das auf dem Internet aufsetzt.
Einige Beispiele für Overlay-Netze sind:
-Content Addressable Network (CAN)
-Chord
-DiffServ (separiert physikalisches Netz in mehrere logische durch Einteilung der Netz- -Ressourcen in verschiedene Dienstklassen)
-Freenet
-Gnutella, Gnutella2
-GNUnet
-I2P
-Kademlia
-Lightning Netzwerk (Virtualisiert den Informationsaustausch über verschie- dene Blockchain-Netzwerke durch Atomic Swaps)
-RetroShare -MBone, 6Bone, ABone
-P-Grid
-Pastry/Tapestry
-PNRP
-RON
-Tor
-XBone
-SkyEye
24. Iriserkennung
Die Iriserkennung ist eine Methode der Biometrie zum Zweck der Authentifizierung oder Identifizierung von Personen. Dafür werden mit speziellen Kameras Bilder der Iris (Regenbogenhaut) des Auges aufgenommen, mit algorithmischen Verfahren die charak- teristischen Merkmale der jeweiligen Iris identifiziert, in einen Satz numerischer Werte (Merkmalsvektor, engl.„Template“) umgerechnet und für die Wiedererkennung durch einen Klassifizierungsalgorithmus wie z. B. ein Neuronales Netz gespeichert bzw. mit einem oder mehreren bereits gespeicherten Templates verglichen. Das derzeit am weitesten verbreitete Verfahren und Template (Stand April 2007) in der kommerziellen Anwendung ist der auf Algorithmen des Mathematikers John Daugman beruhende Iriscode.
Kommerzielle Erkennungsverfahren erfassen etwa 260 individuelle optische Merkmale der Iris. Diese Merkmale entwickeln sich aus einem zufallsgesteuerten, morphogeneti- sehen Prozess in den ersten Lebensmonaten einer Person und bleiben über die restliche Lebenszeit weitgehend unverändert. Auch eineiige Zwillinge haben keine identische Iris-Struktur. Die herausragende Eigenschaft der Iriserkennung in der praktischen Anwendung ist ihre im Vergleich zu anderen Biometrieverfahren äußerst geringe Zahl an falsch positiven Vergleichsergebnissen (engl „false matches“), d. h., die Wahrschein- iichkeit der Verwechslung eines Iriscodes mit dem eines Auges einer anderen Person ist nahezu Null. Dadurch eignet sich die Iriserkennung als zuverlässiges Identifikationsver- fahren auch in großen Datenbanken mit Millionen von Personendatensätzen, sowie für die Identifikation in Zutrittskontrollsituationen ohne primäres Erkennungsmerkmal, also ohne Ausweiskarten oder RFID-Tags. Der Irisscan ist eine wissenschaftlich anerkannte, sichere Methode zur Identifizierung eines Menschen.
Ein weiteres Charakteristikum ist der geringe Bedarf an Rechenressourcen für den Irisvergleich. Daher ist die Iriserkennung und -aufnahme besonders für den mobilen Einsatz in PDA-großen Geräten geeignet.
Falsch negative Ergebnisse (engl „false non-matches“), also Fälle des Nichterkennens einer eigentlich erfassten Person, können sich insbesondere bei ungünstigen Aufnahmebedingungen des Auges einstellen, wenn die Iris beispielsweise aufgrund von Brillenrändern, Reflexionen auf Brillengläsern oder den bei größtenteils Ostasiaten (bzw. Fernostasiaten) typischen engen Augenlidern nur unzureichend sichtbar ist.
Damit wäre eine Erfassung aller in der EU residierenden Personen, um ihnen für staatliche und rechtsgeschäftliche Zwecke eine eindeutige Personenkennziffer zuordnen zu können. Die Iriserkennung würde dabei die Feststellung und Vermeidung von mehrfa- chen oder falschen Identitäten ermöglichen.
Anwendungen bestehen bereits in der Zutrittskontrolle zu Hochsicherheitsbereichen und bei automatisierten Grenzkontrollen (z. B. Flughäfen Frankfurt, Schiphol, Heathrow). Bei der ersten Massenanwendung in der Einwanderungskontrolle der Vereinigten Arabischen Emirate ab 2002 gab es Versuche von illegalen Einreisenden, die Identifikation durch Irisscan zu vermeiden. Mithilfe medizinischer Augentropfen weitet sich die Pu pille und die Iris zieht sich zusammen, so dass vorübergehend die Wiedererkennung verhindert ist. Daraufhin wurde das System so verändert, dass eine erweiterte Iris auto- matisch als solche erkannt wird und der Irisscan an der Person nach einigen Stunden wiederholt wird. Gemeinsam mit der Gesichts- und Fingerabdruckerkennung zählt die Iriserkennung zu den von der ICAO vorgesehenen Biometrieformen fiir den Einsatz in elektronischen Pässen (ePass). Um die weltweite, herstellerunabhängige Interoperabilität der Daten zu gewährleisten, spezifiziert die Norm ISO/IEC 19794-6
„Austauschformat basierend auf Irisbildern“ die hierfür geltenden Erfordernisse an Irisbildaufnahme und -Speicherung.
Für forensische Zwecke ist die Iriserkennung nur eingeschränkt geeignet, da schon wenige Minuten nach dem Ableben einer Person ihre Irisstrukturen zerfallen.
In Mobiltelefonen wird die Iris-Erkennung zum Entsperren des Telefons anstatt eines PIN-Codes oder eines Fingerabdruckes verwendet. Diese Technik wurde erstmals im Fujitsu ARROWS NX F-04G eingesetzt. Auch die Mobiltelefone der Lumia 950 Reihe von Microsoft verwenden diese Technik der Authentifizierung.
Der Chaos Computer Club demonstrierte im Mai 2017, wie leicht die Iris-Erkennung beim Samsung Galaxy S8 überwunden werden kann. Zunächst muss man mit einer handelsüblichen Kompaktkamera ein Foto vom Gesicht des Galaxy-S8-Besitzers machen. Weil der Iris-Scanner im Infrarotbereich arbeitet, muss die Kamera in den Nachtmodus versetzt werden. Anschließend wird das Auge digital vergrößert und das Foto mit einem Laserdrucker ausgedruckt. Nun legt man noch eine Kontaktlinse auf den Ausdruck, fertig ist das Fake-Auge für wenige Euro. Durch die Kontaktlinse gewinnt das Auge Plastizität, dadurch lässt sich der Iris-Scanner austricksen. In der kommenden Flaggschiff-Generation rund um das Galaxy S9 wird die Technik zur Iris-Erkennung stark verbessert. Höhere Auflösung und bessere Software für eine schnellere Erkennung sind die Eckpunkte für Samsungs Entwickler.
Biometrische Methoden zum Entsperren haben sich in den vergangenen Jahren zu ei- nem Quasi-Standard in Smartphones entwickelt, allen voran der Fingerabdrucksensor. Samsung bietet seit diesem Jahr auch das Erkennen der Iris als alternative Methode in seinen Top-Modellen an. Genau da will der Konzern Verbesserungen umsetzen. Laut einem Bericht des Korea Herald will Samsung die Auflösung für den Iris-Scanner von 2 Megapixel auf 3 Megapixel erhöhen, um feinere Details im Auge und der Iris abbilden zu können.
Ein Grund für die gezielte Weiterentwicklung soll die laut Samsungs eigener Aussage führende Rolle im Bereich biometrischer Authentifizierung für Bankgeschäfte sein, heißt es weiter. Schnellere und sicherere Erkennung der Iris sind ein Ziel für das Galaxy S9 Samsung verspricht sich von der verbesserten Linse auch treffsichere Ergebnisse, selbst wenn der Benutzer eine Brille trägt, bei der es zwangsläufig zu Spiegelungen kommen kann. Selbst Bewegungen des Augapfels soll die optimierte Iris-Erkennung des Galaxy S9 (Plus) erheblich besser verkraften als die aktuelle Generation.
Neben der Auflösung des Bildes zum Erkennen der Iris wollen die Techniker aber vor allem die Schnelligkeit massiv erhöhen. Zudem ist die Iris-Erkennung im Dunkeln auf der Liste derjenigen Dinge, die optimiert sowie verbessert werden sollen.
Jedoch ist die Hardware nur ein Teil des großen Ganzen - auch die Software spielt eine entscheidende Rolle. In diesem Punkt will sich Samsung ebenfalls deutlich verbesser- num die Erkennung schneller, genauer und damit vor allem sicherer zu machen. Kon krete Details nannte der Bericht dazu nicht.
Funktionsweise eines Iris-Scanners: Zur Identifikation werden Iris-Scans besonders in der Medizin und Pharmazeutik eingesetzt. Spezielle Kameras nehmen die Iris auf und hinterlegen das Muster im System. Samsung nutzt beim Galaxy S7 Edge eine extra ein gebaute Kamera und Infrarot-Licht. Es soll sich besonders eignen, da es die Muster der Regenbogenhaut sehr deutlich erfassen kann. Sichtbares Licht oder RGB-Bilder sind anfälliger für Einflüsse durch das Umgebungslicht. Details können leichter verloren ge- hen. Die Iris-Informationen werden beim Samsung-Mobilgerät verschlüsselt auf der Knox-Plattform direkt auf dem Gerät abgelegt. Erkennung: Um sich erneut am Gerät anzumelden, liest die Kamera die Iris- Informationen in einem festgelegten Abstand zwischen Gerät und Auge ein und vergleicht sie mit den hinterlegten Daten. Der Vorgang soll sehr schnell gehen und auch bei schlechtem Licht funktionieren, da die Abstrahlung des Displays zur Datenerfassung genutzt wird.
Andere Zugangsmechanismen und Sicherheit: Microsoft bietet mit Hello bei Windows 10 eine Gesichtserkennung an, über die sich der Anwender am System anmelden kann. Das Verfahren setzt eine Tiefenkamera voraus, die zum Pixel auch die Entfernung zur Kamera erfasst. Zertifiziert sind die Realsense-Kamera von Intel und das herstellereigene System Kinect. Im Gegensatz zum integrierten Iris-Scanner müssen Sie hier extra Hardware erwerben.
25. Passwort
Ein Passwort, Kennwort, auch Passphrase, Schlüsselwort Codewort (auch Kodewort), Losung, Losungswort oder Parole (von italienisch la parola ,das Wort ) genannt, dient zur Authentifizierung. Hierzu wird eine Zeichenfolge vereinbart und benutzt, durch die sich jemand, meist eine Person, ausweist und dadurch die eigene Identität bestätigt.
Neben der Rolle Identifizieren von Personen werden Passwörter auch dazu verwendet, um bestimmte Berechtigungen nachzuweisen: Wer das Passwort (den richtigen Code) kennt, gilt als berechtigt. Beispiele: Parole beim Militär oder ein Zugangscode zum Öffnen von Türen.
Die Authentizität des sich so Ausweisenden bleibt nur höchstens so lange gewahrt, wie das Passwort geheim bleibt, das heißt, es Dritten nicht bekannt ist. Der Zusammenhang zwischen Passwort und dessen Nutzer muss gesondert hergestellt und überprüft werden (zum Beispiel durch die Bank auf dem besonders vor Manipulation geschützten Post- weg). Eine Persönliche Identifikationsnummer (PIN) ist ein Passwort, das in der Regel ausschließlich aus Ziffern besteht.
Häufiger Einsatz von Passwörtern findet in der Computer-/ Internetwelt in Verbindung mit einem Benutzernamen statt. Hier ist das Passwort eine vom Nutzer selbstgewählte oder eine automatisch generierte, meist alphanumerische Zeichenfolge.
Passwörter werden in zahlreichen Bereichen verwendet, zum Beispiel als Element der Kindersicherung, um Kindern den Zugriff auf Fernseher, Receiver oder ungeeignete Programminhalte zu verwehren. Nachteil : Password Chaos durch immer neue, geänderte und vergessene Passwörter.
Einmalkennwörter können nur einmal zur Authentifizierung benutzt werden und sind danach ungültig. So entsteht kein Schaden, wenn das Passwort während der Authentifi- zierung ausgespäht wird. Traditionell werden mehrere Einmalkennwörter auf Vorrat festgelegt und in Form einer Liste vermerkt, die sicher verwahrt werden muss. Solche Einmalkennwörter werden zum Beispiel als Transaktionsnummern (TAN) beim Online- Banking verwendet. Sie können aber auch erst kurz vor ihrer Benutzung unter Einbe ziehung der Uhrzeit und einer PIN erzeugt werden und nur zur Benutzung binnen weni- ger Minuten geeignet sein.
Das Passwort sollte lang genug sein, um nicht durch Ausprobieren (Brute-Force- Angriff) ermittelt werden zu können. Das System sollte außerdem einen ausreichend großen Zeichensatz verwenden, mit dem das Passwort gebildet wird
Anstatt Passwörter manuell eingeben zu lassen, können Schlüssel auch in einer Schlüsseldatei abgelegt werden. Bei Anwendungen wie beispielsweise SSH kann neben der Authentifizierung mit einem Passwort auch ein Public-Key- Verfahren eingesetzt werden. Der Vorteil ist dabei, dass die Gegenstelle den geheimen privaten Schlüssel nicht zu sehen bekommt. Auch hier wird der private Schlüssel in einer Datei gehalten und kann gegen unbefugtes Auslesen mit einem Passwort geschützt werden. Die Schlüsseldatei ist eine Alternative zur manuellen Eingabe eines Kennworts. Damit können deutlich längere und komplexere Schlüssel verwendet werden und es besteht nicht mehr die Gefahr, das Kennwort zu vergessen. Allerdings kann die Schlüsseldatei durch Datenverlust verlorengehen. Das Angriffsszenario bei einem Kennwort besteht aus Ausspähen (beispielsweise durch einen Keylogger) oder Erraten (beispielsweise durch einen Wörterbuchangriff); eine Schlüsseldatei ist dagegen vor unbefugtem Zu griff zu schützen, damit sie nicht kopiert wird. Häufig werden Schlüsseldateien deshalb zusätzlich mit einem Masterpasswort verschlüsselt.
26. Die Brute-Force-Methode
Die Brute-Force-Methode (von englisch brüte force ,rohe Gewalt1) bzw. Methode der rohen Gewalt, auch Exhaustionsmethode (kurz Exhaustion von lateinisch exhaurire , ausschöpfen4), ist eine Lösungsmethode für Probleme aus den Bereichen Informatik, Kryptologie und Spieltheorie, die auf dem Ausprobieren aller möglichen (oder zumindest vieler möglicher) Fälle beruht. Auch der Begriff erschöpfende Suche (engl ex- haustive search) ist in Gebrauch.
Für viele Probleme in der Informatik sind keine effizienten Algorithmen bekannt. Der natürlichste und einfachste Ansatz zu einer algorithmischen Lösung eines Problems besteht darin, alle potenziellen Lösungen durchzuprobieren, bis die richtige gefunden ist. Diese Methode nennt man„Brute-Force-Suche“ (englisch brute-force search).
Die Brute-Force-Suche ist einfach zu implementieren und dazu bestimmt, die korrekte Lösung zu finden. Allerdings steigt der Aufwand an Rechenoperationen proportional zur Anzahl der zu probierenden möglichen Lösungen, wobei die Anzahl dieser möglichen Lösungen mit zunehmendem Umfang der Probleme häufig exponentiell rasch wächst.
Ein wichtiger Anwendungsbereich findet sich in der Computersicherheit. Ein oft angeführtes Anwendungsbeispiel für die Brute-Force-Methode ist hier das Brechen oder umgangssprachlich„Knacken“ von Passwörtern. Aus dem oben genannten Zusammenhang zwischen Umfang des Problems und Anzahl der benötigten Rechenoperationen lässt sich für das Beispiel des„Passwortknackens“ der Schluss ziehen, dass mit steigender Passwortlänge oder steigender Anzahl an möglicherweise im Passwort vorhandenen Zeichen (Alphabet ohne Zahlen, mit Zahlen, mit Sonderzeichen) der Aufwand der Brute-Force-Methode schnell ansteigt. Die Methode ist in der Praxis häufig erfolgreich, da die meisten Benutzer kurze und einfache, damit unsichere Passwörter verwenden. Mit entsprechenden Werkzeugen können schon auf handelsüblichen Mittelklasse- Computern Millionen Passwörter je Sekunde ausprobiert werden.
In der Praxis werden Brute-Force-Angriffe auch dadurch erschwert, dass die Zahl der Versuche begrenzt ist und nach einigen erfolglosen Passworteingaben der Zugang gesperrt wird oder weitere Versuche erst nach einer Wartezeit möglich sind. Trotzdem wurde im September 2014 bekannt, dass z. B. Apple in seiner iCloud längere Zeit sol- che einfachen Maßnahmen nicht implementiert hatte und zumindest einfache Brute- Force- Attacken möglich wäre
27. SIM-Karte
Die SIM-Karte (vom englischen subscriber identity module für„Teilnehmer- Identitätsmodul“) ist eine Chipkarte, die in ein Mobiltelefon eingesteckt wird und zur Identifikation des Nutzers im Netz dient. Mit ihr stellen Mobilfünkanbieter Teilnehmern mobile Telefonanschlüsse und Datenanschlüsse zur Verfügung. Das SIM ist ein kleiner Prozessor mit Speicher (üblicherweise im ID-000-Format, das aus einer ID- 1 -Format-Karte herausgebrochen wird). Durch eine veränderbare PIN kann es vor unbefugter Benutzung geschützt werden. Mit Hilfe des SIM wird das Mobile Equipment (also üblicherweise das Mobiltelefon) einem Netz zugeordnet und authentifiziert. Für diese Zwecke ist auf dem SIM die IMSI gespeichert, welche bei Netzsuche und Einbuchung in ein Funknetz unverschlüsselt übertragen wird und ein Mithören von Mobilfunk-Telefonaten und die Eingrenzung des Standorts des Mobiltelefons innerhalb einer Funkzelle erlaubt (IMSI-Catcher). Andere auf dem SIM gespeicherte Zahlenfol gen und Algorithmen dienen der Verschlüsselung der Sprach- und Signalisierungsdaten (Ciphering). Das SIM dient außerdem zum Speichern von temporären, netzbezogenen Daten sowie bevorzugten und gesperrten Netzen.
Darüber hinaus können ein Telefon- und Notizbuch, Speicher für Short-Message- Ser vice-Mitteilungen (SMS) und Speicher der zuletzt gerufenen Telefonnummern integriert sein. SIM und Mobile Equipment bilden zusammen im GSM die Mobile Station. In Deutschland waren 2012 rund 1 15 Millionen SIM-Karten im Umlauf.
SIM-Kartenlesegerät
Die SIM-Karte wird häufig im großen ID- 1 -Format (85,6 mm x 54 mm) ausgeliefert. Der kleinere ID-000-Teil (25 mm x 15 mm) kann herausgebrochen werden. Aufgrund der immer kleineren Mobilgeräte wurde im Lauf der Zeit für D-Netz-Geräte das kleine ID-000-Format eingeführt. Inzwischen gibt es eine Vielzahl von Geräten, die stattdes- sen die noch kleinere Micro-SIM verwenden. In vielen modernen Smartphones wird bereits das kleinste Format, die Nano-SIM verwendet.
Ein SIM-Toolkit ermöglicht es, kleine Programme auf einer SIM-Karte zu hinterlegen, beispielsweise Info-Services, mit denen aktuelle Informationen über Politik, Sport, Wetter zugestellt werden können. Die Mobilfunk-Betreiber 02, E-Plus, T-Mobile und Vodafone benutzen das, um ihren Homezone-Service anzubieten. Mit Hilfe des SIM- Toolkits wird dort angezeigt, ob sich das Mobiltelefon in der Homezone befindet.
Funktionen wie Aufladen oder Abfragen des Guthabens (bei vorbezahlten Prepaid- Kar- ten) sind möglich. Der Vorteil von Anwendungen auf der SIM-Karte besteht darin, dass diese unabhängig vom eingesetzten Gerät benutzt werden können (somit kann ohne ersichtliche Funktionalitätsänderung das Handy gewechselt werden).
Verschiedene Hersteller arbeiten derzeit an der Entwicklung einer SIM-Karte mit grö- ßerem Speicherplatz, ähnlich den bekannten Speicherkarten wie SD-Karten. Dieser Speicher, bislang bis zu 128 GB, kann frei für MP3-Audio oder andere Dokumente genutzt werden.
Als SIM Access Profile wird eine Technik bezeichnet, mit der z. B. im Auto die SIM- Daten eines mit Bluetooth ausgestatteten Mobilgeräts von einem fest installierten Gerät gelesen werden und dieses selbst die Funkverbindung aufbaut. So lässt sich die Datenübertragung durch die festinstallierte Außenantenne verbessern und der Stromverbrauch des Mobiltelefons reduzieren. In Dual-SIM-Handys oder mit Hilfe von Dual-SIM-Adaptem können zwei oder mehr SIM-Karten in einem Gerät untergebracht werden, die entweder simultan (gleichzeitig) oder alternativ (wechselweise) aktiv sind.
Auf einer SIM-Karte befinden sich acht Kontaktflächen. Verschiedene Karten variieren in der Anzahl und Aufteilung, spezifiziert wurden jedoch nur diese acht Kontakte mit folgender Belegung:
Vcc Versorgungsspannung CI C5 GND - Masse
Reset-Reset für SIM CPU C2 C6 Vpp -Programmierspannung
CLK- Takt C3 C7 I/O-Daten
Reserviert C4 C8 Reserviert
Über Vcc und GND wird der SIM-Karte die Betriebsspannung zugeführt. Es gibt SIM- Karten mit einer Betriebsspannung von 1 ,8 Volt, 3 Volt und bei der älteren Kartengene- ration 5 Volt (siehe Tabelle Typen). Die jeweilige Spannung wird in einigen Fällen auf der SIM-Karte aufgedruckt.
Wird eine SIM-Karte mit einer falschen Spannung in einem Mobiltelefon verwendet, kann es zu Fehlermeldungen, Abstürzen oder ungewöhnlich schneller Akku- Entladung kommen. Sollte eine SIM-Karte nicht mehr auf Anfragen des Mobilgerätes reagieren, kann sie über den Reset-Kontakt neu gestartet werden. Über CLK wird der Takt des Mobilgeräts zur Synchronisation des über den I/O-Kontakt stattfindenden Datentransfers übertragen. Die optionale Programmierspannung Vpp wird nur bei der Herstellung benötigt, um die interne Software der Karte zu initialisieren oder zu löschen. Die normalen Lese- und Schreibvorgänge auf den Anwenderbereich einer SIM-Karte (z. B. im Rahmen der Nut zung in einem Mobilgerät) kommen ohne diese Spannung aus.
Die beiden zusätzlichen Kontaktpins sind für derzeit noch rare achtpolige SIM-Karten reserviert, wie sie in zukünftigen mobilen Geräten Verwendung finden sollen - derzeit gibt es mehrere konkurrierende Entwürfe, wofür diese Kontakte verwendet werden sollen, u. a. sind SIM-Karten mit sehr hohen Speicherkapazitäten im Gespräch, die über eine Variante des USB-Protokolls angekoppelt werden könnten. Weitere Ideen betreffen spezielle Verschlüsselungsfunktionen oder Nahfeldkommunikation (NFC).
Aktuelle europäische Mobilfunktelefone verwenden jedoch nach wie vor nur sechspoli- ge SIM-Karten.
Die I/O-Einheit regelt den Zugriff auf die SIM-Karte. Sie ist die Schnittstelle der CPU zum Mobilgerät. Die CPU dient hauptsächlich der Speicherverwaltung, sie kann allerdings kleine Programme ausführen. Der Speicher besteht aus einem ROM, einem RAM und einem EEPROM. Im ROM ist das Betriebssystem der Karte abgelegt. Es werden dort Brandings der Mobilfunkuntemehmen gespeichert (Startlogos). Das RAM beinhaltet die gerade gebrauchten Daten, es ist flüchtig. Im EEPROM werden Benutzerdaten abgelegt.
Lebensdauer
SIM-Karten haben eine begrenzte Lebensdauer. Mit jedem Lösch-Schreibzyklus des nichtflüchtigen Kartenspeichers, beispielsweise bei einer Authentifizierung im Netz al- tert der verwendete Speicher. Ursprünglich garantierten die Hersteller der SIM- Chips 100.000 solcher Zyklen. Bei aktuellen Chips beträgt dieser Wert 500.000 bis eine Mil- lion. Um diesen Prozess zu entschärfen, bauen die SIM-Hersteller im Betriebssystem Schutzmechanismen ein.
Unabhängig davon werden einige ältere SIM-Karten von aktuellen Mobiltelefonen nicht erkannt. Ein Grund kann sein, dass die SIM-Karte mit der vom Gerät zur Verfügung gestellten Spannung nicht mehr funktioniert. Ein anderer Grund kann darin liegen, dass das Gerät eine USIM-Karte benötigt.
Formate
In der technischen Fachwelt wird die Hardware der SIM-Karte Universal Integrated Circuit Card oder kurz UICC genannt
Seit Entwicklung des UMTS-Standards durch das Europäische Institut für Telekommunikationsnormen Ende der 1990er Jahre wird davon ausgegangen, dass mobile Endgeräte in Zukunft kleiner sein oder jedenfalls weniger Platz im Inneren haben werden und daher SIM-Karten mit geringer Größe erforderlich sind.
Full-Size-SIM
Erste GSM-Geräte hatten einen Schlitz, um SIM-Karten im Scheckkartenformat einzu führen. Oft wurden diese SIM-Karten auch unter dem Akku eingelegt, wie z. B. beim Sharp TQ-G700. Ein weiteres Beispiel für ein solches Gerät ist das D-Netz- Mobiltelefon„Siemens S3com“ von 1995. Die Bauform der Geräte war entsprechend mindestens so breit wie eine Scheckkarte.
Da der SIM-Chip keine so große Fläche beanspruchte, hat sich schon Ende der 1990er- Jahre das bedeutend kleinere UICC-Format etabliert. Deshalb kamen nur wenige Geräte mit Full-Size-SIM auf den Markt. In den Anfangszeiten wurde die UICC-SIM-Karte aus der scheckkartengrossen SIM-Karte ausgestanzt; später waren die MINI-SIM- Karten aus der Full-Size-SIM-Karte herausbrechbar. Im umgekehrten Fall (bei einem Gerät mit scheckkartengrosser SIM-Karte) konnte i. d. R. die Originalkarte (aus der die UICC-SIM-Karte ausgestanzt oder heraus gebrochen worden war), als Adapter einge setzt werden.
Mini-SIM (UICC)
Die Mini-SIM-Karte (Abkürzung 2FF für„Second Form Factor“) ist nur 25 mm x 15 mm groß und genau so dick wie die Full-Size-SIM.
SIM-Karten werden teilweise zwar noch im Scheckkartenformat ausgeliefert, die Mini- SIM ist dann aber schon vorgestanzt, so dass sie nur an Sollbruchstellen herausgebrochen werden muss. Anfangs war bei den ausgelieferten Full-Size-SIM die Mini-SIM noch nicht vorgestanzt, deshalb gab es neben Stanzgeräten auch Anleitungen zum Selbstbau (ausschneiden mit Schablone und Schere). Um Material zu sparen, wird die SIM-Karte seit Mitte der 2010er-Jahre oft nur noch im UICC- Format in einer Karton- Schablone ausgeliefert.
Micro-SIM (Mini-UICC)
Die Micro-SIM (Abkürzung 3FF für„Third Form Factor“) ist 52 % kleiner als die der Mini-SIM-Karte. Bei der Micro-SIM betragen die Außenlängen nur 15 mm x 12 mm. Die Dicke beträgt wie auch schon bei der Full-Size-SIM oder Mini-SIM 0,76 mm. Was die technischen Daten der Schaltung anbelangt, gibt es keine Unterschiede. Mit einem speziellen Stanzgerät kann aus einer Full-Size-SIM oder Mini-SIM eine Micro-SIM gemacht werden.
Eines der ersten Geräte, das eine Micro-SIM-Karte verwendete, war das iPad im Jahr 2010, gefolgt vom Apple iPhone 4. Nokia setzt diesen Kartentyp ein, so beim Nokia N9 oder dem Nokia Lumia 800. Motorola setzt beim Motorola Droid Razr auf Micro-SIM- Karten. Viele weitere Hersteller sind dem Trend gefolgt und verwenden bei ihren Smartphones nun Micro-SIM-Karten.
Nano-SIM
Die Nano-SIM (kurz 4FF für„Fourth Form Factor“) ist mit 12,3 mm x 8,8 mm x 0,67 mm nochmals 40 % kleiner aber vor allem 12 % dünner als eine Micro-SIM und soll somit Platz in kompakten Geräten einsparen. Karten im Nano- SIM-Format bieten dieselbe Funktionalität wie größere Karten. Der Standard umfasst eine mechanische Abwärtskompatibilität, wodurch eine vereinfachte Verteilung mög- lieh sein soll.
Apple wie Nokia wollten zunächst ihre Version als jeweils besser standardisieren lassen. Die ETSI entschied sich im Juni 2012 schließlich für den Design-Vorschlag von Apple. Dieser ist kompatibel zu den bereits genutzten Micro-SIM-Karten. Am Markt eingeführt wurde die Nano-SIM-Karte im September 2012 mit dem iPhone 5.
Inzwischen bieten etliche moderne Smartphones einen Nano-SIM-Einschub.
Obwohl eine Umstanzung, wie bei der Micro-SIM beschrieben, zur Nano-SIM unter anderem als nicht möglich beschrieben, davor gewarnt oder gar nicht erwähnt wird, finden sich im World Wide Web zahlreiche Artikel mit Anleitungen[16], Zuschneide- Schablonen, Stanzgeräte und Videos.
Von Mobilfunk-Anbietern wird vor einer Umstanzung gewarnt, wobei meist eine entgeltliche Neubestellung der SIM-Karte angeraten wird. embeddedSIM
Die embeddedSIM (eSIM) ersetzt die klassische physische SIM-Karte. Erste Geräte wie Samsungs Smartwatch Gear S2, Apple Watch Cellular (ab Series 3), neure Apple iPhone verwenden diese. Sie ist kleiner als SIM-Karten, direkt im Gerät verbaut und physisch nicht auswechselbar. Für Hersteller kann in Zukunft die Aufnahmemechanik der SIM-Karte komplett entfallen. Die eSIM ist elektrisch kompatibel mit 2FF- und 3FF- Karten, sie verwendet das SON-8-Format und ist für M2M-Anwendungen (Machine to Machine- Anwendungen) konzipiert.
In Deutschland wird die eSIM von den Netzbetreibern Telekom, Vodafone und Tele- fönica Deutschland unterstützt und angeboten. NFC-SIM
Für die Verwendung der mobilen Zahlfunktionen ist eine NFC-SIM notwendig. Diese verfügt über einen zweiten komplett getrennten und verschlüsselten Bereich (Secure Element), auf den nur die Bank Zugriff hat. Die Karte erhält dabei die Daten für die Bankfunktion aufgespielt, sodass sie beim Wechsel des Gerätes erhalten bleiben. Es ist auch möglich, mehrere Bankkarten auf einer NFC-SIM zu speichern. Äußerlich unterscheiden sich die Karten nicht von solchen ohne NFC. Die Karten gibt es auch in den drei Größen mini, micro und nano. Österreich
Das Bezahlsystem "Digitale Bankomatkarte" wurde in Österreich ab Juni 2015 in einem Feldversuch erprobt und seit Anfang 2016 von allen großen Banken und von den drei großen Mobilfunkanbietern, allerdings nur für Androidgeräte, angeboten. Der Umtausch der SIM beim Mobilfunkanbieter ist notwendig, bis jetzt werden Neukunden noch nicht automatisch mit NFC-SIMs ausgestattet. Danach kann die digitale Bankomatkarte bei der Hausbank bestellt werden.
Byte gibt nicht die Anzahl der auf der SIM speicherbaren Zeichen an, da z. B. pro die Ziffer der Rufnummer nur ein Halbbyte benutzt wird.
Man muss aber beachten, dass nicht alle Mobiltelefone die mögliche Anzahl Zeichen (für den Namen und Rufnummer) nutzen. Der Erweiterungsspeicher kann frei von dem Betriebssystem des Mobiltelefons verwendet werden, was dazu führt, dass die dort hinterlegten Informationen von einem anderen Mobiltelefon nicht oder falsch interpretiert werden. So wurde dieser Speicherbereich z. B. von einigen Geräten (z. B. Siemens A60) dazu benutzt um die Zeichenanzahl für den Namen für die ersten Einträge zu verlängern, bei anderen Geräten wurde dieser dazu benutzt um eine zweite Telefonnummer zu speichern. Länderspezifika
Am 13. Februar 2009 stimmte der deutsche Bundesrat einer Verordnung des Bundesministeriums für Wirtschaft und Technologie zu, nach der zukünftig Notrufe (110 und 112) nicht mehr ohne SIM-Karte gewählt werden können. Da immer häufiger grundlos Notrufe von Mobiltelefonen ohne Karte gemacht worden waren, sollten nun nur noch durch SIM-Karten identifizier bare Kommunikationsteilnehmer diese Möglichkeit haben.
Sicherheit
Neue SIM-Karten besitzen bessere Sicherheitsmerkmale als ältere SIM-Karten. Aus Sicherheitsgründen sollten alle SIM-Karten mit einem Alter über zehn Jahre durch neue SIM-Karten ersetzt werden.
DES-Verschlüsselung
Siehe auch: „SIM-Karten DES-Hack“ im Artikel Karsten Nohl
Auf der Black Hat 2013 beziehungsweise der OHM 2013 demonstrierte Karsten Nohl, dass viele Mobiltelefone noch SIM-Karten mit der bereits seit längerem als unsicher geltenden DES-Verschlüsselung nutzen. In Deutschland reagierten der IT- Branchen verband Bitkom sowie die großen Telekommunikationsanbieter Deutsche
Telekom, Telefönica, E-Plus-Gruppe und Vodafone gelassen, da die unsichere DES- Verschlüsselung nicht mehr eingesetzt wird.
Schlüsseldiebstahl
Gestützt auf veröffentlichte Geheimdokumente des Whistleblowers Edward Snowden berichtete The Intercept im Februar 2015, dass die Nachrichtendienste National Security Agency und Government Communications Headquarters im Jahre 2010 Schlüssel von Gemalto, dem größten Hersteller von SIM-Karten, entwendet hatten.
Sie seien somit in der Lage, einen Großteil der weltweiten mobilen Kommunikation einschließlich Sprachnachrichten und Daten unerkannt abzuhören. In einem der Doku- mente wird die deutsche Firma Giesecke & Devrient als Angriffsziel genannt USIM- Anwendung
Die USIM- Anwendung ermöglicht der Mobilstation die bessere Verschlüsselung der über das Mobilfunknetz übertragenen Gespräche, Mitteilungen und Daten. Die Mobilstation kann die Authentifizierung der Mobilstation beim Mobilfunkanbieter dank der USIM- Anwendung besser absichern. Aus Sicherheitsgründen sollte in allen Mobilstationen SIM-Karten mit der USIM-Anwendung betrieben werden.
Mobilstationen, welche nicht die USIM-Anwendung unterstützen, sollten aus Sicherheitsgründen durch neuere Geräte ersetzt werden.
28. Wireless Local Area Network (W-LAN)
Wireless Local Area Network ['waialis taokl 'eopo 'netw3:k] (Wireless LAN bzw. W- LAN, meist WLAN; deutsch drahtloses lokales Netzwerk) bezeichnet ein lokales Funk netz, wobei meist ein Standard der IEEE-802.1 1 -Familie gemeint ist. Für diese engere Bedeutung ist in manchen Ländern (z. B. USA, Großbritannien, Kanada, Niederlande, Spanien, Frankreich, Italien) weitläufig beziehungsweise auch synonym der Begriff Wi- Fi gebräuchlich. Verwendet wird der Begriff häufig auch irreführend als Synonym für WLAN-Hotspots bzw. kabellosen Intemetzugriff.
Im Gegensatz zum Wireless Personal Area Network (WPAN) haben WLANs größere Sendeleistungen und Reichweiten und bieten im Allgemeinen höhere Datenübertragungsraten. WLANs stellen Anpassungen der Schicht 1 und 2 des OSI- Referenzmodells dar, wohingegen in WPANs z. B. über eine im Netzwerkprotokoll vorgesehene Emulation der seriellen Schnittstelle und PPP beziehungsweise SLIP eine Netzverbindung aufgebaut wird. Bei WLAN wird heute meist das Modulationsverfahren OFDM verwendet.
Betriebsarten
WLANs können - je nach Hardwareausstattung und Bedürfnissen der Betreiber - in verschiedenen Modi betrieben werden: Infrastruktur-Modus
Der Infrastruktur-Modus ähnelt im Aufbau dem Mobilfunknetz: Ein Wireless Access Point, oft in Form eines Routers, übernimmt die Koordination aller Clients und sendet in einstellbaren Intervallen (üblicherweise zehnmal pro Sekunde) kleine Datenpakete, sogenannte„Beacons“ (engl.„Leuchtfeuer“, vgl. dt.„Bake“), an alle Stationen im Empfangsbereich. Die Beacons enthalten u. a. folgende Informationen:
-Netzwerkname („Service Set Identifier“, SSID),
-Liste unterstützter Übertragungsraten
-Art der Verschlüsselung.
Dieses„Leuchtfeuer“ erleichtert den Verbindungsaufbau ganz erheblich, da die Clients lediglich den Netzwerknamen und optional einige Parameter für die Verschlüsselung kennen müssen. Gleichzeitig ermöglicht der ständige Versand der Beacon-Pakete die Überwachung der Empfangsqualität - auch dann, wenn keine Nutzdaten gesendet oder empfangen werden. Beacons werden immer mit der niedrigsten Übertragungsrate (1 MBit/s) gesendet, der erfolgreiche Empfang des„Leuchtfeuers“ garantiert also noch keine stabile Verbindung mit dem Netzwerk.
Die SSID-Übermittlung (Broadcasting) lässt sich in der Regel deaktivieren, auch wenn das den eigentlichen Standard verletzt. Dadurch wird der drahtlose Zugangspunkt selbst unsichtbar. Die Clients stellen in dieser Variante jedoch aktiv die Verbindung her, indem sie, falls keine Verbindung besteht, jederzeit aktiv nach allen gespeicherten Netzwerknamen„versteckter“ Netze suchen. Problematisch ist dabei, dass diese Informationen leicht für einen Angriff auf die Endgeräte ausgenutzt werden können, indem durch den Angreifer die Anwesenheit des Access Point simuliert wird.
Da WLAN auf der Sicherungsschicht (Schicht 2 im OSI-Modell) dieselbe Adressierung wie Ethernet verwendet, kann über einen Wireless Access Point mit Ethernet-Anschluss leicht eine Verbindung zu kabelgebundenen Netzen (im WLAN- Jargon„Distribution System“, DS) hergestellt werden. Eine Ethernet-Netzwerkkarte kann folglich nicht unterscheiden, ob sie mit einer anderen Ethernet-Netzwerkkarte oder (über einen Access Point) mit einer WLAN-Karte kommuniziert. Allerdings muss zwischen 802.1 1 (WLAN) und 802.3 (Ethernet) konvertiert werden.
Der Aufbau großer WLANs mit mehreren Basisstationen und unterbrechungsfreiem Wechsel der Clients zwischen den verschiedenen Basisstationen ist im Standard vorge sehen. In der Praxis kommt es dabei allerdings zu Problemen:
-Die Frequenzbereiche der Basisstationen überlappen sich und fuhren zu Stö- rungen. -Da - anders als bei Mobilfunknetzen - die gesamte„Intelligenz“ im Client steckt, gibt es kein echtes Handover zwischen verschiedenen Basisstationen. Ein Client wird im Normalfall erst nach einer neuen Basisstation suchen, wenn der Kontakt zur vorherigen bereits abgebrochen ist.
Eine Lösung für dieses Problem steckt in der Verlagerung der Kontrollfunktionen in die Basisstationen beziehungsweise das Netzwerk: Eine zentrale Instanz kann Frequenzen, Sendeleistung etc. besser steuern und z. B. auch einen Handover initiieren. Da die Basisstationen in einem solchen Szenario einen Teil ihrer Funktionalität verlieren und direkt mit der zentralen Instanz kommunizieren können müssen, wird an entsprechenden Geräteklassen (Lightweight Access Point) und Protokollen gearbeitet. Proprietäre Lö- sungen existieren bereits seit einigen Jahren, offene Standards (z. B. das Lightweight Access Point Protocol) sind dagegen immer noch in Arbeit. Diskussionen entzünden sich vor allem an der Frage, welches Gerät welche Funktionen übernehmen soll.
Ad-hoc-Modus
Im Ad-hoc-Modus ist keine Station besonders ausgezeichnet, sondern alle sind gleichwertig. Ad-hoc-Netze lassen sich schnell und ohne großen Aufwand aufbauen, für die spontane Vernetzung weniger Endgeräte sind allerdings andere Techniken, wie Blue- tooth, eher gebräuchlich. Die Voraussetzungen für den Ad-hoc-Modus sind dieselben wie für den Infrastruktur- Modus: Alle Stationen benutzen denselben Netzwerknamen („Service Set Identifier“, SSID) und optional dieselben Einstellungen für die Verschlüsselung. Da es in einem Ad-hoc-Netz keine zentrale Instanz (Access Point) gibt, muss deren koordinierende Funktion von den Endgeräten übernommen werden. Eine Weiterleitung von Datenpaketen zwischen den Stationen ist nicht vorgesehen und in der Praxis auch nicht ohne Wei- teres möglich, denn im Ad-hoc-Modus werden keine Informationen ausgetauscht, die den einzelnen Stationen einen Überblick über das Netzwerk geben könnten. Aus diesen Gründen eignet sich der Ad-hoc-Modus nur für eine sehr geringe Anzahl von Stationen, die sich wegen der begrenzten Reichweite der Sender zudem physisch nahe beieinander befinden müssen. Ist das nicht der Fall, kann es Vorkommen, dass eine Station nicht mit allen anderen Stationen kommunizieren kann, da diese schlicht kein Signal mehr empfangen.
Um dieses Problem zu beheben, können die teilnehmenden Stationen mit Routing- Fähigkeiten ausgestattet werden, so dass sie in der Lage sind, Daten zwischen Geräten weiterzuleiten, die sich nicht in Sendereichweite zueinander befinden.
Erhebung und Austausch von Routing-Informationen ist Teil der Aufwertung eines Ad- hoc-Netzwerks zum mobilen Ad-hoc-Netzwerk: Softwarekomponenten auf jeder Station sammeln Daten (z. B. zur„Sichtbarkeit“ anderer Stationen, Verbindungsqualität etc.), tauschen sie untereinander aus und treffen Entscheidungen für die Weiterleitung der Nutzdaten. Die Forschung in diesem Bereich ist noch nicht abgeschlossen und hat neben einer langen Liste von experimentellen Protokollen (AODV, OLSR, MIT Roof- Net, B.A.T.M.A.N. etc.) und Standardisierungsvorschlägen (Hybrid Wireless Mesh Protocol, 802.1 1 s) auch einige kommerzielle Lösungen (z. B. Adaptive Wireless Path Protocol von Cisco) hervorgebracht. Siehe in diesem Zusammenhang auch: Freies Funknetz.
Wireless Distribution System (WDS) und Repeating
Zur Reichweitenerhöhung bestehender Funknetze beziehungsweise Verbindung kabel- gebundener Netze via Funk (Wireless Bridging) existieren verschiedene Methoden— * siehe Wireless Distribution System. Reichweite und Antennen
Die zulässige äquivalente isotrope Strahlungsleistung (EIRP) von 100 mW (2,4 GHz) beziehungsweise 500 mW (5 GHz) handelsüblicher 802.1 1 -Endgeräte lässt 30 bis 100 Meter Reichweite auf freier Fläche erwarten. Einige WLAN-Geräte erlauben den Anschluss einer externen Antenne. Mit Richtantennen lassen sich bei Sichtkontakt im Freien mehrere Kilometer überbrücken. In geschlossenen Räumen ist die Reichweite stark von Hindernissen sowie Art und Form der Bebauung abhängig.
Leichtbauwände mindern die Reichweite durch Dämpfung und können - je nach ver- wendetem (Metall-)Trägerbau sowie Art der Unterfolie - ein großes Hindernis sein. Insbesondere Stein- und Betonaußenwände dämpfen, vor allem durch Feuchtigkeit bedingt, stark - ebenso wie metallbedampfte Glasscheiben beziehungsweise Brandschutzkonstruktionen. Je höher die elektrische Leitfähigkeit des Materials, desto stärker ist die Dämpfung.
Oberflächen können aber auch als Reflektor wirken und damit die Reichweite verbessern.
WLAN nach IEEE 802.1 1h (maximal 54 Mbit/s brutto) arbeitet im 5-GHz-Band, in dem ein größerer Frequenzbereich (455 MHz Bandbreite) zur Verfügung steht und da- mit 19 nicht überlappende Frequenzen (in Deutschland) lizenzffei nutzbar sind.
(Siehe dazu auch, für die USA: U-NII) Im Normalbetrieb sind in Gebäuden nach IEEE 802.11h 200 mW äquivalente isotrope Strahlungsleistung (EIRP) erlaubt. Jedoch nur ein kleiner Teil des Frequenzbereichs ist ohne weitere Anforderungen (TPC, Transmit- ter Power Control und DFS, Dynamic Frequency Selection) nutzbar. Im Freien ist ebenfalls nur ein kleiner Frequenzbereich mit TPC und DFS erlaubt. In diesem sind auch höhere äquivalente isotrope Strahlungsleistungen bis 1 Watt EIRP gestattet. [32] TPC und DFS sollen sicherstellen, dass Satellitenverbindungen und Radargeräte nicht gestört werden. Als primäre Lizenznehmer sind diese gegenüber der Nutzung für WLAN privi- legiert. Mit speziellen Richtfunkantennen lassen sich bei Sichtkontakt mehrere Kilometer überbrücken. Dabei werden teilweise Rekorde mit Verbindungen über bis zu hundert Kilometer aufgestellt, bei denen keine Sendeverstärker eingesetzt werden, sondern nur Antennen mit hohem Gewinn. Allerdings funktioniert das nur bei quasi-optischer Sicht und möglichst freier erster Fresnelzone. Die zulässige äquivalente isotrope Strahlungs leistung (EIRP) wird dabei aber meist deutlich überschritten.
Antennen bringen sowohl einen Sende- als auch einen Empfangsgewinn (Antennengewinn, angegeben in dBi), indem sie elektromagnetische Wellen bündeln. Daher muss statt der Sendeleistung die sogenannte äquivalente isotrope Strahlungslei stung zur Beschränkung herangezogen werden.
In Europa ist die äquivalente isotrope Strahlungsleistung von WLAN-Anlagen bei 2,4 GHz auf 100 mW(= 20 dBm) EIRP, bei 5,15-5,35 GHz über 5,25 GHz mit TPC und DFS auf 200 mW (= 23 dBm) EIRP, beziehungsweise bei 5,47-5,725 GHz mit TPC und DFS auf 1000 mW (= 30 dBm) EIRP begrenzt.
Zum EIRP siehe auch: Äquivalente isotrope Strahlungsleistung, Abschnitt Praktische Berechnung.
Sicherheit
Ohne Maßnahmen zur Erhöhung der Informationssicherheit sind drahtlose lokale Netzwerke Angriffen ausgesetzt, wie zum Beispiel Snarfing oder Man-In-The-Middle- Angriffen. Daher wird versucht, das mit entsprechenden Mitteln, insbesondere durch die Verwendung von Verschlüsselung und Kennwörtern (Authentifizierung) zu verhindern oder zumindest deutlich zu erschweren.
Verschlüsselung
Teil des WL AN- Standards IEEE 802.1 1 ist Wired Equivalent Privacy (WEP), ein Si- cherheitsstandard, der den RC4-Algorithmus enthält. Die darin enthaltene Verschlüsselung mit einem nur 40 Bit (64 Bit genannt) beziehungsweise 104 Bit (128 Bit genannt), bei einigen Herstellern auch 232 Bit (256 Bit genannt) langen statischen Schlüssel reicht jedoch nicht aus, das WLAN ausreichend zu sichern. Durch das Sammeln von Schlüsselpaaren sind Known-Plaintext- Angriffe möglich. Es gibt frei erhältliche Programme, die sogar ohne vollständigen Paketdurchlauf, einen schnellen Rechner voraus- gesetzt, das Passwort entschlüsseln können. Jeder Nutzer des Netzes kann den gesamten Verkehr zudem mitlesen. Die Kombination von RC4 und CRC wird als kryptografisch unsicher betrachtet.
Aus diesen Gründen sind technische Ergänzungen entwickelt worden, etwa WEPplus, Wi-Fi Protected Access (WPA) als Vorgriff und Teilmenge zu 802.1 l i, Fast Packet Keying, Extensible Authentication Protocol (EAP), Kerberos oder High Security Solution, die alle mehr oder weniger gut das Sicherheitsproblem von WLAN verkleinern Der Nachfolger von WEP ist der Sicherheitsstandard 802.1 l i. Er bietet eine erhöhte Sicherheit durch Advanced Encryption Standard (AES) (bei WPA2) und gilt zurzeit als nicht entschlüsselbar, solange keine trivialen Passwörter verwendet werden, die über eine Wörterbuch- oder gar Brute-force-Attacke geknackt werden können.
WPA2 ist das Äquivalent der Wi-Fi Alliance zu 802.1 l i, das mit dem Verschlüsselungsalgorithmus AES (Advanced Encryption Standard mit Schlüssellängen von 256 Bit) arbeitet und in neueren Geräten meist unterstützt wird. Einige Geräte lassen sich durch Austausch der Firmware mit WPA2-Unterstützung nachrüsten. Jedoch erfolgt hier die Verschlüsselung meist ohne Hardwarebeschleunigung, so dass der Zugewinn an Sicherheit durch eine starke Einbuße an Übertragungsrate erkauft wird. Eine alternative Herangehensweise besteht darin, die gesamte Verschlüsselung auf die IP-Ebene zu verlagern. Dabei wird der Datenverkehr beispielsweise durch die Verwendung von IPsec oder durch einen VPN-Tunnel geschützt. Besonders in freien Funknetzen werden so die Inkompatibilitäten verschiedener Hardware umgangen, eine zentrale Benutzerverwaltung vermieden und der offene Charakter des Netzes gewahrt.
Zur rechtlichen Situation siehe weiter unten. Beim sogenannten„WarWalking“ (oder beim Abfahren ganzer Gegenden mit dem Auto Wardriving genannt) werden mit einem WLAN-fahigen Notebook oder PDA offene WLANs gesucht. Diese können mit Kreide markiert werden (WarChalking). Das Ziel dabei ist, Sicherheitslücken aufzudecken und dem Betreiber zu melden und die Verbrei- tung von WLAN zu untersuchen, oder diese zum eigenen Vorteil (kostenlos und unter fremdem Namen surfen) auszunutzen.
Authentifizierung
Extensible Authentication Protocol ist ein Protokoll, um Clients zu authentifizieren. Es kann zur Nutzerverwaltung auf RADIUS-Server zurückgreifen. EAP wird hauptsächlich innerhalb von WPA für größere WLAN-Installationen eingesetzt.
Eine Authentifizierung ist auch über die MAC- Adresse der drahtlosen Netzwerkadapter möglich. Die MAC-Adresse ist eine Hardware-Kennung, anhand deren sich jeder ange- schlossene Netzwerkadapter identifizieren lässt. Die meisten Access Points beziehungsweise Router bieten die Möglichkeit, den Zugriff nur für bestimmte MAC- Adressen zu ermöglichen. Allen nicht zugelassenen MAC-Adressen wird dann keine IP-Adresse zugewiesen, beziehungsweise der Zugriff auf den Access Point ist blockiert. Eine alleinige Sicherung über MAC-Adressen-Filterung ist jedoch nicht sicher, da sich solche Adressen problemlos einstellen lassen. Gültige MAC-Adressen können z. B. durch das Mitlauschen des Datenverkehrs anderer Teilnehmer gefunden werden. Aber auch Verschlüsselungen lassen sich auf diese Weise knacken.
Grundlegende Sicherheitsmaßnahmen
Dazu gehören einige grundlegende Einstellungen am Router beziehungsweise Access Point:
-Aktivierung der Verschlüsselung mit einer sicheren Verschlüsselungsmethode, d. h. mindestens WPA, besser WPA2; dabei spezifische Hinweise zur Sicher- heit der gewählten Verschlüsselungsmethode im jeweiligen Artikel beachten
-Vergabe eines sicheren Netzwerkschlüssels -Ersetzen der werkseitig voreingestellten Router- beziehungsweise Access- Point- Passwörter, da diese z. B. bei Arcadyan (einige Easybox- und Speed- port-Modelle) anhand der BSSID errechnet werden können[33][34]
-Deaktivieren von Wi-Fi Protected Setup, wenn die Funktion nicht (mehr) benö- tigt wird
-Änderung des werkseitig voreingestellten SSID-Namens, so dass keine Rück- Schlüsse auf verwendete Hardware, Einsatzzweck oder Einsatzort möglich sind (minimaler Sicherheitsgewinn, da anhand der BSSID meist auf die Hard- wäre Rückschlüsse gezogen werden können)
-Deaktivierung der Fernkonfiguration des Routers, soweit vorhanden (insbe- sondere bei privaten Haushalten) -Konfiguration des Access Point nach Möglichkeit nur über kabelgebundene Verbindungen vornehmen beziehungsweise Konfiguration per WLAN deaktivieren
-Ausschalten von WLAN-Geräten, solange sie nicht genutzt werden (Zeitma- nage- ment)
-regelmäßige Firmware-Aktualisierungen des Access Point, um sicherheitsrele- vante Verbesserungen zu erhalten
-Trennung des Access Point vom restlichen (kabelgebundenen) Netzwerkteil mit Hilfe von VLANs und gleichzeitiger Einsatz einer Firewall zwischen den Netzwerkteilen
Gesellschaftliche Bedeutung
Die starke Verbreitung von Drahtlosnetzwerken in den letzten Jahren unterstreicht den Trend zu mehr Mobilität und flexibleren Arbeitsbedingungen. Bereits 2005 wurden in der Europäischen Union mehr Notebooks als Desktop-Rechner verkauft, die meisten davon mit eingebautem WLAN-Chip. Öffentliche und kommerzielle WLAN-Access- Points mit Internetanbindung, sogenannte„Hot Spots“, ermöglichen an vielen Orten den Zugriff auf das weltweite Datennetz. Deren gesellschaftliche Bedeutung zeigt bei spielsweise die Initiative Wifi4EU, mit der die EU in ihren Mitgliedsstaaten die Bereit stellung kostenloser WLAN-Netze in öffentlichen Einrichtungen subventioniert.
Bei privaten Nutzern finden sich ohnehin nahezu flächendeckend DSL- Zugangsgeräte mit eingebautem Access Point, die die Telekommunikationsanbieter oft verbilligt zusammen mit dem Internet-Anschluss anbieten.
Weitere Anwendungen
WLAN kann auch als Plattform zur Lokalisierung in Städten und Gebäuden verwendet werden. Seit Anfang 2008 wird dazu vom Fraunhofer-Institut für Integrierte Schaltungen auf einer Fläche von 25 Quadratkilometern in Nürnberg eine Testumgebung betrieben. Nach einer ersten Betriebsphase soll das System auf weitere deutsche und europäische Städte wie zum Beispiel Berlin, München, Frankfurt, London, Paris und Mailand ausgedehnt werden.
Google und Apple nutzen die Daten von WLANs, um Nutzer zu lokalisieren. Damit bieten sie eine Alternative zur Lokalisierung per GPS.
Es wird intensiv geforscht, inwieweit WLAN auch im öffentlichen Straßenverkehr genutzt werden kann, um die Verkehrssicherheit zu erhöhen.
Siehe auch: WLAN-basierte Ortung
Rechtliche Lage in Deutschland
Umstritten war die Frage, inwieweit der Anschlussinhaber eines WLAN für Rechtsverletzungen Dritter haftet, die unter der IP-Adresse des Anschlussinhabers begangen wer- den In diesem Zusammenhang steht auch die Rechtsfrage, welche Schutzmaßnahmen ein Anschlussinhaber überhaupt zu ergreifen hat und wo gegebenenfalls zumutbare Schutzmaßnahmen (sogenannte„Prüfungs- und Überwachungspflichten“) enden.
Das Hanseatische Oberlandesgericht entschied, dass ein sorgeberechtigter Eltemteil als Störer auch für Urheberrechtsverletzungen haftet, die durch seine Kinder begangen wurden. Den Eltern sei es zumutbar, technische Maßnahmen zu ergreifen, um die Nut- zung illegaler Tauschbörsen zu verhindern (Beschl. v. 1 1. Oktober 2006 - 5 W 152/06). Auch das Oberlandesgericht Köln sah die Haftung für Urheberrechtsverletzungen nicht nur für eine GmbH als Anschlussinhaberin als gegeben an, sondern verurteilte auch den Geschäftsführer der GmbH zur persönlichen Haftung aus dem Gesichtspunkt der Stö- rerhaftung (Beschl. v. 8. Mai 2007 - 6 U 244/06).
Die gegenteilige Ansicht vertrat das Oberlandesgericht Frankfurt am Main. Die Richter entschieden, dass der Inhaber eines Intemetanschlusses grundsätzlich nicht als Störer für die unberechtigte Nutzung einer WLAN-Verbindung durch unberechtigte Dritte haf- tet, die mit ihm in keinerlei Verbindung stehen. Nach Ansicht des Landgerichtes München I besteht auch keine Haftung eines Radiosenders für die durch einen Volontär be gangenen Rechtsverletzungen, da kein Unternehmen grenzenlose Mitarbeiterüberwa chungspflichten einhalten könne (Urteil v. 4. Oktober 2007 - 7 0 2827/07). Diese uneinheitliche Rechtsprechung führte dazu, dass ein solcher Fall beim Bundesgerichtshof anhängig war. Der u. a. für das Urheberrecht zuständige I. Zivilsenat verkündete am 12. Mai 2010 eine grundlegende Entscheidung zu den Haftungsfragen. Privatpersonen können demnach auf Unterlassung, nicht dagegen auf Schadensersatz in An spruch genommen werden, wenn ihr nicht ausreichend gesicherter WL AN -Anschluss von unberechtigten Dritten für Urheberrechtsverletzungen im Internet genutzt wird. Eine Entscheidung darüber, wie die Rechtslage bei WLANs ist, die der Anbieter bewusst an die Öffentlichkeit richtet, steht bislang noch aus.
Daneben stellt sich die Frage, ob sich derjenige, der unberechtigt ein offenes, fremdes WLAN nutzt, strafbar macht. Diese unberechtigte Nutzung wird teils in Anspielung auf „Schwarzfahren“ als„Schwarzsurfen“ bezeichnet. Das Amtsgericht Wuppertal hat 2007 entschieden, dass sich ein„Schwarzsurfer“ wegen eines Verstoßes gegen §§ 89, S. 1, 148 I 1 TKG und §§ 44, 43 II Nr. 3 BDSG strafbar macht. Nach einer Entscheidung desselben Amtsgerichts von 2010 soll„Schwarzsurfen“ nicht mehr unter Strafe ste- hen.[46] Das Landgericht Wuppertal bestätigte diese Entscheidung. Schwarzsurfen sei unter keinem rechtlichen Gesichtspunkt strafbar. Mit der am 21. Juli 2016 erlassenen Änderung des Telemediengesetzes wurde durch eine Ergänzung von § 8 Abs. 3 klargestellt, dass auch Zugangsanbieter, die Nutzem einen Internetzugang über ein drahtloses lokales Netzwerk zur Verfügung stellen, haftungs- privilegiert sind. Damit ist geregelt, dass WLAN-Betreiber unter das sogenannte Providerprivileg fallen. Die eigentliche Abschaffung der Störerhaftung schaffte es hingegen zunächst nicht in den Gesetzestext. Stattdessen fand sich in der Begründung des Gesetzes lediglich der Hinweis, dass der Gesetzgeber es gern sähe, dass WLAN-Betreiber nicht mehr für Rechtsverstöße Dritter abgemahnt und auf Unterlassung in Anspruch ge- nommen werden können.
Echte Rechtssicherheit für offene Funknetze wurde damit gerade noch nicht erreicht. Im Gegensatz zum eigentlichen Gesetzestext ist die Begründung nicht bindend.
Gerichte können sie zur Auslegung heranziehen, müssen die dort dargelegte Sichtweise aber nicht zwingend teilen. Daher erwirkte die TMG-Novelle des Jahres 2016 noch keinen Durchbruch bei der Anpassung der Störerhaftung. Dazu hätte der Gesetzgeber die Betreiber im Gesetz ausdrücklich insbesondere von Unterlassungsansprüchen freistellen müssen. Dazu kam es erst durch eine weitere Gesetzesänderung Mitte 2017. Hiernach stellt die Neufassung von § 7 Abs. 4 S. 3 TMG klar, dass die Zugangsanbieter Dritten nicht mehr für das Verhalten der WLAN-Nutzer haften. Trotz dieser Erneuerung der Gesetzeslage verbleiben für den Betrieb öffentlicher WLAN-Netze jedoch noch eine Reihe rechtlicher Anforderungen, etwa solche des Datenschutzes.
Zur aktuellen Rechtslage siehe Störerhaftung. Diskussion gesundheitlicher Wirkungen Die von WLAN-Geräten benutzten Funkfrequenzen liegen um 2,4 GHz beziehungsweise 5,4 GHz, also im Mikrowellenbereich. WLAN wird daher im Zusammenhang mit möglichen gesundheitlichen Auswirkungen im Rahmen der elektromagnetischen Um- Weltverträglichkeit diskutiert. Nach mehreren Studien, u. a. des Bundesamts für Strahlenschutz (BfS), gibt es innerhalb der gesetzlichen Expositionsgrenzwerte nach dem aktuellen Stand der Wissenschaft keine Hinweise, dass diese hochfrequenten elektromagnetischen Felder gesundheitliche Risiken darstellen.
Die einzige gesicherte biologische Auswirkung ist die thermische Erwärmung. Der zugehörige Prozess heißt dielektrische Erwärmung. Um Schäden durch thermische Er wärmung zu vermeiden, wurde ein Grenzwert für die spezifische Absorptionsrate defi niert. Im normalen Betrieb wird dieser Grenzwert bei körperfernem Betrieb weit unter- schritten. Lediglich Laptopnutzer kommen nahe an die Grenzwerte, wenn sie ihr Gerät auf ihrem Oberschenkel aufgelegt haben.
Unabhängig von den bisherigen Erkenntnissen empfiehlt das Bundesamt für Strahlenschutz (BfS) generell, die persönliche Strahlenbelastung zu minimieren, um mögliche, aber bisher nicht erkannte gesundheitliche Risiken gering zu halten.
Es gibt vereinzelt Berichte von Personen, die über verschiedene Beschwerden klagen und diese selbst auf WLANs zurückführen. Verschiedene Untersuchungen mit elektro- sensiblen Menschen konnten aber keinen Zusammenhang zwischen den Beschwerden und elektromagnetischer Strahlung feststellen.
29. Wi-Fi
Wi-Fi (englisch ['wai ,fai ]) bezeichnet sowohl ein Firmenkonsortium, das Geräte mit Funkschnittstellen zertifiziert, als auch den zugehörigen Markenbegriff.
Wi-Fi ist ein für Vermarktungszwecke erfundener Kunstbegriff, der in Analogie zu Hi- Fi gebildet wurde. Ob es wie dieser eine Abkürzung darstellt, wird bezweifelt; das Wi steht sicher für Wireless.
Oft wird Wi-Fi als Synonym für WLAN benutzt. Streng genommen sind WLAN und Wi-Fi jedoch nicht dasselbe: WLAN bezeichnet das Funknetzwerk, Wi-Fi hingegen die Zertifizierung durch die WiFi-Alliance anhand des IEEE-802.1 1 -Standards - alle Wi-Fi-zertifizierten Produkte sind somit 802.1 1 -konform. Wi-Fi Alliance
1999 wurde die Organisation ursprünglich unter dem Namen Wireless Ethernet Compa- tibility Alliance (WECA) gegründete. 2002 benannte sich die WECA um in die Wi-Fi Alliance.
Die Aufgabe der Wi-Fi-Alliance ist, die Produkte verschiedener Hersteller auf der Basis des IEEE-802.11 -Standards zu zertifizieren und so den Betrieb mit verschiedenen Wireless-Geräten zu gewährleisten (Interoperabilität). Hintergrund war, dass in vielen Produkten der Standard nicht vollständig implementiert bzw. durch proprietäre Erweite- rungen aufgeweicht wurde. Dadurch ergaben sich häufig Inkompatibilitäten zwischen Produkten verschiedener Hersteller.
Die Wi-Fi-Alliance testet entsprechende Komponenten nach eigenen Richtlinien. Produkte, die die Prüfung bestehen, erhalten das Wi-Fi-Zertifikat und dürfen damit das Lo- go "Wi-Fi" tragen. Allerdings werden lediglich die Produkte der Wi-Fi- Mitglieder getestet. Die Mitglieder müssen zusätzlich zur Mitgliedsgebühr für jede geprüfte Komponente eine Gebühr entrichten. Ein fehlendes Wi-Fi-Logo stellt demzufolge nicht zwingend eine Abweichung vom Standard dar. Das Konsortium gab am 31. Oktober 2002 bekannt, mit Wi-Fi Protected Access (WPA) eine Teilmenge des damals zukünftigen IEEE-Standards 802.1 l i als neue Verschlüsselungstechnik zu etablieren, um noch vor der Verabschiedung des neuen Standards das als unsicher geltende Verschlüsselungsverfahren WEP abzulösen.
Nach der Verabschiedung von 802.1 l i prägte die Wi-Fi analog dazu den Begriff WPA2.
Die Wi-Fi-Alliance umfasst über 300 Unternehmen als Mitglieder. Anbei eine Auswahl der Mitglieder. 30. Bluetooth
Bluetooth ['blu:tu:0] ist ein in den 1990er Jahren durch die Bluetooth Special Interest Group (SIG) entwickelter Industriestandard gemäß IEEE 802.15.1 für die Datenübertragung zwischen Geräten über kurze Distanz per Funktechnik (WPAN). Dabei sind verbindungs lose sowie verbindungsbehaftete Übertragungen von Punkt zu Punkt und
Ad-hoc- oder Piconetze möglich. Der Name„Bluetooth“ leitet sich vom dänischen König Harald Blauzahn (englisch Harald Bluetooth) ab, der verfeindete Teile von Norwegen und Dänemark vereinte. Das Logo zeigt ein Monogramm der altnordischen Runen * und 15.
Die Funkverfahren für Bluetooth wurden ursprünglich in wesentlichen Teilen durch den niederländischen Professor Jaap Haartsen und den Schweden Sven Mattisson für Ericsson entwickelt. Andere Teile wurden vor allem von Nokia und Intel ergänzt. Bluetooth bildet eine Schnittstelle, über die sowohl mobile Kleingeräte wie Mobiltelefone und PDAs als auch Computer und Peripheriegeräte miteinander kommunizieren kön- nen. Hauptzweck von Bluetooth ist das Ersetzen von Kabelverbindungen zwischen Ge räten.
Technischer Hintergrund
Geräte nach den Standards der Bluetooth SIG senden als Short Range Devices (SRD) in einem lizenzffeien ISM-Band (Industrial, Scientific and Medical Band) zwischen 2,402 GHz und 2,480 GHz. Sie dürfen weltweit zulassungsfrei betrieben werden. Störungen können aber zum Beispiel durch WLANs, Schnurlostelefone (DECT-Telefone in Europa haben ein anderes Frequenzband) oder Mikrowellenherde verursacht werden, die im selben Frequenzband arbeiten.
Um Robustheit gegenüber Störungen zu erreichen, wird ein Frequenzsprungverfahren (frequency hopping) eingesetzt, bei dem das Frequenzband in 79 Kanäle im 1-MHz- Abstand eingeteilt wird, die bis zu 1600-mal in der Sekunde gewechselt werden. Es gibt jedoch auch Pakettypen, bei denen die Frequenz nicht so oft gewechselt wird (Multislot-Pakete). Am unteren und oberen Ende gibt es jeweils ein Frequenzband als Sicherheitsband (engl.:„guard band“) zu benachbarten Frequenzbereichen. Theoretisch kann eine Datenübertragungsrate von 706,25 kbit/s beim Empfang bei gleichzeitigen 57,6 kbit/s beim Senden erreicht werden (asymmetrische Datenübertra gung).
Ab der Version 2.0 + EDR können Daten mit EDR (Enhanced Data Rate) maximal et- wa dreimal so schnell übertragen werden, also mit rund 2,1 Mbit/s. Bereits ab Version 1.1 kann ein Bluetooth-Gerät gleichzeitig bis zu sieben Verbindungen aufrechterhalten, wobei sich die beteiligten Geräte die verfügbare Bandbreite teilen müssen (Shared Me dium). Bluetooth unterstützt die Übertragung von Sprache und Daten. Allerdings können die meisten Geräte während der notwendigerweise synchronen Übertragung von Sprache lediglich drei Teilnehmer in einem Piconet verwalten.
Eine Verschlüsselung der übertragenen Daten ist ebenfalls möglich. Klassen und Reichweite
Klasse Maximale Leistung Reichweite
(mW) (dBm) allgmein im Freien
Klasse 1 100 +20 ca. 100m ca. 100m
Klasse 2 2,5 +4 ca. 10m ca. 50m
Klasse 3 1 0 ca. Im ca, 10m
Die tatsächlich erzielbare Reichweite hängt neben der Sendeleistung von einer Vielzahl von Parametern ab. Hierzu zählen beispielsweise die Empfindlichkeit eines Empfängers und die Bauformen der auf Funkkommunikationsstrecken eingesetzten Sende- und Empfangsantennen. Auch die Eigenschaften der Umgebung können die Reichweite be- einflussen, beispielsweise Mauern als Hindernisse innerhalb der Funkkommunikationsstrecken. Auch die Typen der Datenpakete können wegen Unterschieden in Länge und Sicherungsmechanismen Einfluss auf die erzielbare Reichweite haben. Um höhere Übertragungsraten über das weltweit verfügbare 2,45-GHz-ISM- Frequenzband zu ermöglichen, plant die Bluetooth SIG die Alternate MAC/PHY- Bluetooth- Erweiterung; hierbei wird Bluetooth um die PHY- und MAC-Schicht der IEEE-802.1 1- Spezifikationen (WLAN-Standards) erweitert. Abhör- und Eindringsicherheit
Als abhörsicher oder sicher gegen unbefugtes Eindringen gelten Bluetooth- Übertragungen nur dann, wenn sie als Verbindung mit mehrstufiger dynamischer Schlüsselvergabe betrieben werden. Bei statischer Schlüsselvergabe ist die Sicherheit eingeschränkt. Bei Übertragung des Schlüssels ist genau dieser Teil der Kommunikation besonders ge- fahrdet, da erst der erfolgreiche Schlüsselaustausch eine Verbindung schützt.
Bluetooth gilt nur dann nicht mehr als sicher, wenn der PIN-Code zu kurz gewählt ist (etwa vier Dezimalziffern oder weniger). Die israelischen Forscher A. Wool und Y. Shaked beschrieben in ihrem Artikel vom Frühjahr 2005 ein Verfahren, mit dem Lauscher eine vorhandene, abhörsichere Verbindung unterbrechen und unter Umständen in eine neue Verbindung einbrechen können. Dieses Daten-Phishing beruht darauf, eine bestehende Verbindung durch entsprechende Störsignale zu unterbrechen und die Teilnehmer dazu zu bewegen, erneut eine authentifizierte Verbindung aufzubauen. Dabei müssen die Angegriffenen erneut ihre PIN bei den verwendeten Geräten einge ben. Die daraufhin stattfindende Authentifizierung mit Neuaushandlung des Verbindungsschlüssels kann dann mit einfach erhältlicher Spezialhardware abgehört und bei schlecht gewählter (weil zum Beispiel achtstellig- numerischer) PIN durch Ausprobieren geknackt werden. Dieser Brute-Force-Angriff kann durch FPGA-Boards weiter be- schleunigt werden. Dies ist kein rein akademischer Angriff, und zum Beweis existiert ein frei zugängliches Programm namens BTCrack. Der Angreifer befindet sich nach er- folgreichem Angriff im Besitz des geheimen Verbindungsschlüssels und kann beliebige Verbindungen zu den angegriffenen Geräten aufbauen. Jedoch muss der Angreifer die Bluetooth- Adresse eines verbundenen Bluetooth-Moduls kennen. Dies kann, entgegen weitläufigen Meinungen, nicht durch den„Unsichtbarkeitsmodus“ unterbunden werden.
Dieser Angriff ist dann möglich, wenn der Angreifer die Kommunikation während des Pairing-Prozesses abhört, der Angegriffene eine Neu-Authentifizierung vomimmt und er eine zu kurze PIN verwendet. Für Geräte, die die Schlüssel permanent speichern, besteht demnach keine Gefahr, da nach Verbindungsstörungen oder manuellem erneuten Verbindungsaufbau keine erneute PIN-Authentifizierung ausgelöst wird, sondern auf den auf beiden Geräten gespeicherten Schlüssel zurückgegriffen wird.
Als Schutz vor solchen Angriffen empfehlen die Autoren daher, Gegenstellen möglichst selten mit PIN-Eingabe anzumelden. Sicherer sei es, einmal erkannte Gegenstellen dau- erhaft in den jeweiligen Authentifizierungslisten zu speichern und eine Reauthentifizie- rung per PIN zu deaktivieren. Außerdem sollten Benutzer PINs mit deutlich mehr als acht Zeichen Länge verwenden, falls die verwendete Software dies gestattet. Das Blue- tooth-Protokoll sieht bis zu 16 beliebige Zeichen (128 Bit) vor. Darüber hinaus sollte eine unerwartete Aufforderung zur erneuten Authentifizierung hellhörig machen und zur Vorsicht mahnen.
Fehlerbehandlung
Bluetooth kennt bis zur Version 2.0 zwei elementare Arten der Fehlerbehandlung (sofern verwendet):
1. 1/3- und 2/3-FEC-Blockcodierung; ermöglicht Fehlerkorrektur beim Empfänger
2. ARQ (Automatic Repeat Request), ermöglicht Fehlererkennung beim Empfänger. Bei Fehlern wird das entsprechende Paket neu angefordert.
Systemarchitektur
Scatternet (Master = rot, Slave = grün, geparkt = blau) Ein Bluetooth-Netzwerk (Piconet) besteht aus bis zu acht aktiven Teilnehmern, welche über eine 3-Bit-Adresse angesprochen werden können. Alle nicht aktiven Geräte kön nen im Parkmodus die Synchronisation halten und auf Anfrage im Netz aktiviert werden. Für den Parkmodus gibt es eine 8-Bit- Adresse, welche 255 Teilnehmer („slaves“) ansprechen kann. Darüber hinaus kann über die 48-Bit- Geräteadresse die Anzahl der passiven Teilnehmer nochmal erhöht werden.
Der„Master“ steuert die Kommunikation und vergibt Sende-Zeiteinheiten (engl „slots“) an die„Slaves“ (Zeitmultiplexverfahren). Ein Bluetooth-Gerät kann in mehre- ren Piconetzen angemeldet sein, allerdings nur in einem Netz als Master fungieren. Bis zu zehn Piconetze bilden ein Scatternet (von to scatter = ausstreuen), wobei die Teilnehmer untereinander in Kontakt treten können. Jedes Piconet wird durch eine unterschiedliche Frequency-Hopping-Folge identifiziert. Die Datenrate leidet in diesem Scatternet jedoch meist erheblich.
Solche selbstorganisierende Funknetzwerke— Scatternet - werden proprietär implementiert, bis heute ist keine allgemeine Lösung standardisiert. Das ist dadurch begründet, dass kein Algorithmus definiert werden kann, der allen Anforderungen an ein Scatternet gleichzeitig gerecht wird und hinreichend schlank und damit schnell bleibt.
Bluetooth-Basisband
Es werden zwei unterschiedliche physische Datenkanäle zur Verfügung gestellt. Die synchrone Datenübertragung ist zur Übertragung von Sprachdaten, mit einer Datenrate von 64 kbit/s gedacht. Dieses Verfahren heißt leitungsvermittelte oder synchrone Ver- bindung (Synchronous Connection-Oriented - SCO). Die andere Übertragungsform ist die Paketvermittlung oder asynchrone Verbindung (Asynchronous Connectionless - ACL), die ein speicherndes Verhalten des Übertragungsgerätes voraussetzt, wie bei der Internet-Technik. Alles außer Sprache wird über ACL übertragen, neben allen Arten von Daten insbesondere auch Musik. Das Bluetooth-Protokoll unterstützt einen asymmetrischen Datenka- nal mit Datenraten in der Version 1.2 von maximal 732,2 kbit/s in eine Richtung und57,6 kbit/s in die Gegenrichtung, oder eine symmetrische Datenverbindung mit 433,9 kbit/s in beide Richtungen ln der EDR-Version sind höhere Datenraten erzielbar. Bis zur Version 1.2 gibt es für die SCO-Übertragung nur HV1-, HV2- und HV3-Pakete mit guter Fehlerkorrektur (HV1) bis zu keiner (HV3). Diese Pakete enthalten Audioda- ten für 1,25 ms, 2· 1,25 ms oder 3 - 1 ,25 ms und werden dementsprechend alle 1,25 ms, 2· 1,25 ms und 3· 1,25 ms gesendet. HV1 kann benutzt werden, wenn keine anderen Daten gesendet werden müssen. Allerdings hat diese Betriebsart den höchsten Stromver- brauch, weswegen fast alle Geräte HV3-Pakete nutzen. Dies hat den Vorteil, dass man nur ein Drittel der Bandbreite für Audio benötigt und den Rest der Bandbreite für ACL- Verbindungen zum selben oder zu anderen Geräten zur Verfügung stellen kann.
Mit der Version 1.2 wurde ein erweiterter synchroner Übertragungsmodus (enhanced SCO, eSCO) eingeführt. Dazu wurden neue Pakettypen und eine flexiblere Einteilung der Übertragungsperiode eingeführt. Ebenso ermöglicht dies, andere Audio-Formate zu übertragen wie z. B. der SBC-Codec, der auch in der HFP-Version eingeführt werden soll.
Werden gerade keine synchronen Datenpakete versandt, kann Bluetooth die asynchrone Übertragung anbieten. Hierüber werden alle Dienste, sowohl das Versenden von Nutz datenpaketen als auch die Übermittlung von Steuerinformationen, zwischen zwei Blue- tooth-Stationen abgewickelt.
Bluetooth-Datenpakete bestehen aus einem 72-Bit-Zugriffscode, einem 54-Bit- Header sowie einem variablen Nutzdatenfeld von 0 Bit bis 2745 Bit (Pakettyp DH5) Länge. Für Bluetooth 2.0 °+ EDR sind bis zu 8168 Bit Nutzdaten pro Paket (3-DH5) möglich.
V erbindungsaufbau
Der Aufbau einer Verbindung erfolgt immer unter der Protokollarchitektur nach Blue- tooth V2.1 usw. (Neu ist ab Standard Biuetootn V3.0 und mit dem Protokoll Bluetooth V4.0 Low Energy ein verbindungsloser Betrieb in Sende- und Empfangsrichtung mög- lieh). Eine Verbindung kann von einem beliebigen Gerät ausgehen, das sich dadurch zum„Master“ über die antwortenden„Slaves“ erhebt.
Sobald Bluetooth-Geräte in Betrieb gesetzt werden, identifizieren sich die einzelnen Bluetooth-Controller innerhalb von zwei Sekunden über eine individuelle und unverwechselbare 48 bit lange MAC-Adresse. Im Bereitschafts-Modus lauschen unverbundene Geräte in Abständen von bis zu 2,56 Sekunden nach Nachrichten (Scan Modus) und kontrollieren dabei 32 Hop-Frequenzen. Der Kontakt zu den Slaves wird durch eine Inquiry-Nachricht (von englisch inquiry = Erkundigung) und danach durch eine Page- Message (von to page (engl.) = (per Lautsprecher) ausrufen, message (engl.) = Nachricht) hergestellt, falls die Hardware-Adresse der Geräte unbekannt ist. Bei bekannter Adresse fallt der erste Schritt weg. Im Page- Zustand sendet der Master 16 identische Page-Telegramme auf 16 unterschiedlichen Hopping-Frequenzen, die für die Slaves bestimmt sind. Danach befinden sich die Stationen im Status verbunden. Durchschnittlich wird eine Verbindungsau fnahme innerhalb des halben Scanintervalls, z. B. 2,56/2 Sekunden (1,28 Sekunden), erreicht.
Findet der Master keinen Slave innerhalb einer eingestellten Zeit, so werden auf weiteren 16 Hopping-Frequenzen Page-Telegramme gesendet. Diese Gruppierung soll bei bekannter„Slave Clock“ einen zügigen Verbindungsaufbau gewährleisten. Beim adaptiven Hopping werden die Frequenzen ausgelassen, die bereits durch andere Master belegt sind.
Seit 2005 kann zum Verbindungsaufbau zweier Bluetooth-Geräte optional NFC genutzt werden. Dieses zusätzliche RF-Protokoll unterstützt Bluetooth insbesondere beim erstmaligen Pairing von Bluetooth-OBEX.
Bluetooth-Protokollarchitektur
Die Bluetooth-Spezifikation wurde von der Bluetooth Special Interest Group (SIG) entwickelt. Diese beinhaltet Protokolle in einer hierarchischen Ordnung (Protokollstapel, engl protocol stack), mit denen interaktive Dienste und Anwendungen möglich werden, die über mobile Funkverbindungen kommunizieren.
Diese werden mit Hilfe von Funkmodulen hergestellt und sind verbindungslos oder verbindungsorientiert. Die Bluetooth Special Interest Group (SIG) hat zudem auch verschiedene Einsatzmodelle der Bluetooth-Technik entworfen. Die Spezifikation beinhaltet eine Beschreibung der Protokolle, mit denen diese Einsatzmodelle implementiert werden können. Spezielle Zusammenstellungen nach diesen Modellen werden mit den Profilen benutzt.
Mit Bluetooth Low Energy wird kein Energiesparmodus bezeichnet, sondern ein spezieller Protokollstapel, der sich vom zuvor bekannten Protokollstapel unterscheidet, diesen nicht ersetzt, aber neue Möglichkeiten für geringen Energieverbrauch eröffnet. Energiesparmodi
Wenn keine Daten zu übertragen sind, kann eine Verbindung zwischen einem Master und einem Slave in einen Energiesparmodus versetzt werden.
Es gibt drei Energiesparmodi:
-Der HOLD-Modus wird zur asynchronen Abwesenheit eingesetzt. Zum Bei- spiel kann ein Slave mitteilen, dass er ab einem gewissen Zeitpunkt für 200 ms nicht zuhört. Der Master adressiert dann den Slave für die angegebene Zeit nicht, und der Slave hört dann auch nicht auf Master-Pakete. Beide Geräte können dann die Zeit für andere Aktivitäten nutzen (scanning, scatter- net etc.). -Der SNIFF-Modus (von to sniff (engl.) = schnüffeln) wird zur reduzierten periodischen Aktivität eingesetzt. Es kann z. B. ein Slave oder Master mitteilen, dass er nur noch alle 500 ms für einige Zeitfenster ("slots") zuhört. Der SNIFF- Modus wird bei fast allen Geräten, die Energieverbrauch senken sollen, einge- setzt.
-Der PARK-Modus wird eingesetzt, um ein Gerät synchronisiert zu halten. Das Gerät kann aber nicht aktiv am Datenverkehr teilnehmen. Der Park-Modus wird zwar von fast allen Chipsätzen unterstützt, aber trotzdem kaum angewen- det. Details zur Reduzierung des Energieverbrauchs zwecks geringerer Belastung kleiner Batterien sind bei allen bisherigen und neuen Modi von der jeweiligen Abstimmung von Master und Slave abhängig. Sicherheitsmodi
Der Bluetooth-Standard definiert folgende drei Sicherheitsstufen, von der unsichersten angefangen hin zur sichersten:
-Modus 1 (Non-Secure Mode): In diesem Modus gibt es keine Sicherheitsme- chanis- men. Die Geräte wechseln nur fortlaufend die Frequenz, um das Abhö- ren zu erschweren.
-Modus 2 (Service-Level Enforced Security): In diesem Modus liegt es bei den benutzten Diensten, auf dem Application Layer Sicherheitsmechanismen durchzusetzen. Dien- ste können für alle Geräte offen sein, nur eine Authentifi- zierung vorsehen oder noch zusätzlich eine Autorisierung erfordern.
-Modus 3 (Link-Level Enforced Security): In diesem Modus findet schon beim Verbindungsaufbau eine Authentifizierung auf dem Link Layer statt. Verschlüs- selung ist op- tional.
Viele Mobiltelefone können per Bluetooth Daten übertragen. Böswillige Angreifer können unter Umständen per Bluetooth durch unvorsichtig konfigurierte Geräte oder fehlerhafte Implementierungen des Bluetooth-Protokolls in den Geräten hohen finanzi- eilen Schaden durch den Anruf kostenpflichtiger Telefon- und SMS-Dienste verursa chen, private Nutzerdaten lesen, Telefonbucheinträge schreiben und die Liste angerufe ner Nummern zwecks Vertuschung manipulieren. Allgemeine, geräteunabhängige DoS- Angriffe auf Netzwerkprotokollebene sind mit einfachen Mitteln möglich (z. B.„Ping“- Anforderungen mit großen Paketen).
B luetooth-Protoko 1 lstape 1 Bluetooth-Protokollstapel sind Softwarepakete mit Treibern, die eine Verbindung mit Bluetooth-Geräten ermöglichen und Dienste zur Verwendung unterschiedlicher Blue- tooth-Profile enthalten. Welchen Stack man benutzen kann, hängt vom Treiber und vom verbauten Chip ab.
Die bekanntesten Protokollstapel bzw. deren Hersteller sind:
-Affix
-BlueFRITZ! von AVM (Entwicklung eingestellt)
-BlueSoleil von IVT
-BlueZ (Standard unter Linux)
-In The Hand
-lwBT
-Microsoft
-Stollmann
-Toshiba
-Widcomm von Broadcom
Bluetooth-Stack ist auch eine Bezeichnung für Softwarepakete, die für die Entwicklung von Java-Anwendungen mit Bluetooth-Funktionalität benötigt werden. Soll beispielsweise eine J2ME-Anwendung mit einem J2SE-Server kommunizieren können, wird neben einem Bluetooth-Treiber (s. o.) ein Bluetooth-Stack als Schnittstelle zwischen dem Treiber (z. B. Widcomm) und Java benötigt. Bluetooth- Stacks für Java sind bei spielsweise:
-Avetana
-BlueCove Bluetooth-Profile
Siehe auch: Bluetooth-Profile
Daten werden zwischen Bluetooth-Geräten gemäß sogenannten Profilen ausgetauscht, die für die Steuerung bestimmter Dienste als Schicht über der Protokollschicht festgelegt sind. Sobald eine Bluetooth- Verbindung aufgebaut wird, wählen die Geräte das je- weils benutzte Profil aus und legen damit fest, welche Dienste sie für die jeweiligen anderen Partner zur Verfügung stellen müssen und welche Daten oder Befehle sie dazu benötigen. Ein Headset fordert beispielsweise von einem Bluetooth kompatiblen Mobiltelefon einen Audiokanal an und steuert über zusätzliche Datenkanäle die Lautstärkeeinstellung oder -regelung. Geschichte
Schon seit den späten 1980ern gibt es verschiedene Bestrebungen, das Kabelgewirr rund um eine Computerinstallation durch Funkperipherie (z. B. Funktastaturen, Drucker mit Infrarotschnittstelle etc.) zu vermeiden. Verschiedene Unzulänglichkeiten (hoher Stromverbrauch, gegenseitige Störungen usw.) und vor allem fehlende Standards ver- hinderten den Durchbruch dieser Anfänge.
Damals war neben der Funktechnik die Infrarottechnik sehr beliebt, und es sah so aus, als ob sich letztere durchsetzen würde. Um ein herstellerübergreifendes Protokoll zu entwickeln, schlossen sich im August 1993 ca. 30 Unternehmen zusammen (darunter HP, IBM, Digital) und gründeten die Inffared Data Association (IrDA). Ziel war es, ein einheitliches Protokoll für die Datenübertragung per Infrarot zu schaffen. Zahlreiche Erkenntnisse aus der IrDA-Entwicklung flössen später auch in den neugewonnenen Bluetooth-Funkstandard ein. Doch hatte die IrDA-Technik mit einem zentralen Nachteil zu kämpfen: Den erforderlichen Sichtkontakt zwischen Sender und Empfänger. Daher wurde 1994 die Firma Ericsson mit einer Machbarkeitsstudie beauftragt, die einen funkbasierten Ersatz für Kabelverbindungen finden sollte. Die Studie lieferte ein positives Ergebnis, und 1998 gründeten Ericsson, Nokia, IBM, Toshiba und Intel die Bluetooth Special Interest Group (SIG) zur Ausarbeitung eines Standards, der verbindliche Spezifikationen festlegte. Als erste endgültige Spezifikation veröffentlichte die SIG Version 1.0a im Juli 1999, Version 1.0b folgte im Dezember desselben Jahres. Erst im Februar 2001 wurde der Standard in der Version 1.1 vorge- legt. Dieser galt als die erste solide Basis für marktgerechte Produkte, da die Vorversio nen eine Reihe von Ungenauigkeiten und Fehlern aufwiesen. Die Namensgebung„Bluetooth“ ist eine Hommage an den dänischen Wikingerkönig Harald Blauzahn, der für seine Kommunikationsfahigkeit bekannt war. Ihm gelang es im 10. Jahrhundert, Dänemark weitgehend zu vereinen und zu christianisieren. [14] Der Name„Bluetooth“ war ursprünglich ein Codename für die entwickelte Technik, der später mangels guter Alternativen auch als Markenname verwendet wurde. Die Wahl eines skandinavischen Namensgebers erfolgte wegen der hohen Beteiligung der Firmen Ericsson und Nokia an der Bluetooth-Entwicklung.
Ältere Bluetooth-Versionen
Eine Auswahl wichtiger Eigenschaften der bisherigen Bluetooth-Versionen, die inzwischen allesamt nicht mehr der letzten Überarbeitung zur Version 4.0 vom Dezember 2009 (s. o.) entsprechen, sind:
-Bluetooth 1.0 und 1.0B (Juli 1999)
Enthielt Sicherheitsprobleme durch Bluetooth Hardware Device Address Transmission (BD ADDR); maximale Datenübertragungsrate von 732,2 kbit/s
-Bluetooth 1.1 (Februar 2001)
Indikator für die Signalstärke hinzugefügt Received Signal Strength Indication (RSSI); maximale Datenübertragungsrate von 732,2 kbit/s
-Bluetooth 1.2 (November 2003)
Weniger empfindlich gegen statische Störer (zum Beispiel WLAN) durch Adaptive Frequency-Hopping spread spectrum (AFH); neue Pakettypen für synchrone Übertra- gung (eSCO); maximale Datenübertragungsrate vonl Mbit/s
-Bluetooth 2.0 + EDR (November 2004)
Etwa dreifache Datenübertragungsgeschwindigkeit durch Enhanced Data Rate (EDR) mit maximal 2,1 Mbit/s; abwärtskompatibel, d. h., es können gleichzeitig EDR- und Nicnt-EDR-Verbindungen bedient werden. -Bluetooth 2.1 + EDR (auch Lisbon Release genannt, August 2007) Neue Funktionen wie Secure Simple Pairing, Quality of Service.
-Bluetooth 3.0 + HS (auch Seattle Release genannt, April 2009)
Für diese Version ist die Unterstützung eines zusätzlichen Highspeed (HS)- Kanals auf Basis von WLAN und UWB verfügbar. Die Nutzung von WLAN ist dabei lokal deutlich eingeschränkt. Die Kommunikation funktioniert zwischen einzelnen Geräten (Peer- to-Peer) und nicht durch Verteilung (Multicast). Dafür braucht sich der Nutzer auch nicht anzumelden, die L2CAP-Protokollschicht wurde erweitert, um neben dem Stan- dard-Bluetooth-Kanal zusätzlich diesen Highspeed-Kanal zu unterstützen. Damit kann eine theoretische Übertra- gungsrate von 24 Mbit/s erreicht werden.
Bei UWB (Ultrabreitband) als physikalische Übertragungsart (basierend auf der Spezifikation ECMA-368) und WiMedia MAC als Protokollschicht waren bis zu 480 Mbit/s geplant. Auf dieser Spezifikation hätten auch andere Proto- kolle wie WUSB und IP aufgesetzt werden sollen.Die Spezifikation wurde im Oktober 2009 aufgegeben.
-Bluetooth 3.0 + DER
„EDR“ steht für„Enhanced Data rate“.
-Bluetooth 4.0
Die Spezifikation 4.0 wurde am 17. Dezember 2009 verabschiedet. Mit diesem Stan dard wurde erstmals der Protokollstapel Low Energy verfügbar und neue Profile zu Low Energy kamen seitdem laufend hinzu. Entsprechende Chips waren in kleinen Stückzahlen bereits ab dem 4. Quartal 2010 verfügbar, weitere Hinweise ließen mit Bluetooth 4.0 ausgestattete Mobiltelefone ab dem 1. Quartal 201 1 erwarten. Im Juni 201 1 schließlich waren Bluetooth-4.0-konforme Chips bereits von Atheros, CSR, Nor- dic Semiconductor, Texas Instruments, Toshiba sowie EM Microelectronic Marin verfügbar. -Der Standard 4.0 ist abwärtskompatibel mit allen Vorgänger-Versionen.[21] Für Ver bindungen mit den bisherigen Protokollen kommt eine verbesserte Fehler- korrektur zum Einsatz, iur das erforderliche Maß an Sicherheit soll eine AES- Verschlüsselung mit 128 Bit verwendet werden.
-Bluetooth Low Energy/Smart ist ein Teil des 4.0-Standards, bietet allerdings keine Abwärtskompatibilität. Dafür ist es möglich, in weniger als fünf Millise- künden eine Übertragung aufzubauen und diese bis zu einer Entfernung von 100 Metern auffechtzu- erhalten.
-Der wichtigste Vorteil bei Einsatz von Bluetooth Low Energy in neuen Endge- räten ist die Reduzierung des Stromverbrauchs durch Optimierungen, wie die kürzere Aufbauzeit für eine Übertragung oder die Schlafphasen zwischen den synchronisierten Sendezyklen. Allerdings können dadurch keine Audiodaten mehr übertragen werden. -Hybride Geräte, die sowohl Bluetooth Classic als auch Bluetooth Low Energy unterstützen, werden„Smart Ready“ genannt.
Ankündigungen zur Verfügbarkeit von Endgeräten mit Bluetooth 4.0 blieben bis Mitte 201 1 spekulativ und ohne Bestätigung der Lieferbarkeit. Seitdem sind eine Vielzahl verschiedener Endgeräte unterschiedlicher Hersteller auf dem Markt, die den Bluetooth- 4.0-Standard unterstützen. Da Android Bluetooth 4.0 erst in der Mitte 2013 erschienenen Version 4.3 unterstützt, kam es zwischenzeitlich zu der Situation, dass manche Mobiltelefone zwar hardwareseitig Bluetooth 4.0 unterstützten, dies aber mangels ent sprechenden Bluetooth-Protokollstapels nicht nutzen konnten.
- Bluetooth 4.1
Im Dezember 2013 wurde Version 4.1 der Bluetooth-Spezifikation veröffentlicht. Direkt darauf wurden erste Geräte mit dem neuen Standard angekündigt, z. B. das Samsung Galaxy Note 4 und das Nexus 6.
-Bluetooth 4.2 Smart Im Dezember 2014 wurde der Bluetooth-4.2-Standard vorgestellt. Hauptaugenmerk bei der Entwicklung waren erweiterte Sicherheitsmerkmale, eine höhere Übertragungsgeschwindigkeit und ein noch sparsamerer Bluetooth-"Low Energy"- Modus. Neuere Geräte wie das Samsung Galaxy Note 5 und das Apple iPhone 6 unterstützen auch diesen Standard.
Bluetooth 5
Am 16. Juni 2016 wurde Bluetooth 5 offiziell angekündigt. Laut dieser Ankündigung soll die Reichweite vervierfacht (100 m) und die Datenrate verdoppelt (2 Mbit/s brutto ohne EDR) werden. Zusätzlich sollen neue Dienste wie Standortübermittlung eingeführt werden. Die endgültige Verabschiedung fand am 6. Dezember 2016 statt.
Einsatzbereiche Computer
Zum Betrieb von Bluetooth am PC ist spezielle Hardware erforderlich. Manche Compu- ter (zumeist Notebooks) haben diese bereits integriert, ansonsten sind auch kleine, an der USB-Schnittstelle angeschlossene Geräte oder PCMCIA-Karten für diesen Zweck erhältlich. Außerdem spielt das verwendete Betriebssystem eine entscheidende Rolle. Unter Microsoft Windows ist es seit Windows XP SP2 dank des mitgelieferten Microsoft Bluetooth- Stacks nicht mehr erforderlich, einen speziellen Treiber zu instal- Heren. Eine größere Auswahl an unterstützenden Profilen hat man jedoch mit den Blue- tooth-Stacks anderer Hersteller. Auch aktuelle Linux- Distributionen und Apple- Macintosh-Modelle unterstützen Bluetooth durch eigene, jeweils zertifizierte Bluetooth- Stacks. Wer einen PC mit Bluetooth zur Verfügung hat, kann außerdem mit der passen den Software andere Bluetooth-Geräte in Reichweite aufspüren und, je nach Funktions- umfang der Software, eine detaillierte Auflistung der offenen Dienste einsehen. Solche Software wird als Bluetooth-Scanner bezeichnet.
Bluetooth- Anwendungen am Computer -SCO-Audio: synchroner Headset-Betrieb (Skype, SIP usw.) -AV- oder A2DP-Audio: HiFi-Musikwiedergabe geeignet zum Anschluss eines oder mehrerer Kopfhörer
-Mobiltelefon-Synchronisation (Kontakte, Musikdateien, mobiler Internet-Zu- gang usw.)
-HID: Eingabegeräte wie Maus und Tastatur
-Motion Capturing: Übertragung von Bewegungsdaten an den Auswertungs- Computer (zum Beispiel Xsens MVN)
-Zwei-Faktor-Authentifizierung nach dem U2F-Standard der FIDO-Allianz Freisprech anlagen und Headsets
Viele Autoradios fungieren als Freisprechanlage, indem sie das Mobiltelefon über Blue- tooth einbinden, so dass auf die Installation spezieller Handy-Halterungen im Auto ver zichtet werden kann. Über Bluetooth kann nicht nur ein Anruf entgegengenommen werden, sondern auch gewählt und navigiert werden. Sinnvolle Zusatzinformationen wie Nummer des Anrufenden bzw. dessen Namen werden ebenfalls vom Handy - Adressbuch per Bluetooth an das Autoradio übertragen. Auch Freisprechanlagen außerhalb des Autos funktionieren über Bluetooth. Headsets, die über Bluetooth verbunden werden, können oft über eine entsprechende Taste auch eingehende Anrufe entgegennehmen.
Die Unterstützung solcher Steuerfunktionen (z. B. Aktivierung des Sprachassistenten am Smartphone) variiert stark mit den verwendeten Geräten und ist abhängig von den Hersteller-Chips, resp. deren Programmierung gemäß den Möglichkeiten der entsprechenden Bluetooth-Protokollstapel. Spielgeräte
Die Spielzeugindustrie verwendet diese Technik, um Puppen und Spielzeugtiere untereinander kommunizieren und interagieren zu lassen.
Auch die Controller der Nintendo Wii / Wii U / Switch, der Playstation 3 / Playstation 4, der Xbox One S / Xbox One X, Lego Mindstorms EV3 und der Ouya nutzen Blue- tooth zur Kommunikation mit der Konsole. Kommunikation
Bluetooth-Hotspots als Funkzelle ermöglichen einen schnurlosen Zugriff auf ein Netzwerk, wie das Internet oder ein Unternehmens-LAN. Audiogeräte ohne Bluetooth, ins besondere ältere Mobiltelefone und Festnetztelefone, können über einen angeschlosse- nen Adapter eingeschränkt um Bluetooth erweitert werden. Speziell für Motorrad sprechanlagen wird in den letzten Jahren von vielen Herstellern vermehrt Bluetooth eingesetzt, mit Reichweiten bis zu 1 ,6 km. Besondere Vorteile sind sehr kleine Baugrößen und der Verzicht auf störende Kabel.
Über Bluetooth können auch universelle zusätzliche Faktoren für die Zwei-Faktor- Au- thentifizierung mit Betriebssystemen oder Webbrowsern kommunizieren, wie zum Beispiel Security-Tokens für den offenen U2F-Standard der FIDO-Allianz.
Industrie
Aufgrund des eingesetzten adaptiven Frequenzsprungverfahrens (AFH) bietet Bluetooth eine sehr zuverlässige und störungsresistente Funkverbindung. Dieser Vorteil von Bluetooth gegenüber anderen Funktechniken wurde frühzeitig von verschiedenen Herstellern für Automatisierungsprodukte (z. B. Phoenix Contact, WAGO Kontakttechnik GmbH & Co. KG, Schildknecht AG) erkannt. Daraufhin wurden Bluetooth-basierende Industrieprodukte entwickelt, die in verschiedensten Bereichen der Industrie eingesetzt werden, um kabellos zwischen verschiedenen Komponenten in Maschinen zu kommunizieren.
Mittlerweile hat die PROFIBUS Nutzerorganisation e. V. (PNO) Bluetooth neben WLAN als Trägerverfahren für kabellose Übertragung von PROFINET-Datenpaketen auf der Feldbus-Ebene definiert. Auf der Sensor/ Aktor-Ebene wurde im PNO-Standard WSAN-FA ebenfalls 802.15.1 als Trägertechnologie verwendet, jedoch mit einem anderen Protokollstack. Auch die Vereinigung CAN in Automation (CiA) plant die Spezifikation eines auf Bluetooth basierenden Systems für die kabellose Übertragung von CAN-Telegrammen. Insgesamt untermauern die Standardisierungsbestrebungen die Tauglichkeit von Bluetooth für die industrielle Automation. Haustechnik
Im Bereich Hausautomation und Alarmsysteme gibt es Produkte, welche Bluetooth 2.0 nutzen.
Eine weitere Anwendung ist Bluetooth als Schlüssel, wofür jedes Bluetooth-fähige Ge- rät als Schlüssel eingesetzt werden kann. Es ist hierfür keine weitere Software auf den Geräten (Mobiltelefone) notwendig.
Medizintechnik
In der Orthopädietechnik wird Bluetooth zur Einstellung moderner Arm- und Beinpro- thesen verwendet. Einstellungen wie Standphasendämpfung und Maximallast lassen sich per Bluetooth vornehmen.
Hörgeräte in höheren Preisklassen sind ebenfalls mit Bluetooth-Empfängern erhältlich. Damit lassen sich die Signale von Mobiltelefonen und Audio-Geräten selektiv über ei- nen Transponder ohne umgebungsbedingte Verzerrungen auf das Hörgerät übertragen. Der Transponder kommuniziert über Bluetooth und überträgt die Informationen in den Funkbereich der Hörgeräte.
Bei einigen Insulinpumpen dient Bluetooth als Schnittstelle zur Kommunikation mit einem Blutzuckermessgerät, einer Fernbedienung oder einem Personalcomputer.
Anmerkungen
„HID Proxy Mode“ für Computer ohne Bluetooth-Unterstützung
Üblicherweise stehen die Bluetooth-Eingabegeräte erst dann zur Verfügung, wenn das Betriebssystem und dessen Bluetooth-Stack geladen sind. Dadurch ist es nicht möglich, mit einer Bluetooth-Tastatur z. B. vor dem Laden des Betriebssystems Einstellungen im BIOS oder im UEFI-Einstellungsmenü vorzunehmen oder den PC per„Wake up on Keyboard“-Funktion aus dem S4-Ruhemodus zu wecken oder aus dem ausgeschalteten Modus einzuschalten. Zudem ist bei einigen Systemen das Nachrüsten einer Bluetooth- Schnittstelle aus verschiedenen Gründen nicht problemlos möglich. Dazu gehören viele Smart-TVs, vieie Microcontroiier-Boards, NAS-Systeme, Rack-Server. Einige Bluetooth-Adapter überwinden diese Probleme durch den„HID Proxy Mode“. Durch einen Mikrocontroller stellen solche Adapter selbst einen Bluetooth-Stack für Bluetooth-Eingabegeräte zur Verfügung. Diese Geräte können sich mit dem Bluetooth- Adapter vor dem Laden des Betriebssystems verbinden und somit für die Wake-Up-on- Keyboard-Funktion oder Änderungen im BIOS oder im UEFI- Einstellungsmenü verwendet werden. Der Bluetooth-Adapter gibt sich dabei dem BIOS und der UEFI- Firmware gegenüber als normales USB-HID-Eingabegerät aus. Er übergibt die BT- Funktionalität an das Betriebssystem, sobald dessen Bluetooth- Treiber und Bluetooth- Stack geladen sind, womit dann neben Bluetooth- Eingabegeräten auch andere Blue- tooth-Geräte verwendet werden können.
Die UEFI-Firmware könnte auch selbst einen Bluetooth-Stack für Bluetooth- Eingabegeräte zur Verfügung stellen, so dass Bluetooth-Eingabegeräte auch ohne HID-Proxy- Mode-Unterstützung bereits im UEFI-Menü verwendet werden können. Eine konkrete Implementierung eines Bluetooth-Stacks für die UEFI-Firmware von Hauptplatinen ist allerdings noch nicht bekannt.
31. Router
Router (['ru:ta(r)] oder ['rau to(r)]) oder Netzwerkrouter sind Netzwerkgeräte, die Netzwerkpakete zwischen mehreren Rechnemetzen weiterleiten können. Sie werden am häufigsten zur Internetanbindung, zur sicheren Kopplung mehrerer Standorte (Virtual Private Network) oder zur direkten Kopplung mehrerer lokaler Netzwerksegmente, gegebenenfalls mit Anpassung an unterschiedliche Netzwerktechniken eingesetzt (Ethernet, DSL, PPPoE, ISDN, ATM etc.).
Router treffen ihre Weiterleitungsentscheidung anhand von Informationen aus der Netzwerk-Schicht 3 (für das IP-Protokoll ist das der Netzwerkanteil in der IP- Adresse). Viele Router übersetzen zudem zwischen privaten und öffentlichen IP- Adressen (Network Address Translation, Port Address Translation, NAT/PAT) oder bilden Fire- wall-Funktionen durch ein Regelwerk ab. Die für die Kopplung von Heimnetzwerken ans Internet ausgelegten Router nennt man auch Intemetrouter.
Router arbeiten auf Schicht 3 (Vermittlungsschicht/Network Layer) des OSI- Refe- renzmodells. Ein Router besitzt mindestens eine Schnittstelle (englisch Interface), die Netze anbindet. Schnittstellen können auch virtuell sein, wenn diese z.B. zum Vermitteln von Daten zwischen virtuellen Netzen (VLAN) verwendet werden. Beim Eintreffen von Datenpaketen muss ein Router anhand der OSI- Schicht-3-Zieladresse (z. B. der Netzanteil der IP-Adresse) den besten Weg zum Ziel und damit die passende Schnitt- stelle bestimmen, über welche die Daten weiterzuleiten sind. Dazu bedient er sich einer lokal vorhandenen Routingtabelle, die angibt, über welchen Anschluss des Routers oder welchen lokalen oder entfernten Router welches Netz erreichbar ist.
Router können Wege auf drei verschiedene Arten lernen und mit diesem Wissen die Routingtabelleneinträge erzeugen:
-direkt mit der Schnittstelle verbundene Netze: Sie werden automatisch in eine Routingtabelle übernommen, wenn ein Interface mit einer IP-Adresse konfigu- riert wird und dieses Interface aktiv ist ("link up"). -statische Routen: Diese Wege werden durch einen Administrator eingetragen. Sie dienen zum einen der Sicherheit, sind andererseits nur verwaltbar, wenn ihre Zahl begrenzt ist. Die Skalierbarkeit ist für diese Methode ein limitierender Faktor.
-dynamische Routen: In diesem Fall lernen Router erreichbare Netze durch ein Rou- tingprotokoll, das Informationen über das Netzwerk und seine Teilnehmer sammelt und an die Mitglieder verteilt.
Die Routingtabelle ist in ihrer Funktion einem Adressbuch vergleichbar, in dem nachgeschlagen wird, ob ein Ziel-IP-Netz bekannt ist, also ob ein Weg zu diesem Netz exi- stiert und, wenn ja, welche lokale Schnittstelle der Router zur Vermittlung der Daten zu diesem verwenden soll. Die Routing-Entscheidung erfolgt üblicherweise nach der Si- gnifikanz der Einträge; spezifischere Einträge werden vor weniger spezifischen ge wählt. Eine vorhandene Default-Route stellt dabei die am wenigsten spezifische Route dar, welche dann genutzt wird, wenn zuvor kein spezifischer Eintrag für das Ziel(-Netz) existiert. Bei einem Bezug der gesamten Internet-Routing- Tabelle im Rahmen des In- ter-AS-Routing ist es üblich, keine Default-Route vorzuhalten.
Einige Router beherrschen englisch Policy Based Routing (für strategiebasiertes Routing). Dabei wird die Routingentscheidung nicht notwendigerweise auf Basis der Zieladresse (OSI-Layer 3) getroffen, sondern es können auch andere Kriterien des Da tenpaketes berücksichtigt werden. Hierzu zählen beispielsweise die Quell-IP- Adresse, Qualitätsanforderungen oder Parameter aus höheren Schichten wie TCP oder UDP. So können zum Beispiel Pakete, die HTTP (Web) transportieren, einen anderen Weg nehmen als Pakete mit SMTP-lnhalten (Mail). Router können nur für Routing geeignete Datenpakete, also von routingfähigen Proto kollen, wie IP (IPv4 oder IPv6) oder IPX/SPX, verarbeiten. Andere Protokolle, wie das ursprünglich von MS-DOS und MS-Windows benutzte NetBIOS und NetBEUI, die nur für kleine Netze gedacht waren und von ihrem Design her nicht routingfahig sind, werden von einem Router standardmäßig nicht weitergeleitet.
Es besteht jedoch die Möglichkeit, solche Daten über Tunnel und entsprechende Funktionen, wie Datalink Switching (DLSw), an entfernte Router zu vermitteln und dort dem Ziel zuzustellen. Pakete aus diesen Protokollfamilien werden in aller Regel durch Sy steme, die auf Schicht 2 arbeiten, also Bridges oder Switches, verarbeitet. Professionel- Ie Router können bei Bedarf diese Bridge-Funktionen wahrnehmen und werden Layer- 3-Switch genannt. Als Schicht-3-System enden am Router alle Schicht-2-Funktionen, darunter die Broadcastdomäne.
Das ist insbesondere in großen lokalen Netzen wichtig, um das Broadcast-Aufkommen für die einzelnen Teilnehmer eines Subnetzes gering zu halten. Sollen allerdings Broadcast-basierte Dienste, wie beispielsweise DHCP, über den Router hinweg funk- tionieren, muss der Router Funktionen bereitstellen, die diese Broadcasts empfangen, auswerten und gezielt einem anderen System zur Verarbeitung Zufuhren können (Relay- Agent- Funktion). Außerdem sind Ein- und Mehrprotokoll-Router (auch Multiprotokoll-Router) zu unterscheiden. Einprotokoll-Router sind nur für ein Netzwerkprotokoll wie IPv4 geeignet und können daher nur in homogenen Umgebungen eingesetzt werden. Multiprotokoll- Router beherrschen den gleichzeitigen Umgang mit mehreren Protokollfamilien, wie DECnet, IPX/SPX, SNA, IP und anderen. Heute dominieren IP- Router das Feld, da praktisch alle anderen Netzwerkprotokolle nur noch eine untergeordnete Bedeutung haben und, falls sie zum Einsatz kommen, oft auch gekapselt werden können (NetBIOS over TCP/IP, IP-encapsulated IPX). Früher hatten Mehrprotokoll-Router in größeren Umgebungen eine wesentliche Bedeutung, damals verwendeten viele Hersteller unterschiedliche Protokollfamilien, daher kam es unbedingt darauf an, dass vom Router mehrere Protokoll-Stacks unterstützt wurden. Multiprotokoll-Router finden sich fast ausschließlich in Weitverkehrs- oder ATM-Netzen.
Wichtig ist die Unterscheidung zwischen den gerouteten Protokollen (wie Internet Pro- tocol oder IPX) und Routing-Protokollen. Routing-Protokolle dienen der Verwaltung des Routing- Vorgangs und der Kommunikation zwischen den Routern, die so ihre Routing-Tabellen austauschen (beispielsweise BGP, RIP oder OSPF). Geroutete Protokolle hingegen sind die Protokolle, die den Datenpaketen, die der Router transportiert, zugrunde liegen. Typen (Bauformen)
Backbone-Router, Hardware-Router Avaya ERS-8600
Die Hochgeschwindigkeitsrouter (auch Carrier-Class-Router) im Internet (oder bei großen Unternehmen) sind heute hochgradig auf das Weiterleiten von Paketen optimierte Geräte, die viele Terabit Datendurchsatz pro Sekunde in Hardware routen können. Die benötigte Rechenleistung wird zu einem beträchtlichen Teil durch spezielle Netzwerkinterfaces dezentral erbracht, ein zentraler Prozessor (falls überhaupt vorhanden) wird nicht oder nur sehr wenig belastet. Die einzelnen Ports oder Interfaces können unabhängig voneinander Daten empfangen und senden.
Sie sind entweder über einen internen Hochgeschwindigkeitsbus (Backplane) oder kreuzweise miteinander verbunden (Matrix). Meist sind solche Geräte für den Dauerbetrieb ausgelegt (Verfügbarkeit von 99,999 % oder höher) und besitzen redundante Hardware (Netzteile), um Ausfälle zu vermeiden. Üblich ist es auch, alle Teilkomponenten im laufenden Betrieb austauschen oder erweitern zu können (hot plug). In den frühen Tagen der Rechnervernetzung war es dagegen üblich, handelsübliche Worksta- tions als Router zu benutzen, bei denen das Routing per Software implementiert war.
Border-Router
Ein Border-Router oder Edge-Router kommt meistens bei Internetdienstanbietern (Internet Service Provider) zum Einsatz. Er muss die Netze des Teilnehmers, der ihn betreibt, mit anderen Peers (Partner-Routern) verbinden. Auf diesen Routern läuft überwiegend das Routing-Protokoll BGP.
Zur Kommunikation zwischen den Peers kommt meist das Protokoll EBGP (External Border Gateway Protocol) zum Einsatz, dieses ermöglicht dem Router den Datentrans fer in ein benachbartes autonomes System.
Um den eigenen Netzwerkverkehr zu priorisieren, setzen die Betreiber oft Type of Ser vice Routing und Methoden zur Überwachung der Quality of Service (QoS) ein.
High-End-Switches
Bei manchen Herstellern (beispielsweise bei Hewlett-Packard) finden sich die Hochgeschwindigkeitsrouter (auch Carrier-Class-Router, Backbone-Router oder Hardware- Router) nicht unter einer eigenen Rubrik Router. Router werden dort gemeinsam mit den besser ausgestatteten Switches (Layer-3-Switch und höher, Enterprise Class) ver- marktet. Das ist insoweit logisch, als Switches ab dem gehobenen Mittelklasse-Bereich praktisch immer die Routingfunktionalität beherrschen.
Technisch sind das Systeme, die, ebenso wie die als Router bezeichneten Geräte, hoch- gradig auf das Weiterleiten von Paketen (Router: anhand der OSI-Schicht-3-Adresse wie die IP-Adresse, Switch: anhand der OSI-Schicht-2- Adresse, der MAC-Adresse) optimiert sind und viele Gigabit Datendurchsatz pro Sekunde bieten. Sie werden per Managementinterface konfiguriert und können wahlweise als Router, Switch und natürlich im Mischbetrieb arbeiten. In diesem Bereich verschwimmen auch finanziell die Grenzen zwischen beiden Geräteklassen mehr und mehr.
Software-Router
Anstatt spezieller Routing-Hardware können gewöhnliche PCs, Laptops, Nettops, Unix- Workstations und -Server als Router eingesetzt werden. Die Funktionalität wird vom Betriebssystem übernommen und sämtliche Rechenoperation von der CPU ausgefiihrt. Alle POSIX-konformen Betriebssysteme beherrschen Routing von Haus aus und selbst MS-DOS konnte mit der Software KA9Q von Phil Karn mit Routing- Funktionalität erweitert werden.
Windows bietet in allen NT-basierten Workstation- und Server- Varianten (NT, 2000, XP, 2003, Vista, 7) ebenfalls Routing-Dienste. Die Serverversion von Apples Mac OS X enthält Router-Funktionalität. Das freie Betriebssystem OpenBSD (eine UNIX-Variante) bietet neben den eingebauten, grundlegenden Routingfunktionen mehrere erweiterte Routingdienste, wie Open- BGPD und OpenOSPFD, die in kommerziellen Produkten zu finden sind. Der Linux- Kernel enthält umfassende Routing-Funktionalität und bietet sehr viele Konfigurationsmöglichkeiten, kommerzielle Produkte sind nichts anderes als Linux mit proprie- tären Eigenentwicklungen. Es gibt ganze Linux-Distributionen, die sich speziell für den Einsatz als Router eignen, beispielsweise Smoothwall, IPCop oder FH41. Einen Spezialfall stellt OpenWrt dar, diese erlaubt es dem Benutzer eine Firmware zu erstellen, die auf einem embedded Gerät läuft und sich über SSH und HTTP konfigurieren lässt.
Der entscheidende Nachteil von Software-Routern auf PC-Basis ist der hohe Stromverbrauch. Gerade im SoHo-Bereich liegen die Stromkosten innerhalb eines Jahres höher als der Preis für ein embedded Gerät.
DSL-Router
Ein Router, der einen PPPoE-Client zur Einwahl in das Internet via xDSL eines ISPs beinhaltet und gegenwärtig Network Address Translation (NAT) in IPv4-Netzen zur Umsetzung einer öffentlichen IPv4-Adresse auf die verschiedenen privaten IPv4- Adressen des LANs beherrscht, wird als DSL-Router bezeichnet. Häufig sind diese DSL-Router als Multifunktionsgeräte mit einem Switch, einem WLAN Access Point, nicht selten mit einer kleinen TK-Anlage, einem VoIP-Gateway oder einem DSL- Mo- dem (xDSL jeglicher Bauart) ausgestattet.
Firewall-Funktionalität in DSL-Routern
Fast alle DSL-Router sind heute NAT-fähig, mithin in der Lage Netzadressen zu übersetzen. Weil ein Verbindungsaufbau aus dem Internet auf das Netz hinter dem NAT- Router nicht ohne weiteres möglich ist, wird diese Funktionalität von manchen Herstellern bereits als NAT-Firewall bezeichnet, obwohl nicht das Schutzniveau eines Paketfilters erreicht wird. Die Sperre lässt sich durch die Konfiguration eines Port Forwarding umgehen, was für manche Virtual Private Network- oder Peer-to-Peer- Verbindungen notwendig ist. Zusätzlich verfügen die meisten DSL-Router für die Privatnutzung über einen rudimentären Paketfilter, teilweise auch statefül. Diese Paketfilter kommen bei IPv6 zum Einsatz. Wegen des Wegfalls von NAT wird Port Forwarding wieder zu einer einfachen Freigabe des Ports. Als Betriebssystem kommt auf vielen Routern dieser (Konsumer-) Klasse Linux und als Firewall meist iptables zum Einsatz. Einen Content- Filter enthalten solche Produkte zumeist nicht. Eine wohl sichere Alternative sind freie Firewall-Distributionen auf Basis wohl sichererer Betriebssysteme, zum Beispiel OPN- sense. Schutzmaßnahmen bei DSL- und WLAN-Routem
Bei entdeckten Programmierfehlern kann ein Router-Hersteller ein neues Software- Update bereitstellen, um nachzubessem bzw. Sicherheitslücken zu schließen. Wird der Router dann nicht auf den neuesten Stand gebracht, gefährdet man die eigene Netz- Werksicherheit zusätzlich. Daher ist es auch zum Schutz der persönlichen Daten unerlässlich, dass in regelmäßigen Abständen ein Software-Update durchgefiihrt wird. Weitere Maßnahmen, um Router zu schützen:
-nur aktuelle WLAN-Verschlüsselungen (WPA2) verwenden - WEP-verschlüs- selte Zugänge können binnen weniger Minuten entschlüsselt werden
- vom Hersteller vorgegebene Passwörter ändern, nur sichere Passwörter wählen -die SSID umbennen Deaktivieren von WPS und der Fernadministration
-keine Netzwerkports willkürlich und unüberlegt öffnen
-Deaktivieren von UPnP-Funktionen, die beliebiger Software das Öffnen von Netz- werkports ermöglicht
-Absichern von Diensten, die per Portweiterleitung aus dem Internet erreicht werden können
-eine leistungsfähige (dedizierte) stateful-Firewall wie pfSense oder OPNsense (letztere mit ASLR und LibreSSL) mit einem reinen DSL-Modem
WLAN-Router
Die Kombination aus Wireless Access Point, Switch und Router wird häufig als WLAN-Router bezeichnet. Das ist solange korrekt, wie es Ports für den Anschluss mindestens eines zweiten Netzes, meist einen WAN-Port, gibt. Das Routing findet zwi- sehen den mindestens zwei Netzen, meist dem WLAN und WAN statt (und falls vorhanden zwischen LAN und WAN). Fehlt dieser WAN-Port, handelt es sich lediglich um Marketing-Begriffe, da reine Access Points auf OSI-Ebene 2 arbeiten und somit Bridges und keine Router sind.
Häufig sind WLAN-Router keine vollwertigen Router, sie haben oft die gleichen Ein- Schränkungen wie DSL-Router (PPPoE, NAT). Bei IPv6 entfällt bei diesen Geräten NAT, lediglich in der Übergangsphase muss der Router noch zusätzlich Tunnelprotokolle wie 6to4 beherrschen.
Router in der Automatisierung
Mit der Durchdringung von Netzwerktechnik in der industriellen Automatisierung werden verstärkt Modem-Router mit externem Zugang über Telefon- und Mobilfunkverbindungen eingesetzt. Industriegeräte sind Software-Router auf Basis von embedded Linux, die nicht auf hohen Durchsatz, sondern auf mechanische Robustheit, Befesti gung im Schaltschrank und Langlebigkeit optimiert sind.
Software- oder Hardware-Router
Generell leisten Software-Router überwiegend im nicht professionellen Umfeld wertvolle und umfangreiche Dienste. Allgemein gibt es für Software-Router zwei unterschiedliche Implementierungsarten, zum einen dedizierte Router, dabei wird ein PC, ei- ne Workstation oder ein Server so gut wie ausschließlich als Router eingesetzt (häufig als DHCP-, DNS-Server oder Firewall); zum anderen nicht dedizierte Router, hier übernimmt ein Server zusätzlich zu seinen bestehenden Aufgaben noch das Routing. Beide Systeme sind für den performance-unkritischen Bereich gut geeignet und können mit professionellen Lösungen, vor allem was die Kosten angeht, konkurrieren, in der Leistungsfähigkeit sind sie meist unterlegen.
Das liegt unter anderem daran, dass solche Systeme bislang häufig noch auf einem klassischen PCI-Bus mit 32-Bit Busbreite und 33-MHz-Taktung (PCI/32/33) beruhten. Über einen solchen Bus lassen sich theoretisch 1 GBit/s (1000 MBit/s, entspricht etwa 133 MByte/s) im Halb-Duplex-Modus (HDX) leiten; da die Netzwerkpakete den PCI-
Bus in diesem Fall zweimal passieren, (Karte-PCI-Arbeitsspeicher-CPU- Arbeitsspei- cher-PCI-Karte) reduziert sich der maximal routbare Datenstrom eines darauf basierenden Software-Routers auf etwa 0,5 GBit/s. Ethernet wird heute fast immer geswitcht und im Voll-Duplex-Modus FDX betrieben, damit kann beispielsweise Gigabit- Ethernet, obwohl es Namen wie 1 GBit/s Ethernet, lGbE oder 1000BASE-T anders vermuten lassen, bereits 2 GBit/s (je lGbE in jede Richtung) übertragen. Daraus folgt, dass ein System auf PCI/32/33-Basis die netzwerkseitigtheoretisch mögliche maximale Übertragungsrate von 2 GBit/s keinesfalls erreichen kann. Systeme mit einem PCI/64/66-Bus können busseitig etwa 4 GBit/s leisten, gerade ausreichend für die Spitzenlast zweier lGbE-Schnittstellen im FDX-Modus. Noch höherwertige klassi- sehe (legacy) Server-Systeme verfugen über schnellere Schnittstellen (PCI-X 266 oder besser), sowie über mehrere unabhängige PCI- Busse. Sie können ohne Probleme höhe re Durchsatzraten erzielen, aber haben typischerweise einen hohen Energieverbrauch. Weshalb besonders im dedizierten Routerbetrieb, die Kosten-Nutzen-Frage steht. Hardware-Router mit spezialisierten CPUs und anwendungsspezifisch arbeitenden Chipsätzen (anwendungsspezifische integrierte Schaltung kurz ASIC) schaffen das weitaus energieeffizienter.
Erst durch die Einführung von PCI Express (mit 2 GBit/s bei Version 1.x und 4 GBit/s pro Lane bei Version 2.x im FDX-Modus - und mehr) steht auch bei Standard-PCs eine ausreichende Peripherie-Transferleistung für mehrere lGbE- Verbindungen (auch lOGbE) zur Verfügung, so dass sich energieeffiziente, durchsatzstarke Software-Router aus preiswerter Standardhardware bauen lassen. Da bislang alle Werte theoretischer Art sind und in der Praxis nicht nur Daten durch den Bus geleitet werden, sondern Routing- Entscheidungen getroffen werden müssen, wird ein Software-Router möglicherweise weiter an Leistung einbüßen. Vorsichtigerweise sollte in der Praxis nur von der Hälfte des theoretisch möglichen Datendurchsatzes ausgegangen werden. Bei solchen Datenra ten ist mit einem Software-Router zumindest das Kosten-Leistung-Verhältnis gut und ausreichend. Hardware-Router aus dem High-End-Bereich sind, da sie über spezielle Hochleistungsbusse oder„cross bars“ verfügen können, in der Leistung deutlich überlegen - was sich auch im Preis widerspiegelt. Zusätzlich sind diese Systeme für den ausfallsicheren Dauerbetrieb ausgelegt (Verfügbarkeit von 99,999 % und höher). Einfache PCs können da nicht mithalten, hochwertige Server und Workstations verfügen ebenfalls über redun- dante Komponenten und eine für viele Anwendungsfälle ausreichend hohe Ausfallsicherheit. Manche so genannte Hardware-Router bestehen tatsächlich aus PC-Komponenten. Lediglich das Gehäuse oder die zum Teil mechanisch veränderten PCI-Steckplätze und das„kryptische“ Betriebssystem erwecken den Anschein, es handle sich um Spezialsy steme. Zwar arbeiten diese Systeme meist sehr robust und zuverlässig, dennoch wird das Routing per Software durchgeführt.
Routing-Cluster
Um beispielsweise lGbE- oder lOGbE-Netze performant routen zu können, wird nicht unbedingt ein hochpreisiger Hardware- Router benötigt. Geringe Einbußen bei der Über- tragungs-Geschwindigkeit vorausgesetzt, lassen sich Routing-Cluster einsetzen. Dieser kann aus je einem Software-Router (etwa als Workstation mit zwei PCI Express 10GbE-LAN-Karten) pro Ethernet- Strang aufgebaut sein. Die Software- Router werden über einen professionellen Switch mit genügend vielen Ports und entsprechend hoher Durchsatzrate (einige Hundert GBit/s) miteinander verbunden. Im Unterschied zu Net- zen mit zentralem Backbone entspricht die maximale Datendurchsatzrate des gesamten Routing-Clusters der maximalen Durchsatzrate des zentralen Switches (einige Hundert GBit/s). Optional können die Cluster redundant (per High-Availability-Unix oder HA- Linux) ausgelegt sein. Solche Cluster- Systeme benötigen zwar relativ viel Platz und erreichen nicht die Leistung und Zuverlässigkeit von Hochgeschwindigkeitsroutern, dafür sind sie höchst modular, gut skalierbar, vergleichsweise performant und dennoch ko stengünstig. Sie werdeneingesetzt, wo Kosten höher als Leistung bewertet werden, beispielsweise in Schulen oder Universitäten.
32. Li- fi
Li-Fi (englisch light fidelity) ist ein 201 1 vom an der University of Edinburgh arbeitenden deutschen Forscher Harald Haas geprägter Begriff für ein Verfahren der optischen Datenübertragung auf kurze Distanzen (englisch Visible Light Communications, VLC) und ein optisches Äquivalent zu den funktechnisch realisierten WLAN.
Geschichte und Stand der Forschung Im Oktober 201 1 verständigten sich vier Gründungsmitglieder, die norwegische IBSENtelecom, die israelisch-amerikanische Supreme Architecture, TriLumina (USA) und das Fraunhofer-Institut für Photonische Mikrosysteme auf die Bildung eines Li-Fi- Konsortiums zur Bewerbung dieses Standards.
Durch An- und Ausschalten spezieller Leuchtdioden (LEDs) können für die optische Nahbereichskommunikation hohe Datenübertragungsraten erzielt werden: 2013 wurden im Labor 10 Gigabit pro Sekunde erzielt. Als Empfänger fungieren Fotodioden, in der eine Umwandlung der Lichtsignale in elektrische Impulse erfolgt. Mittlerweile wurden unter Laborbedingungen bereits Geschwindigkeiten von ca. 224 Gigabit pro Sekunde erreicht.
Oledcomm führte auf der Consumer Electronics Show 2014 das erste Li-Fi taugliche Mobiltelefon vor.
Harald Haas stellte Ende 2015 eine verbesserte und effizientere Variante von Li-Fi vor, bei dieser wird eine Photovoltaikzelle genutzt, um die Lichtsignale aufzufangen und weiter zu verarbeiten. Bei dieser Version wird nun auch Energie zurückgewonnen und es werden neue Anwendungsmöglichkeiten geschaffen.
Vor- und Nachteile
Im Vergleich zur Funkübertragung steht durch die optische Übertragung eine größere Bandbreite zur Verfügung, was theoretisch auf gleichem Raum eine höhere Anzahl von Datenkanälen erlaubt. Außerdem ist dieses Übertragungsverfahren auch in Bereichen einsetzbar, wo Funksignale wegen der elektromagnetischen Verträglichkeit problematisch sein können, etwa in Flugzeugen oder Krankenhäusern. Ferner ist die Nutzung der optischen Übertragung sicherer, da ein Angreifer physischen Zugang zu der Lichtquelle haben müsste, um Datenpakete abzufangen beziehungsweise zu manipulieren. Im Gegensatz zu Funksystemen ist bei optischer Übertragung im Regelfall nur eine direkte Datenübertragung auf Sicht möglich und eine Datenübertragung durch bspw. Hauswände hindurch nicht möglich. Dies macht bei Li-Fi-Ausstattung ggf. die Installation von ortsfesten Empfangs- und Sendestationen erforderlich. Jedoch ist bei neuester 5G-Technologie im 30-GHz-Bereich auch in jedem Raum ein Sender nötig, weshalb ortsfeste Empfangs- und Sendestationen kein exklusiver Nachteil von Li-Fi mehr sind.
33. Mikroelektronik
Die Mikroelektronik ist ein Teilgebiet der Elektronik, genauer der Halbleiterelektronik, und der Mikrotechnik. Die Mikroelektronik beschäftigt sich mit dem Entwurf, der Entwicklung und der Herstellung von miniaturisierten, elektronischen Schaltungen, heute vor allem integrierten Schaltungen. Diese auf Halbleitern basierenden Schaltungen nutzen viele elektronische Bauelemente, wie sie auch in normalen elektronischen Schaltungen verwendet werden, beispielsweise Transistoren, Kondensatoren, Dioden und Widerstände. In der Geschichte der integrierten Mikroelektronik haben sich verschiedene Schaltkreis familien (TTL, CMOS etc.) herausgebildet, die sich hinsichtlich der eingesetzten Funktionsprinzipien (zum Beispiel bipolare und unipolare Bauelemente/Transistoren) und den damit verbundenen schaltungstechnischen Eigenschaften (Leistungsbedarf, Schalt geschwindigkeit etc.) unterscheiden. Durch neue Entwurfs- und Fertigungsverfahren haben Anwender heute die Möglichkeit, neben Standardschaltkreisen (Mikrocontroller, Speicherbausteine etc.) auch spezielle anwendungsspezifische integrierte Schaltungen (ASIC) rentabel fertigen zu lassen und einzusetzen
Merkmale der Mikroelektronik
Mikroelektronische Schaltungen zeichnen sich gegenüber konventionellen elektroni schen Schaltungen durch zwei Hauptmerkmale aus: die Integration und die Miniaturisierung.
Unter Integration versteht man das Zusammenfassen aller Bauelemente (Transistoren, aber auch Widerstände, Kondensatoren und andere Halbleiterbauelemente) und Ver drahtungen zu einer elektronischen Schaltung auf einem gemeinsamen Substrat. Bei mikroelektronischen Schaltungen werden diese zusätzlich in einem gemeinsamen Arbeitsprozess gefertigt.
Unter Miniaturisierung versteht man in diesem Zusammenhang, dass die einzelnen Bauelemente (und damit die Schaltung als Ganzes) kontinuierlich verkleinert werden. So lagen die Abmessungen für das wichtigste Bauelement, den Transistor, in der Anfangszeit noch bei über zehn Mikrometer. Dem entgegen stehen die Abmessungen von Transistoren (physikalische Gate-Länge) heutzutage von unter 30 nm (2017 ca. 30-24 nm für Intels bzw. Samsungs 14-nm-FinFET-Technik). Durch diese Miniaturisierung lassen sich integrierte Schaltungen mit mehr als einer Milliarde Transistoren auf einem Siliziumstück mit einer Kantenlänge von wenigen (typisch < 10) Millimetern realisieren. Darüber hinaus erlaubt der geringere Abstand zwischen den Bauelementen, die Schaltungen bei höheren Taktffeq uenzen zu betreiben und trotz höherer Rechenleistung die benötigte elektrische Leistung nur geringfügig zu steigern.
Vor der Erfindung der integrierten Schaltungen gab es ebenfalls schon intensive Miniaturisierungsbestrebungen. Schaltungen mit voluminösen Elektronenröhren wurden durch die Entwicklung von Batterieröhren so weit verkleinert, dass beispielsweise tragbare Funkgeräte möglich wurden. Die Einführung der Transistoren brachte einen weite- ren Miniaturisierungsschritt, mit Dickschichtschaltungen als kleinster Ausführung vor den integrierten Schaltungen.
Miniaturisierung von integrierten Schaltkreisen
Die wesentliche Triebkraft für die Verkleinerung der Strukturen ist die Senkung der Fertigungskosten. Die Fertigung von mikroelektronischen Schaltungen erfolgt in Los fertigung auf Halbleiterscheiben (Wafer) bestimmter Größe (4 Zoll bis 12 Zoll).
Dabei werden mehrere hundert bis tausend Chips auf einem Wafer gleichzeitig gefer tigt. Die Fertigungskosten sind hauptsächlich abhängig von der Anzahl der Chips pro Wafer, der Summe der Kosten für die strukturierenden und eigenschaftsändernden Prozesse und der Produktionsausbeute (engl yield). Die Anzahl der Chips pro Wafer lässt sich durch die Verkleinerung der Strukturen (Transistorgrößen, Leitbahnen etc.) erreichen. Um dabei näherungsweise gleiche elektrische Eigenschaften zu erhalten, müssen alle Dimensionen des Chips (Länge, Breite und auch Schichtdicken) gleich skaliert werden. Die Anzahl der Chips steigt (nähe- rungsweise) mit dem Quadrat des Skalierungsfaktors (die Flächenreduktion ist gleich Längenmaßreduktion zum Quadrat plus bessere Randausnutzung minus nichtlineare Ef fekte), das heißt, halbe Chiplängen (Skalierungsfaktor 2) bewirkt eine Vervierfachung der Chipanzahl bei gleicher Wafer-Größe. Die Kosten der Strukturierungsprozesse nehmen jedoch mit steigender Miniaturisierung meist zu. Die Ursache liegt hier zum einen in der steigenden Komplexität der Schaltung und der damit verbundenen steigenden Anzahl notwendiger Prozessschritte, zum anderen in höheren Anforderungen an den Fertigungsprozess an sich (Toleranzen, aufwendigere Fertigungsverfahren etc.).
Eine weitere Kostenreduktion wurde durch größere Wafer erreicht. In den Anfangsjahren nutzten die Hersteller noch Wafer mit einem Durchmesser von 2 bzw. 3 Zoll (entsprechen etwa 51 bzw. 76 mm). Heute (2009) hingegen haben industriell eingesetzte Standardwafer eine Größe von 200 Millimetern, einige Hersteller wie AMD und Intel nutzen sogar 300-mm-Wafer. Entsprechend der Vergrößerung der Waferfläche stieg auch die Anzahl der Chips pro Wafer. Die Fertigungskosten pro Wafer erhöhten sich jedoch trotz erhöhten Anforderungen nur vergleichsweise gering, sodass die Kosten in der Summe reduziert werden konnten. Eine entsprechende Umstellung erfordert jedoch enorme Investitionen in die Fertigungsanlagen.
Gordon Moore formulierte den Sachverhalt der permanenten Fertigungskostenreduktion bereits 1965 - in der Anfangsphase der Mikroelektronik - in der nach ihm benannten Gesetzmäßigkeit, indem er sagte, dass sich die Anzahl der Transistoren auf einem Chip alle zwölf Monate (später achtzehn Monate) verdopple. Seitdem hat die Mikroelektro- nik tatsächlich sowohl in Hinblick auf lntegrationsdichte als auch bei der Verkleinerung der Strukturen kontinuierliche Fortschritte gemacht. Die hohe konstante Fertigungskostenreduktion in der Mikroelektronik war ein wesentlicher Innovationsmotor der letzten dreißig Jahre in einer Vielzahl von Branchen - nicht allein in der Elektronik und Computertechnik (siehe Abschnitt Anwendungen).
Ob dieser Trend weiter aufrechterhalten werden kann, gilt angesichts der Zunahme der Prozesskosten bei Annäherung an physikalische Grenzen und deren Kompensation durch Einsparung der Chipfläche als nicht sicher. Darüber hinaus lassen sich einige Sonderschaltungstechniken nicht mehr herunterskalieren, etwa solche zur Erzielung höherer Spannungen als die Verso rgungsspannung(en) des Chips. Folgen der Miniaturisierung
Die Miniaturisierung von integrierten Schaltkreisen hat neben der Kostensenkung für gleichwertige Produkte noch weitere Auswirkungen Kleinere Transistoren ermöglichen höhere Schaltffequenzen. Zusammen mit kürzeren Leiterbahnen fuhrt dies zu verkürzten Signallaufzeiten. Durch diesen Effekt werden mit der Verkleinerung der Strukturen immer schnellere und damit meist auch leistungsfähigere Schaltungen möglich. Aller dings gibt es auch gegenläufige Effekte. Wie im vorherigen Abschnitt beschrieben, verringern sich mit der Miniaturisierung auch die Schichtdicken in der Metallisierung (Leitbahnen und Zwischenisolationen). Die verkürzten Abstände zwischen den Leiterbahnen fuhren zu höheren Koppelkapazitäten, die als Laufzeitbremse wirken (vgl. RC- Glied).
Einen positiven Effekt hat die Schichtverkleinerung der Gate-Isolationsschicht. Die Transistoren können bei verringerter Spannung betrieben werden und weisen somit eine verringerte Verlustleistung auf (die Verlustleistung pro Fläche steigt jedoch— > schlech- tere Wärmeabfuhr). Des Weiteren bedeutet eine höhere Systemintegration (mehr Funktionen auf einem Chip) weniger Bauelemente auf einer Leiterplatte und damit erhöhte Zuverlässigkeit durch weniger Lötverbindungen. Ohne Verkleinerung und Integration wäre batteriebetriebene, mobile Elektronik nicht denkbar, wie sie heute allgegenwärtig ist: Mobiltelefon, Notebook, PDA etc.
Geschichte, Entwicklung und Personen der Mikroelektronik Vorgeschichte Die Mikroelektronik wird häufig mit der Computer- bzw. Rechnertechnik in Verbindung gebracht oder sogar gleichgesetzt, vor allem die hohe Verbreitung von integrierten Schaltungen in Form von Prozessoren und Mikrocontrollern in nahezu allen Bereichen des heutigen Lebens hat hierzu beigetragen. Elektronische Rechenmaschinen gab es je- doch schon einige Jahrzehnte vor den ersten Transistoren oder Integrierten Schaltungen. Die ersten elektromechanisch arbeitenden Computer - beispielsweise Colossus oder Mark I - entstandenen im Zweiten Weltkrieg Anfang der 1940er Jahre (vgl. Geschichte der Computer). Der 1946 in Betrieb genommene Großrechner ENIAC (Electronic Nu- merical Integrator and Calculator) war der erste universell einsetzbare rein elektroni- sehe Rechner. Diese ersten Rechenmaschinen sind jedoch weder hinsichtlich der Rechenleistung noch der Größe mit heutigen Personalcomputern vergleichbar.
Was für heutige mikroelektronische Schaltungen der Transistor ist, war für den rund 27 Tonnen schweren ENIAC die Elektronenröhre welcher aus 17.468 Elektronenröhren bestand und zu den Röhrencomputern zählt. Die Grundlagen zur Elektronenröhre geht auf die Entdeckung der Glühemission (1883) von Thomas A. Edison zurück (vgl. Ge schichte der Elektronenröhre). Die erste Elektronenröhre, eine Röhrendiode, wurde 1904 von John Ambrose Fleming entwickelt und 1906 von Lee de Forest modifiziert. Forest ergänzte die Röhrendiode um eine dritte Elektrode und schuf damit die Trioden- röhre, das Pendant der Röhrenelektronik zum Transistor.
Als Alternative zu den Digitalrechnern gab es bis in die 1970er Jahre Analog- und Hybridrechner, die bevorzugt zur Berechnung von Differentialgleichungen eingesetzt wurden. Beispielsweise arbeitete der Rockefeiler Differential Analyzer mit Tausenden von Elektronenröhren und elektrischen Relais und war bis zum Ende des Zweiten Weltkriegs die leistungsfähigste Rechenmaschine.
Der Verwendung einer großen Zahl von Elektronenröhren in komplexen Geräten standen einige Nachteile dieser Bauteile entgegen. Elektronenröhren waren relativ fehleran- fällig, benötigten eine Aufwärmzeit und wiesen recht hohe Verlustleistungen auf. Zu den wichtigsten Verbesserungszielen der Entwickler nach der Inbetriebnahme der er- sten elektronischen Rechenmaschinen zählten daher eine erhöhte Zuverlässigkeit und die Verringerung der Herstellungskosten.
Auch die Miniaturisierung war bereits ein wichtiges Thema, die ersten Rechenmaschinen füllten immerhin ganze Räume aus. Elektronenröhren gelten jedoch als kaum mi- niaturisierbar. Dennoch gab es bereits intensive Miniaturisierungsbestrebungen sowohl beim Aufbau der Gesamtschaltung als auch bei den Röhren selbst. Schaltungen mit voluminösen Elektronenröhren wurden durch die Entwicklung von Batterieröhren so weit verkleinert, dass beispielsweise tragbare Funkgeräte möglich wurden. Die Einführung der Transistoren brachte einen weiteren Miniaturisierungsschritt, mit Dickschichtschal- tungen als kleinster Ausführung vor den integrierten Schaltungen.
Eine frühe Form des Arbeitsspeichers von Computern war der Kemspeicher, bei dem viele auf Drähte aufgefadelte hartmagnetische Ringe verwendet wurden, die per Stromstoß ummagnetisiert und ausgelesen werden konnten.
Erfindung des Transistors
Dass die Rechenleistung der damaligen Großrechner selbst mit der von heutigen Ta schenrechnern nicht mehr mithalten kann, ist vor allem der Entwicklung des Transistors auf Grundlage der sogenannten Halbleiter und der Integrierten Schaltungen zu verdan- ken.
Die Entdeckung des Transistors bzw. des Transistoreffekts werden allgemein den amerikanischen Wissenschaftlern John Bardeen, Walter Brattain und William B. Shockley zugeschrieben. Sie erhielten 1956„für ihre Untersuchungen über Halbleiter und ihre Entdeckung des Transistoreffekts“ den Physiknobelpreis. Bardeen, Brattain und Shockley gehörten zu einer Arbeitsgruppe der Bell Telephone Laboratories in Murray Hill (New Jersey), die sich mit der Untersuchung von Feldeffekten in Festkörpern beschäftigten. Bei einem der durchgeführten Versuche am 16. Dezember 1947 beobachtete Brattain eine Stromverstärkung, den Transistoreffekt. Der Aufbau aus einem mit drei Elektroden kontaktierte n-dotierten Germaniumkristall war der erste funktionierende Bipolartransistor. Die wesentliche Änderung gegenüber früheren Aufbauten war, dass zwei Elektroden sehr nahe (ca. 50 pm) beieinander lagen, wodurch der Transistoreffekt erst ermöglicht wurde. Dieser später als Spitzentransistor bekannt gewordene Transistor konnte nicht reproduzierbar hergestellt werden und seine Funktionsweise war lang nicht hinreichend gut bekannt. Dennoch wurde das Potential dieser Entdeckung von den Verantwortlichen sehr schnell erkannt. Die wesentlichen Vorteile gegenüber der Elektronenröhre waren, dass kein Vakuum und keine Aufwärmzeit notwendig waren sowie dass keine Wärmeentwicklung beobachtet wurde. Die Möglichkeiten der Miniaturisierung von elektronischen Schaltungen war der Ausgangspunkt für eine Revolution in der Elektronik, die viele Entwicklungen der Mikroelektronik und Computertechnologie erst ermöglichte.
Aus heutiger Sicht waren Bardeen, Brattain und Shockley nicht die ersten oder einzigen Forscher, die sich mit der Entwicklung von Alternativen zur Elektronenröhre auf Basis von Halbleitern beschäftigten. Bereits 1925 (Lilienfeld), 1934 (Heil) und 1945 (Heinrich Welker) wurden Ideen zu einem anderen Transistor, dem Feldeffekttransistor, veröffentlicht. Da zu dieser Zeit die Herstellungsverfahren (z. B. fiir die Reinigung der Halbleitersubstrate von Fremdstoffen) nicht ausreichend waren, konnten diese Ideen je- doch nicht realisiert werden. Aus diesem und anderen Gründen wurden sie von der Öffentlichkeit nicht beachtet und waren auch nur wenigen Fachleuten bekannt.
Der Aspekt des Substratmaterials wird im Zusammenhang mit der Entdeckung des Transistors oft außer Acht gelassen. Für die Funktionsweise von Transistoren ist die Qualität und Reinheit der verwendeten Halbleiter aber wesentlich. Halbleiterkristalle mit einer ausreichend hohen Reinheit herzustellen war zu damaligen Zeiten (vor 1950) ein großes Problem. Viele der Germanium-Kristalle, welche die Arbeitsgruppe bei den Bell Telephone Laboratories (BTL) nutzten, stammten von W. G. Pfann, J. H. Scaff und H. C. Theuerer. Sie wurden nach einer Zonenschmelz-Methode von G. K. Teal und J. B. Little hergesteilt. Unabhängig von der BTL-Arbeitsgruppe entwickelten Herbert F. Matare und Heinrich Welker - damals Angestellte bei Westinghouse in Paris - einen Transistor, der nach einem ähnlichen Prinzip arbeitete. Dieser auch als„Transitron“ bezeichnete Bipolartransistor, den sie einige Monate (13. August 1948) später als die Amerikaner vorstellten. Matare gründete 1952 in Deutschland die Firma Intermetall und konnte bereits den ersten Prototypen eines Transistorradios mit Kopfhörern präsentieren; ein Jahr vor dem ersten kommerziellen, US-amerikanischen Modell.
William Shockley eröffnet 1956 ein Labor (Shockley Semiconductor Laboratory) in Mountain View nah der Stanford Universität in Palo Alto. Das Labor gilt als eine Keimzelle des Silicon Valleys, dabei ist zu bemerken, dass zu dieser Zeit sowohl Forschung als auch Industrie sehr stark an der Ostküste der USA konzentriert waren. Bereits im September 1957 trennten sich wegen Meinungsverschiedenheiten acht Mitarbeiter (Eugene Kleiner, Jay Last, Victor Grinich, Jean Hoerni, Sheldon Roberts, Julius Blank, Gordon E. Moore und Robert N. Noyce) von Shockley. Sie gründeten mit einem Wagniskapital die Fairchild Semiconductor Corporation. Fairchild Semiconductor war eine der Firmen, die zu dieser Zeit die Entwicklung der Mikroelektronik vorantrieben, so stellte Fairchild bereits 1958 den ersten Silizium- basierten Transistor in Serien stückzahlen her und war maßgeblich an der Entwicklung des Planartransistors und des integrierten Schaltkreises beteiligt.
Gordon Moore und Robert Noyce gründeten dann 1968 die Firma Intel, die heute (2010) das umsatzstärkste Unternehmen im Bereich der Mikroelektronik ist.
Silizium verdrängt Germanium
Silizium wurde ab Mitte der 1960er Jahre das dominierende Halbleitermaterial, obwohl Germanium in den Anfangsjahren der Halbleiterelektronik führend war. Im Jahr 2009 wurden circa 95 % aller mikroelektronischen Schaltungen auf Basis von Silizium produziert. Die anfänglichen Vorteile von Germanium waren seine besseren Eigenschaften, wie ein niedriger Schmelzpunkt und eine höhere Ladungsträgerbeweglichkeit (ermöglicht höhe- re Schaltfrequenzen) und es war bis damals einfacher und besser zu reinigen als Silizi um.
Die wichtigsten Gründe für den Erfolg von Silizium sind die guten Eigenschaften der Materialkombination Silizium und Siliziumdioxid. Siliziumdioxid wird als Isolations- material eingesetzt und zeigt neben den guten elektrischen Eigenschaften (Durchbruchfeldstärke, Bandabstand usw.) sehr gute Schichthaftung auf Silizium. Mit der thermischen Oxidation von Silizium steht zudem ein einfaches Herstellungsverfah ren von Siliziumdioxidschichten auf kristallinem Silizium zur Verfügung, das Siliziumdioxidschichten mit sehr guten Grenzflächeneigenschaften ermöglicht, wie eine ge- ringe Konzentration an Grenzflächenladungen. Anders als Germaniumdioxid ist Siliziumdioxid chemisch stabil gegenüber Wasser, das heißt, es löst sich nicht in Wasser.
Damit ermöglicht es die einfache Reinigung der Oberflächen mit Wasser und den Einsatz diverser nasschemischer Beschichtungs bzw. Strukturierungsverfahren. Der höhere Schmelzpunkt gegenüber Germanium macht das Material allgemein robuster und erlaubt höhere Temperaturen bei der Herstellung, beispielsweise bei einigen Diffusionsund Beschichtungsprozessen.
Die guten Eigenschaften von thermisch hergestelltem Siliziumdioxid ermöglichten die Entwicklung des Planarverfahrens und damit die Entwicklung von integrierten Schaltkreisen, wie sie heutzutage eingesetzt werden (siehe unten). Diesen wichtigen Erfin dungen der Mikroelektronik sind weitere signifikante Verbesserungen bei der Herstellung und Stabilität von Transistoren durch den Einsatz von thermisch hergestelltem Si liziumdioxid vorausgegangen.
Dazu gehört neben der Eignung als selektive Dotierungsmaskierung vor allem die passivierende Wirkung sowie die sehr guten elektrischen Eigenschaften der Grenzfläche von thermischem Siliziumdioxid und Silizium. Durch die Passivierung der Oberfläche und der damit verbundenen Verringerung von Grenzflächenladungen und Einflüssen der Umgebung verbesserte sich die elektrische Charakteristik der Transistoren (ihre Kennlinien) sowohl hinsichtlich der Reproduzierbarkeit als auch ihrer Stabilität im Ein- satz. Zudem ermöglichte die verbesserte Isolator-Halbleiter-Grenzfläche nun die Her stellung erster funktionierender MIS-Feldeffekttransistoren (MIS-FET).Nachdem erkannt wurde, dass auch durch Alkalimetallverunreinigungen verursachte Ladungen im Siliziumdioxid die elektrischen Eigenschaften von Halbleiterbauelementen massiv ver- schlechtem und dies in der Produktion berücksichtigt wurde, waren die grundlegenden Probleme bei der Herstellung von stabilen Bauelementen auf Basis von Halbleitern gelöst.
Integrierte Schaltkreise
Den letzten Schritt zur Mikroelektronik stellte der Übergang von Schaltungen aus diskreten Halbleiterbauelementen auf einer Leiterplatte hin zu integrierten Schaltkreisen (ICs) dar. Unter integrierten Schaltkreisen versteht man allgemein Schaltungen aus Halbleiterbauelementen (hauptsächlich Transistoren) inklusive der Verdrahtung auf einem Substrat, auch als monolithischer Schaltkreis bezeichnet.
Dieses Konzept wurde Ende der 1950er Jahre unabhängig voneinander von Jack Kilby, Angestellter von Texas Instruments, und Robert Noyce, Gründungsmitglied von Fairchild Semiconductor, erfunden und zum Patent angemeldet. Kilbys Patent aus dem Jahre 1959 zeigte erstmals eine Schaltung aus verschiedenen Komponenten (Transisto- ren und Widerständen) auf einem einzigen Substrat (aus Germanium). Aus dieser Ar beit heraus entstand das berühmte Kilby- Patent (vom japanischen Patentamt und durch das Obergericht (OG) Tokio wegen fehlender erfinderischer Tätigkeit zurückgewiesen.). Um dieses Patent wurde rund zehn Jahre vor Gericht gestritten, da Robert N. Noyce einen sehr ähnlichen Schritt erdacht hatte, diesen allerdings später zum Patent anmeldete.
Anders als bei Kilby, der eine Verdrahtung auf dem Substrat nur erdachte, basierte Noyce’ Patent auf den Ideen und Erkenntnissen des Planarverfahrens, das zur gleichen Zeit durch Jean Hoerni (ebenfalls Fairchild Semiconductor) entwickelt wurde. Für die Herstellung wurden bereits fotolithografische Verfahren und Diffusionsprozesse genutzt, die Fairchild Semiconductor kurz zuvor für die Herstellung des ersten modernen Diffusions-Bipolartransistors entwickelt hatte. Unter anderem die technische Machbarkeit einer solchen Verdrahtung revolutionierte die Herstellung von elektronischen Schaltungen. In Folge verstärkten viele Firmen ihre Forschung und Entwicklung in diesem Bereich und es setzte eine enorme Miniaturisierung ein. 1961 wurde der erste kommerziell erhältliche integrierte Schaltkreis vorgestellt. Er war ein Flipflop der Firma Fairchild Semiconductors, wurde in Planartechnologie hergestellt und bestand aus vier Bipolartransistoren und fünf Widerständen.
Die bipolaren Transistoren wurden rasch durch Feldeffekttransistoren (FETs) ersetzt, meist in der Form von leichter herstellbaren MOSFETs (Metall-Oxid-Halbleiter- Feldeffekttransistor). Das Funktionsprinzip der MOSFETs war zwar schon einige Jahrzehnte bekannt, die Herstellung erster funktionstüchtiger Exemplare gelang jedoch erst 1960 durch Martin M. Atalla und Dawon Kahng (vgl.Oberflächenpassivierung im Artikel Thermische Oxidation von Silizium). Weitere wichtige Entwicklungen in den 1960er Jahren waren die CMOS-Technik (Frank Wanlass, 1963) und erste DRAM-
Speicherzelle durch Robert H. Dennard (Thomas J. Watson Research Center/IBM, 1967, siehe DRAM).
Die Komplexität der Schaltungen nahm rasch zu und 1970/71 wurden nahezu gleichzei- tig die ersten Mikroprozessoren von drei Firmen vorgestellt: der Intel 4004, der Texas Instruments (TI) TMS 1000 und der Garrett AiResearch„Central Air Data Computer“ (CADC). Zu dieser Zeit wurden Schaltungen mit Transistordichten mit einigen tausend Bauelementen auf einem Chip realisiert. Diese Entwicklungsstufe wird als Großintegration (engl.: Large Scale Integration, LSI) bezeichnet.
Aufgrund der rasanten Entwicklung der Mikroelektronik waren 1979 Transistordichten erreicht, die ein Vielfaches größer (rund zwei Größenordnungen) waren als bei LSI- Schaltungen. Diese Stufe der ICs wird als Größtintegration (engl.: Very Large Scale In tegration, VLSI) bezeichnet. Dieser Trend hat sich bis heute (2009) im Wesentlichen erhalten (vgl. Mooresches Gesetz), so dass heute über eine Milliarde Transistoren mit Taktffequenzen von mehreren Gigahertz möglich sind. Die Größe des Einzelbauteils liegt dabei weit unter einem Quadratmikrometer. Zunehmend werden auch ganze Systeme (Kombination mehrerer Baugruppen, wie Prozessoren, Schnittstellenschaltungen und Speichern) auf einem einzelnen Chip realisiert (engl.: System on a Chip, SoC). Zukünftige Entwicklungen
Unterschreiten die Strukturgrößen die 100-Nanometer-Grenze (2008 sind sie bereits bei 45 nm bzw. 2009 bei 40 nm), so spricht man formal bereits von Nanoelektronik bzw. Nanotechnologie (Definition der US-Regierung). Im engeren Sinne ist jedoch eher gemeint, dass besondere Materialeigenschaften genutzt werden, die erst auftreten, wenn sich die Strukturabmessungen in der Nähe der Molekül- bzw. der Atomgröße bewegen.
Zu solchen Strukturen zählen zum Beispiel Leitungsbahnen oder Transistoren aus Koh- lenstoffnanoröhren oder Isolationen aus Seif Assembling Monolayem. Neue Bauelemente werden mit Resonanztunneldioden aufgebaut.
Integrierte Optoelektronik: Angesichts zunehmender Signallaufzeiten insbesondere in langen Verbindungsleitungen (globale Interconnects) großer„System on a Chips“ wird darüber nachgedacht, diese elektrischen Leitungen durch optische Verbindungen zu er- setzen.
Organische Elektronik: Um kostengünstige„Wegwerfelektronik“ (zum Beispiel elektronische Preisetiketten) zu realisieren, werden Schaltungen auf der Basis organischer und metallischer Materialien auf organischen Substraten in Dünnschichttechnik aufge- bracht (siehe Organischer Feldeffekttransistor).
Interessante Perspektiven ergeben sich auch daraus, dass aufgrund der fortschreitenden Skalierung die kleinsten in der Mikroelektronik realisierbaren Strukturen in die Größenordnung von biologischen Molekülen Vordringen. Zurzeit ist eine Konvergenz von Biotechnologie und Mikroelektronik und die Ausbildung einer neuen Fachwissenschaft zu beobachten, die vielfach als Bioelektronik bezeichnet und an erster Stelle die Entwicklung neuartiger Biosensoren betreffen wird.
Einteilung und Bauelemente
In mikroelektronischen Schaltungen wird eine Vielzahl von Halbleiterbauelementen (vor allem Dioden und Transistoren), elektrischen Widerständen, Kondensatoren und selten auch Induktivitäten eingesetzt und auf einem Halbleiterkristall (Substrat) integriert, das heißt zusammengefugt. Eine Einteilung der mikroelektronischen Schaltungen kann auf Grundlage des Anwendungsbereichs in Standardschaltkreise bzw. applikationsspezifische Standardprodukte (ASSP) und anwendungsspezifische Schaltkreise (ASIC) sowie auf Grundlage der zu verarbeitenden Signale in analoge und digitale ICs erfolgen.
Standardschaltkreise lassen sich in einer Vielzahl von Anwendungen einsetzen, werden in großer Zahl produziert und sind teilweise durch Standardisierungskonsortien in ihrer Ausprägung festgelegt. Hingegen sind Anwendungsspezifische ICs Schaltkreise, die für eine bestimmte Anwendung (zum Beispiel Motorsteuerung im Auto) entworfen und gebaut sind und von ihrem Funktionsumfang keine andere Anwendung erlauben. Die Abgrenzung dieser beiden Gruppen ist in der Praxis fließend: So können manche als ASIC bezeichnete Schaltkreise dennoch umprogrammiert werden, jedoch nicht für jede beliebige Funktion oder Anwendung.
Bei analogen ICs handelt es sich um integrierte Schaltungen, die analoge Signale - Signale, die sich innerhalb eines bestimmten Wertebereichs kontinuierlich ändern können, wie Spannungen oder Ströme - direkt verarbeiten können. Ein großes Anwen- dungsfeld sind hier sogenannte Standard-ICs mit niedriger Funktionsintegration, bei spielsweise Operationsverstärker und Spannungsregler.
Digitale ICs hingegen verarbeiten ausschließlich digitale Signale - Signale, deren Wertebereiche eine endliche Anzahl von Signalwerten besitzen. Sie stellen derzeit (2009) die größte Gruppe von Schaltkreisen dar. Typische Vertreter digitaler ICs sind Pro grammierbare Logikbausteine (engl.: programmable logic devices, PLD), Speicherbau- steine (wie ROM, PROM, DRAM oder Flash-Speicher) und komplexe über Mikrocode programmierbare Schaltungen wie digitale Signalprozessoren, Mikrocontroller oder Mikroprozessoren. Außerhalb dieser groben Einteilung in analoge und digitale ICs gibt es noch weitere Schaltkreise, wie die an der Schnittstelle zwischen dem analogen und digitalen Bereich liegenden Digital-Analog- bzw. Analog-Digital-Umsetzer sowie Frequenz- Spannungs- Wandler und spannungsgesteuerte Oszillatoren (Spannungs-Frequenz- Wandler). Sensoren werden auch oft direkt in die Mikroelektronik mit integriert, oft zusammen mit ih- rer Anpassungselektronik sowie ggf. einem digitalen Interface zum Anschluss an einen Mikroprozessor. Relativ einfach sind Temperatursensoren.
Große Mengen werden heute an optischen Sensoren hergestellt, als Bildsensoren oder als Teile von optoelektronischen Anordnungen.
Die verschiedenen Formen der Bauelementintegration erfordern unterschiedliche Montagekonfigurationen, um die einzelnen Bauelemente zu elektronischen Baugruppen zu vereinen. Dadurch entstanden eine Vielzahl komplexer und differenzierter Aufbau- und Verbindungstechnologien. So unterscheiden sich Bauelemente nach der Montagekonfi- guration in gehäuste, auf die Leiterplatte aufsetzbare SMDs oder steckbare bedrahtete Bauelemente (THT) und in ungehäuste Nacktchips, die direkt oder mit einem Zwischenverdrahtungsträger auf denVerdrahtungsträger aufgesetzt werden. Heute werden die meisten Bauelemente als SMDs montiert. Jedoch gibt es Bauelemente, für die noch keine aufsetzbare SMD- Bauformen verfügbar sind, oder bei denen durch die SMD- Bauform die elektrische Belastbarkeit des Bauelements zu sehr eingeschränkt wird. In diesen Fällen werden die älteren THT-Bauformen weiterhin verwendet.
Anwendungen
Bauelemente der Mikroelektronik wurden ursprünglich für die Anforderungen der Raumfahrt nach kleinen und leichten Bauteilen entwickelt. Sie sind heute in einer Viel zahl technischer Geräte und Einrichtungen zu finden: In Computern sind essenzielle Bestandteile als mikroelektronische integrierte Schalt kreise ausgeführt: die zentrale Recheneinheit genauso wie der Arbeitsspeicher und eine Vielzahl unterstützender Controller und Schnittstellen-Bausteine. In der industriellen Fertigung finden sich mikroelektronische Bauteile auch zum Beispiel in den Maschinensteuerungen.
In Geräten der Unterhaltungselektronik übernehmen integrierte Schaltungen neben der gesamten Steuerung der Geräte auch die Dekodierung komprimierter Filme beim DVD- Abspielgerät oder die Ansteuerung der einzelnen Bildpunkte eines Flachbildschirms.
In allen Arten von Fahrzeugen wird die Mikroelektronik eingesetzt, unter anderem zur Motorsteuerung oder dazu, im richtigen Moment Sicherheitsfunktionen, wie Airbags, auszulösen. Für diesen Bereich müssen die mikroelektronischen Bausteine übrigens erhöhte Qualitätskriterien erfüllen, zum Beispiel den automotiven Temperaturbereich (engl automotive temperature ränge).
Moderne Kommunikationstechnik ist ebenfalls ohne Mikroelektronik nicht mehr denkbar, das gilt sowohl für die klassische Telefonie, als auch für die Datenkommunikation und den Mobilfunk.
An dieser Stelle kann nur eine exemplarische Auswahl genannt werden - es gibt sowohl in den genannten Gebieten eine Vielzahl weiterer Anwendungen als auch eine Reihe hier nicht genannter Anwendungsgebiete, wie Medizintechnik, Gebäudetechnik und vieles mehr.
Entwicklung mikroelektronischer Bauelemente
Siehe auch : Chipentwurf
Auf einem Die, einem einzelnen ungehäusten Halbleiter-Chip, können mehrere Milliarden Transistoren und anderen Grundelemente der mikroelektronischen Schaltungen aufgebracht werden. Mit rechnergestützten Hilfsmitteln wird der Entwurf eines funktionsfähigen Chips unterstützt. Die einzelnen Schritte, die in der Regel arbeitsteilig und mit abnehmender Abstraktion mehrfach gegangen werden, sind: Design, Simulation und Verifizierung. Den Abschluss bildet die Fertigungsvorbereitung. Da der Produktion eines Chips sehr hohe Einmalkosten (engl non recurring engineering costs, NRE- Kosten) vorausgehen (zum Beispiel Maskenkosten, siehe Fotolithografie) und auch eine Reparatur eines integrierten Schaltkreises nur sehr eingeschränkt möglich und produktiv nicht praktikabel ist, ist es von großer Bedeutung, dass der Entwurf nur mit wenigen Überarbeitungen (sog. Redesigns) zum gewünschten Produkt fuhrt.
Das hat zur Folge, dass zu einem erheblichen Anteil Simulations- und Verifikations- schritte den Entwicklungsverlauf bestimmen - im Jahre 2004 machen sie etwa die Hälfte des Entwicklungsaufwandes für den Schaltkreis aus - mit steigender Tendenz. Um diese Kosten auf eine große Anzahl von Chips zu verteilen, wird versucht, Teilschritte der Entwicklungsarbeit auf mehrere Projekte zu verteilen. So können beispielsweise Logikgatter oder ganze Mikroprozessor-Architekturen als getestete Bibliotheken einge- kauft und in die eigene Entwicklung integriert werden. Eine weitere Möglichkeit besteht darin, FPGAs (Digitaltechnik) und FPAAs (Analogtechnik) zu verwenden. Diese Bauelemente beinhalten frei programmierbare digitale und analoge Schaltkreise, die nur noch entsprechend dem eigenen Schaltungsdesign konfiguriert werden müssen. In vielen Fällen beschreibt der Chipentwickler die gewünschte Schaltung bei digitalen Schaltungsblöcken nur noch in einer„Hochsprache“ (vergleichbar der höheren Pro grammiersprache in der Informatik, übliche Ausprägungen: VHDL, Verilog), der Computer errechnet daraus die Schaltnetze (Synthese, engl synthesis) und platziert die Transistoren (unter menschlicher Mitwirkung und Kontrolle).
Für analoge Schaltungen werden die entworfenen Schaltungen in sehr vielen Simulationsläufen (beispielsweise mit SPICE oder ähnlich) charakterisiert, wobei viele verschiedene Kombinationen für Betriebstemperaturen und -Spannungen, Prozessvariationen und Ähnliches simuliert werden. Häufig werden auch statistische Variationen mit- hilfe einer Monte-Carlo-Analyse simuliert. Für Digital- wie für Analogschaltungen kann das Layout extrahiert werden, um parasitäre Elemente in der Simulation zu berücksichtigen und somit realistischere Ergebnisse zu erreichen.
Die fortschreitende Miniaturisierung treibt sowohl die Strukturierungsprozesse als auch die realisierten Funktionsbausteine, wie Transistoren und Leiterbahnen, an ihre physikalischen Grenzen. Um Ersterem zu begegnen, wird im Entwurfsprozess in steigendem Umfang Software eingesetzt, die die physikalischen Grenzeffekte, wie zum Beispiel die optische Beugung bei der Fotolithografie simuliert und den Schaltungsentwurf so modifiziert, dass diese Effekte ausgeglichen werden (engl optical proximity correction, OPC). Um den Miniaturisierungseffekten bei den Bauelementen entgegenzuwirken, kommen fortlaufend neue Simulations- und Modellierungsverfahren zum Chipentwurf sprozess hinzu: zum Beispiel Simulationen des Spannungsabfalls in langen Versorgungsnetzen (engl. IR drop), Simulation der parasitären kapazitiven Kopplung benachbarter Leiterbahnen, Werkzeuge zur statischen Analyse der Zeitverhältnisse in einer Digitalschaltung (engl static timing analysis, STA) usf.
Um Prototypen eines neuen Chips einigermaßen kostengünstig zu fertigen, kann man die Layouts mehrerer Chips auf einem Wafer zusammenfugen (engl.: multi project wafer, MPW), da sich so die Masken- und Fertigungskosten für die vergleichsweise kleinen Prototypenstückzahlen auf mehrere Projekte verteilen lassen.
Herstellung von mikroelektronischen Schaltkreisen
Siehe auch: Integrierter Schaltkreis-Herstellung und Halbleitertechnik
Die Herstellung von mikroelektronischen Schaltkreisen erfolgt durch Verfahren der Halbleitertechnik (Herstellung der Bauelemente auf einem Substrat und bei monolithischen Schaltkreisen die Verdrahtung) und Aufbau- und Verbindungstechnik (Gehäu- sung und Verdrahtung/Verknüpfung von mikroelektronischen und nichtelektronischen Komponenten zu einem System). Dabei werden auch Verfahren der Dünn- und Dickfilmtechnik eingesetzt, bei letzteren werden die Bauteile auf einen Film aufgebracht oder eingebettet und verbunden, sie ha- ben nur noch für Spezialanwendungen (Hochfrequenztechnik) Bedeutung. Die Fertigung erfolgt in extrem sauberer Umgebung, sogenannten Reinräumen, mit einer sehr geringen Dichte von Staubpartikeln. Dies ist nötig, weil die herzustellenden Strukturen im Mikro- und Nanometerbereich liegen und selbst kleinste Partikel(< 0,1 pm) bereits Herstellungsfehler verursachen können, die den Ausfall eines kompletten Schaltkreises zur Folge haben. Der Fertigungsprozess selbst kann (neben Funktionstests) in drei Be reiche aufgeteilt werden: die Substratherstellung sowie die Fertigung der Bauelemente (Transistoren, Dioden usw.), das sog. Front- End, und deren„Verpackung“ in Gehäusen, dem sog. Back-End.
Substratherstellung
Die Fertigung von integrierten Schaltungen erfolgt auf sogenannten Wafern (einkristal line Halbleiterscheiben), sodass mehrere integrierte Schaltungen parallel gefertigt und Kosten gesenkt werden können. Auf einem Wafer werden Hunderte und bei einfachen Strukturen (zum Beispiel Einzeltransistoren) Tausende identische integrierte Schaltkreise parallel hergestellt.
Damit die hohen Anforderungen zur Fertigung von integrierten Schaltungen erfüllt werden können, ist es notwendig, das Substrat in Form von hochreinen Einkristallen herzustellen. Die überwiegenden Mehrzahl (mehr als 99 %) der integrierten Schaltkreise nutzt als Substratmaterial den Halbleiter Silizium. Für sehr hochfrequente oder optische Anwendungen kommen auch andere Materialien wie Galliumarsenid zum Einsatz. Für spezielle Anwendungen wird auch Silizium auf dem isolierenden Substrat Saphir verwendet (engl.: Silicon on Sapphire, SOS).
Im Falle des Siliziums wird zunächst aus einer hochreinen Siliziumschmelze (vgl. Gewinnung von Reinsilizium) ein einkristalliner Zylinder (Ingot) gezogen. Dazu wird vornehmlich das sogenannte Czochralski- Verfahren (CZ- Verfahren) genutzt. Ein alternatives Verfahren ist das Zonenschmelzen, was auch zur weiteren Reinigung der CZ-Ingots eingesetzt werden kann; für einige Spezialanwendungen sind höhere Reinheitsgrade notwendig als ein Fremdatom auf 109 Atomen der CZ-Ingots. Die Ingots werden in Abhängigkeit vom Durchmesser in 0,5-1 ,5 mm dünne Scheiben, die sog. Wafer, zersägt. Die heute in der Massenproduktion verwendeten Siliziumwafer haben Durchmesser von 150, 200 oder 300 mm (häufig auch als 6, 8 oder 12 Zoll bezeichnet). Sie erhalten durch verschiedene Ätz-, Schleif- und Polierprozesse eine nahezu perfekte ebene Oberfläche mit Unebenheiten in der Größenordnung von weniger als einem Nanometer, das heißt mit Oberflächenrauheiten von nur wenigen Atomlagen.
Das sogenannte Front-End bei der Fertigung von integrierten Schaltkreisen beschäftigt sich mit der Herstellung der elektrisch aktiven Bauelemente (Transistoren, Kondensato- ren usw.), dem sogenannten Front-End-of-Line (FEOL), und deren Verdrahtung (Metallisierung), dem sogenannten Back-End-of-Line (BEOL). Zum Einsatz kommen verschiedenste Verfahren der Halbleitertechnik zum Schichtaufbau (Epitaxie, Sputterdepo- sition, Bedampfen, CVD usw.), Schichtabtrag, und Strukturierung (Fotolithografie). Des Weiteren werden Verfahren zur Änderung von Materialeigenschaften (zum Bei- spiel Dotierung) eingesetzt.
Nach der Metallisierung erfolgt heutzutage (2009) auch oft ein stichprobenartiges oder komplettes Prüfen der Schaltkreise mit Nadeltestem im Scheibenverbund, vor allem zur Bestimmung der Ausbeute und als Rückmeldung zu technologischen Parametern. Da- mit spart man sich das Verkappen des teilweise erheblichen Ausschusses. Für die Bestimmung von technologischen Parametern erfolgt die Prüfung (beispielsweise Schicht dickenprüfung) meist direkt nach dem jeweiligen Prozess, hier ist es mitunter wichtig, auch die jeweiligen Anlagen mitzuerfassen, da auch baugleiche Anlagen mit denselben Parametern Abweichungen erzeugen, die außerhalb des Toleranzbereichs liegen kön- nen.
Back-End
Siehe auch:„Back-End“ Artikel Integrierter Schaltkreis
Im nachfolgenden Fertigungsabschnitt, dem Back-End, werden die ICs anschließend vereinzelt. Dies erfolgt im Allgemeinen durch Sägen (selten auch durch Ritzen und Brechen) des Wafers zu Dies (den sogenannten Chips). Beim nachfolgenden Verpacken (engl packaging) werden die einzelnen ICs dann in ein Gehäuse eingebracht und kontaktiert, das sogenannte Bonden. Dabei kommen je nach Typ unterschiedliche Verfahren zum Einsatz, beispielsweise Chipbonden oder Drahtbonden. Das Verkappen (Einhausen) dient zur hermetischen Versiegelung gegenüber Umwelteinflüssen - für rein elektrische Schaltkreise muss das Gehäuse gas- und lichtdicht sein - sowie zur besseren Verwendbarkeit: entweder wird der Chip samt Bonddrähten in ei nem Hohlraum (Blech, Keramik, ggf. mit Fenster) eingeschlossen oder mit Kunstharz umhüllt (eingegossen). Die Anschlüsse nach außen werden beispielsweise als Dual in- line package (DIL) oder Plastic Leaded Chip Carrier (PLCC) ausgeführt. Hochkomplexe Schaltkreise (meist für mobile Anwendungen) werden neuerdings (2009) auch ohne Sockelgehäuse eingesetzt und direkt auf die jeweiligen Platinen gelötet (vgl. Ball Grid Array). Zum Abschluss erfolgt nochmals ein Funktionstest, dabei werden zugesicherte Eigen schaften an allen Schaltkreisen geprüft. Die Typprüfung erfolgt stichprobenartig oder nur in der Entwicklungsphase. Die Stückprüfung dient dem Sortieren in Schaltkreise unterschiedlicher Güteklassen (zum Beispiel nach Offset-Spannung bei Operationsverstärkern). Prüfergebnisse und die Art der Verkappung bestimmen das Einsatzgebiet. So werden hohe Qualitäten für erweiterte Einsatztemperaturen und Umweltanforderungen gefertigt (sog. MIL-Standard für militärische und Raumfahrt- Anwendungen). Höhere Toleranzen und Plastik-Verkappung kommen für Massenanwendungen (Konsumgüter) infrage. Neben den monolithischen Schaltkreisen gibt es auch sogenannte Dickschicht- Hybridschaltkreise. Dabei werden einzelne Funktionen der Schaltung in unterschiedlichen Halbleiterchips realisiert und auf einem zusätzlichen Trägermaterial aufgebracht und drucktechnisch im Siebdruckverfahren verdrahtet, auf diese Weise können neben Verbindungsleitungen auch passive Bauelemente realisiert werden. Wenn besonders kompakte Bausteine erforderlich sind, beispielsweise in Mobiltelefonen, werden auch mehrere Einzelschaltkreise auf kürzestem Weg elektrisch verbunden und in einem gemeinsamen Gehäuse untergebracht, siehe bei Multi-Chip-Modul. Funktionstest
Um schon frühzeitig auf Prozessschwankungen zu reagieren, fehlerhafte Prozesse gegebenenfalls zu korrigieren oder gar Wafer oder Lose aus der Produktion zu nehmen, werden die noch unfertigen ICs nach vielen Prozessschritten getestet. Im Front-End handelt es sich dabei meist um Stichproben.
Nach dem Front-End werden in der Regel alle ICs vor der Weiterverarbeitung auf ihre Funktion getestet. Teilweise sind bestimmte Funktionen (Hochfrequenzschaltungen oder später nicht auf Pins herausgefuhrte Anschlüsse des Chips) nur auf dem Die test bar. Vor allem muss aus Kostengründen verhindert werden, dass nicht funktionsfähige ICs im nachfolgenden Herstellungsprozess weiterbearbeitet werden.
Schließlich wird auch der gehäuste Chip vor der Ablieferung einem endgültigen Test unterzogen, um Fehler in der Back-End-Fertigung festzustellen. Auch werden einige Eigenschaften getestet, die sich durch das Packaging verändern bzw. deren Messung ohne Gehäuse nicht möglich ist, wie zum Beispiel das Bonding oder bestimmte Hochfrequenzeigenschaften. Der gehäuste Chip kann dann zur Leiterplattenbestückung gehen.
Obwohl diese Messungen auf speziellen Testsystemen (Automatic Test Equipment) vollautomatisch ablaufen, haben die damit verbundenen Kosten bei hochintegrierten Prozessorchips bereits nahezu die Herstellungskosten erreicht. Dies liegt vor allem dar an, dass nur bedingt Skaleneffekte beim Testen greifen (eine Parallelisierung ist beispielsweise nur bei reinen Digitalschaltungen möglich) und neuere ICs immer mehr Funktionen beinhalten, die nacheinander getestet werden müssen. Ökonomie
Der Industriezweig, der sich mit der Herstellung von mikroelektronischen Bauteilen beschäftigt - die Halbleiterindustrie - zeigt zwei Eigenschaften, die ihn von anderen unterscheidet.
Große Skaleneffekte: Halbleiterfabriken für die Massenfertigung von Bausteinen der jeweils kleinstmöglichen Strukturgrößen sind erst ab einer gewissen Größe rentabel. Weiterhin sind diese Fabriken um Größenordnungen teurer als vergleichbare Fertigungsstätten anderer Branchen: heute (2004) liegen die Kosten für Bau und Ausrüstung einer Hoch volumenfabrik auf dem Stand der Technik bei etwa 2 Milliarden USD.
Beides zusammen führt zu dem sogenannten Schweinezyklus: Es gibt nur eine vergleichsweise geringe Anzahl an aktuellen Halbleiterfabriken weltweit. Wenn es der Branche gut geht, das heißt in der Regel, wenn das Angebot an Halbleiterbausteinen ge- ringer ist als die Nachfrage, baut sie ihre Fertigungskapazitäten aus, weil die meisten Unternehmen nur dann die Summen für den Ausbau aufbringen können. Jede neue Fabrik, die in Produktion geht, erhöht das Weltmarktvolumen verfügbarer Bausteine gleich um Prozentpunkte, da sie ja aus Rentabilitätsgründen sehr groß sein müssen. Der schlagartige Anstieg verfügbaren Volumens führt zu einem entsprechend starken Preis- verfall der Bauelemente, der sich wieder einschwingt, sobald die Nachfrage das Angebot wieder eingeholt hat.
Durch den Preisverfall sind viele Unternehmen eine Zeit lang nicht in der Lage ihre Fertigungskapazitäten auszubauen - es läuft auf die nächste Verknappung des Angebo- tes zu. Dann wiederholt sich der Zyklus.
Zuschreibung strategischer Bedeutung: Viele Staaten schreiben der Halbleiterindustrie strategische Bedeutung zu. Meist begründet sich das in dem„Keimzelleneffekt“ für andere Hochtechnologien. Im Umfeld von Halbleiterindustrien entwickeln sich nicht nur hochqualifizierte Zulieferer aus der Chemie und dem Anlagenbau, sondern auch aus den Abnehmerindustrien der Bauelemente, zum Beispiel die Computer- und Elektronik- Industrie. In einigen Fällen wird die strategische Bedeutung auch militärisch begründet. So schätzen die USA die Bedeutung der Mikroelektronik für Rüstungsprogramme so wichtig ein, dass sowohl Geräte zur Herstellung aktueller ICs als auch die Schaltungsentwürfe und sogar die Schaltungsentwicklungssoftware Gegenstand ihrer Exportkon- trolllisten sind. Diese hoch eingeschätzte Bedeutung hat zur Folge, dass eine Vielzahl von Staaten die Ansiedelung der Halbleiterindustrie in vielerlei Weise fordern: von Anschubfinanzierungen, besonderen Steuergestaltungen, staatlichen Kreditgarantien bis zu staatlich geforderter Forschung an universitären und industriellen Forschungszentren etc.
Diese Förderungen sind auch gelegentlich Gegenstand von ökonomischen Auseinandersetzungen zwischen Staaten und Unternehmen - so geschehen zuletzt im Jahre 2003. Damals wurde dem DRAM-Hersteller Hynix vorgeworfen über die Maßen vom südkoreanischen Staat in seiner Finanzkrise gestützt worden zu sein. Die Wettbewerber von Hynix erwirkten daraufhin Strafzölle auf den Import von Produkten dieses Unternehmens in den USA, der Europäischen Union[34] und zuletzt Japan, wogegen Südkorea protestierte.
Geschäftsmodelle: Wie in vielen anderen Branchen auch gibt es den Vollhersteller - In- tegrated Device Manufacturer (IDM) genannt. Ein IDM erstellt das Produktdesign, entwickelt die Fertigungstechnologie, fertigt das Bauteil und verkauft es selbst.
Daneben gibt es jedoch auch noch die„Fabless Design Houses“ und„Foundries“. Fab- less Design Houses erstellen das Produktdesign entsprechend den Vorgaben bzw. in Kooperation mit der Foundry, die es später fertigen wird, und verkaufen das fertige Produkt. Die Foundry entwickelt die Fertigungstechnologie, stellt ihren Kunden techno- logiespezifische Hilfsmittel zum Chipentwurf (EDA) bereit und fertigt die ICs.
Kombinationen dieser Geschäftsmodelle und Nischenmodelle sind in der Praxis auch zu finden. 34. Optoelektronik
Der Begriff Optoelektronik (manchmal auch Optronik oder Optotronik genannt) entstand aus der Kombination von Optik und Halbleiterelektronik und umfasst im wei testen Sinne alle Produkte und Verfahren, die die Umwandlung von elektronisch er- zeugten Daten und Energien in Lichtemission ermöglichen und umgekehrt.
Hintergrund ist z. B. der Versuch, die Vorteile der elektronischen Datenaufbereitung und Verarbeitung mit den Vorteilen der schnellen und elektromagnetisch und elektrostatisch unstörbaren breitbandigen Übertragungseigenschaft des Lichtes zu kombinie- ren. Gleichzeitig fallt hierunter auch die Wandlung von elektrischer Energie in Licht und umgekehrt auf der Basis der elektronischen Halbleitertechnik, wobei das erzeugte Licht sich entweder im Freiraum oder in festen lichtdurchlässigen Medien (Lichtwellenleiter wie z. B. Glasfaserkabel) ausbreiten kann oder wie in der optischen Speichertechnik auch zur Speicherung elektronisch erzeugter Daten dienen kann.
Die Optoelektronik ist dabei fester Bestandteil des täglichen Lebens geworden, da sie Komponenten wie z. B. Laser, Bildschirme, Rechner, optische Speicher und Datenträger umfasst. Erster und bis heute gültiger Systemvorschlag zur optoelektronischen Nachrichtenübertragung mittels Laserdiode, Glasfaser und Photodiode von Manfred Börner, 1965
Optoelektronische Bauteile sind Bauteile, die als Schnittstelle zwischen elektrischen und optischen Komponenten wirken oder auch Geräte, die solche Bauteile enthalten. Damit sind meist (aber nicht ausschließlich) mikroelektronische Bauteile gemeint, die auf der Basis von Halbleitern funktionieren.
Die Bauelemente der Optoelektronik lassen sich in Aktoren (Sender) und Detektoren (Empfänger) unterteilen. Optoelektronische Aktoren sind Halbleiterbauelemente, die aus Strom Licht erzeugen, also Laser- und Leuchtdioden. Das Emissionsspektrum kann sich dabei sowohl im sichtbaren als auch im unsichtbaren (UV oder Infrarot) Spektral- bereich befinden. Optoelektronische Detektoren sind die Umkehrbauelemente der Aktoren, also Fotowiderstand, Photodiode (auch Solarzelle) und Fototransistor. Lichtsensoren können auch als integrierte Schaltung aufgebaut werden, z. B. als CCD-Sensor. Auch Photomultiplier werden zur Optoelektronik gezählt. Werden Aktor und Detektor als System betrieben, resultiert daraus ein optischer Sensor, ein sogenannter Optosen sor. Das Fachgebiet wird analog dazu als Optosensorik bezeichnet. Die einfache Kombination aus einem Aktor und Detektor in einem Bauteil wird als Optokoppler bezeich net. Neben diesen gibt es noch weitere Bauteile die bei der Übertragung, Verstärkung oder Modulation von Signalen benötigt werden. Die Übertragung von optischen Signalen kann durch den freien Raum oder in Verbindung mit Wellenleiter und optischen Schaltkreise (vgl. integrierte Optik) erfolgen. Optische Modulatoren sind Bauelemente, die Licht eine definierte Charakteristik aufprägen (modulieren). Dies kann beispielsweise eine zeitliche oder räumliche Amplituden- oder Phasenvariation sein. Dazu gehören zum Beispiel optische Verstärker, optoelektronische Multiplexer sowie magnetorestrik tive optische Mikroreflektoren.
35. Halbleiter
Halbleiter sind Festkörper, deren elektrische Leitfähigkeit zwischen der von elektrischen Leitern (>104 S/cm) und der von Nichtleitern (<10-8 S/cm) liegt. [1] Da sich die Grenzbereiche der drei Gruppen überschneiden, ist der negative Temperaturkoeffizient des spezifischen Widerstandes ein weiteres wichtiges Merkmal von Halbleitern, das heißt, ihre Leitfähigkeit nimmt mit steigender Temperatur zu, sie sind sogenannte Heiß leiter. Ursache hierfür ist die sogenannte Bandlücke zwischen dem Valenz- und dem Leitungsband.
Nah am absoluten Temperatumullpunkt sind diese voll- bzw. unbesetzt und Halbleiter daher Nichtleiter. Es existieren im Gegensatz zu Metallen primär keine freien Ladungsträger, diese müssen erst z. B. durch thermische Anregung entstehen. Die elektrische Leitfähigkeit von Halbleitern steigt aber steil mit der Temperatur an, so dass sie bei Raumtemperatur, je nach materialspezifischem Abstand von Leitungs- und Valenzband, mehr oder weniger leitend sind. Des Weiteren lassen sich durch das Einbringen von Fremdatomen (Dotieren) aus einer anderen chemischen Hauptgruppe die Leitfähigkeit und der Leitungscharakter (Elektronen- und Löcherleitung) in weiten Grenzen gezielt beeinflussen.
Halbleiter werden anhand ihrer Kristallstruktur in kristalline und amorphe Halbleiter unterschieden, siehe Abschnitt Einteilung. Des Weiteren können sie verschiedene che- mische Strukturen besitzen. Am bekanntesten sind die Elementhalbleiter Silicium und Germanium, die aus einem einzigen Element aufgebaut sind, und Verbindungshalbleitern wie zum Beispiel der III-V-Verbindungshalbleiter Galliumarsenid. Des Weiteren haben in den letzten Jahrzehnten organische Halbleiter an Bedeutung und Bekanntheit gewonnen, sie werden beispielsweise in organischen Leuchtdioden (OLEDs) eingesetzt. Es gibt allerdings auch noch weitere Stoffe mit Halbleitereigenschaften, so z. B. metall organische Halbleiter wie auch Materialien, die durch Nanostrukturierung Halbleitereigenschaften bekommen. Ganz neu sind ternäre Hydrid-Verbindungen wie Lithium- Barium-Hydrid (LiBaH3). Bedeutung haben Halbleiter für die Elektrotechnik und insbesondere für die Elektronik, wobei die Möglichkeit, ihre elektrische Leitfähigkeit durch Dotierung zu beeinflussen, eine entscheidende Rolle spielt.
Die Kombination unterschiedlich dotierter Bereiche, z. B. beim p-n-Übergang, ermög- licht sowohl elektronische Bauelemente mit einer richtungsabhängigen Leitfähigkeit (Diode, Gleichrichter) oder einer Schalterfunktion (z. B. Transistor, Thyristor, Photodiode), die z. B. durch Anlegen einer elektrischen Spannung oder eines Stroms gesteuert werden kann (vgl. Arbeitszustände in Metall-Isolator-Halbleiter-Struktur). Weitere Anwendungen neben dem Transistor sind: Heißleiter, Varistoren, Strahlungs¬ sensoren (Photoleiter, Fotowiderstände, Photodioden beziehungsweise Solarzellen), thermoelektrische Generatoren, Peltierelemente sowie Strahlungs- beziehungsweise Lichtquellen (Laserdiode, Leuchtdiode). Der Großteil aller gefertigten Halbleiterbauelemente ist Silicium-basiert. Silicium hat zwar nicht die allerbesten elektrischen Eigenschaften (z. B. Ladungsträgerbeweglichkeit), besitzt aber in Kombination mit sei- nem chemisch stabilen Oxid deutliche Vorteile in der Fertigung (siehe auch thermische Oxidation von Silizium).
Geschichte
Stephen Gray entdeckte 1727 den Unterschied zwischen Leiter und Nichtleiter. Nach- dem Georg Simon Ohm 1821 das Ohmsche Gesetz aufstellte, womit die Proportionalität zwischen Strom und Spannung in einem elektrischen Leiter beschrieben wird, konnte auch die Leitfähigkeit eines Gegenstandes bestimmt werden.
Der Nobelpreisträger Ferdinand Braun entdeckte den Gleichrichtereffekt der Halbleiter 1874. Er schrieb:„...bei einer großen Anzahl natürlicher und künstlicher Schwefelmetalle... der Widerstand derselben war verschieden mit Richtung, Intensität und Dauer des Stroms. Die Unterschiede betragen bis zu 30 Prozent des ganzen Wertes.“ Er beschrieb damit erstmals, dass der Widerstand veränderlich sein kann. Greenleaf Whittier Pickard erhielt 1906 das erste Patent für eine auf Silicium basierende Spitzendiode zur Demodulation des Trägersignals in einem Detektorempfänger. Anfangs wurde im gleichnamigen Empfänger („Pickard Crystal Radio Kit“) meistens Bleiglanz als Halbleiter verwendet, wobei in den 1920er Jahren robustere und leistungsfähigere Dioden auf Basis von Kupfersulfid-Kupfer- Kontakten entstanden.
Die Funktionsweise des auf einem Halbleiter-Metall-Übergang basierenden Gleichrichtereffektes blieb trotz technischer Anwendung über Jahrzehnte ungeklärt. Erst Walter Schottky konnte 1939 die theoretischen Grundlagen zur Beschreibung der nach ihm be nannten Schottky-Diode legen. Das erste Patent zum Prinzip des Transistors wurde 1925 von Julius Edgar Lilienfeld (US-Physiker österreichisch-ungarischer Abstammung) angemeldet
Lilienfeld beschrieb in seiner Arbeit ein elektronisches Bauelement, welches im wei- testen Sinne mit heutigen Feldeffekttransistoren vergleichbar ist, ihm fehlten seinerzeit die notwendigen Technologien, Feldeffekttransistoren praktisch zu realisieren.
Als 1947 in den Bell Laboratories die Wissenschaftler John Bardeen, William Bradford Shockley und Walter Houser Brattain zwei Metalldrahtspitzen auf ein Germaniumplätt- chen steckten und somit die p-leitende Zone mit der zweiten Drahtspitze mit einer elek trischen Spannung steuern konnten, realisierten sie damit den Spitzentransistor (Bipolartransistor). Dies brachte ihnen den Physik-Nobelpreis von 1956 ein und begründete die Mikroelektronik. Die Herstellung von hochreinem Silicium gelang 1954 Eberhard Spenke und seinem Team in der Siemens & Halske AG mit dem Zonenschmelzverfahren.
Dies brachte Mitte der 1950er Jahre zusammen mit der Verfügbarkeit eines Isolations materials (Siliciumdioxid) mit günstigen Eigenschaften (nicht wasserlöslich wie Ger- maniumoxid, einfach herstellbar usw.) den Durchbruch von Silicium als Halbleiterma terial für die Elektronikindustrie und etwa 30 Jahre später auch für die ersten Produkte der Mikrosystemtechnik.
Für die Herstellung von integrierten Schaltkreisen wird heute (2009) fast ausschließlich mit dem Czochralski- Verfahren kostengünstiger hergestelltes Silicium verwendet.
Alan Heeger, Alan MacDiarmid und Hideki Shirakawa zeigten 1976, dass bei einer Dotierung von Polyacetylen - einem Polymer, das im undotierten Zustand ein Isolator ist - mit Oxidationsmitteln der spezifische elektrische Widerstand bis auf 10-5 W-m (Silber: ~ 10-8 W-m) sinken kann. Im Jahre 2000 erhielten sie dafür den Nobelpreis für Che- mie.(siehe Abschnitt organische Halbleiter) Einteilung
Chemische Einteilung
Verbindungshalbleiter (ohne org.
Elementhalbleiter Organische Halbleiter
HL)
Tetracen, Pentacen,
Phthalocyanine, Polythio-
Ge, Si, a-Sn, C III-V: GaP, GaAs, InP, InSb, InAs, phene, PTCDA, MePTCDI, (Fullerene), B, Se. GaSb, GaN, Chinacridon, Acri- Te A1N, InN, AlxGai-xAs, InxGai-xN don, Indanthron, Flavanthron,
Perinon, Alq3
II-Vl: ZnO, ZnS, ZnSe, ZnTe, Mischsysteme:
Unter Druck: Bi, Ca, CdS, CdSe, CdTe, Polyvinylcarbazol,
Sr, Ba, Yb, P, S, I Hg(l -x)Cd(x)Te, BeSe, BeTe, TCNQ-Komplexe
HgS
III-VI: GaS, GaSe, GaTe, InS,
InSe, InTe ...
I-III-VI: CuInSe2, CuInGaSe2,
CuInS2, CuInGaS2 ...
IV -IV: SiC, SiGe
IV- VI: SnTe
Die in der Mikroelektronik verwendeten klassischen, das heißt kristallinen elektronischen, Halbleiter lassen sich in zwei Gruppen einordnen, den Elementhalbleitem und den Verbindungshalbleitem. Zu den Elementhalbleitem zählen Elemente mit vier Valenzelektronen, beispielsweise Silicium (Si) und Germanium (Ge). Die Gruppe der Verbindungshalbleiter umfasst chemische Verbindungen, die im Mittel vier Valen- zelektronen besitzen. Dazu zählen Verbindungen von Elementen der III. mit der V. Hauptgruppe des Periodensystems (III-V-Verbindungshalbleiter), wie Galliumarsenid (GaAs) oder Indiumantimonid (InSb), und der II. Neben- mit der VI. Hauptgruppe (II- VI-Halbleiter), wie Zinkselenid (ZnSe) oder Cadmiumsulfid (CdS). Neben diesen häufig eingesetzten Halbleitern gibt es noch die I-VIT-Halbleiter, wie Kupfer(I)-chlorid. Auch Materialien, die im Durchschnitt nicht vier Valenzelektronen haben, können als Halbleiter bezeichnet werden, wenn sie einen spezifischen Widerstand im Bereich von größer KT4 W-m und kleiner 106 W-m haben.
Eine weitere große Klasse sind die organischen Halbleiter. Als organisch werden sie bezeichnet, weil sie hauptsächlich aus Kohlenstoffatomen aufgebaut sind. Sie werden unterteilt in halbleitende Polymere (unterschiedlich lange Ketten aus einzelnen Monomeren) und kleine Moleküle (einzelne, abgeschlossene Einheiten). Obwohl Fullerene, Kohlenstoffnanoröhren und deren Derivate streng genommen auch kleine Moleküle darstellen, werden sie oft als alleinstehende Untergruppe wahrgenommen. Klassische Beispiele für organische Halbleiter sind P3HT (Poly-3- hexylthiophen, Polymer), Pen- tacen (kleines Molekül) oder PCBM (Phenyl-C61- butyric acid methyl ester, Fulleren- Derivat). Eingesetzt werden organische Halbleiter in Leuchtdioden (OLEDs), Solarzel- len (OPVs) und Feldeffekttransistoren.
Mehrere halbleitende Moleküle oder Atome bilden im Verbund einen Kristall oder er zeugen einen ungeordneten (amorphen) Festkörper. Grob können die meisten anorganischen Halbleiter als kristallin, die meisten organischen Halbleiter als amorph klassifi- ziert werden. Ob jedoch wirklich ein Kristall oder ein amorpher Festkörper gebildet wird, hängt im Wesentlichen vom Herstellungsprozess ab. So kann beispielsweise Silicium kristallin (c-Si) oder amorph (a-Si) sein, beziehungsweise auch eine polykristalline Mischform (poly-Si) bilden. Ebenso existieren Einkristalle aus organischen Molekü len.
Kristalline Halbleiter
Physikalische Grundlagen
Diamantstruktur (Elementarzelle)
Zinkblendestruktur (Elementarzelle)
Die Halbleitereigenschaften von Stoffen gehen auf ihre chemischen Bindungen und somit ihren atomaren Aufbau zurück. Halbleiter können in unterschiedlichen Strukturen kristallisieren, so kristallisieren Silicium und Germanium in der Diamantstruktur (rein kovalente Bindung), III-V- und II-VI-Verbindungshalbleiter hingegen meist in der Zinkblende-Struktur (gemischt kovalent-ionische Bindung). Typisches Bändermodell von Metallen, Eigenhalbleiter und Isolatoren (E = Energie
- kann mit Arbeit W gleichgesetzt werden; x = räumliche Ausdehnung in eindimensionaler Richtung); EF stellt die Lage der Fermi-Energie bei T = 0 K dar.
Die grundlegenden Eigenschaften von kristallinen Halbleitern lassen sich anhand des Bändermodells erklären: Die Elektronen in Festkörpern wechselwirken über sehr viele Atomabstände hinweg miteinander. Dies fuhrt faktisch zu einer Aufweitung der (im Einzelatom noch als diskrete Niveaus vorliegenden) möglichen Energiewerte zu ausgedehnten Energiebereichen, den sogenannten Energiebändern. Da die Energiebänder je nach Aufweitung und Atomart verschieden zueinander liegen, können Bänder sich überlappen oder durch Energiebereiche, in denen nach der Quantenmechanik keine er laubten Zustände existieren (Energie- oder Bandlücke), getrennt sein.
Bei Halbleitern sind nun das höchste besetzte Energieband (Valenzband) und das nächsthöhere Band (Leitungsband) durch eine Bandlücke getrennt. Das Fermi- Niveau liegt genau in der Bandlücke. Bei einer Temperatur in der Nähe des absoluten Nullpunktes ist das Valenzband voll besetzt und das Leitungsband vollkommen frei von Ladungsträgern. Da unbesetzte Bänder mangels beweglicher Ladungsträger keinen elektrischen Strom leiten und Ladungsträger in vollbesetzten Bändern mangels erreichbarer freier Zustände keine Energie aufnehmen können, was zu einer beschränkten Beweg- lichkeit führt, leiten Halbleiter den elektrischen Strom nicht bei einer Temperatur nahe dem absoluten Nullpunkt.
Für den Leitungsvorgang sind teilbesetzte Bänder notwendig, die bei Metallen durch eine Überlappung der äußeren Bänder bei jeder Temperatur zu finden sind. Dies ist - wie oben erwähnt - bei Halbleitern und Isolatoren nicht gegeben. Die Bandlücke („verbotenes Band“ oder„verbotene Zone“ genannt) bei Halbleitern ist im Gegensatz zu Isolatoren (EG > 4 eV[9]) jedoch relativ klein (InAs: ~ 0,4 eV, Ge: ~ 0,7eV, Si: ~ 1 ,1 eV, GaAs: ~ 1,4 eV, SiC: ~ 2,39 ... 3,33 eV, Diamant: ~ 5,45 eV), so dass beispielsweise durch die Energie der Wärmeschwingungen bei Raumtemperatur oder durch Absorption von Licht viele Elektronen vom vollbesetzten Valenzband ins Leitungsband angeregt werden können.
Halbleiter haben also eine intrinsische, mit der Temperatur zunehmende elektrische Leitfähigkeit. Deshalb werden Halbleiter auch zu den Heißleitern gezählt. Der Über- gang von Halbleitern zu Isolatoren ist fließend. So wird beispielsweise Galliumnitrid (GaN; Einsatz in blauen LEDs) mit einer Bandlückenenergie von ~ 3,2 eV ebenfalls zu den Halbleitern gezählt, Diamant mit einer Bandlücke von ~ 5,5 eV aber nicht mehr. Halbleiter mit einer Bandlücke deutlich größer als 1 eV werden auch als Halbleiter mit großer Bandlücke (englisch wide-bandgap semiconductor) bezeichnet.
Wird, wie oben beschrieben, ein Elektron in einem Halbleiter aus dem Valenzband in das Leitungsband angeregt, so hinterlässt es an seiner ursprünglichen Stelle ein Defek telektron,„Loch“ genannt. Gebundene Valenzelektronen in der Nachbarschaft solcher Löcher können durch Platzwechsel in ein Loch„springen“, hierbei wandert das Loch. Es kann daher als bewegliche positive Ladung aufgefasst werden. Sowohl die angereg ten Elektronen als auch die Defektelektronen tragen somit zur elektrischen Leitung bei. Elektronen aus dem Leitungsband können mit den Defektelektronen rekombinieren (Elektron-Loch-Rekombination). Dieser Übergang zwischen den beteiligten Niveaus kann unter Abgabe von elektromagnetischer Rekombinationsstrahlung (Photon) und/oder unter der Abgabe eines Impulses an das Kristallgitter (Phonon) erfolgen. Direkte und indirekte Halbleiter
Halbleiter werden in zwei Gruppen eingeteilt, die direkten und die indirekten Halbleiter. Ihre unterschiedlichen Eigenschaften lassen sich nur durch die Betrachtung der Bandstruktur im sogenannten Impulsraum verstehen: Die Ladungsträger im Halbleiter lassen sich als Materiewellen mit einem Quasiimpuls auffassen. Innerhalb eines Bandes hängt die Energie vom Quasiimpuls (oft als Wellenvektor angegeben) ab.
Die Extremwerte der Energie innerhalb der Bänder, also die Bandkanten, liegen bei un- terschiedlichen Wellenvektoren - wo genau, hängt vom Material und der Struktur ab. Wenn ein Elektron aus dem Valenzband ins Leitungsband angeregt wird, so ist es ener getisch am günstigsten (und somit am wahrscheinlichsten), wenn es vom Maximum des Valenzbandes zum Minimum des Leitungsbandes angeregt wird. Liegen diese Extrema nahezu beim gleichen Quasiimpuls, ist eine Anregung zum Beispiel durch ein Photon ohne weiteres möglich, da das Elektron lediglich seine Energie, nicht aber seinen Impuls ändern muss. Man spricht von einem direkten Halbleiter. Liegen die Extrema jedoch bei unterschiedlichen Quasiimpulsen, so muss das Elektron zusätzlich zu seiner Energie auch seinen Impuls ändern, um ins Leitungsband angeregt zu werden. Dieser Impuls kann nicht von einem Photon (welches einen sehr kleinen Impuls hat) stammen, sondern muss von einer Gitterschwingung (auch Phonon) beigesteuert werden.
Bei der Rekombination von Elektronen-Loch-Paaren gilt im Prinzip dasselbe. In einem direkten Halbleiter kann bei der Rekombination ein Lichtquant ausgesandt werden. Bei einem indirekten Halbleiter hingegen müsste zum Photon für die Energie noch ein Phonon für den Impuls erzeugt (oder absorbiert) werden und die strahlende Rekombination wird weniger wahrscheinlich. Es dominieren dann oft andere, nicht strahlende Rekom binationsmechanismen, z. B. über Verunreinigungen. Hieraus folgt, dass nur direkte Halbleiter zur effektiven Strahlungserzeugung verwendet werden können. Direkte und indirekte Halbleiter werden mittels Absorptionsversuch voneinander unterschieden. In der Regel sind Elementhalbleiter (Silicium, Germanium) und Verbindungshalbleiter aus der IV. Hauptgruppe indirekt und Verbindungshalbleiter aus verschiedenen Hauptgruppen (III/V: GaAs, InP, GaN) direkt. Bei einer Bandstruktur, bei der nahe der Leitungs- oder Valenzbandkante verschiedene Punkte im Impulsraum möglich sind, kann es zum sogenannten Gunn- Effekt kommen.
Eigenhalbleiter und Störstellenhalbleiter
Die Dichte freier Elektronen und Löcher in reinen, das heißt undotierten, Halbleitern werden intrinsische Ladungsträgerdichte oder Eigenleitungsdichte genannt - ein Eigenhalbleiter wird deshalb auch intrinsischer Halbleiter genannt, der dominierende Leitungsmechanismus ist die Eigenleitung. Die Ladungsträgerdichte im undotierten Halbleiter ist stark von der Temperatur abhängig und steigt mit ihr an. Wird dagegen die Konzentration der Ladungsträger im Leitungsband (Elektronen) beziehungsweise im Valenzband (Löcher) durch den Dotierstoff bestimmt, spricht man von einem Störstel- lenhalbleiter oder extrinsischen Halbleiter - hier ist der dominierende Leitungsmechanismus die Störstellenleitung. Dotierung und Störstellenleitung
Donatoren und Akzeptoren
Dotiergrade von Silicium
Stärke n-leitend p -leitend
Normale Dotierung ein Donator auf 107 ein Akzeptor auf 106 Starke Dotierung ein Donator auf 104 ein Akzeptor auf 104
Durch das Einbringen von Störstellen in einen Halbleiterkristall können die elektrischen Eigenschaften des (reinen) Halbleiters beeinflusst werden. Störstellen sind Fremdatome, welche sich beispielsweise in ihrer Wertigkeit von den Atomen des Wirtsmaterials unterscheiden, Beispiele sind Bor oder Phosphor in einem Siliciumkristall. Der Vorgang wird allgemein als Dotierung beziehungsweise als„Dotieren“ bezeichnet. Außerdem können durch die Kombination von unterschiedlich dotierten Gebieten verschiedene Bauelemente, z. B. ein Bipolartransistor, hergestellt werden. In manchen Halbleitern können schon geringste Mengen an Fremdatomen (z. B. ein Fremdatom auf 10 Mio. Halbleiteratome) zu extremen Änderungen der elektrischen Eigenschaften fuhren, die das intrinsische Halbleiten weit übertreffen. Das Einbringen von Störstellen erzeugt zusätzliche, örtlich gebundene Energieniveaus im Banddiagramm des Kristalls. Die Niveaus liegen im Allgemeinen in der für das Wirtsmaterial ansonsten vorhandenen Energielücke (Bandlücke) zwischen Valenz- und Leitungsband. Durch die im Vergleich zu undotierten Halbleitern geringeren Energie- differenzen der„Zwischenniveaus“ zum Valenz- beziehungsweise Leitungsband können diese Niveaus leichter angeregt werden und so bewegliche Ladungsträger zur Verfügung stellen.
Das Chemische Potential verschiebt sich aus der Mitte der Bandlücke in die Nähe der zusätzlichen Niveaus. Es stehen daher mehr Ladungsträger für die Leitung des elektrischen Stroms zur Verfügung, was sich in einer gegenüber dem reinen Halbleiter erhöhten Leitfähigkeit äußert. Man nennt diesen Leitungsmechanismus daher auch Störstellenleitung. Es werden dabei zwei Arten von Störstellen unterschieden: Donatoren und Akzeptoren. Als (Elektronen-)Donatoren (lat. donare = schenken) werden Fremdatome bezeichnet, die ein Elektron mehr im Valenzband haben als der reine Halbleiter, man bezeichnet solche Gebiete auch als n-dotierte Halbleiter. Werden solche Fremdatome in den Halbleiter eingebracht (substituiert), so bringt jedes dieser Fremdatome (im Fall von mit Phosphor dotiertem Silicium) ein Elektron mit, das nicht für die Bindung benötigt wird und leicht abgelöst werden kann. Es bildet sich ein Störstellenniveau in der Nähe der unteren Energie des Leitungsbandes.
Analog werden als (Elektronen-) Akzeptoren (lat. accipere = annehmen) Fremdatome bezeichnet, die ein Elektron weniger im Valenzband haben. Dieses Elektron fehlt für die Bindung zum Nachbaratom. Sie wirken als ein zusätzliches Defektelektron (Loch) mit (p-Dotierung), welches leicht von Valenzbandelektronen besetzt werden kann - daher findet sich auch in einigen Betrachtungen der Begriff Löcherdonatoren. Im Bänderschema liegt ein solches Störstellenniveau nahe oberhalb der Valenzbandkante.
In einem intrinsischen Halbleiter sind die Ladungsträgerkonzentrationen von Elektro- nen und Löchern gleich (Elektronen-Loch-Paare). Daher sind beide Ladungsträgerarten näherungs weise zu gleichen Teilen am Ladungstransport beteiligt. Durch das Einbrin- gen von Donatoren und Akzeptoren lässt sich dieses Gleichgewicht gezielt beeinflussen.
Bei Dotierung mit Donatoren sorgen vorwiegend die Elektronen im Leitungsband, bei Dotierung mit Akzeptoren die gedachten, positiv geladenen Löcher im Valenzband für elektrische Leitfähigkeit. Im ersten Fall spricht man von Elektronenleitung oder n- Leitung (n— » negativ), im anderen Fall von Löcherleitung oder p-Leitung (p— positiv). Halbleiterbereiche mit Elektronenüberschuss bezeichnet man (wie oben erwähnt) als n-dotiert, solche mit Mangel, also mit„Löcherüberschuss“, als p- dotiert. Im n- Leiter werden die Elektronen als Majoritätsladungsträger (mehrheitlich vorhandene Ladungsträger), die Löcher als Minoritätsladungsträger bezeichnet, im p- Leiter gilt die entsprechende Umkehrung. Durch geschickte Kombination von n- und p-dotierten Bereichen (siehe p-n-Übergang) kann man einzelne, sogenannte diskrete Halbleiterbauelemente wie Dioden und Transistoren und komplexe, aus vielen Bauelementen in ei- nem einzigen Kristall aufgebaute integrierte Schaltungen aufbauen. Oft ist in diesen Elektronikbauteilen das intrinsische Halbleiten sogar störend (siehe z. B. Leckstrom), sodass sie mitunter explizit gekühlt werden müssen.
Leitungsmechanismen in dotierten Halbleitern
Leitungsmechanismen im dotierten und undotierten Halbleiter in Abhängigkeit von der Temperatur
Am absoluten Nullpunkt (T = 0 K) unterscheiden sich dotierte und undotierte Halbleiter hinsichtlich der Ladungsträgerdichte nicht - es steht nicht ausreichend Energie zur Ver- fügung, um Elektronen in das Leitungsband oder auf Störstellenniveaus anzuregen. Wird die Temperatur erhöht (damit steigt die zur Verfügung stehende Energie durch thermische Anregung), ändern sich die Verhältnisse.
Da die energetischen Abstände der Störstellen zum Valenz- beziehungsweise Leitungs- band sehr viel geringer als der Bandabstand sind, können Elektronen vom Donatomi- veau ins Leitungsband beziehungsweise Löcher vom Akzeptorniveau ins Valenzband angeregt werden. Es stehen in Abhängigkeit von der Temperatur freie Ladungsträger zur Verfügung, die Leitfähigkeit von dotierten Halbleitern steigt.
Da noch nicht alle Störstellenniveaus ionisiert beziehungsweise besetzt sind, bezeichnet man diesen Bereich als Störstellenreserve. Wird die Temperatur weiter erhöht, bis alle Störstellenniveaus ionisiert beziehungsweise besetzt sind, spricht man von Störstellenerschöpfung. Die Ladungsträgerdichte und somit die Leitfähigkeit hängt in diesem Bereich im Wesentlichen nur noch von der Dotierungskonzentration ab. Wegen der mit zunehmender Temperatur abnehmenden Beweglichkeit hat man in diesem Temperatur- bereich ähnlich wie bei Metallen i. A. eine mit der Temperatur leicht abnehmende Leitfähigkeit.
Bei noch weiterer Erhöhung der Temperatur steht anschließend genug Energie zur Verfügung, um Elektronen direkt vom Valenzband in das Leitungsband anzuheben. Da ty- pische Dotierungskonzentrationen deutlich geringer sind als die Anzahl der Halbleitera tome (mindestens sechs Größenordnungen), überwiegt die Ladungsträgergeneration von Elektron-Loch-Paaren, dieser Bereich wird als intrinsisch oder Eigenleitung des Halbleiters bezeichnet. Grenzflächen
Durch die Kombination eines p-dotierten und eines n-dotierten Halbleiters entsteht an der Grenzfläche ein p-n-Übergang. Die Kombination eines dotierten Halbleiters mit einem Metall (z. B. Schottky-Diode) oder einem Nichtleiter ist ebenfalls von Interesse, und wenn zwei Halbleiter, beispielsweise Galliumarsenid und Aluminiumgalliumar- senid, übereinander liegen, entsteht ein Heteroübergang. Dabei sind nicht nur p-n- Übergänge von Bedeutung, sondern ebenfalls p-p-Übergänge und n-n-Übergänge, die sogenannten isotypen Hetero-Übergänge, die beispielsweise in einem Quantentopf verwendet werden. In jüngster Zeit gibt es Anstrengungen, Halbleiter, Supraleiter und Silicium- und III-V- Halbleiter auf einem Chip zusammenzuführen. Da die Kristallstrukturen nicht kompati- bei sind, entstehen in der Grenzfläche Brüche und Gitterfehler, wenn es nicht gelingt, geeignete Materialien für eine wenige Atomlagen dicke Zwischenschicht zu finden, in der die Gitterabstände sich angleichen können. Semimagnetische Halbleiter
Semimagnetische Halbleiter gehören zur Gruppe der Verbindungshalbleiter (englisch compound semiconductors). Es handelt sich um Verbindungen wie Indiumantimonid (InSb), die mit wenigen Prozent Mangan (Mn) dotiert sind und semimagnetische Eigenschaften noch bei Raumtemperatur zeigen. Auch Indiumarsenid (InAs) und Galliumar- senid (GaAs) zeigen, bei hoher Dotierung mit Mangan und dann als InMnAs bzw. GaMnAs bezeichnet, semimagnetische Eigenschaften. Die Curietemperatur liegt bei InMnAs bei 50-100 K und bei GaMnAs bei 100-200 K und damit deutlich unter Raumtemperatur. Eine charakteristische Eigenschaft dieser semimagnetischen Halbleiter ist der große Zeeman-Effekt. Im Englischen nennt man semimagnetische Halbleiter diluted magnetic semiconductors, da sie magnetisch verdünnt sind.
Amorphe Halbleiter
Amorphe Halbleiter haben keine Kristallstruktur. Ein Beispiel für die technische Anwendung ist amorphes Silicium in der Photovoltaik. Aufgrund ihrer hohen Störstellen- dichte müssen sie anders verarbeitet werden als kristalline Halbleiter, z. B. um Dotierung erst zu ermöglichen.
Organische Halbleiter
Im Allgemeinen sind organische Materialien elektrisch isolierend. Besitzen Moleküle oder Polymere ein konjugiertes Bindungssystem, bestehend aus Doppelbindungen, Dreifachbindungen und aromatischen Ringen, können auch diese elektrisch leitend werden und als organische Halbleiter verwendet werden. Als erstes wurde dies 1976 bei Polyacetylen beobachtet. Polyacetylen ist ein unverzweigtes Polymer mit abwechselnder Doppelbindung und Einfachbindung (-C=C— C=C-). Wird diesem Kunststoff noch ein Akzeptor wie z. B. Chlor, Brom oder Iod angefügt (oxidative Dotierung), liegen zusätzliche Löcher vor. Durch das Hinzufügen von einem Donator wie z. B. Natrium (reduktive Dotierung) erhält der Kunststoff zusätzliche Elektronen. Durch diese chemische Änderung brechen die Doppelbindungen auf, und es entsteht ein durchgehendes Leitungsband: Das ursprünglich nichtleitende Polymer wird elektrisch leitend. Besitzen Moleküle oder Polymere auch im undotierten Zustand halbleitende Eigenschaften, spricht man wie bei anorganischen Halbleitern von der intrinsischen Leitfähigkeit (Eigenleitfahigkeit), z. B. Pentacen oder Poly(3- Hexylthiophen). Wird der Kunststoff in Form einer dünnen Schicht von 5 bis 1000 nm Dicke hergestellt, ist er geordnet genug, um eine elektrisch durchgängige Schicht zu bilden.
Anwendungsbereiche Mikroprozessor
Siehe auch: Halbleitertechnik und Halbleiterelektronik
Halbleiter werden in der Elektronik in vielfältiger Form verwendet. Das zugehörige Teilgebiet wird als Halbleiterelektronik bezeichnet. Dazu zählen vor allem die halbleiterbasierten integrierten Schaltungen (ICs, wie Mikroprozessoren, Mikrocontroller usw.) und diverse Bauelemente der Leistungselektronik (z. B. IGBTs). Unternehmen in diesem Wirtschaftsbereich werden auch als Halbleiterhersteller bezeichnet. Weitere Anwendungsbereiche mit zunehmender Bedeutung sind die Photovoltaik (Solarzellen) sowie Detektoren und Strahlungsquellen in der Optik und Optoelektronik (zum Beispiel Fotodetektoren und Leuchtdioden). Der Fachbereich, der sich mit der Herstellung von halbleiterbasierten mikroelektronischer Bauelemente und Baugruppen befasst wird als Halbleitertechnik bezeichnet. Voraussetzung ist die Kenntnis, wie der Halbleiter bear- beitet werden muss, um das gewünschte elektrische Verhalten zu erreichen. Dazu gehören das Dotieren des Halbleiters und das Gestalten der Grenzfläche zwischen Halbleiter und einem weiteren Material.
Wirtschaft
Der Markt für Polysilicium ist zurzeit (2010) im Umbruch. Nachdem Polysilicium aufgrund der hohen Bedarfe aus dem Solarmarkt 2008/2009 stark nachgefragt wurde, stieg der Preis stark. Dies hat eine Reihe von Firmen dazu veranlasst, mit der Errichtung neu er Produktionsanlagen zu beginnen. Die etablierten Hersteller erweiterten zudem ihre Kapazitäten. Daneben drängen neue Anbieter - vor allem aus Asien - auf den Markt. Welcher dieser Hersteller in der Lage sein wird, seine Anlagen wie angekündigt in Be- trieb zu nehmen und bei stark gefallenen Preisen noch profitabel zu agieren, ist unsicher.
Der weltweit größte Hersteller von Wafern, auch aus Verbindungshalbleitern, ist das japanische Unternehmen Shin-Etsu Handotai (SEH) mit einem Wafer-Umsatz von 4 Milliarden Dollar im Jahre 2007. Der weltweit zweitgrößte, ebenfalls japanische Hersteller Sumitomo Mitsubishi Silicon Corp. (Sumco) hatte im selben Jahr einen Umsatz von 2,7 Milliarden Dollar. Dem folgen die deutsche Siltronic AG (Wacker) mit 1 ,8 Milliarden Dollar und das amerikanische Unternehmen MEMC Electronic Materials mit 1,2 Milliarden Dollar. Diese vier Unternehmen teilen sich etwa 79 % des gesamten Si- Wafermarktes von 12,5 Milliarden Dollar. Während der weltweiten Finanzkrise halbier ten sich die Umsätze nahezu, 2009 wurde nur noch Silicium für 6,7 Milliarden Dollar umgesetzt. Bereits 2010 hatten sich die Umsätze schon wieder auf 9,7 Milliarden Dollar erholt.
36. Elektronisches Papier
Als Elektronisches Papier (kurz E-Papier oder auch englisch e-paper, E-Paper oder ePaper genannt) werden Anzeigetechniken bezeichnet, mit denen versucht wird, das Aussehen von Tinte bzw. Farbe auf Papier nachzubilden.
E-Paper-Displays reflektieren das Licht wie normales Papier, es sind also passive (nichtleuchtende) Anzeigen. In Anlehnung an den englischen Sprachgebrauch werden solche Bildschirme auch als reflektive Displays bezeichnet. Texte oder Bilder werden bei manchen Anzeigetechniken dauerhaft angezeigt, ohne dass dafür eine Erhaltungs- Spannung erforderlich ist. Die Anzeige kann jedoch zu einem späteren Zeitpunkt geän- dert werden. Elektronisches Papier ist bei einigen Herstellern - ähnlich wie normales Papier - biegsam.
Obwohl es verschiedene Verfahren zur Herstellung elektronischen Papiers gibt und sich inzwischen eine größere Anzahl von Firmen mit deren Erforschung und Weiterentwicklung beschäftigt, findet man im allgemeinen Sprachgebrauch den Begriff E-Ink oft als synonyme Bezeichnung für Elektronisches Papier.
Genaugenommen handelt es sich bei E Ink (Eigenschreibweise ohne Bindestrich) nur um den Markennamen des Produkts der E Ink Corporation, das derzeit in den meisten modernen E-Book-Readem verwendet wird und das auf der Erscheinung der Elektrophorese basiert.
Technologie
In den 1970er Jahren hatte der Forscher Nick Sheridon am Palo Alto Research Center der Firma Xerox als Erster elektronisches Papier entwickelt. Es nannte sich Gyricon und bestand aus kleinen, statisch geladenen Kügelchen. Diese waren zweifarbig: auf der einen Seite schwarz, auf der anderen weiß. Der Textinhalt des Papiers ließ sich durch ein anliegendes elektrisches Feld verändern. Dadurch wurden die Kügelchen nach oben oder unten gedreht, so dass entweder die schwarze oder weiße Seite sichtbar war.
Gyricon konnte jedoch nicht ausreichend preiswert produziert werden, so dass Xerox die zur Vermarktung gegründete Firma Gyricon LCC Ende 2005 auflöste.
Elektrophorese
In den 1990er Jahren verwendete ein Team unter Leitung von Joseph Jacobson] am MIT kleine Mikrokapseln, in denen elektrisch geladene weiße Teilchen in gefärbtem Öl schwammen. Durch die Polarität eines angelegten elektrischen Feldes wandern die weißen Partikel an die Oberseite der Mikrokapsel (also für den Betrachter sichtbar), oder an die Unterseite, sodass der Betrachter an diesem Punkt die dunklere Farbe des Öls sah. Auf Grundlage dieser auf Elektrophorese basierenden Technik entwickelte das ameri kanische Unternehmen E Ink Corporation sein aktuelles elektronisches Papier. Dieses elektronische Papier enthält Mikrokapseln mit einem mittleren Durchmesser von ca. 40 mhi, die positiv geladene weiße Partikel und negativ geladene schwarze Partikel in einem transparenten zähflüssigen Polymer enthalten. Die Darstellung wird durch kurzzeitiges Anlegen einer elektrischen Spannung verändert und bleibt dann mehrere Wochen lang stabil. Form und Durchmesser der Mikrokapseln sind unregelmäßig, was aber unbedeutend ist, da sich jedes einzelne Pixel aus vielenMikrokapseln zusammensetzt und sich diese Unregelmäßigkeiten dadurch herausmitteln.
Makroaufnahme eines E-Ink Bildschirms. Die Mikrokapseln sind in der vergrößerten Darstellung sichtbar.
Die Verwendung von Mikrokapseln erlaubt auch, flexiblen Kunststoff anstelle von Glas als Trägermaterial zu verwenden.
Die Ansteuerung der Bildpunkte geschieht bei Segmentanzeigen mittels passiver transparenter Elektroden und bei Matrixdisplays über eine TFT- Aktiv-Matrix, wie sie auch bei LC-Bildschirmen verwendet wird.
Die Darstellung von Graustufen wird durch den zeitlichen Verlauf der angelegten Spannung gesteuert. Ursprünglich konnten acht Graustufen angezeigt werden, die aktuellen Displays arbeiten mit 16 Graustufen. In Verbindung mit aus der Drucktechnik und Bildbearbeitung bekannten Rasterverfahren wird eine scheinbar stufenlose Grauwert- darstellung erzielt.
Farbige Displays basieren entweder auf schwarz- weißem elektronischen Papier mit vorgelagerten Farbfiltern, oder sie sind mit farbigen Pigmenten ausgestattet. Die E Ink Corporation hat seit 1999 verschiedene Anwendungen vorgestellt und 2004 als erster Hersteller mit der Serienfertigung elektronischen Papiers in größerem Maßstab begonnen.
Produkte anderer Hersteller waren bzw. sind zum Beispiel„SiPix Microcup“ der ameri- kanischen Firma Sipix (die 2012 von der E Ink Corporation übernommen worden ist), das flexible elektronische Papier„Lectum“ des Herstellers "Plastic Logic", das in Dres- den hergestellt wird, die flexiblen E-Ink-Displays von LG Display oder das„O-paper“ des chinesischen Herstellers Guangzhou OED Technologies. Ein weiterer Hersteller elektrophoretischen elektronischen Papiers mit einer eigenen Technik war Bridgesto- ne,[8] dessen Entwicklung 2012 aber eingestellt wurde.
Seit 2002 sind durch Firmen wie E-Ink, Bridgestone oder Philips verschiedene Prototy pen farbigen elektrophoretischen E-Papiers vorgestellt worden, die aber alle nicht in Serienproduktion gegangen sind. Die E Ink Corporation hat 201 1 mit der Produktion des mit Farbfiltern arbeitenden elektronischen Papiers„Triton“ begonnen, und 2016 hat die Firma„ACeP“ vorgestellt, bei dem farbige Pigmente benutzt werden.
Flexibles elektronisches Papier wird hauptsächlich bei industriellen Displays und im Werbebereich eingesetzt. Bei elektronischen Lesegeräten, die vorzugsweise für bestmöglichen Kontrast und hohe Lebensdauer ausgelegt werden, dominieren Glasdisplays, auch wenn vereinzelt Prototypen mit flexiblen Bildschirmen gezeigt werden wie beispielsweise das faltbare E-Ink-Display.
Elektrophoretisch gesteuerte Totalreflexion
Das US-amerikanische Unternehmen CLEARInk hat auf der SID Display Week 2017 Displays vorgestellt, die auf der Kombination einer Folie mit totalreflektierenden Linsen und einer dahinter liegenden Schicht elektrisch geladenener Partikel in einer Flüssigkeit beruhen. Die Partikel werden durch ein angelegtes elektrisches Feld bewegt, und wenn sie sich an der rückseitigen Linsenoberfläche anlagern, wird die Totalreflexion durch Absorption unterdrückt.
Mit dieser Technik können Displays gefertigt werden, die schnell genug für Videowiedergabe sind, und es sollen bistabile Displays möglich sein, die deutlich mehr Licht reflektieren, als das bei E-Ink-Displays möglich ist. Bistabiie LCD Einige Firmen produzieren elektronisches Papier auf Basis von bistabilen LCDs. Diese ermöglichen ein neutrales Weiß bei hoher Albedo (Oberflächenreflexion) und Auflösungen bis zu 200 dpi. Ein Beispiel ist das Cholesteric Liquid Crystal Display. Prototyp eines hochauflösenden elektronischen Papiers. Der in das Display geschriebene Inhalt bleibt auch ohne Spannungsquelle über Wochen erhalten (bistabiler Zustand).
Elektrobenetzung (Electrowetting)
Der Philips-Firmenableger Liquavista hat eine Displaytechnik entwickelt, bei der eine gefärbte Öl- und eine Wasserschicht Obere inander liegen. Die Lichtdurchlässigkeit der einzelnen Bildpunkte wird dabei beeinflusst, indem die Oberflächenspannung mittels angelegter elektrischer Spannung verändert wird (Elektrobenetzung). Damit lassen sich farbige und schnelle reflektive Anzeigen mit hohem Kontrast und geringem Energieverbrauch hersteilen, deren Schaltgeschwindigkeit auch Video Wiedergabe erlaubt.
Der funktionsfähige Prototyp eines E-Book-Lesegerätes mit einem farbigen 6"- Electro wetting-Display wurde auf der CES 2010 vorgestellt.
Anfang 201 1 ist Liquavista von Samsung übernommen worden, und Anfang 2013 durch Amazon.
2018 wurde Liquavista geschlossen. Eine neue Firma namens Etulipa versucht, die Technik für Plakatwände zu etablieren.
Mikromechanisch gesteuerte Interferenz-Modulation
Siehe auch: Interferometrie modulator display
Der Mobilfunktechnik-Hersteller Qualcomm produzierte unter dem Namen„Mirasol“ vertriebene IMOD-Displays. Diese beruhten darauf, dass mikromechanisch der Abstand zweier reflektierender Schichten verändert und damit die Lichtreflexion mittels kon struktiver und destruktiver Interferenz gesteuert wird. Die Displayelemente sind (wie bei E-Ink) bistabil und ermöglichen die Herstellung stromsparender reflektiver Anzeigen. Qualcomm hat auf der CES 2010 funktionsfähige Prototypen von 5,7"-Lesegeräten mit farbigen Mirasol-Displays vorgestellt, die auch für Video Wiedergabe geeignet sind. Die Aufnahme der Produktion in größerem Maßstab war ursprünglich für 2012 ange- kündigt, es gab aber nur wenige Produkte. [28] Danach wurde an einer neuen Generation von Mirasol-Displays mit der Bezeichnung SMI (Single Mirror IMOD) gearbeitet, bei denen die einzelnen Pixel über das Spektrum durchstimmbar sind, und somit keine Farbfilter mehr benötigt werden. Auch diese Technik hat keine Anwendung in Endpro- dukten gefunden.
Vor- und Nachteile gegenüber herkömmlichen Bildschirmen und Papier
Das Portable Reading System PRS-505 von Sony (2007)
Elektronisches Papier vereint die Vorteile von Computerbildschirm und Papier. Gegen- über herkömmlichen Bildschirmen, wie sie zur TV- und Grafikwiedergabe genutzt werden, bietet es beim gegenwärtigen Stand der Entwicklung die folgenden Vorteile:
-Der Bildinhalt sieht wegen des geringen Abstandes der bildgebenden Elemente zur Oberfläche aus jedem Blickwinkel gleich aus (Vorteil gegenüber LCDs)
-Es gibt durch die statische Anzeige kein Flimmern (Vorteil gegenüber Röhrenmonitoren).
-Es ist sehr dünn und leicht und bei entsprechendem Design auch biegsam.
-Es ist in allen Größen und Formen herzustellen - vom kleinen Display mit der aktuellen Wetteranzeige bis hin zur großen Anzeigetafel oder Plakatfläche[30].
-Es verwendet sehr wenig Energie, um die Anzeige zu erzeugen und aufrechtzuerhalten, da nur zum Ändern des Bildinhaltes (Seitenwechsel) ein Stromfluss erforderlich ist.
-Es ist sowohl bei normalem Raumlicht als auch in hellem Sonnenschein lesbar, da die bildgebenden Elemente reflektiv sind. Die Nachteile gegenüber Druckmedien wie Papier sind die eher glatte Oberfläche der Displayabdeckung, die Stör- und Streulicht reflektiert. Sowohl die Grauwertauflösung (derzeit nur 16 Graustufen) als auch der Kontrast sind noch gering, und weiße Flächen erreichen im besten Fall ein helles Hellgrau. Die langen Schaltzeiten der ersten Generation elektronischen Papiers lassen nur eine statische Anzeige zu. Der Farbraum der far- bigen Displays ist vergleichsweise eingeschränkt. Durch Energiesparmechanismen der E-Book-Reader können auch Ghosting-Effekte auftreten Anwendungen
Elektronisches Preisschild im Supermarkt
Als ersten Feldversuch zur Auslieferung einer Zeitung hat die belgische Wirtschaftszeitung De Tijd von April bis Juni 2006 einen Test mit zweihundert Lesern durchgeführt. Das dabei verwendete Gerät war der iLiad von iRex.
Ein Feldversuch mit elektronischem Papier als Werbefläche wurde Ende 2006 von Hitachi durchgefuhrt. In Nahverkehrszügen einer Tokioter Eisenbahnlinie wurden als Ersatz für gewöhnliche Werbeposter Displays auf Basis elektronischen Papiers von Bridgestone angebracht. Meinungsumfragen sollten anschließend über die Vermark- tungsfahigkeit entscheiden.
Es gibt mittlerweile viele Geräte, in denen E -Paper-Displays eingesetzt werden:
Von zahlreichen Herstellern werden Lesegeräte für elektronische Bücher hergestellt bzw. als OEM-Geräte mit eigener Firmware vertrieben. Dies ist im Augenblick der Haupteinsatz elektronischen Papiers.
Als erstes Mobiltelefon hatte das von Motorola hergestellte Motofone F3 für die Anzeige elektronisches Papier eingebaut. Motorola bezeichnete dieses Display als„EPD“, es handelt sich um eine Segmentanzeige mit elektronischem Papier von E Ink. Der dabei im Vergleich zu anderen Anzeigeverfahren ungewohnte Effekt ist, dass die Anzeige bei Entfernen des Akkus aus dem Mobiltelefon erhalten bleibt. Ein Vorteil gegenüber anderen Telefondisplays ist, dass die Darstellung selbst bei direkter Sonneneinstrahlung ablesbar bleibt. Lexar hat die USB-Sticks„JumpDrive Secure II Plus“,„Echo MX“ und„MIO“ hergestellt, die den Füllstand ihres Speichers über ein Display mit elektronischem Papier an- zeigen. Da der Anzeigeinhalt ohne Stromzufuhr erhalten bleibt, kommen diese Geräte ohne Batterie aus. Western Digital verkauft seit August 2009 externe Festplatten (Serien My Book Elite und My Book Studio), die an ihrer Vorderseite über ein sogenanntes E-label verfügen. Das E-label zeigt eine frei wählbare Textzeile (Inhalt der Festplatte), den verfügbaren freien Speicher und die Aktivierung der Laufwerksverschlüsselung an.
Die Firma Seiko brachte 2005 mit dem Modell„Seiko Spectrum“ die erste Armbanduhr heraus, die mit einer E-lnk-Segmentanzeige ausgestattet ist. 2010 erschien die erste E- Ink-Uhr mit Matrixdisplay. Das Display weist 80.000 Pixel mit einer Auflösung von 300 ppi auf. Jedes Pixel kann eine von vier Graustufenschattierungen anzeigen.
Die österreichische Warenhauskette Billa verwendet E-Ink- Displays als Preisschilder, dadurch können die Verkaufspreise bestimmter Waren vom Büro aus geändert werden
Andere Anwendungen
Das Magazin Esquire erschien am 8. September 2008 zum 75. Jahrestag als erstes Magazin mit einem Cover, das mit elektronischem Papier ausgestattet war. Die dabei benutzte E-Ink-Einlage war jedoch keine Matrixanzeige, sondern diente dazu, Schlagzei- len ein- und auszuschalten, zu invertieren und Textbereiche blinken zu lassen. Die „Special Collector's Edition“ wurde 100.000-mal hergestellt.
Zunehmend werden E-Paper-Displays auch für Türschilder, z. B. bei Konferenzräumen mit häufig wechselnder Nutzung oder auch in Supermärkten zur Auszeichnung der Preise an den Regalen verwendet. The screen technology used in e-readers like the Amazon Kindle was conceived by undergraduates at MIT. In: Science Friday. 10. Mai 2016, abgerufen am 2. September 2017 (englisch).
37. Gedruckte Elektronik
Gedruckte Elektronik (englisch printed electronics) bezeichnet elektronische Bauele- mente, Baugruppen und Anwendungen, die vollständig oder teilweise mittels Druckverfahren hergestellt werden. Anstelle der Druckfarben werden elektronische Funktionsmaterialien, die in flüssiger oder pastöser Form vorliegen, verdruckt.
Häufig handelt es sich dabei um organische Materialien, insofern ist die gedruckte Elektronik ein Teilgebiet der organischen Elektronik und wird als Schlüsseltechnologie zu deren Herstellung angesehen. Durch eine erhebliche Reduzierung der Herstellungs- kosten, durch die Möglichkeit, großflächige und flexible Substrate zu bedrucken, sowie durch neuartige Funktionalitäten sollen Anwendungsfelder für die Elektronik erschlossen werden, die der konventionellen (anorganischen) Elektronik bisher nicht oder nur eingeschränkt zugänglich waren. Neue Entwicklungen durch die gedruckte Elektronik zeichnen sich u. a. in Anwendungen wie RFID, Displays und Solarzellen ab.
Grundlagen
Die gedruckte Elektronik vereint Erkenntnisse und Entwicklungen der Drucktechnologie, der Elektronik sowie der Chemie und Werkstoffwissenschaft, insbesondere der or- ganischen und Polymerchemie. Wegbereitend ist die Entwicklung der organischen Elektronik, die wiederum auf der Entwicklung organischer elektronischer Funktionsmaterialien basiert. Neben den elektronischen Funktionalitäten (Leiter, Halbleiter, Elektro- lumineszenz usw.) führte die Prozessier barkeit in flüssiger Form als Lösung, Dispersion oder Suspension solcher Materialien zur Entwicklung der gedruckten Elektronik. [1] Daneben werden aber auch anorganische Materialien, die sich in flüssiger Form prozessieren lassen, verwendet.
Insofern es sich bei der gedruckten Elektronik um Bauelemente aus der organischen Elektronik handelt, unterscheiden sich diese in Aufbau, Funktionsweise und Funktionalität teilweise von konventioneller Elektronik. Deshalb spielt das Design und die Opti- mierung der Bauelemente und Schaltungen unter Berücksichtigung des speziellen Herstellungsverfahrens eine wichtige Rolle in der Entwicklung der gedruckten Elektronik.
Zur Herstellung gedruckter Elektronik kommen fast alle industriellen Druckverfahren, meist in angepasster oder modifizierter Form, zur Anwendung. Analog zum konventio- nellen Bilderdruck, bei dem mehrere Farbschichten übereinander aufgetragen werden, werden in der gedruckten Elektronik elektronische Dünnschicht- Bauelemente durch das Übereinanderdrucken mehrerer Funktionsschichten hergestellt. Jedoch unterschei den sich sowohl die verwendeten Materialien als auch die geforderten Eigenschaften der gedruckten Schichten wesentlich voneinander, so dass die aufeinander abgestimmte Anpassung und Weiterentwicklung der verwendeten Druckverfahren und der verdruck- ten Materialien die zentrale Aufgabe in der Entwicklung der gedruckten Elektronik darstellt.
Beispielsweise ist die maximale Auflösung der gedruckten Strukturen im konventionel- len Bilderdruck durch die Auflösung des menschlichen Auges bestimmt. Strukturgrößen unterhalb von etwa 20 pm können vom menschlichen Auge nicht wahrgenommen und in herkömmlichen Druckprozessen meist auch nicht hergestellt werden. Dagegen sind in der Elektronik höhere Auflösungen wünschenswert, da diese unmittelbar die Integrationsdichte, aber auch die Funktionalität von Bauelementen (insbesondere von Transistoren) beeinflussen. Ähnliches gilt für die Passgenauigkeit übereinander gedruckter Schichten.
Schwankungen in der Dicke und anderen Schichteigenschaften sowie das Auftreten von Löchern sind beim konventionellen Drucken nur insofern von Relevanz, als sie vom menschlichen Auge wahrgenommen werden können. Dagegen stellen sie in der gedruckten Elektronik wesentliche Qualitätsmerkmale für die Funktion der gedruckten Bauelemente dar. Umgekehrt ist hier der visuelle Eindruck irrelevant.
Hinzu kommt, dass in der gedruckten Elektronik eine größere Vielfalt von Materialien verarbeitet werden muss, woraus sich neue Anforderungen an die Kompatibilität auf- einander gedruckter Schichten hinsichtlich Benetzung, Haftung und des gegenseitigen Anlösens ergeben.
Im Vergleich zur konventionellen Mikroelektronik zeichnet sich die gedruckte Elektronik durch eine einfachere, flexiblere und vor allem kostengünstigere Herstellung aus. Sie soll elektronischen Anwendungen eine wesentlich größere Verbreitung, Vernetzung und Durchdringung auch im Alltag ermöglichen. Ein Beispiel hierfür ist die Ausstattung der Verpackung von Alltagsgütern mit gedruckten RFID-Systemen, die eine kontaktlose Identifizierung im Handel und Transport ermöglicht. Zudem ermöglicht die gedruckte Elektronik die einfache Realisierung und Integration von speziellen Eigenschaf- ten und Funktionalitäten (z. B. flexible Displays und Solarzellen). Gedruckte und konventionelle Elektronik als komplementäre Technologien.
In der Regel bleibt die Leistungsfähigkeit von gedruckter Elektronik hinsichtlich der jeweiligen Funktion, abgesehen von einigen Ausnahmen z. B. auf dem Gebiet der Leuchtdioden, hinter der der konventionellen Elektronik zurück. Elektronische Anwen- düngen mit hohen Schaltfrequenzen und hoher Integrationsdichte (sog.„High- end- Elektronik“) werden auf absehbare Zeit von der herkömmlichen Elektronik dominiert werden, die jedoch auch vergleichsweise hohe Investitions- und Herstellungskosten er fordert. Dagegen zielt die gedruckte Elektronik als dazu komplementäre Technologie auf die Etablierung einer„Low-cost-Elektronik“ für Anwendungsbereiche, in denen die hohe Leistungsfähigkeit der konventionellen Elektronik nicht erforderlich ist.
Verfahren
Die Attraktivität der Anwendung von Druckverfahren zur Herstellung von Elektronik resultiert in erster Linie aus der Möglichkeit, Stapel von mikrostrukturierten Schichten (und somit Dünnschicht-Bauelemente) in wesentlich einfacherer und kostengünstigerer Weise als in der konventionellen Elektronik herzustellen. [8] Daneben spielt auch die Möglichkeit eine Rolle, neue oder verbesserte Funktionalitäten (z. B. mechanische Flexibilität) zu erzeugen. Die Auswahl des verwendeten Druckverfahrens richtet sich nach den Anforderungen an die gedruckten Schichten, nach den Eigenschaften der verdruck- ten Materialien sowie nach wirtschaftlichen und technischen Erwägungen hinsichtlich der hergestellten Produkte. Von den herkömmlichen industriellen Druckverfahren werden hauptsächlich der Inkjet- und Siebdruck sowie die sog. Massendruckverfahren Tief- , Offset- und Flexodruck in der gedruckten Elektronik verwendet. [5] Während die Massendruckverfahren meist als Rolle-zu-Ro Ile- Verfahren (web-fed) eingesetzt werden, kommen der Sieb- und der Inkjetdruck meist als Bogenverfahren (sheet-fed) zum Einsatz. Es existieren aber auch die jeweils anderen Varianten.
Massendruckverfahren
Die Massendruckverfahren Tief-, Offset- und Flexodruck zeichnen sich im Vergleich mit anderen Druckverfahren vor allem durch eine weit überlegene Produktivität, die sich in einem Flächendurchsatz von vielen 10.000 m2/h ausdrückt, aus. Sie sind daher in besonderer Weise geeignet, die Herstellungskosten drastisch zu senken, wenn sie auf das Drucken von Elektronik angewendet werden. Aufgrund ihres hohen Entwicklungsstandes und der Vielfalt von verfügbaren Verfahren und Verfahrensvarianten ermöglichen sie gleichzeitig hohe Auflösungen bis zu 20 mhi und darunter, hohe Schichtqualitä- ten sowie eine große Breite an erreichbaren Schichteigenschaften und prozessierbaren Materialien. Im Bereich der gedruckten Elektronik kommt es, wie bei anderen Druckverfahren auch, zu erheblichen Weiterentwicklungen der herkömmlichen Verfahren.
Allerdings erfordert die Anwendung und Anpassung der Massendruckverfahren für die gedruckte Elektronik nicht nur erhebliches Know-how, sondern auch im Vergleich mit den anderen Druckverfahren einen höheren Aufwand, der jedoch noch immer weit unter dem in der konventionellen Elektronik liegt. Während der Offset- und der Flexodruck vornehmlich für anorganische und organischeLeiter (letzterer auch für Dielektrika) verwendet werden, eignet sich der Tiefdruck wegen der hohen erreichbaren Schichtqua- lität besonders für qualitätssensible Schichten wie organische Halbleiter und Halbleiter/Dielektrikum-Grenzschichten in Transistoren, in Zusammenhang mit der hohen Auflösung aber auch für anorganische und organische Leiter. Es konnte gezeigt werden, dass sich Organische Feldeffekt- Transistoren und daraus aufgebaute integrierte Schal tungenvollständig mittels Massendruckverfahren herstellen lassen.
Tintenstrahldruck
Der Inkjetdruck ist ein flexibles und vielfältig einsetzbares digitales Druckverfahren, das mit verhältnismäßig geringem Aufwand und auch im Labormaßstab durchführbar ist. Daher ist er das für die gedruckte Elektronik wohl am häufigsten eingesetzte Druck- verfahren, allerdings ist er den Massendruckverfahren sowohl in Bezug auf den Flächendurchsatz (typischerweise 100 m2/h) als auch in Bezug auf die Auflösung (ca. 50 pm) unterlegen.
Er eignet sich besonders für niedrigviskose, gelöste Materialien wie organische Halblei- ter. Bei hochviskosen Materialien, wie organischen Dielektrika, und dispergierten Partikeln, wie anorganischen Metallfarben, treten immer wieder Schwierigkeiten durch das Verstopfen der Düsen auf. Wegen des tropfenweisen Auftrags der Schichten ist deren Homogenität begrenzt.
Diese Probleme können durch geeignete Maßnahmen abgemildert werden. Durch Paral- lelisierung, d. h. die gleichzeitige Verwendung vieler Düsen, bzw. eine Vorstrukturierung des Substrates können auch bezüglich der Produktivität bzw. der Auflösung Ver besserungen erreicht werden. Allerdings wird im letztgenannten Fall für den eigentlichen Strukturierungsschritt auf Nicht-Druckverfahren zurückgegriffen. Inkjetdruck wird bevorzugt für organische Halbleiter in organischen Feldeffekttransistoren (OFETs) und organischen Leuchtdioden (OLEDs) eingesetzt, es wurden aber auch vollständig mit dieser Methode hergestellte OFETs demonstriert. Des Weiteren können Front- und Backplanes von OLED- Displays, integrierte Schaltungen, organische photovoltaische Zellen (OPVCs) und andere Bauelemente und Baugruppen mit Hilfe des Inkjetdrucks hergestellt werden.
Siebdruck
Wegen der Möglichkeit, dicke Schichten aus pastösen Materialien zu erzeugen, wird der Siebdruck bereits seit längerer Zeit in industriellem Maßstab in der Fertigung von Elektronik und Elektrotechnik eingesetzt. Vor allem Leiterbahnen aus anorganischen Metallen (z. B. für Leiterplatten, Antennen oder Glucose-Teststreifen), aber auch isolierende und Passivierungsschichten werden mit diesem Verfahren hergestellt, wobei es jeweils auf eine vergleichsweise hohe Schichtdicke, aber nicht auf eine hohe Auflösung ankommt. Flächendurchsatz (ca. 50 m2/h) und Auflösung (ca.100 pm) sind, ähnlich wie beim Inkjetdruck, begrenzt. Auch in der gedruckten Elektronik wird dieses vielseitige und verhältnismäßig einfache Verfahren vor allem für leitende und dielektrische Schichten angewandt, es können aber auch organische Halbleiter, z. B. für OPVCs, und sogar vollständige OFETs gedruckt werden. Weitere Verfahren
Neben den konventionellen Verfahren kommen auch neue Verfahren, die Ähnlichkeiten zum Drucken aufweisen, zum Einsatz, darunter das Microcontact- Printing und die Nanoprägelithografie.
Dabei werden Schichten mit mpi- bzw. nm- Auflösung in einem dem Stempeln ähnlichen Verfahren mit weichen bzw. harten Formen hergestellt. Häufig werden dabei die eigentlichen Strukturen auf subtraktivem Wege, z. B. durch das Aufbringen von Ätzmasken oder durch Lift-off- Verfahren, erzeugt. Auf diese Weise können z. B. Elektro- den für OFETs hergestellt werden.
Vereinzelt wird in ähnlicher Weise auch der Tampondruck verwendet. Gelegentlich wird auch die Anwendung sog. Transferverfahren, bei denen feste strukturierte Schichten von einem Träger auf das Substrat übertragen werden, zur gedruckten Elektronik gezählt. Die Elektrofotografie (der sog. Toner- oder Laserdruck) kommt bisher nicht in der gedruckten Elektronik zur Anwendung.
Materialien
Für die gedruckte Elektronik werden sowohl organische als auch anorganische Materia- lien verwendet. Voraussetzung dafür ist, neben der jeweiligen elektronischen Funktionalität, dass die Materialien in flüssiger Form, d. h. als Lösung, Dispersion oder Sus pension, vorliegen. Dies trifft insbesondere auf viele organische Funktionsmaterialien, die als Leiter, Halbleiter oder Isolatoren verwendet werden, zu. Mit wenigen Ausnahmen handelt es sich bei den anorganischen Materialien um Dispersionen von metallischen Mikro- oder Nanopartikeln. Ausgangspunkt der Entwicklung druckbarer elektronischer Funktionsmaterialien war die Entdeckung konjugierter Polymere (Nobelpreis für Chemie 2000) und deren Weiterentwicklung zu löslichen Materia lien. Heute existiert eine große Vielfalt druckbarer Materialien aus dieser Polymerklas- se, die leitende, halbleitende, elektrolumineszente, photovoltaische und andere funktio- nale Eigenschaften aufweisen. Andere Polymere werden meist als Isolator|Isolatoren bzw. Dielektrika eingesetzt.
Neben der jeweiligen elektronischen Funktionalität ist die Prozessier barkeit in den Druckverfahren wesentlich für die Anwendung in der gedruckten Elektronik. Dabei können diese beiden Eigenschaften durchaus im Widerspruch zueinander stehen, so dass eine sorgfältige Optimierung erforderlich ist. Beispielsweise wirkt sich eine höhere molare Masse leitfähiger Polymere tendenziell positiv auf die Leitfähigkeit der gedruckten Schicht, aber negativ auf die Löslichkeit in dem zum Drucken verwendeten Lö sungsm itte 1 aus .
Für die Prozessierung in den Druckverfahren spielen die Eigenschaften der flüssigen Formulierung wie Viskosität, Oberflächenspannung und Feststoffgehalt eine Rolle, des Weiteren sind auch Wechselwirkungen mit vorhergehenden bzw. nachfolgenden Schichten wie Benetzung, Haftung und gegenseitiges Anlösen sowie der Trocknungsprozess nach der Deposition der flüssigen Schicht zu berücksichtigen. Die Verwendung von Additiven zur Verbesserung der Prozessierbarkeit wie bei konventionellen Druckfarben ist in der gedruckten Elektronik stark eingeschränkt, da diese häufig die jeweilige Funktion beeinträchtigen.
Die Eigenschaften der eingesetzten Materialien bestimmen bereits in großem Umfang die Unterschiede zwischen der gedruckten und der konventionellen Elektronik. Einer seits bieten die Materialien der gedruckten Elektronik eine Reihe von Vorteilen, die entscheidend für die Entwicklung dieser Technologie sind. Dazu gehören neben der Prozessierbarkeit in flüssiger Form die mechanische Flexibilität sowie die Möglichkeit, funktionale Eigenschaften durch chemische Modifikationen einzustellen (z. B. die Farbe des emittierten Lichtes in der aktiven Schicht von OLEDs).[32] Andererseits können im Allgemeinen aus organischen, insbesondere aus polymeren, Materialien nicht die hochgeordneten Schichten und Grenzflächen, wie sie in der anorganischen Elektronik verwendet werden, hergestellt werden. Das führt u. a. dazu, dass die Leitfähigkeit in gedruckten Leitern bzw. die Ladungsträgerbeweglichkeit in gedruckten Halbleitern z. T. weit unter den Werten in anorganischen Schichten liegen.
Ein zurzeit intensiv untersuchter Punkt ist die Tatsache, dass in den meisten organi- sehen Materialien die Lochleitung gegenüber der Elektronenleitung bevorzugt ist. Neuere Untersuchungen deuten darauf hin, dass es sich dabei um eine spezifische Eigenschaft von organischen Halbleiter/Dielektrikum-Grenzflächen, die in OFETs eine zentrale Rolle spielen, handelt. Daher konnten bisher keine Bauelemente vom n-Typ, im Unterschied zu p-Typ-Bauelementen, gedruckt werden, sodass in der gedruckten Elektronik bisher keine CMOS-, sondern ausschließlich PMOS-Technologie möglich ist. Schließlich liegt auch die Stabilität gegenüber Umwelteinflüssen und die Lebensdauer gedruckter elektronischer Funktionsschichten typischerweise unter der der konventionellen Materialien. Ein wesentliches Charakteristikum der gedruckten Elektronik stellt die Verwendung von flexiblen Substraten dar, die sich günstig auf die Herstellungskosten auswirkt und die Herstellung von mechanisch flexiblen elektronischen Anwendungen ermöglicht. Während im InkJet- und Siebdruck zum Teil noch auf starren Substraten wie Glas und Silizium gearbeitet wird, werden in den Massendruckverfahren aufgrund ihres rotativen Verfahrensprinzips fast ausschließlich Folie und Papier eingesetzt.
Aufgrund des Kostenvorteils kommt häufig Polyethylenterephthalat-Folie (PET), we gen der höheren Temperaturstabilität gelegentlich auch Polyethylennaphthalat- (PEN) und Polyimid-Folie (PI) zum Einsatz. Weitere wichtige Kriterien für die Verwendung des Substrates sind eine niedrige Rauheit und eine geeignete Benetzbarkeit, die gegebenenfalls durch Vorbehandlungen (Beschichtung, Coronabehandlung) angepasst werden kann. Im Gegensatz zum konventionellen Druck wirkt sich eine hohe Saugfähigkeit in der Regel ungünstig aus. Aufgrund der niedrigen Kosten und der vielfältigen Anwendungsmöglichkeiten stellt Papier ein attraktives Substrat für die gedruckte Elektronik dar, bereitet jedoch wegen der hohen Rauheit und Saugfähigkeit technologische Schwierigkeiten. Nichtsdestoweniger sind entsprechende Entwicklungen im Gange. Zu den am häufigsten in der gedruckten Elektronik verwendeten Materialien zählen die leitfahigen Polymere Poly-3,4-ethylendioxythiophen, das mit Polystyrensulfonat dotiert wird (PEDOT:PSS), und Polyanilin (PANI). Beide Polymere sind kommerziell in ver- schiedenen Formulierungen erhältlich und wurden bereits im Inkjet-, Sieb- und Offsetdruck bzw. im Sieb-, Flexo- und Tiefdruck verdruckt. Alternativ werden Silber- Nanopartikel im Flexo-, Offset- und Inkjetdruck, im letztgenannten Verfahren auch Gold-Partikel, verwendet. Neben den polymeren und metallischen Materialien rückt zudem auch der Kohlenstoff als robustes Material für gedruckte elektronische Anwen- düngen in den Fokus dieser Technologie.
Zahlreiche polymere Halbleiter werden im Inkjetdruck prozessiert, wobei es sich häufig um Poylthiophene wie Poly(3-Hexylthiophen) (P3HT) und Poly-9,9- dioctylfluoren- cobithiophen (F8T2) handelt. Das letztgenannte Material wurde auch bereits im Tief- druck verdruckt. Verschiedene elektrolumineszente Polymere werden im Inkjetdruck verarbeitet, ebenso wie aktive Materialien für die Photovoltaik (z. B. Mischungen von P3HT mit Fulleren-Derivaten), die zum Teil auch im Siebdruck aufgetragen werden können (z. B. Mischungen von Polyphenylenvinylen- mit Fulleren-Derivaten). Druckbare organische und anorganische Isolatoren bzw. Dielektrika existieren in großer Zahl und können in verschiedenen Druckverfahren verarbeitet werden.
Bauelemente und Anwendungen
Nahezu alle für elektronische Anwendungen notwendigen Bauelemente werden auch in der gedruckten Elektronik hergestellt. Schwerpunkte der aktuellen Entwicklungen bil- den:
-OFETs, OLEDs und OPVCs,
-ferner auch Dioden, verschiedene Arten von Sensoren, Speicherelementen und Anzeigesystemen sowie Antennen und Batterien. -Häufig werden Elektroden und andere leitfahige Schichten in den Bauelementen gedruckt. Insbesondere die Herstellung der Source/Drain- Elektroden von OFETs im Inkjetdruck und mittels Massendruckverfahren ist Gegenstand intensiver Entwicklungen. -In OLEDs und OPVCs wird PEDOT:PSS als Beschichtung für die Anode bzw. als Anode selbst verwendet und kann im Inkjetdruck aufgetragen werden. In diesen beiden Bauelementen stellt der Druck der Kathode mangels geeigneter druckbarer Materialien noch eine große Herausforderung dar. -Ebenso sind im Siebdruck aus metallhaltiger Farbe hergestellte RFID- Antennen in kommerziellen Systemen z. B. zum Diebstahlsschutz zu finden.
-Des Weiteren werden auch die Halbleiterschichten in den Bauelementen mittels Druckverfahren hergestellt. So werden beispielsweise der Inkjet- und der Tiefdruckfür die aktive Schicht von OFETs und der Inkjet- bzw. Siebdruck für die von OLEDs bzw. OPVCs eingesetzt. Vollständig gedruckte OFETs konnten im Inkjet- und Sieb- drucksowie mittels Massendruckverfahren hergestellt werden, im letztgenannten Fall wurde auch eine vollständig gedruckte integrierte Schaltung aus mehreren OFETs demonstriert.
Integrierte Schaltungen aus OFETs, OLED-Displays und Solarzellen auf der Basis von OPVCs, die unter Verwendung von Druckverfahren hergestellt werden, sowie andere gedruckte Bauelemente und Baugruppen sollen überall dort Anwendung finden, wo die spezifischen Eigenschaften der gedruckten Elektronik von Vorteil sind, d. h. dort, wo einfache, kostengünstige, flexible und großflächige elektronische Bauteile benötigt werden.
Häufig wird in diesem Zusammenhang der Einsatz gedruckter RFID-Tags diskutiert, da die gedruckte Elektronik die Herstellung und Integration solcher Systeme zu im Ver- gleich mit konventionellen Systemen wesentlich geringen Kosten ermöglichen soll, so dass die Ausstattung auch großer Stückzahlen von Alltagsprodukten (sog. single-item- tagging) möglich wird. In dieser Vision sollen gedruckte RFID-Tags in Zukunft den bisher zur Warenidentifikation verwendeten Barcode ablösen.
Auf organischen, z. T. auch flüssigprozessierbaren Materialien beruhende RFID- Schal- tungen wurden bereits demonstriert, jedoch ist die Leistungsfähigkeit von gedruckten Schaltungen für diese Anwendung noch nicht ausreichend. Hingegen sind einfachere, vollständig gedruckte Identifikationssysteme bereits in Anwendungen auf dem Markt zu finden. Auf dem Gebiet der OLED-Displays ist die Organische Elektronik am weitesten hinsichtlich kommerzieller Produkte fortgeschritten. Intensive Bemühungen zielen darauf, durch den Einsatz von Druckverfahren die Herstellungskosten weiter zu senken. Eine wesentliche Herausforderung stellt dabei, neben dem Druck der Kathode, die Integration der Ansteuerelektronik (backplane) dar. Bei den damit in Zusammenhang stehenden Visionen handelt es sich vor allem um biegsame und aufrollbare Displays sowie um großflächige, flexible und dünne Leuchtmittel.
Im Umfeld der Organischen Elektronik wurden auch andere Anzeigesysteme mit ähnlichen Funktionen, wie z. B. das E-Paper, entwickelt, die z. T. kurz vor der Markteinführung stehen und in Zukunft ebenfalls mit Hilfe von Druckverfahren hergestellt werden sollen.
Großflächige und flexible, auf kostengünstigen Substraten gedruckte Organische Solarzellen sind eine weitere Vision, deren Realisierung im Rahmen der gedruckten Elektronik vorangetrieben wird. Jedoch ist auch dafür noch eine Reihe von Fragestellungen zu bewältigen, neben dem Druck der Kathode ist beispielsweise eine Erhöhung des Wirkungsgrades für einen wirtschaftlichen Betrieb erforderlich.
Allgemein wird davon ausgegangen, dass bis zur Realisierung der mit der gedruckten Elektronik verbundenen Visionen noch einige Jahre vergehen, sich in der Zwischenzeit aber zunehmend einfache Anwendungen etablieren werden. Nicht zuletzt wegen der Möglichkeit der einfachen Integration zahlreicher Funktionalitäten wird die gedruckte Elektronik als eine der Schlüsseltechnologien für die Umsetzung neuer Paradigmen der Anwendung von Elektronik angesehen, die auf eine stärkere Vernetzung und umfassendere Durchdringung in vielen Lebensbereichen abzielen und mit denen Schlagworte wie „ubiquitous computing“ und„ambient intelligence“ verbunden sind.
Entwicklung der gedruckten Elektronik
Die Entwicklung der gedruckten Elektronik ist eng mit der der Organischen Elektronik verknüpft. Im Folgenden sind einige wichtige Meilensteine dieser Entwicklung aufge führt.
vor 1986: Siebdruck von metallhaltigen Farben für Leiterbahnen in Elektrotechnik/Elektronik, Verwendung von PEDOT:PSS als Antistatikbeschichtung, Verwendung organischer Photoleiter in der Elektrofotografie
1986: OFET
1986: OPVC
1987: OLED
1990: OFET mit flüssigprozessierter aktiver Schicht
1990: OLED mit flüssigprozessierter aktiver Schicht
1994: OFET auf flexiblem Substrat
1997: OFET mit im Siebdruck hergestellter aktiver Schicht
1998: OLED mit im Inkjetdruck hergestellter Elektrode
1998: integriertes OLED/OFET-Pixel mit flüssigprozessierten aktiven Schichten 1998: OLED mit im Inkjetdruck hergestellter aktiver Schicht
1999: OPVC auf flexiblem Substrat
2000: OFET mit im Inkjetdruck hergestellten Elektroden
2000: OLED auf flexiblem Substrat
2001 : OFET mit im Inkjetdruck hergestellter aktiver Schicht
2001 : vollständig im Siebdruck hergestellter OFET
2001 : OPVC mit flüssigprozessierter aktiver Schicht
2001 : OPVC mit im Siebdruck hergestellter aktiver Schicht
2004: OPVC mit im Inkjetdruck hergestellter Elektrode und aktiver Schicht
2005: vollständig im Inkjetdruck hergestellter OFET 2005: OFET mit im Offsetdruck hergestellten Elektroden aus PEDOT:PSS
2007: vollständig mit Massendruckverfahren hergestellte integrierte Schaltung
38. P-Ink
P-Ink („photonische Tinte“) ist eine Technologie, die in dünnen und flexiblen - elektronisch angesteuerten - Displays eingesetzt wird, wobei die Erzeugung der Farben über photonische Kristalle gesteuert wird.
Die darzustellende Farbe wird dabei über den Abstand zwischen den Kristallen gesteuert. Abhängig von diesem Abstand kann der Kristall nur von Licht mit einer bestimmten Wellenlänge durchdrungen und an der dahinterliegenden Reflexionsschicht reflektiert werden. Wenn keine Spannung angelegt wird, wird der Zustand der Kristalle und damit die Anzeige für mehrere Tage auffechterhalten, wodurch Displays mit P-Ink- Technik nur beim Umschalten der Anzeige Elektrische Leistung benötigen.
Funktionsprinzip von P-Ink
Der Vorteil von P-Ink gegenüber den meisten anderen Anzeigetechniken besteht darin, dass ein einzelnes Bildpixel mehrere Farben gleichzeitig ohne Helligkeitsverlust darstellen kann.
Das Prinzip wurde an der University of Toronto entwickelt. Um die Technologie zur Marktreife entwickeln zu können, wurde die Firma Opalux gegründet.
39. MicroLED
MikroLED - auch MicroLED, mLED oder pLED genannt - ist eine Flachbildschirmtechnologie auf Basis von Leuchtdioden (LED). Wie der Name besagt, basieren Mikro LEDs auf Anordnungen (Arrays) mikroskopisch kleiner Licht- Ausstrahlender-Dioden (Light Emitting Diodes LEDs), die die einzelnen Bildelemente (Pixel) bilden.
Gegenüber den älteren Flüssigkristallanzeigen (Liquid Crystal Displays LCDs) bieten MicroLED-Anzeigen einen deutlich höheren Kontrast, wesentlich schnellere Reakti- onszeiten und einen höheren Wirkungsgrad bezüglich Lichtstrom pro Leistung. Micro- LEDs (pLEDs) gelten als Nachfolger der organischen Leuchtdioden OLEDs. Im Ge gensatz zu den aus Kohlenstoff bestehenden OLEDs bestehen pLEDs aus Indiumgalliumnitrid InGaN Auf pLEDs basierende anorganische Halbleiter wurden erstmals von einer Forschungsgruppe um Hongxing Jiang und Jingyu Lin von Texas Tech University im Jahr 2000 entwickelt. pLEDs sind wegen ihres geringen Energieverbrauchs sowohl für sehr kleine Anzeigen, wie Smartwatches und Smartphones, als auch sehr große Anzeigen, wie Riesenfernseh- schirme, geeignet.
LCD ist das Plasma oder die Röhre von morgen: eine Technologie, die von einer oder mehreren abgelöst werden wird. Heiß gehandelte Kandidaten dafür sind LED, OLED sowie Micro LED (weitere international gebräuchliche Abkürzungen: Micro- LED, mLED oder pLED). Micro LED wurde im Jahr 2000 erstmals von Forschern vorgestellt. Wie OLED kann mLED mit absolut hervorragenden Schwarz- und Kontrastwerten punkten. Zudem ist pLED sehr langlebig und energieeffizient, was gerade in Profi- Szenarien interessant ist (Betriebs- und Laufzeiten, Unterhalt und Stromkosten). Im Unterschied zu OLED basiert MicroLED auf GaN, also einer LED- Technologie. Gegen- über OLED verweisen mLED-Befürworter auf eine höhere Lebensdauer sowie die hohe Luminanz der selbstleuchtenden LEDs.
Jetzt hat Samsung zur derzeit laufenden CES 2018 ein Consumer-Produkt - mutmaßlich im Preissegment High End - präsentiert, das einmal mehr zeigt, dass zumindest der große koreanische Hersteller MicroLED für eine der Zukunftstechnologien hält - und zwar für Screens in allen möglichen Größen und B2C- und B2B-Anwendungen:„The Wall“, ein 146" mLED-TV, der weltweit erste modulare in dieser Klasse. Der Vorteil ist offensichtlich: Wie bei LED- Walls lassen sich aus Modulen sehr formffei Screens in theoretisch beliebiger Größe bauen oder personalisieren. Bereits in den letzten Jahren hatten auch chinesische Hersteller erste TVs mit LED- Modulen als Proof-of-Concept präsentiert, dies allerdings zumeist ausschließlich auf dem heimischen Markt. Als weltweit erster Micro-LED-TV gilt der bereits 2012 von Sony vorgestellte Prototyp eines 55" Full HD„Crystal-TVs“. Er gilt als Vorfahr des CLEDIS (Canvas Display). Die selbst emittierende Technologie CLEDIS nutzt ultrafeine LEDs mit R (Rot), G (Grün) und B (Blau) auf der Displayoberfläche. Jeder Pixel besteht aus einer separaten ultrafeinen R-, G- und B-LED und die Lichtquelle ist nur 0,003 mm2 groß. Die verbleibende Fläche ist zu mehr als 99% schwarz. Für Business to Business-Anwendungen haben sowohl Samsung wie auch andere Player wie Sony erste Produkte auf den Markt gebracht, die MicroLED-Architekturen nutzen: Sony hat seine Lösung CLEDIS, Samsung den Cinema-LED-Screen. Dabei setzen beide Konzerne auf extrem kleine, selbst leuchtende LEDs. Während CLEDIS auf der ISE 2017 in der Wirkung bereits überzeugte, könnten im Februar 2018 auch andere Hersteller neue Micro LED-Produkte auf der Fachmesse zeigen. Samsung ist zumindest ein Kandidat dafür - äußert sich derzeit allerdings noch nicht zum Thema.
Hätte, hätte, Lieferkette: Es gibt aus der Supply Chain der Displayindustrie mehr als einen Hinweis darauf, dass pLED noch in diesem Jahr in spezifischen Digital Signage- Produkten eingesetzt werden könnte - natürlich keine Garantie, aber doch starke Indi- zien. Denn auch der nun gezeigte 146" MicroLED-TV von Samsung war laut Marktgerüchten aus dem Herbst 2017 zufolge erwartet worden, allerdings als 150" TV.
Erstmals im Mai 2017 sowie dann im Herbst 2017 wurden Marktgerüchte laut, nach denen Samsung den 2014 gegründeten taiwanesischen mLED-Spezialisten PlayNitride Inc. kaufen, oder sich an diesem beteiligen würde. Während PlayNitride das dementier te, äußerte sich Samsung nicht zu den Berichten. Ende 2017 hieß es vonseiten PlayNitrides, dass es Kaufangebote von mehreren Firmen gebe. Bislang sind LED- Experte Epistar sowie der taiwanesische Halbleiterhersteller United Microelectronics Corporation (UMC) die einzig bekannten Anteilseigner von PlayNitride. Aber auch ohne Kauf setzt Samsung auf pLED: Eigenentwicklungen sowie mögliche Lizenzierungen machen dies möglich. Wie im Falle des LED-Cinema-Screens ersichtlich, hat der Konzern hier schon ein erstes serienreifes Produkt auf den Markt
- und in die reale Welt der Projekt-Installationen - gebracht.
Der für gewöhnlich mehr als gut unterrichtete Branchendienst Digitimes berichtete kürzlich von einem weiteren Hersteller, der konkrete MicroLED-Produkte in der Pipe line hat, der südkoreanische Hersteller Lumens (nicht zu verwechseln mit dem namensähnlichen taiwanesischen Hersteller Lumens, der auf der ISE 2018 unter den Ausstel- lern sein wird).
Dem Bericht von Digitimes zufolge sprechen Industriequellen von der Entwicklung von 0,57" MicroLED-Screens bis hin zu einem 100" Digital Signage-Screen, der 100 bis 300 Mikrometer„große“ pLED Module nutzen solle
Ob auf der ISE oder bei der InfoComm oder einer der großen asiatischen Messen: Man sollte nicht zu überrascht sein, wenn in diesem Kalenderjahr der erste große Displayhersteller einen MicroLED Digital Signage-Screen präsentiert - etwa in der Klasse der 98" Large Format Displays.
40. LED-Fernseher
LED-Fernseher sind Fernsehgeräte, bei denen Leuchtdioden (LEDs) entweder zur Hintergrundbeleuchtung oder zur Erzeugung des Bildes selbst eingesetzt werden. Die folgende Begriffsklärung gilt auch für die meisten Computermonitore, welche zur Bilddarstellung sehr ähnliche Technik verwenden. Meist handelt es sich um LC- Displays (LCDs), deren Hintergrundbeleuchtung aus Leuchtdioden besteht (siehe LED- Hintergrundbeleuchtung). Dafür werden sowohl weiße, wie auch zu weiß mischbare farbige Leuchtdioden verwendet, die hinter der Flüssigkristallanzeige angeordnet sind. Der Begriff„LED-Fernseher“ ist bei dieser Art von Anzeigetechnik irreführend, jedoch üblich. Korrekt müssten solche Geräte als „LED- hintergrundbeleuchtete LCD- Fernseher“ bezeichnet werden.
Vergleichsschema LCD/LED
Bis etwa 2008 wurden im Wesentlichen nur drei unterschiedliche Techniken für den Gebrauch zuhause angeboten, nämlich Flüssigkristallbildschirme, Plasmabildschirme und Projektionsanzeigen. Weil Flüssigkristallanzeigen nur das Licht modulieren, d. h., wie Lichtventile arbeiten und selbst kein Licht abgeben, wird für Fernsehgeräte eine flächige Beleuchtung hinter der Flüssigkristallanzeige angebracht, um die Bildinforma- tion im Durchlicht (Transmission) darzustellen. Im vereinfachten Schema sind derartige Flüssigkristallbildschirme als Anzeigetypen A und B bezeichnet, wobei die Flüssigkristallanzeige 1 das Licht entsprechend dem darzustellenden Bild moduliert.
Seit etwa 2009 werden im Handel LED-Fernseher (engl. LED TV) und LED-Monitore angepriesen (Schema Anzeigetyp B). Dabei handelte es sich bis 2013 noch in praktisch allen Fällen um die bisherigen Flüssigkristallanzeigen zur Bilderzeugung.
Neu ist nur die Hintergrundbeleuchtung dieser LCD-Fernseher mittels Leuchtdioden (engl. LEDs; Schema: Teil 3, wobei ein nicht eingezeichneter Lichtverteiler für eine flächige Ausleuchtung sorgt).
Vergleich der Hintergrundbeleuchtungstechniken
Bis etwa 2008 wurden bei LCD-Fernsehern praktisch ausschließlich Kaltkathodenröhren (Leuchtröhren) als Hintergrundbeleuchtung verwendet (Schema: Teil 2 in Kombination mit einem nicht eingezeichneten flächigen Lichtverteiler). Die Verwendung von LEDs (Schema: Teil 3) anstelle von Leuchtröhren wird in der Produktwerbung hervorgehoben, weil folgende Vorteile gegenüber der früheren Technik bestehen: [2] kompaktere Bauweise mit geringerer Tiefe des Gerätes
geringerer Stromverbrauch bei niedrigeren elektrischen Spannungen
kürzere Schaltzeiten (siehe dynamische Leuchtdiodenansteuerung)
geringere Abnahme der Lichtintensität und Veränderung des Farbspektrums im Laufe der Nutzung höhere Zuverlässigkeit und Lebensdauer Einsatz von RGB-Kombinationen
Zusätzlich Vorteile ergeben sich bei speziellen Ausführungen der Leuchtdioden: Hier werden mehrere zusammengefugte Rot-Grün-Blau-Leuchtdiodenkombinationen hinter der Anzeigefläche verteilt angebracht (additive Farbmischung, full-array LED). Diese Art von Beleuchtung, abgestimmt auf die Farbfilter der Flüssigkristallanzeige, ergibt ein besseres Farbspektrum des Fernsehers, ist jedoch teurer als die Verwendung von Leuchtdioden entlang der Bildschirmperipherie (edge-lit).
Quantenpunkte für optimales Farbspektrum
Siehe auch : Quantenpunkt-Leuchtdiode
Mit Hilfe von Nanohalbleiterkristallen (Quantenpunkte, engl quantum dots), als Schicht auf einer Glasplatte oder Folie aufgebracht und durch blaue, kurzwellige LEDs (z. B. aus GaN) von hinten bestrahlt, kann das Spektrum der Hintergrundbeleuchtung von LCDs auf eine bisher unerreichte Art optimiert werden (Fachausdruck erweiterter Farbraum). Diese Form von Fluoreszenztechnik wird in verschiedenen Laboratorien weiterentwickelt. Die US-Firma 3M als bedeutender Lieferant von Hintergrundbeleuchtungskomponenten für LCDs arbeitet mit Nanosys, Inc. an entsprechend beschichteten Folien. Schon seit mehreren Jahren ist auch die britische Firma Nanoco Group PLC in der Weiterentwicklung von Quantenpunkten tätig und hat mit asiatischen Herstellern von Flüssigkristallanzeigen und OLEDs Zusammenarbeitsverträge abgeschlossen. Auch die US-Firma QD Vision arbeitet mit asiatischen Firmen zusammen, welche die Hintergrundbeleuchtung von LC-Anzeigen optimieren. Als erste Firma hat Sony 2013 unter der schon früher benutzten Bezeichnung Trilumi- nos bestimmte hochwertige LCD-Fernseher mit einer derartig optimierten LED- Hintergrundbeleuchtung auf den Markt gebracht. Dabei wird das Licht von blauen LEDs auf einer davor angebrachten Glasscheibe oder Folie durch unterschiedliche Quantum Dots in sehr reines, schmalband iges Blau, Grün und Rot umgewandelt. Durch Kombination dieser drei Grundfarben entsteht eine optimale weiße Ausleuchtung der LC- Anzeige von hinten. Seither haben auch die koreanischen Firmen Samsung Electro- nies, LG Electronics wie auch chinesische Fernsehgerätehersteller (TCL, Changhong, Hisense) LCD-Fernseher mit LED- Hintergrundbeleuchtung durch eine Quantenpunkte- Schicht verbessert und an der CES-Messe 2015 vorgestellt. Samsung Electronics hat 2016 beschlossen, ihre hochwertigen Fernseher neu mit der Bezeichnung QLED zu vermarkten, um auf die Technik mit Quantenpunkten hinzuweisen. Damit soll auch der Übergang zu den sich bei Samsung noch in Entwicklung befindenden neuen Bildschirmen mit selbstleuchtenden QLEDs vorbereitet werden.
Dynamische Leuchtdiodenansteuerung abhängig vom Bildinhalt
Bisherige Flüssigkristallbildschirme haben einen beschränkten Kontrast, weil die Darstellung eines schwarzen Bildpunktes (Pixel) wegen der immer noch etwas durchscheinenden Hintergrundbeleuchtung nicht vollständig dunkel war. Durch selektive Ansteuerung der verteilten Leuchtdioden je nach Bildinhalt können dunkle Teile durch die reduzierte lokale Beleuchtung (local dimming) dunkler gemacht und deshalb der Kontrast gesteigert werden. Die Anzahl der verteilt angebrachten Leuchtdioden (Schema B: Teil 3) ist viel kleiner als die Anzahl Pixel der Flüssigkristallanzeige. Deshalb lässt sich die erwähnte Kontraststeigerung nicht individuell für jeden Bildpunkt, sondern nur für eine größere Gruppe benachbarter Bildpunkte erzielen. Trotzdem kann mit dieser Technik der beste Kontrast aller LCD- Fernseher erreicht werden. Im Handel sind jedoch nur wenige Geräte mit dieser relativ teuren Hintergrundbeleuchtung als Kombination von Full-array LED mit Local Dimming erhältlich.
Echte LED-Anzeigen mit monolithischen Leuchtdioden
Anorganische, monolithisch hergestellte, einkristalline Leuchtdioden werden schon seit Anfang der 1970er Jahre als Anzeigeelemente verwendet. Beispiele waren die PULSAR-Armbanduhren mit rot leuchtender Digitalanzeige und die ersten Taschenrechner. Viele Einzelheiten und Hinweise finden sich im Artikel Leuchtdiode. Einen Durchbruch brachte die Entwicklung von blauen LEDs, weil damit Kombinationen von LEDs zur Erzeugung von weißem Licht möglich wurden. Monolithische LEDs werden auf einkristallinen Halbleiterscheiben (Wafers) hergestellt. Diese durch Kristallzüchtung hergestellten runden Scheiben haben heute einen Durchmesser von bis zu 30 cm. Wenn alle übrigen Probleme gelöst wären, könnte man damit keine größeren monolithischen LED-Bildschirme herstellen. In der Praxis werden dar- aus einzelne LEDs durch Zertrennen der Scheibe und individuelle elektrische Kontaktierung gewonnen.
Großbildschirme im Freien (z. B. in Fußballstadien, Videowand) werden mit einer Vielzahl von individuellen Leuchtdioden realisiert.
Einen neuen Ansatz verfolgen sogenannte Mikro-LED-Anzeigen. Mikro-LED- Anordnungen werden ebenfalls monolithisch im Batch-Verfahren auf einem geeigneten Substrat aus Saphir oder Silizium hergestellt. Das bevorzugte Material ist anorganisches, monokristallines Galliumnitrid (GaN), welches durch Epitaxie auf dem Substrat gebil- det wird. Im Gegensatz zur bisherigen Herstellung werden jedoch die Leuchtdioden anschließend nicht zertrennt, sondern als Anzeigematrix beibehalten.
Die dazu notwendige neuartige Struktur mit vielfachen Herausforderungen wie Dotierung für unterschiedliche Farben, Kontaktierung als Matrixanordnung, mechanische Stabilität bei Transfer vom Herstellsubstrat auf ein Anzeigesubstrat sind noch nicht der- art gelöst, dass solche Anzeigen für kommerzielle Produkte eingesetzt werden können. Die Firma Apple Inc. sieht Potential in dieser neuen Technik und hat deshalb das Pionierunternehmen LuxVue Technology übernommen.
Anzeigen mit organischen Leuchtdioden (OLEDs)
Schon seit den 1950er Jahren wird Elektro lumineszenz in Schichten organischen Materials erforscht. Inzwischen sind organische Halbleitermaterialien als OLED entwickelt worden, welche in Dünnschichttechnik als Anzeigeelemente geeignet sind. Im Schema ist diese Technik vereinfacht als Anzeigetyp C dargestellt. Die OLEDs 4 sind auf einem Substrat (oder zwischen zwei Substraten) in Dünnschichttechnik derart dicht aufge- bracht, dass sie als einzelne Pixel zur Bilderzeugung dienen.
Vorteile gegenüber Flüssigkristallanzeigen sind: -OLEDs strahlen selbst Licht ab, brauchen somit keine Hintergrundbeleuchtung und bieten hohen Kontrast.
-potentiell niederigere Herstellungskosten grosser Bildschirme als noch 2017[19] und geringerer Stromverbrauch bei Einsatz des Herstellverfahrens mittels Metallmaske
-OLEDs können in verschiedenen Farben Licht abgeben, während bei LCDs dafür zu sätzliche Farbfilter notwendig sind.
-geringere Winkelabhängigkeit beim Betrachten
-kürzere elektrooptische Ansprechzeiten
Als wichtigster Nachteil gilt die beschränkte Lebensdauer. Weitere Nachteile sind die UV-Empfindlichkeit und die derzeit noch hohen Herstellungskosten. Samsung Electronics als bedeutender Hersteller von sowohl Flüssigkristall- wie auch OLED- Anzeigen hat 2016 beschlossen, für zukünftige großformatige Fernseher auf OLEDs zu verzich- ten. Neben den erwähnten Nachteilen wird bei OLEDs auch das Einbrennen bestimmter Muster als weiterer Nachteil genannt. Der Hersteller setzt - im Gegensatz zum Wettbewerb - QLEDs anstelle von OLEDs bei der Fernsehertechnologie ein.
Mit solchen Anzeigen werden viele kleine bis mittelgroße portable Geräte wie Digital- kameras, Smartphones (z. B. Samsung Galaxy S), Tablets wie auch Laptops ausgerüstet. Im Januar 2012 wurden auf der Consumer Electronics Show (CES) in Las Vegas erste Prototypen von 55-Zoll-OLED-Fernsehern der Firmen LG Display und Samsung gezeigt.[25] OLED-Bildschirme sind inzwischen bei großformatigen Fernsehern allgemein erhältlich geworden. Häufig werden diese Displays unter dem Begriff AMOLED (engl active-matrix organic light emitting diode) zusammengefasst.
41. Organische Leuchtdiode
Eine organische Leuchtdiode (englisch organic light emitting diode, OLED) ist ein leuchtendes Dünnschichtbauelement aus organischen halbleitenden Materialien, das sich von den anorganischen Leuchtdioden (LED) dadurch unterscheidet, dass die elektrische Stromdichte und Leuchtdichte geringer und keine einkristallinen Materialien er- forderlich sind. Im Vergleich zu herkömmlichen (anorganischen) Leuchtdioden lassen sich organische Leuchtdioden daher in Dünnschichttechnik kostengünstiger hersteilen, ihre Lebensdauer und Lichtausbeute ist jedoch geringer als die herkömmlicher Leuchtdioden.
Die OLED-Technik wird für Bildschirme in Smartphones, Tablet-Computem wie auch in größerflächigen Fernsehern und Computermonitoren eingesetzt. Ein weiteres Einsatzgebiet ist die großflächige Raumbeleuchtung. Aufgrund der Materialeigenschaften ist auch eine mögliche Verwendung der OLEDs als biegsamer Bildschirm interessant.
OLED-Display
In den 1950er Jahren wurde die Elektro lumineszenz in organischen Materialien von A.Bernanose an der Universität Nancy in Frankreich entdeckt. Stoffe wie Acridinorange wurden in dünnen Filmen aus Cellulose oder Zellophan deponiert oder gelöst und einem Wechselstromfeld ausgesetzt. Dieser Mechanismus basiert auf der direkten Anregung von Farbstoffmolekülen oder Elektronen.
Martin Pope und Mitarbeiter der New York University entwickelten 1960 ohmsche Elektrodenkontakte zur Injektion von Ladungsträgern in organische Kristalle im unbe- leuchteten Zustand. Im Weiteren beschrieben sie die nötigen energetischen Anforderungen (Austrittsarbeiten) für Elektrodenkontakte, die Elektronen bzw. Löcher (Defektelektronen) in einen organischen Halbleiter injizieren können. Solche Kontakte sind die Basis für die Ladungsinjizierung bei allen modernen OLED-Geräten. Im Jahr 1963 entdeckte ebenfalls Popes Gruppe die erste Gleichspannungs (DC)- Lumineszenz unter Vakuum an einem reinen Anthracen-Einkristall und an Tetracen- dotierten Anthracen-Kristallen mit einer kleinen Silberelektrode bei 400 V. Dieser Mechanismus basiert auf feldbeschleunigter Elektronenanregung der molekularen Fluoreszenz. Popes Gruppe berichtete 1965 zum einen von Elektro lumineszenz in Anthracen- Kristallen, ausgelöst durch die Rekombination von thermalisierten Elektronen und Lö- ehern ohne ein äußeres elektrisches Feld, und zum anderen, dass bei Anthracen das Leit-Energieniveau höher als das Exziton-Energieniveau ist.
Ebenfalls 1965 produzierten Wolfgang Helfrich und W. G. Schneider vom National Re- search Council of Canada Elektro lumineszenz durch doppelt injizierte Rekombination zum ersten Mal in einem Anthracen-Einkristall unter der Verwendung von Löcher- und Elektronen-injizierenden Elektroden, den Vorläufern der modernen doppelinjizierenden Geräte. Im selben Jahr patentierten Forscher von Dow Chemical 1965 ein Verfahren zur Herstellung von Elektrolumineszenz-Zellen aus einem elektrisch isolierten, 1 mm dünnen Film aus geschmolzenem Phosphor mit eingearbeitetem Anthracenpulver, Tetracen und Graphitpulver, das mit Wechselspannung (100-3000 Hz, 500-1500 V) betrieben wurde. Dieser Mechanismus basiert auf elektronischer Anregung von Graphit und Anthracen- Molekülen an den Kontakten.
Die Leistungsfähigkeit war durch die schlechte elektrische Leitfähigkeit der damaligen organischen Materialien begrenzt. Diese Beschränkung wurde durch die Entdeckung und Entwicklung von hoch-leitfahigen Polymeren verbessert. So beobachtete Roger Partridge vom britischen National Physical Laboratory 1975 erstmals die Elektrolumi- neszenz von Polymerfilmen. Der später patentierte und 1983 in einer Fachzeitschrift veröffentlichte Aufbau bestand aus einer bis zu 2,2 pm dünnen Folie aus Poly(N- Vinylcarbazol) zwischen zwei ladungsinjizierenden Elektroden.
Ching W. Tang und Steven Van Slyke von der Eastman Kodak Company berichteten 1987 erstmals von einem Diodenaufbau. [18] Dabei wurde eine neuartige Zweischichtstruktur mit getrennter loch- und elektronentransportierender Schicht verwendet, so dass Rekombination und Lichtemission in der Mitte der organischen Schicht auftraten. Das führte zu einer niedrigeren Betriebsspannung und höherer Effizienz und stellte den Übergang zu der heutigen OLED-Forschung und - Produktion dar. 1990 entwickelten J. H. Burroughes und Mitarbeiter von der University of Cambridge eine effiziente, grünes Licht emittierende Anordnung unter der Verwendung von 100 nm dünnem Film aus Poly(p-phenylen-vinylen). 1996 wurde das erste Gerät mit einem leuchtenden Polymer von Cambridge Display Technology (CDT) vorgestellt. [20] Im November 2006 kreierten Wissenschaftler am Pacific Northwest National Laborato- ry (PNNL) eine blaue OLED mit einer Quantenausbeute von 1 1 % bei 800 cd/m2.
Aufbau und Funktionsweise
Schema einer OLED: 1. Kathode, 2. Emitterschicht, 3. Rekombination der Ladungsträ- ger mit Emission eines Photons, 4. Lochleitungsschicht, 5. Anode
OLEDs sind aus mehreren Schichten aufgebaut. Dabei wird meist auf die Anode, bestehend aus Indium-Zinn-Oxid (ITO), die sich auf einer Glasscheibe befindet, eine Lochleitungsschicht (englisch hole transport layer, HTL) aufgebracht. Zwischen ITO und FITL wird - abhängig von der Herstellungsmethode - oft noch eine Schicht aus PEDOT/PSS aufgebracht, die zur Absenkung der Injektionsbarriere für Löcher dient und die Eindiffusion von Indium in den Übergang verhindert. Auf die HTL wird eine Schicht aufgebracht, die entweder den organischen Farbstoff enthält (5 bis 10 Prozent) oder - eher selten - vollständig aus dem Farbstoff besteht, z. B. Aluminium- tris(8- hydroxychinolin), Alq3. Diese Schicht bezeichnet man als Emitterschicht (engl emitter layer, EL).
Auf diese wird optional noch eine Elektronenleitungsschicht (engl electron transport layer, ETL) aufgebracht. Zum Abschluss wird eine Kathode, bestehend aus einem Me- tall oder einer Legierung mit geringer Elektronenaustrittsarbeit wie zum Beispiel Calcium, Aluminium, Barium, Ruthenium, Magnesium-Silber-Legierung, im Hochvakuum aufgedampft. Als Schutzschicht und zur Verringerung der Injektionsbarriere für Elektronen wird zwischen Kathode und E(T)L meistens eine sehr dünne Schicht aus Lithiumfluorid, Caesiumfluorid oder Silber aufgedampft. Die Elektronen (d. h. die negativen Ladungsträger) werden nun von der Kathode injiziert, während die Anode die Löcher (d. h. die positiven Ladungsträger) bereitstellt. Elektronen und Löcher driften aufeinander zu und treffen sich im Idealfall in der EL, weshalb diese Schicht auch Rekombinationsschicht genannt wird. Elektronen und Lö- eher bilden einen gebundenen Zustand, den man als Exziton bezeichnet.
Abhängig vom Mechanismus stellt das Exziton bereits den angeregten Zustand des Farbstoffmoleküls dar, oder der Zerfall des Exzitons stellt die Energie zur Anregung des Farbstoffmoleküls zur Verfügung. Dieser Farbstoff hat verschiedene Anregungszu- stände. Der angeregte Zustand kann in den Grundzustand übergehen und dabei ein Photon (Lichtteilchen) aussenden.
Die Farbe des ausgesendeten Lichts hängt vom Energieabstand zwischen angeregtem und Grundzustand ab und kann durch Variation der Farbstoffmoleküle gezielt verändert werden. Ein Problem stellen nichtstrahlende Triplett-Zustände dar. Diese können durch Zugabe von sogenannten„Exzitoren“ wieder gelöst werden.
Verwendung und Auswahl organischer Materialien
Für die aus Polymeren gefertigten organischen LEDs hat sich die Abkürzung PLED (engl polymer light emitting diode) durchgesetzt. Als SOLED oder SMOLED werden seltener die aus„small molecules“ (kleinen Molekülen) hergestellten OLEDs bezeichnet. In PLEDs werden als Farbstoffe häufig Derivate von Poly(p-phenylen- vinylen) (PPV) verwendet. In jüngster Zeit werden Farbstoffmoleküle eingesetzt, die eine vierfach höhere Effizienz als mit den oben beschriebenen fluoreszierenden Molekülen er- warten lassen. Bei diesen effizienteren OLEDs werden metall- organische Komplexe verwendet, bei denen die Lichtaussendung aus Triplett- Zuständen erfolgt (Phosphoreszenz).
Diese Moleküle werden auch Triplett-Emitter genannt;[25][26] der Farbstoff kann auch durch das Umgebungslicht angeregt werden, was zu Lumineszenz führen kann. Ziel ist es allerdings, selbstleuchtende Bildschirme herzustellen, die die organische Elektrolu- mineszenz nutzen.
In den letzten Jahren sind Simulationstechniken entwickelt worden, die inzwischen ausgehend von der chemischen Zusammensetzung wichtige Eigenschaften von OLEDs komplett am Computer berechnen können. Diese Methoden erlauben eine kostengünstige Vorauswahl von Molekülen, ohne aufwändige Synthese und experimentelle Charak terisierung. Herstellungsverfahren bei AMOLED-Bildschirmen
Bei AMOLED-(Aktivmatrix-OLED)-Bildschirmen gibt es zwei bedeutende Herstellungsverfahren, die die Produktionskosten, die technischen Eigenschaften und damit das Anwendungsfeld bestimmen. Zum einen gibt es RGB-Side-by-Side- AMOLED- Bildschirme (SBS) unter anderem basierend auf einer fine metal mask (FMM)- Technologie und zum anderen weiße OLEDs mit einem Farbfilter (WOLED)
RGB-SBS-AMOLED-Bildschirme sind so aufgebaut, dass jeder Subpixel eine der drei Grundfarben Rot, Grün oder Blau emittiert. Die Vorteile liegen in einem großen Farbraum (>100 % NTSC) und einer geringen Leistungsaufnahme verglichen mit WOLED-Bildschirmen. Nachteilig wirken sich jedoch das Herstellungsverfahren und die verschieden schnelle Alterung der Subpixel aus. Bei der Herstellung der SBS- AMOLEDs werden die Pixel durch eine fine metal mask (FMM) platziert bzw. auf das Substrat aufgetragen. Problematisch ist hierbei die hohe Genauigkeit, mit der die Maske ausgerichtet werden muss (±1 pm). Besonders bei hohen Auflösungen und großen Bild- schirmen fährt dies oft zu Fabrikationsfehlern, damit zu einem hohen Ausschuss und hohen Kosten. Diese Technik wird deshalb bei kleinen Bildschirmen wie Smartphones eingesetzt. Samsung ist hier ein großer Hersteller.
Hingegen werden bei der WOLED-Technologie keine verschiedenfarbigen Subpixel hergestellt. Der Einsatz einer FMM findet nicht statt. Bei dieser Technik trifft weiß emittiertes Licht auf einen Farbfilter, der die Grundfarben pro Pixel selektiert. Durch die fehlende FMM ist eine Produktion auch bei großen Bildschirmen in großen Stück zahlen möglich. Farbverschiebungen infolge unterschiedlich schnell alternder Subpixel treten hier nicht auf. Jedoch ist die Leistungsaufnahme wegen des lichtabsorbierenden Farbfilters höher und der Farbraum kann geringer ausfallen als bei SBS-AMOLEDs. LG beispielsweise setzt die WOLED Technik bei Fernsehgeräten ein.
Vorteile
Gedruckte OLED-Zeile, mit einer Batterie zum Leuchten gebracht
Ein Vorteil von OLED-Bildschirmen gegenüber den herkömmlichen Flüssigkristall- bildschirmen (LCDs) ist der sehr hohe Kontrast, da sie ohne Hintergrundbeleuchtung auskommen: Schwarze Pixel emittieren kein Licht. Während LCDs nur als farbige Filter wirken und im Dunkelzustand trotzdem etwas Licht durchscheint, emittieren OLEDs farbiges Licht nur bei Ansteuerung, was auch sehr gute Farbdarstellung verspricht. Dieses Verfahren ist deutlich effizienter, wodurch OLEDs, speziell bei der Darstellung dunkler Bilder, weniger Energie benötigen. Aus diesem Grund werden OLED-Geräte weniger warm als entsprechende Geräte mit LC-Bildschirmen, obschon durch die Umstellung von Kaltkathodenröhren auf LEDs für die LCD-Hintergrundbeleuchtung der Energieaufwand für Flüssigkristallbildschirme gesenkt wurde. Durch den geringen Energiebedarf können OLEDs gut in kleinen, tragbaren Geräten eingesetzt werden, bei- spielsweise Notebooks, Handys und MP3 -Playern. Aufgrund der nicht benötigten Hin tergrundbeleuchtung ist es möglich, OLEDs sehr dünn zu gestalten. Ein auf der „Display 2008“ vorgestelltes Modell von Sony hat eine Tiefe von lediglich 0,3 Millimetern.
Die Reaktionszeit (engl, response time) von OLED-Bildschirmen liegt bei einigen Ge- räten unter 1 Mikrosekunde und ist damit rund lOOOmal schneller als das aktuell schnellste LCD mit einer Millisekunde.
Ein Vorteil beruht auf der Möglichkeit, OLEDs großflächig auch auf drucktechnischem Wege herzustellen, was keine teuren Vakuum- und Reinraum-Bedingungen benötigt. Der Kostenvorteil ergibt sich daraus, dass die elektrisch leitenden farbgebenden Schich- ten in einem modifizierten Tintenstrahldruckverfahren oder neuerdings auch im Offsetdruck aufgebracht und ebenfalls ohne Vakuum- Aufdampfen anschließend beschichtet werden können. Führend auf diesem Gebiet der löslichen OLED- Materialsysteme sind DuPontund Merck. Die ersten OLEDs wurden unter Laborbedingungen bereits 1987 gedruckt. Leitmesse mit Kongress für die gedruckte Elektronik ist jährlich die LOPEC Messe in München. Auf der Drupa 2012, Leitmesse der Druckindustrie, wurden u. a. gedruckte OLEDs als Milliardenmarkt.
Das größte technische Problem stellt die vergleichsweise geringe Lebensdauer mancher aus organischen Materialien bestehenden Bauelemente dar. Bei (O)LEDs bezeichnet man als Lebensdauer die mittlere Betriebszeit, nach der die Leuchtdichte auf die Hälfte abgesunken ist. Dabei haben blaue OLEDs die geringste Lebensdauer. Für weiße Licht quellen, wie bei Monitoren, ist für die insgesamt nutzbare Lebensdauer daher die blaue Komponente die begrenzende. 2011 wurden für weiße Lichtquellen 5000 Stunden (bei 1000 cd/m2) und 12.000 Stunden (beilOO cd/m2)[45] angegeben. Im Vergleich dazu weisen handelsübliche weiße LEDs für die Hintergrundbeleuchtung bei LCD- Monitoren eine mittlere Betriebszeit in der Größenordnung von 30.000 Stunden auf.
Die Lebensdauer von OLEDs ist temperaturabhängig: Eine gut gekühlte OLED (gleich welcher Farbe) mit geringer Anfangsleuchtstärke hat immer eine höhere Lebensdauer als eine OLED, die ohne Kühlung von Anfang an mit der maximalen Leuchtstärke betrieben wird. Der Grund sind Diffusionsprozesse in der OLED, die bei höheren Tempe- raturen schneller ablaufen. Die Lebensdauer bei mittlerer bis geringer Helligkeit wird aus dem Wert bei maximaler Helligkeit extrapoliert, da der Test von OLED-Materialien bei geringer Leuchtstärke über mehrere Zehn- bis wenige Hunderttausende von Stunden nicht praktikabel ist. Ein weiterer Nachteil der OLED ist die im Vergleich zu Leuchtdioden geringere Licht ausbeute im Bereich von 40 lm/W bis 60 lm/W bei handelsüblichen OLEDs. Spitzen werte von ausgesuchten Labormustem bei OLEDs erzielen Werte knapp über 100 lm/W.[47] Herkömmliche Leuchtdioden für Beleuchtungszwecke erzielen Werte von 200 l /W, bei speziell optimierten LEDs bis knapp über 300 lm/W.
Neben geringerer Lebensdauer und Lichtausbeute reagieren OLEDs auch auf bestimmte äußere Stoffe empfindlich. So kann neben Wasser, durch Luftfeuchtigkeit allgegenwärtig, auch eindringender Sauerstoff das organische Material zerstören.
Daher ist es wichtig, das Display hermetisch zu kapseln und vor äußeren Einflüssen zu schützen. Die nötige starre Kapselung beeinträchtigt die Flexibilität. Durch Korrosion mit Sauerstoff ist vor allem die hochreaktive Injektionsschicht aus Calcium und Barium gefährdet. Typische Versagenserscheinungen sind kreisrunde, wachsende nichtleuchtende Bereiche, sogenannte„Dark Spots“. Ursache ist häufig eine Partikelbelastung beim Aufdampfen der Metallschichten. Auch die mikroskopischen Kanten der Mehrschichtstruktur werden durch Korrosion unterwandert, was zur Abnahme der effektiv leuchtenden Pixelfläche bei Bildschirmanwendungen führt.
Kommerzielle OLEDs auf flexiblem Substrat befinden sich mit Stand 2017 in der Einführungsphase, da alle flexiblen Kunststoffsubstrate eine hohe Durchlässigkeit für Sauerstoff und Luftfeuchtigkeit haben. Dünnstglas (Glas mit einer Dicke von höchstens et- wa 0,2 mm) ist in der Verarbeitung schwer handhabbar, außerdem ist das Anodenmaterial Indiumzinnoxid ein Hartstoff und spröde. Wiederholtes Ein- und Ausrollen um einen geringen Radius führt zum Brechen und schnellen Versagen (Widerstandsanstieg) der Anode. OLEDs könnten in vielen Anwendungen die heute gebräuchlichen LCDs sowie Plasmabildschirme ersetzen. Die Lebensdauer gibt noch einige Probleme auf, denn die roten, grünen und blauen Leuchtpunkte altern unterschiedlich schnell. Durch dieses unregelmäßige Altern der Einzelfarben kommt es beim Gesamtbild im Laufe der Zeit zu Farbverschiebungen, die sich nur begrenzt durch eine - idealerweise automatische - Nachregelung (vor allem über die Verstärkung der Blauemission) ausgleichen lassen. Die Grundpatente für OLED-Strukturen stammen aus den 1980er Jahren. Dabei war Kodak führend. Seit 1980 sind zu dem Thema etwa 6600 Patente bekannt.
Forschungsschwerpunkte liegen in Japan, Südkorea und den USA. Die meisten Patente sind in Japan registriert, gefolgt von den USA und Europa. Deutschland liegt mit etwa 4,5 % auf Platz drei hinter den USA mit etwa 22 %.
Da selbstleuchtende OLED-Displays noch teurer als hintergrundbeleuchtete LC- Displays sind, werden sie bisher nur in speziellen Anwendungen verwendet. Wegen der ge- ringeren Abmessungen bieten sie größere Gestaltungsfreiräume für den Gerätehersteller. Auch der Stromverbrauch der OLEDs ist oft niedriger, da sie keine Hintergrundbe leuchtung benötigen.
Große OLED-Bildschirme sind bisher teurer als entsprechend große LCD- Bildschirme. Probleme stellen vor allem die Kapselung der Bauelemente und die aufwendigere Ansteuerung der Pixel dar. Bei LCDs erfolgt die Ansteuerung mit geringer Leistung, da LCD-Pixel als elektrische Kapazitäten durch eine angelegte Spannung nur umgesteuert werden, die Lichtenergie wird von der Hintergrundbeleuchtung erzeugt. Im Gegensatz dazu müssen OLEDs selbst mit der für die Lichtabgabe erforderlichen Energie beauf- schlagt werden, um Elektrolumineszenz zu erzeugen. Sie sind stromgesteuert, weshalb die bisher verwendete, ausgereifte Technologie aus dem LCD-Bereich nicht direkt übertragen werden kann.
Bei kleinen OLED-Bildschirmen kann die Steuerung über eine sogenannte Passivmatrix erfolgen: Ein bestimmtes Pixel wird durch das Anlegen einer Spannung an eine Zeile und Spalte angesteuert, wofür zwei Leitungen notwendig sind. Für große Bildschirme ist diese Methode nicht ausreichend, weil die Bahnwiderstände linear mit der Größe zunehmen und damit die Treiberkraft nicht mehr ausreicht, um das jeweilige Pixel anzusteuern. Zur Steuerung des Bildschirms muss hier eine Aktivmatrix eingesetzt werden, bei der jedes Pixel einzeln über einen eigenen Transistor adressiert wird, was vier Leitungen nötig macht; abgeleitet von Aktivmatrix-OLED (engl active matrix organic light emitting diode) wird die Technik unter den Begriffen AMOLED und Su- perAMOLED vertrieben. Die Bereitstellung von Schalt-(Spannungssignalen) wie auch Versorgungsstrom ist (wie bei Plasmabildschirmen) aufwendig und damit teuer und einer der Hauptgründe für die hohen Kosten großer Bildschirme.
Farbdisplays mit AMOLEDs in einer PenTile-Matrixanordnung sind für die Erfindung anwendbar. Die als am neuesten angesehene Technik ist Super AMOLED+. Hier wurde die PenTile-Matrix entfernt, so dass jedes Pixel alle drei Grundfarben zur Verfügung hat. Demnach werden ohne Pentile-Matrix nicht mehr mehrere Pixel„zusammenge- schlossen“, um alle Farben zu mischen. Aufgrund dieser Änderung wirkt die Auflösung solcher Displays deutlich höher, und es stechen keine einzelnen Pixel hervor. Weitere Verbesserungen sind bessere Schwarzwerte, erhöhter Kontrast, mehr darstellbare Farben, geringerer Stromverbrauch und verringerte Dicke des Displays. Allerdings ist der PenTile-Effekt bei sehr hohen Pixeldichten von weit über 300 ppi (pixel per inch) nicht oder bei genauer Betrachtung kaum wahrnehmbar. Dies ist einer der Gründe, warum Samsung bei neueren Produkten zu Full HD noch SuperAMOLED- Bildschirme einsetzen kann, ohne eine verminderte Qualität fürchten zu müssen. Hersteller
Bedeutende Hersteller von Leuchtmitteln mittels OLED-Technik sind Osram, Konica- Minolta und OLEDWorks, während LG, Samsung SDI und AU Optronics wichtige Hersteller von OLED-Informationsanzeigen sind. Daneben gibt es eine Vielzahl weiterer Hersteller. Philips und Osram stiegen 2004 bzw. 2007 aus dem Display- Geschäft aus und produzieren nur noch OLED-Leuchtmittel. Mitte 2015 zog sich Philips ganz aus der OLED-Produktion zurück und verkaufte die Produktionsanlage an OLED Works in Rochester, NY, USA.
Im Juni 2015 legte der Pharma- und Spezialchemiehersteller Merck KGaA an seinem Stammsitz in Darmstadt den Grundstein für ein neues Werk, das für die internationalen OLED-Elektronikhersteller die nötigen chemischen Basiselemente für die OLED- Technologie produzieren soll. Die Kosten für die neue Fabrikanlage betrugen 30 Mio. Euro. Die Anlage ging im September 2016 in Betrieb.
Im November 2015 verkündete die LG Group, in Südkorea ein Werk für OLEDs zu er- richten, das im ersten Halbjahr 2018 die Produktion aufnehmen soll. Die Investitionskosten betragen angeblich 8,2 Mrd. Euro.
Während des Jahres 2016 hat Samsung Electronics als bedeutender Hersteller und Nutzer von AMOLEDs angekündigt, dass in Zukunft großflächige Fernsehbildschirme nicht mehr in OLED-Technik gefertigt werden. Neben beschränkter Lebensdauer werden Bildeinbrennerscheinungen und verhältnismäßig hohe Herstellkosten als Gründe genannt.
LCD ist das Plasma oder die Röhre von morgen: eine Technologie, die von einer oder mehreren abgelöst werden wird. Heiß gehandelte Kandidaten dafür sind LED, OLED sowie MicroLED (weitere international gebräuchliche Abkürzungen: Micro- LED, mLED oder pLED). MicroLED wurde im Jahr 2000 erstmals von Forschern vorgestellt. Wie OLED kann mLED mit absolut hervorragenden Schwarz- und Kontrastwerten punkten. Zudem ist pLED sehr langlebig und energieeffizient, was gerade in Profi- Szenarien interessant ist (Betriebs- und Laufzeiten, Unterhalt und Stromkosten). Im Unterschied zu OLED basiert MicroLED auf GaN, also einer LED- Technologie. Gegenüber OLED Verweisen mLED-Befürworter auf eine höhere Lebensdauer sowie die hohe Luminanz der selbstleuchtenden LEDs. Jetzt hat Samsung zur derzeit laufenden CES 2018 ein Consumer-Produkt - mutmaßlich im Preissegment High End - präsentiert, das einmal mehr zeigt, dass zumindest der große koreanische Hersteller MicroLED für eine der Zukunftstechnologien hält - und zwar für Screens in allen möglichen Größen und B2C- und B2B-Anwendungen:„The Wall“, ein 146" mLED-TV, der weltweit erste modulare in dieser Klasse. Der Vorteil ist offensichtlich: Wie bei LED-Walls lassen sich aus Modulen sehr formffei Screens in theoretisch beliebiger Größe bauen oder personalisieren. Bereits in den letzten Jahren hatten auch chinesische Hersteller erste TVs mit LED- Modulen als Proof-of-Concept präsentiert, dies allerdings zumeist ausschließlich auf dem heimischen Markt. Als weltweit erster Micro-LED-TV gilt der bereits 2012 von Sony vorgestellte Prototyp eines 55" Full HD„Crystal-TVs“. Er gilt als Vorfahr des CLEDIS (Canvas Display). Die selbst emittierende Technologie CLEDIS nutzt ultrafeine LEDs mit R (Rot), G (Grün) und B (Blau) auf der Displayoberfläche. Jeder Pixel besteht aus einer separaten ultrafeinen R-, G- und B-LED und die Lichtquelle ist nur 0,003 mm2 groß. Die verbleibende Fläche ist zu mehr als 99% schwarz. Für Business to Business- Anwendungen haben sowohl Samsung wie auch andere Player wie Sony erste Produkte auf den Markt gebracht, die MicroLED-Architekturen nutzen: Sony hat seine Lösung CLEDIS, Samsung den Cinema-LED-Screen. Dabei setzen beide Konzerne auf extrem kleine, selbst leuchtende LEDs. Während CLEDIS auf der ISE 2017 in der Wirkung bereits überzeugte, könnten im Februar 2018 auch andere Hersteller neue Micro LED-Produkte auf der Fachmesse zeigen. Samsung ist zumindest ein Kandidat dafür - äußert sich derzeit allerdings noch nicht zum Thema.
Hätte, hätte, Lieferkette: Es gibt aus der Supply Chain der Displayindustrie mehr als einen Hinweis darauf, dass gLED noch in diesem Jahr in spezifischen Digital Signage- Produkten eingesetzt werden könnte - natürlich keine Garantie, aber doch starke Indizien. Denn auch der nun gezeigte 146" MicroLED-TV von Samsung war laut Marktgerüchten aus dem Herbst 2017 zufolge erwartet worden, allerdings als 150" TV.
Erstmals im Mai 2017 sowie dann im Herbst 2017 wurden Marktgerüchte laut, nach denen Samsung den 2014 gegründeten taiwanesischen mLED-Spezialisten PlayNitride Inc. kaufen, oder sich an diesem beteiligen würde. Während PlayNitride das dementierte, äußerte sich Samsung nicht zu den Berichten. Ende 2017 hieß es vonseiten PlayNitrides, dass es Kaufangebote von mehreren Firmen gebe. Bislang sind LED- Experte Epistar sowie der taiwanesische Halbleiterhersteller United Microelectronics Corporation (UMC) die einzig bekannten Anteilseigner von PlayNitride. Aber auch ohne Kauf setzt Samsung auf pLED: Eigenentwicklungen sowie mögliche Lizenzierungen machen dies möglich. Wie im Falle des LED-Cinema-Screens ersichtlich, hat der Konzern hier schon ein erstes serienreifes Produkt auf den Markt
- und in die reale Welt der Projekt-Installationen - gebracht.
Der für gewöhnlich mehr als gut unterrichtete Branchendienst Digitimes berichtete kürzlich von einem weiteren Hersteller, der konkrete MicroLED-Produkte in der Pipeline hat, der südkoreanische Hersteller Lumens (nicht zu verwechseln mit dem namensähnlichen taiwanesischen Hersteller Lumens, der auf der ISE 2018 unter den Ausstel- lern sein wird).
Dem Bericht von Digitimes zufolge sprechen Industriequellen von der Entwicklung von 0,57" MicroLED-Screens bis hin zu einem 100" Digital Signage-Screen, der 100 bis 300 Mikrometer„große“ pLED Module nutzen solle.
Ob auf der ISE oder bei der InfoComm oder einer der großen asiatischen Messen: Man sollte nicht zu überrascht sein, wenn in diesem Kalenderjahr der erste große Displayhersteller einen MicroLED Digital Signage-Screen präsentiert - etwa in der Klasse der 98" Large Format Displays.

Claims

Patentansprüche:
1. Elektrisch angesteuertes Anzeigeelement zur optischen Signalisierung von veränderlichen Informationen wie Zeichen oder Bildern mit einem integrierten elektronischen Element mit Prozessor- und Speicherfunktion, dadurch gekennzeichnet, dass die Ansteuerung über eine drahtlose Verbindung von einem externen Rechner / Computer erfolgt und das Anzeigeelement eine Dicke von 0,3 bis 4,5 mm aufweist, wobei das elektronische Element eine maximale Dicke von 1 mm aufweist.
2. Anzeigeelement nach Anspruch 1 , dadurch gekennzeichnet dass das elektronische Element aus mindestens einem Hardwarelement und/ oder einer Software und / oder APP Anwendung besteht.
3. Anzeigeelement nach Anspruch 1 , dadurch gekennzeichnet, dass das elektronische Element aus einer auswechselbaren physischen Chipkarte und/oder einer eingebauten physisch nicht auswechselbare Chipkarte und / oder chipkartenidentischen Funktion aufweisendem Element besteht.
4. Anzeigeelement nach Anspruch 1 , dadurch gekennzeichnet, dass das elektronische Element eine Identifikations- und/oder Authentifizierungsfunktion eines Nutzers in einem digitalen Netz aufweist.
5. Anzeigeelement nach Anspruch 1, dadurch gekennzeichnet, dass die drahtlose Verbindung aus einem Funk und /oder Licht- (LiFi) und / oder Ultraschallnetz besteht.
6. Anzeigeelement nach Anspruch 1 , dadurch gekennzeichnet, dass die drahtlose Verbindung, vorzugsweise über eine Funkverbindung auf Basis einer G - Frequenz Funkverbindung, vorzugsweise auf Basis von 3G und / oder 4 G und /oder 5G und / oder einer Mobilfunkverbindung und /oder auf Basis einer Bluetooth-, und /oder WLAN-,und /oder WIFI- und / oder LiFi und /oder Satelliten- Verbindung( GPS) besteht.
7. Anzeigeelement nach Anspruch 6, dadurch gekennzeichnet, dass die Kanalbandbreite der Funkverbindung im Bereich von 100 MHZ bis 100 GHZ liegt, vorzugsweise bei 800MHZ - 30GHZ, insbesondere bei 3 GHZ bis 6GHZ. 8. Anzeigeelement nach Anspruch 1 , dadurch gekennzeichnet, dass das elektronische
Element vorzugsweise maximal ein Format von 85,6 mm x 54 mm aufweist, insbeson dere ein Format 25 mm x 15 mm und /oder 15 mm x 12 mm und /oder 12,3 mm x 8,
8 mm aufweist.
9. Anzeigeelement nach Anspruch 1, dadurch gekennzeichnet, dass das elektronische
Element, vorzugsweise eine Dicke von maximal 1 mm aufweist, vorzugsweise eine Dicke von mindestens 0,3 - 1 mm , insbesondere 0,76 mm und / oder 0,67 mm .
10. Anzeigeelement nach Anspruch 1 , dadurch gekennzeichnet, dass das elektronische Element, vorzugsweise eine Speicherkapazität von mindestens 128 Gigabyte aufweist.
1 1. Anzeigeelement nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Anzeigeelement und /oder Hardwareelement mindestens eine Kamera- und /oder Videokamera- und/ oder Scanfunktion und /oder Sensorfunktion und / oder Infrarotlichtfünktion und / oder Lautsprecherfunktion und/ oder Mikro fonfimktion und / oder Soundkarte aufweist.
12. Anzeigeelement nach einem der vorhergehenden Ansprüche , dadurch gekennzeichnet, dass die Sensorfunktion physikalische, chemische und stoffliche Eigenschaf- ten quantitativ oder qualitativ erfasst, vorzugsweise mit Messfunktion für Temperatur, Wärmemenge, Feuchtigkeit, Druck, Gewicht, Abstandsmessung, Regensensor, Schall, Helligkeit, Beschleunigung, PH- Wert, Ionenstärke, elektroschemisches Potential und /oder die stoffliche Beschaffenheit qualitativ erfasst.
13. Anzeigeelement nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das elektronische Element eine digitale Verknüpfung mit einer IT- Infrastruktur über ein Rechnernetz aufweist.
14 Anzeigeelemennt ach einem der vorhergehenden Ansprüche, dadurch gekenn zeichnet, dass die IT-Infrastruktur ein verschlüsseltes Buchführungssystem und / oder Verfahren aufweist.
15. Anzeigeelement nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das elektronische Element mindestens einen Verschlüsselungscode aufweist und/oder mit mindestens einem Verschlüsselungscode digital verknüpft ist.
16. Anzeigeelement nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Verschlüsselungscode aus mindestens acht Zeichen besteht, basierend auf einem Zeichenraum von mindestens 89 Zeichen.
17. Anzeigeelement nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Verschlüsselungscode in der IT -Infrastruktur gespeichert ist.
18. Verwendung eines Anzeigeelementes nach Anspruch 1 zur Verwendung als Vor- richtungs-, und /oder Bauteilelement.
19. Verwendung eines Anzeigeelementes nach Anspruch 17, vorzugsweise für ein Element zur Verwendung als ein Verpackungs-, Fahrzeugkennzeich- nungs-., Ver kehrsschild-, Werbeschild-, Schmuck- Uhr-, Kleidung-, Acces- soire-, Bilderrahmen- , Boden-, Wand-, Decken-, Möbel-, Dekorations-, Innen- ausbauelement, vorzugsweise Leisten-, Profil-, Kanten-, Tür- und /oder Fens- terelement, Fassaden-, Tapeten-, Car- Interior-, Car-Exterior-, Haushaltsge- räte-, Elektrogeräte-, und /oder Outdoorbe- lagselement.
20. Verwendung eines Anzeigeelement nach Anspruch 1, vorzugsweise für ein Element als amtliches Kennzeichen für ein ein Fahrzeug, vorzugsweise für ein PKW, LKW, Omnibus, Zweirad, Motorrad, E Bike, E Roller, Caravan, Nutzfahrzeug, Anhänger, Strassenbahn, Zug, Flugmobile, insbesondere ein Flugzeug, ein Hubschrauber und ein Schiff.
21. Anzeigeelement nach Anspruch 1, dadurch gekennzeichnet, dass die elektrisch an gesteuerte Anzeige aus einem Bildschirm und /oder Screen und/oder Display, insbesondere Smart Display, und / oder Monitor und /oder Touchsreen Oberfläche oder aus einer projezierten Oberfläche besteht.
22. Anzeigeelement nach Anspruch 1 , dadurch gekennzeichnet, dass die Darstellungstechnik der elektrisch gesteuerten Anzeige vorzugsweise auf technologischer Basis von Light Emitting Diodes ( LED) Feldemmisionsbildschirm ( FED) und / oder Flüssigkri- stallbidschirm ( LCD) und /oder Dünnschichttransistorbildschirm (TFT-LCD) und / oder Kathodenstrahlröhrenbildschirm( CRT) Und /oder Plasmabildschirm und / oder organische Leuchtdiode ( OLED) , SOLED oder SMOLED -Folien Displays, PLED, AMOLED-(Aktivmatrix-OLED) oder Super AMOLED+ ,und /oder Surface Con- duction Electron-emitter Display ( SED) und (oder QLED und / oder Micro LED (mikroskopische Leuchtdioden und /oder HDR ( High Dynamic Range) und /oder elektronischer Tinte und/ oder E-Paper erzeugt wird.
23. Anzeigeelement nach Anspruch 1, dadurch gekennzeichnet, dass die Darstellungstechnik der elektrisch gesteuerten Anzeige vorzugsweise auf technologischer Basis von Micro LED Pixeln, vorzugsweise mit einer Auflösung von mindestens 7680 x4320 Bildpunkten und /oder und / oder elektronischer Tinte erzeugt wird,
24. Anzeigeelement nach Anspruch 1, dadurch gekennzeichnet, das vorzugsweise ein Foliendisplay auf Basis eine Folie, insbesondere auf Basis petrochemischer und /oder biopolymeren Kunststoffe und /oder organischer Stoffe verwendet wird.
25. Anzeigeelement nach Anspruch 23, dadurch gekennzeichnet, dass die Folie eine Stärke von vorzugsweise 20 bis 1000 pm aufweist, insbesondere 20 bis 100 pm
26. Anzeigeelement nach Anspruch 23, wobei die Folie eine gedruckte Elektronik aufweist.
27. Anzeigeelement nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Stromversorgung, vorzugsweise drahtlos und/oder kabelgebunden auf technischer Basis einer Verbindung mit dem Stromnetz und /oder eines Akkumulators und /oder Induktionsstroms und /oder durch Funkstrom und /oder durch Ultraschallübertragung, vorzugsweise mit piezotechnikbasierten Sensoren erzeugt wird.
28. Anzeigeelement nach einem der vorhergehenden Ansprüche, dadurch gekenn zeichnet, dass der Akkumulator eine maximale Dicke von 0,3 bis 4,5 mm aufweist.
29. Anzeigeelement nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Anzeigeelement dreidimensionale Verformungen aufweisen kann, und insbesondere rollbar und/ oder faltbar ist.
30. Anzeigeelement nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Anzeigeelement auf Basis geometrischer und / freier Formen gestaltet ist, vorzugsweise aus Rechteck-, Quadrat-, Kreis-, Ellipsen-, Dreieck- , Vieleck-, Parabel- , Freiform Elementen und deren Kombinationsmöglichkeiten.
31. Anzeigeelement nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Anzeigeelement in die Fahrzeug- Karosserie integriert wird, insbesondere flächenbündig mit der Karosseriehülle ausgebildet wird.
32. Verwendung eines elektronischen Elementes mit Prozessor- und Speicherfunktion zur Verwendung als ein Rechner und / oder Computerelement mit Identifikationsund/oder Authentifizierungsfunktion eines Nutzers in einem digitalen Netz, dadurch gekennzeichnet, dass das elektronische Element aus mindestens einem Hardwarelement und/ oder einer Software besteht.
33. Verwendung nach Anspruch 1 , dadurch gekennzeichnet, das das Rechner- und/ oder Computerelement als Hardwareelement ausgebildet wird, insbesondere als Speicher-, USB-, Festplatten, Router-, Smartphone-, PDA-, Tablet-, PC-, Server-, Spielkonsolen-, Netbook-, Notebook-, Großrechner, Supercomputer, Bildschirm, Kamera , Scanner , Display ,Vorrichtungs-, und/oder Bauteilelement.
34. Verwendung nach Anspruch 1 , dadurch gekennzeichnet, das das digitale Netz aus einem Kabel- und / oder Funknetz und /oder Ultraschallnetz besteht.
35. Verwendung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das elektronische Element eine digitale Verknüpfung mit einer IT-Inffastruktur über ein Rechnernetz aufweist,
36. Verwendung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die IT-Inffastruktur ein verschlüsseltes Buchführungssystem und / oder Verfahren aufweist.
37. Verwendung nach Anspruch 1, dadurch gekennzeichnet, das die Software eine Anwendung zur Bilderkennung, insbesondere Iriserkennung, aufweist.
38. Verwendung nach Anspruch 1, dadurch gekennzeichnet, dass das Hardware -Element mindestens eine Kamera- und/ oder Scanfunktion aufweist oder mit einer ei ner Kamera- und/ oder Scanfunktion verbunden ist.
39. Verwendung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Hardwareelement eine Infrarotlichtfunktion aufweist und /oder mit einer Infrarotlichtfunktion verbunden ist.
40. Verwendung nach Anspruch 1 , dadurch gekennzeichnet, dass das elektronische Element aus einer auswechselbaren physischen Chipkarte und/oder einer eingebauten physisch nicht auswechselbare Chipkarte und / oder chipkartenidentischen Funktion aufweisendem Element besteht.
41. Verwendung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das elektronische Element mindestens einen Verschlüsselungscode aufweist und/oder mit mindstens einem Verschlüsselungscode digital verknüpft ist.
42. Verwendung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Verschlüsselungscode aus mindestens acht Zeichen besteht, basierend auf einem Zeichenraum von mindestens 89 Zeichen.
43. Verwendung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Verschlüsselungscode in der IT -Infrastruktur gespeichert ist.
44. Verwendung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Bildscan, insbesondere Irisscan zur Authentifizierung und Identifizierung in der IT-Infrastruktur verwendet wird.
45. Verwendung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Bildscan in der IT Infrastruktur mit dem Verschlüsselungscode verknüpft ist.
46. Verwendung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die digialen Bilddaten zur Identifizierung und Authentifizierung einen sekundengenauen Zeitstempel aufweisen.
47. Verwendung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass erzeugten digitalen Daten des elektronischen Elementes in der IT Infrastruktur gespeichert werden, ohne dass diese auf einem lokalen Rechner installiert sein müssen
48. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die digitalen Bilddaten, insbesondere des Irisscans, zur Identifizierung und Au- thentifizierung in der IT- Infrastruktur mit den digitalen Stammbild Daten durch eine Bilderkennungssoftware verglichen werden.
49. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur Identifizierung und Authentifizierung des Bildscans eine automatische digitale Verknüpfung des elektronischen Elementes mit der IT Infrastruktur hergestellt wird.
50. Verwendung nach Anspruch 1 , dadurch gekennzeichnet, dass das elektronische
Element vorzugsweise maximal ein Format von 85,6 mm x 54 mm aufweist, insbesondere ein Format 25 mm x 15 mm und/oder 15 mm x 12 mm und /oder 12,3 mm x 8,8 mm aufweist.
51. Verwendung nach Anspruch 1 , dadurch gekennzeichnet, dass das elektronische
Element, vorzugsweise eine Dicke von maximal 2 mm aufweist, vorzugsweise eine Dicke von mindestens 0,3 - 1 mm , insbesondere 0,76 mm und / oder beträgt 0,67 mm beträgt.
52. Verwendung nach Anspruch 1 , dadurch gekennzeichnet, dass das elektronische
Element, vorzugsweise eine Speicherkapazität von mindestens 128 Gigabyte aufweist.
PCT/DE2019/000340 2018-12-18 2019-12-18 Elektronisches element und elektrisch angesteuertes anzeigeelement WO2020125840A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018010197.6 2018-12-18
DE102018010197.6A DE102018010197A1 (de) 2018-12-18 2018-12-18 Elektronisches Element und elektrisch angesteuertes Anzeigeelement

Publications (1)

Publication Number Publication Date
WO2020125840A1 true WO2020125840A1 (de) 2020-06-25

Family

ID=69723749

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/DE2019/000340 WO2020125840A1 (de) 2018-12-18 2019-12-18 Elektronisches element und elektrisch angesteuertes anzeigeelement
PCT/DE2019/000339 WO2020125839A1 (de) 2018-12-18 2019-12-18 Elektronisches element und elektrisch angesteuertes anzeigeelement

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/DE2019/000339 WO2020125839A1 (de) 2018-12-18 2019-12-18 Elektronisches element und elektrisch angesteuertes anzeigeelement

Country Status (2)

Country Link
DE (2) DE102018010197A1 (de)
WO (2) WO2020125840A1 (de)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111601463A (zh) * 2020-07-02 2020-08-28 遂宁市海翔电子科技有限公司 一种散热复合型高强度5g电路板的精密制作方法
CN111782009A (zh) * 2020-06-30 2020-10-16 西安易朴通讯技术有限公司 电子设备
CN112285746A (zh) * 2020-10-21 2021-01-29 厦门大学 基于多路径信号的欺骗检测方法和装置
CN112333030A (zh) * 2020-11-24 2021-02-05 北京百度网讯科技有限公司 用于私有网络间通信的方法、装置、电子设备及存储介质
CN112511484A (zh) * 2020-08-20 2021-03-16 成都悍力鼎科技有限公司 一种u盾安全控制管理系统
CN113160384A (zh) * 2021-03-30 2021-07-23 福建师范大学 基于加窗二值加密相位模板与可控放大重建的多三维物体加解密方法
CN113447970A (zh) * 2021-06-28 2021-09-28 潍柴动力股份有限公司 一种导航数据连续确实数据填补方法、装置和导航系统
CN113496047A (zh) * 2021-07-29 2021-10-12 深圳市纽创信安科技开发有限公司 一种带防拆卸保护的电子密码卡
CN113709744A (zh) * 2021-10-28 2021-11-26 连连(杭州)信息技术有限公司 一种Wi-Fi管控方法、装置、电子设备及存储介质
CN114048063A (zh) * 2021-09-28 2022-02-15 北京控制工程研究所 一种火星车驶离过程中切机或复位故障处理的方法及系统
CN114095661A (zh) * 2022-01-18 2022-02-25 深圳维特智能科技有限公司 低功耗控制电源管理方法、装置和计算机设备
DE102020123107A1 (de) 2020-09-04 2022-03-10 GRID INVENT gGmbH Authentifizierung-Element zur Identifikation eines Nutzers
DE102020123105A1 (de) 2020-09-04 2022-03-10 GRID INVENT gGmbH Verkehrssystem
CN114189299A (zh) * 2021-11-08 2022-03-15 西安电子科技大学广州研究院 一种可防御频谱感知数据伪造攻击的快速共识方法及系统
CN114625360A (zh) * 2022-05-16 2022-06-14 西安数道航空技术有限公司 一种无耦合数字化开发平台及系统
CN114697757A (zh) * 2020-12-31 2022-07-01 深圳市奥拓电子股份有限公司 一种传输高数据率视频的方法、led显示装置及其系统
CN115174874A (zh) * 2022-07-22 2022-10-11 中国科学院空间应用工程与技术中心 一种基于软交换的天地视频交互系统、方法、介质及设备
CN115204637A (zh) * 2022-06-27 2022-10-18 青岛海信信息科技股份有限公司 一种基于wms系统的smt生产配送方法和设备
CN115310070A (zh) * 2022-10-12 2022-11-08 北京瀚科智翔科技发展有限公司 一种无人机载荷智能识别方法、系统及存储介质
CN115898512A (zh) * 2022-11-10 2023-04-04 河南萱泽科技有限公司 一种瓦斯治理数字化智能分析系统及分析方法
CN116011915A (zh) * 2023-01-16 2023-04-25 中国人民解放军军事科学院系统工程研究院 一种多式联运方案生成方法及装置
CN117707409A (zh) * 2024-02-04 2024-03-15 深圳市爱科贝电子有限公司 一种耳机信息展示方法、装置、系统和设备
CN117724386A (zh) * 2024-02-18 2024-03-19 天津德科智控股份有限公司 Eps系统mcu与foc芯片组合使用通信装置及方法
CN117707409B (zh) * 2024-02-04 2024-05-24 深圳市爱科贝电子有限公司 一种耳机信息展示方法、装置、系统和设备

Families Citing this family (143)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11071857B2 (en) 2016-08-22 2021-07-27 William Marsh Rice University Systems and methods for wireless treatment of arrhythmias
US10419225B2 (en) 2017-01-30 2019-09-17 Factom, Inc. Validating documents via blockchain
US10817873B2 (en) 2017-03-22 2020-10-27 Factom, Inc. Auditing of electronic documents
CN111433560B (zh) * 2017-12-01 2022-02-08 沃尔沃卡车集团 用于车辆维护的方法
US11170366B2 (en) 2018-05-18 2021-11-09 Inveniam Capital Partners, Inc. Private blockchain services
US11134120B2 (en) 2018-05-18 2021-09-28 Inveniam Capital Partners, Inc. Load balancing in blockchain environments
US11276056B2 (en) 2018-08-06 2022-03-15 Inveniam Capital Partners, Inc. Digital contracts in blockchain environments
US11989208B2 (en) 2018-08-06 2024-05-21 Inveniam Capital Partners, Inc. Transactional sharding of blockchain transactions
JP2022507813A (ja) 2018-11-20 2022-01-18 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 無線給電型リードレスペースメーカを制御するためのシステムおよび方法
US11560226B2 (en) * 2019-05-07 2023-01-24 George Miller Drone airstation method and system
CN112015156A (zh) * 2019-05-28 2020-12-01 上海中兴软件有限责任公司 一种车载诊断装置及系统、检测方法
TWI762828B (zh) * 2019-11-01 2022-05-01 緯穎科技服務股份有限公司 高速序列電腦匯流排的訊號調整方法及其相關電腦系統
US11544252B2 (en) * 2019-12-17 2023-01-03 Akamai Technologies, Inc. High performance distributed system of record with extended transaction processing capability
SG10201912999VA (en) * 2019-12-23 2020-09-29 Islamic Res And Training Institute Method and System for Transaction Validation in a Distributed Computing System
US11483131B2 (en) * 2020-01-09 2022-10-25 Eternal Paradise Limited Ability to forget in blockchain
US11444749B2 (en) 2020-01-17 2022-09-13 Inveniam Capital Partners, Inc. Separating hashing from proof-of-work in blockchain environments
WO2021174215A1 (en) 2020-02-28 2021-09-02 The Regents Of The University Of California Integrated energy harvesting transceivers and transmitters with dual-antenna architecture for miniaturized implants and electrochemical sensors
CN113742795A (zh) * 2020-05-27 2021-12-03 台湾积体电路制造股份有限公司 对集成电路中的半导体存储器的安全级别进行认证的方法
US20230259324A1 (en) * 2020-06-30 2023-08-17 Sony Semiconductor Solutions Corporation Electronic apparatus and method for controlling operation of the same
CN111882010A (zh) * 2020-07-21 2020-11-03 杭州电子科技大学 一种危险化学品柜管理系统
CN112017026A (zh) * 2020-08-26 2020-12-01 普洛斯科技(重庆)有限公司 物流运单贷款场景中的数据处理方法和装置
CN112260849B (zh) * 2020-09-10 2023-01-17 卡斯柯信号(郑州)有限公司 一种城市轨道交通信号业务数据自适应交换的系统
CN114173544B (zh) * 2020-09-11 2023-11-24 英业达科技有限公司 Smt机台的接料提示系统及其方法
CN112193181A (zh) * 2020-09-14 2021-01-08 南京金龙客车制造有限公司 一种基于分布式的上装控制系统及其控制方法
CN112105004B (zh) * 2020-09-15 2022-09-23 努比亚技术有限公司 电子价签网络检测方法、设备及计算机可读存储介质
CN112099844B (zh) * 2020-09-16 2023-09-08 国网甘肃省电力公司信息通信公司 一种用于国网业务系统的多内核兼容的智能浏览系统
CN112099413B (zh) * 2020-09-24 2022-04-01 湖南能源大数据中心有限责任公司 一种家庭用电数据监控方法及装置
DE102020125901A1 (de) 2020-10-02 2022-04-07 Nishi Notani Biegsame Anzeigeeinheit mit elektronischem Papier und Solarfolie
CN114372051A (zh) * 2020-10-16 2022-04-19 华为技术有限公司 一种数据处理系统、基于区块链的数据处理方法及设备
CN112261589A (zh) * 2020-10-20 2021-01-22 深圳市沃特沃德股份有限公司 基于多物联网模块的电动车防盗方法、装置和计算机设备
CN114442305A (zh) * 2020-11-02 2022-05-06 上海迈利船舶科技有限公司 一种视觉增强ais船舶望远镜
CN112526945B (zh) * 2020-11-09 2022-07-05 福建福瑞康信息技术有限公司 具备反馈与闭环控制功能的全流程监控与预警系统
CN114546036B (zh) * 2020-11-24 2023-11-24 中国联合网络通信集团有限公司 柔性屏终端及其跌落保护方法和存储介质
CN112462773B (zh) * 2020-11-27 2022-09-02 哈尔滨工程大学 一种欠驱动水面船的路径跟踪抗饱和鲁棒控制方法
CN112506456B (zh) * 2020-11-27 2023-04-18 广州雅量商业智能技术有限公司 一种电子价签数据刷新系统及方法
CN112346465B (zh) * 2020-11-27 2022-09-02 哈尔滨工程大学 基于ialos导引律的欠驱无人船自适应模糊控制方法
CN112463822B (zh) * 2020-11-27 2023-02-17 成都海光微电子技术有限公司 用于芯片的数据处理方法及装置、电子设备和存储介质
CN112683710B (zh) * 2020-12-02 2024-04-16 大连理工大学 一种氯离子侵蚀下钢筋混凝土桥板加速腐蚀的试验装置
CN112492536B (zh) * 2020-12-16 2022-02-15 中国联合网络通信集团有限公司 通信控制方法、装置及服务器
US20240115183A1 (en) * 2020-12-18 2024-04-11 The Regents Of The University Of California Wireless Recording System-on-chip for Distributed Neural Interface Systems with Inductive Power Delivery and UWB Data Transmission
CN112579512B (zh) * 2020-12-24 2023-04-18 中国航空工业集团公司西安航空计算技术研究所 一种机载嵌入式智能微处理系统
CN112653558B (zh) * 2020-12-31 2023-07-18 南威软件股份有限公司 一种移动设备电子签名的有效性识别方法、装置和介质
CN112887947B (zh) * 2021-01-14 2021-12-03 南通大学 一种双层区块链的蓝牙Mesh分簇组网方法
CN112866964B (zh) * 2021-01-18 2023-05-12 恒玄科技(上海)股份有限公司 一种无线耳机组件
CN112785142B (zh) * 2021-01-19 2023-11-24 翰克偲诺水务集团有限公司 物联网污水处理设备预警智慧工单方法及其系统
CN112798318B (zh) * 2021-02-06 2023-04-25 济南蓝辰能源技术有限公司 一种湿冷机组冷端性能监测及智能诊断系统
US20220261892A1 (en) * 2021-02-12 2022-08-18 Blackstar Enterprises Group, Inc. System and method for facilitating a public offering on an immutable blockchain provided to eligible qualified investors based upon priorty of interest
CN113132455A (zh) * 2021-03-01 2021-07-16 唐芮 一种分布式工业物联网监控方法和系统
CN113014321B (zh) * 2021-03-18 2022-10-25 新疆大学 基于mimo电力线回传的可见光中继接入系统及方法
CN112883407B (zh) * 2021-04-04 2022-05-24 湖南科技学院 一种基于车联网的隐私数据全生命周期保护方法及系统
CN113409245B (zh) * 2021-04-06 2024-04-02 中国电子技术标准化研究院 一种电子元器件x射线检查缺陷自动识别方法
CN112953702A (zh) * 2021-04-08 2021-06-11 湘潭大学 一种高速列车5g通信系统物理层加密方法
CN113096042B (zh) * 2021-04-09 2022-06-10 中国空气动力研究与发展中心超高速空气动力研究所 一种辉光图像采集装置及其图像处理方法
CN113127795B (zh) * 2021-04-13 2023-05-23 苏州卡创信息科技有限公司 一种近地空间飞行器反照地球热流的解析方法
CN112988148B (zh) * 2021-04-15 2023-11-17 上海简苏网络科技有限公司 一种支持多区块链、跨平台的sdk生成方法及装置
CN113206775B (zh) * 2021-04-16 2023-04-07 中科开创(广州)智能科技发展有限公司 具有can总线功能的终端接入设备、应用方法及装置
CN113194160A (zh) * 2021-04-22 2021-07-30 西安交通大学 一种大跨域ip地址快速动态切换系统及方法
CN112950844B (zh) * 2021-04-29 2022-04-19 四川虹美智能科技有限公司 智能售货机控制方法、控制平台和系统
CN113343727B (zh) * 2021-05-17 2022-09-02 活字科技(杭州)有限公司 Rfid的设备管理装置及控制方法
CN113190801B (zh) * 2021-05-31 2023-11-17 中国计量大学 一种基于焦虑度-拍卖的多无人机协同污染源定位方法
CN113147764B (zh) * 2021-06-01 2022-08-16 吉林大学 基于协同式自适应巡航系统混合势函数的车辆控制方法
CN113240194B (zh) * 2021-06-04 2022-08-23 河北工业大学 储能电池容量预测方法、服务端及计算机可读存储介质
CN113671928B (zh) * 2021-07-05 2023-04-14 浙江零跑科技股份有限公司 一种电驱总成控制器容错型故障检测与保护方法
CN113641378B (zh) * 2021-07-13 2024-01-26 烽火通信科技股份有限公司 光模块程序升级方法、装置、设备及可读存储介质
CN113484877B (zh) * 2021-07-14 2024-02-13 中国东方航空股份有限公司 用于航空器地面行驶避撞的方法及系统
CN113556340B (zh) * 2021-07-21 2023-09-26 国网四川省电力公司乐山供电公司 一种便携式vpn终端、数据处理方法及存储介质
CN113482557A (zh) * 2021-07-27 2021-10-08 合肥工业大学 一种油基钻屑处理装置
TWI794910B (zh) * 2021-07-29 2023-03-01 旺宏電子股份有限公司 記憶體及用於基於記憶體的類神經網路的訓練方法
CN113886151A (zh) * 2021-08-12 2022-01-04 北京航天长征飞行器研究所 一种基于应用程序开发框架的板卡测试方法及系统
CN113682932B (zh) * 2021-08-17 2023-04-28 恒达富士电梯有限公司 一种防爆梯专用的控制系统
CN113746827B (zh) * 2021-08-31 2023-02-10 中国铁道科学研究院集团有限公司通信信号研究所 基于多带图灵机的实时数据链路字节流防错方法
CN113703984B (zh) * 2021-09-02 2024-03-19 同济大学 5g云边协同场景下基于soa架构的云任务优化策略方法
CN113687993B (zh) * 2021-09-06 2024-04-19 天津津航计算技术研究所 一种机载设备上下电测试系统
US11977614B2 (en) 2021-09-20 2024-05-07 International Business Machines Corporation Circuit design watermarking
CN113917845A (zh) * 2021-09-22 2022-01-11 北京金茂绿建科技有限公司 一种控制方法、装置、电子设备及存储装置
CN113794870A (zh) * 2021-09-26 2021-12-14 北京三月雨文化传播有限责任公司 一种基于有线电视网络视频数据的云vr系统及其使用方法
CN114007215A (zh) * 2021-09-26 2022-02-01 银盛通信有限公司 一种移动转售系统批量开户的方法
CN114184126B (zh) * 2021-09-28 2023-11-24 友达光电股份有限公司 可携式检测装置及应用其的环境监控方法
CN115003020A (zh) * 2021-09-30 2022-09-02 荣耀终端有限公司 一种电路板及电子设备
CN114266856A (zh) * 2021-10-08 2022-04-01 上海应用技术大学 一种便携式ct可视化设备
CN113900289B (zh) * 2021-10-18 2023-04-07 中国工程物理研究院电子工程研究所 一种光源集成物理不可克隆函数器件的制备方法
CN114018416B (zh) * 2021-10-25 2024-04-26 中国人民解放军战略支援部队航天工程大学士官学校 一种热红外相机辐射定标方法及系统
CN114065885A (zh) * 2021-10-29 2022-02-18 中海油天津化工研究设计院有限公司 一种基于防爆rfid标签的防爆电气设备检验整改可追溯系统
CN114018942B (zh) * 2021-11-02 2024-01-23 山东钢铁集团日照有限公司 一种用于冷检通讯模块的检测装置
WO2023086414A1 (en) * 2021-11-09 2023-05-19 Audeo LLC Systems and methods for providing and using wearable electronic accessories
CN114071561B (zh) * 2021-12-07 2023-06-23 中国联合网络通信集团有限公司 一种数据上报方法、装置、设备及存储介质
CN114339732B (zh) * 2021-12-07 2023-10-20 重庆邮电大学 一种基于属性签名的车载网匿名信任管理方法
CN114257705A (zh) * 2021-12-14 2022-03-29 杭州特效小哥文化传播有限公司 一种基于虚幻引擎的虚拟拍摄技术具体实施方法
CN114286481A (zh) * 2021-12-28 2022-04-05 南京快轮智能科技有限公司 一种车辆照明灯仪表节能控制方法
CN114333240B (zh) * 2021-12-30 2024-03-15 中电科(宁波)海洋电子研究院有限公司 一种求救系统和方法
CN114554310B (zh) * 2022-01-04 2024-03-22 云南电网有限责任公司 一种电力计量嗅探系统和方法
CN114358228A (zh) * 2022-01-06 2022-04-15 宝武集团鄂城钢铁有限公司 基于二维码的危险源管理系统
CN114518716A (zh) * 2022-01-12 2022-05-20 厦门聚视智创科技有限公司 一种手机中框擦拭控制系统
CN114397267B (zh) * 2022-01-18 2023-08-08 清华大学深圳国际研究生院 太赫兹成像优化方法、计算机装置及存储介质
CN114172171B (zh) * 2022-02-10 2022-04-26 国网江苏省电力有限公司苏州供电分公司 一种基于雷电跟踪的互联电网机电扰动传播控制方法
CN114492810B (zh) * 2022-02-11 2023-03-24 北京百度网讯科技有限公司 超导量子芯片设计方法及装置、电子设备和介质
CN114530024A (zh) * 2022-02-18 2022-05-24 努尔玛信息科技(上海)有限公司 一种基于物联网的安全监管系统
CN114666128B (zh) * 2022-03-23 2023-03-24 北京永信至诚科技股份有限公司 蜜罐威胁情报共享方法、装置、设备及可读存储介质
CN114416457B (zh) * 2022-03-30 2022-07-12 百信信息技术有限公司 计算机老化集中检测管理方法、装置、电子设备及介质
TWI795256B (zh) * 2022-03-31 2023-03-01 穎利科研國際事業有限公司 車聯網資安防護系統
CN114826965B (zh) * 2022-04-14 2023-08-29 国电南瑞科技股份有限公司 基于厂站端全景数据的监控系统改扩建勿扰动方法
WO2023198551A1 (de) * 2022-04-14 2023-10-19 Larmar GmbH Oberflächenbeschichtung sowie herstellungsverfahren
CN114725682B (zh) * 2022-04-19 2023-08-01 广州程星通信科技有限公司 一种相控阵波束指向设计方法、系统、装置及存储介质
CN114828418B (zh) * 2022-04-25 2024-03-15 深圳市造物工场科技有限公司 一种pcb自动移线处理的方法
CN115134477A (zh) * 2022-04-29 2022-09-30 西安应用光学研究所 一种光电系统同步定位方法
CN114800517B (zh) * 2022-05-13 2023-10-13 山东大学 一种多自由度液压机械臂实时控制系统及方法
CN114903020B (zh) * 2022-05-16 2024-05-14 中科芯禾(深圳)科技有限公司 特定趋光波段粮仓害虫诱捕系统及其控制方法
CN114993604B (zh) * 2022-05-24 2023-01-17 中国科学院力学研究所 一种基于深度学习的风洞天平静态校测方法
CN114766414B (zh) * 2022-05-26 2023-05-12 国信中船(青岛)海洋科技有限公司 具有养殖舱海水分区智能清理系统的养殖工船及清理方法
CN114708699B (zh) * 2022-06-01 2022-08-12 天津理工大学 基于cim的建筑运维监控报警系统及方法
CN115048663B (zh) * 2022-06-22 2023-05-05 河南夺冠互动网络科技有限公司 一种针对业务中数据的安全策略生成方法
CN115202125A (zh) * 2022-07-08 2022-10-18 惠科股份有限公司 显示面板和显示模组
CN115273491B (zh) * 2022-07-22 2023-07-21 上海交通大学 一种智能车路协同系统的路测感知设备及其感知方法
CN115138226A (zh) * 2022-07-29 2022-10-04 上海保圣实业发展有限公司 一种气体稀释嗅闻系统
CN115527502B (zh) * 2022-08-04 2024-04-05 浙江迪元仪表有限公司 一种基于红外感应的智能水表背光控制系统及方法
CN115002170B (zh) * 2022-08-05 2022-11-22 江苏橙智云信息技术有限公司 一种基于物联网的多条件联动执行指令的方法
CN115361032B (zh) * 2022-08-17 2023-04-18 佛山市朗盛通讯设备有限公司 一种用于5g通信的天线单元
TWI829372B (zh) * 2022-09-30 2024-01-11 華南商業銀行股份有限公司 資金需求預測系統及預測方法
CN115294284B (zh) * 2022-10-09 2022-12-20 南京纯白矩阵科技有限公司 一种保障生成模型唯一性的高分辨率三维模型生成方法
CN115330584B (zh) * 2022-10-17 2023-01-31 北京点聚信息技术有限公司 一种电子印章防复制加密方法
DE102022128744A1 (de) 2022-10-28 2024-05-08 KSB SE & Co. KGaA Verfahren zum Informationsaustausch zwischen einem externen Empfänger und einer Pumpe
CN115687190B (zh) * 2022-11-04 2024-03-19 浙江衡玖医疗器械有限责任公司 一种多路交互控制电路及方法
CN115497031B (zh) * 2022-11-14 2023-06-13 广东祥利科技有限公司 基于图像处理的pvc护套料的性能检测方法及系统
CN115798559B (zh) * 2023-02-10 2023-07-04 长鑫存储技术有限公司 失效单元预测方法、装置、设备及存储介质
CN115994474B (zh) * 2023-03-17 2023-07-21 荣耀终端有限公司 一种跌落仿真方法和装置
CN116066344B (zh) * 2023-03-30 2023-07-21 深圳艾为电气技术有限公司 基于igbt的电动压缩机控制方法及装置
CN116156093B (zh) * 2023-04-04 2023-07-18 福建环宇通信息科技股份公司 一种基于音视频采集及对讲的医用终端设备
CN116524123B (zh) * 2023-04-20 2024-02-13 深圳市元甪科技有限公司 一种三维电阻抗断层扫描图像重建方法及相关设备
CN116153646B (zh) * 2023-04-23 2023-07-14 通友微电(四川)有限公司 一种用于贴片式电感的制备装置及方法
CN117021435B (zh) * 2023-05-12 2024-03-26 浙江闽立电动工具有限公司 修边机的修边控制系统及其方法
CN116305366B (zh) * 2023-05-23 2023-09-15 四川启睿克科技有限公司 液晶电视散热仿真模组的建模方法及简化模型
CN116683519B (zh) * 2023-05-30 2024-02-13 西南交通大学 一种用于柔性牵引供电系统的优化运行控制方法
CN116500549B (zh) * 2023-06-28 2023-11-07 南京邮电大学 一种基于ltcc的四通道x波段三维堆叠结构tr组件
CN116576865B (zh) * 2023-07-07 2023-10-17 民航成都电子技术有限责任公司 一种飞行区路径规划方法、装置、设备及介质
CN117200980B (zh) * 2023-09-08 2024-04-05 广州天力能科技有限公司 一种电数字数据传输芯片电路
CN116929459B (zh) * 2023-09-12 2023-12-05 常州满旺半导体科技有限公司 一种基于物联网的电子设备自动化测试预警系统及方法
CN117079445B (zh) * 2023-10-13 2023-12-15 深圳市微克科技有限公司 一种基于智能手表的红外遥控方法、系统及介质
CN117164401A (zh) * 2023-11-01 2023-12-05 北京世纪农丰土地科技有限公司 一种农田秸秆固废发酵系统
CN117440019B (zh) * 2023-12-15 2024-02-13 四川开物信息技术有限公司 一种基于区块链的实验室物联网方法与系统
CN117746309A (zh) * 2024-01-21 2024-03-22 镇江捷特汽车科技有限公司 用于电动车充电桩的安全状态识别系统
CN117691755A (zh) * 2024-02-02 2024-03-12 南京雅宸众联电力技术有限公司 一种智能变电站二次回路的可视化监测及异常检测系统
CN117686670B (zh) * 2024-02-02 2024-05-03 内蒙古蒙牛乳业(集团)股份有限公司 样品自动检测系统与智慧实验室
CN117834755B (zh) * 2024-03-04 2024-05-10 中国人民解放军国防科技大学 面向芯粒互连接口的协议层与适配器层间接口电路及芯片

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US466000A (en) 1891-12-29 Photographic-printing frame
US20030142044A1 (en) * 2002-01-31 2003-07-31 James Berry License plate frame with programmable electronic display
WO2004063806A1 (de) * 2003-01-09 2004-07-29 Polyic Gmbh & Co. Kg Platine oder substrat für ein organisches elektronikgerät, sowie verwendung dazu
WO2004086338A2 (en) * 2003-03-21 2004-10-07 Intellimats, Llc Flexible electronic display and wireless communication system
US20150170212A1 (en) * 2013-09-24 2015-06-18 Peter McGie Remotely Connected Digital Messageboard System and Method
US20160335705A1 (en) * 2015-05-15 2016-11-17 Manufacturing Resources International, Inc. Smart Electronic Display For Restaurants
GB2544262A (en) * 2015-10-27 2017-05-17 Robert Headley William A remotely configurable display

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
HRP20040189B1 (en) * 2004-02-26 2007-12-31 Jovanovi� Vladimir System for wireless electronic licence plates
TWM262924U (en) * 2004-07-02 2005-04-21 Li Jiun Heng Programmable wireless transceiver module
DE102006007904A1 (de) * 2005-02-20 2006-09-07 Werner Klotz Einrichtungen für veränderliche dynamische Multifunktionsgeräte sowie veränderbare digitale Mobilfunk-Kartengeräte mit integrierten Farbdisplays ebenso Mikroprozessor zur Mobilisierung häufiger Prinzipien in elektronischen Darstellungen
DE102006023949A1 (de) * 2006-05-17 2007-11-22 Winrich Hoseit Memmory-Sim-Card
US20080126260A1 (en) * 2006-07-12 2008-05-29 Cox Mark A Point Of Sale Transaction Device With Magnetic Stripe Emulator And Biometric Authentication
US9077542B2 (en) * 2008-09-23 2015-07-07 GM Global Technology Operations LLC System and method for confirming that a user of an electronic device is an authorized user of a vehicle
US9007193B2 (en) * 2010-05-27 2015-04-14 Revivermx, Inc. Method and system for rendering content on the exterior of a vehicle
US10878414B2 (en) * 2013-09-30 2020-12-29 Apple Inc. Multi-path communication of electronic device secure element data for online payments
DE102014116060A1 (de) * 2014-11-04 2016-05-04 Bundesdruckerei Gmbh Verfahren zum Ausführen einer elektronischen Anwendung
DE102014116183A1 (de) * 2014-11-06 2016-05-12 Bundesdruckerei Gmbh Verfahren zum Bereitstellen eines Zugangscodes auf einem portablen Gerät und portables Gerät
JP2017156994A (ja) * 2016-03-02 2017-09-07 株式会社ジャパンディスプレイ カード型デバイス
DE202016105474U1 (de) * 2016-09-30 2016-11-17 Jumo Gmbh & Co. Kg Vorrichtung zur manipulationssicheren Registrierung von Messwerten

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US466000A (en) 1891-12-29 Photographic-printing frame
US20030142044A1 (en) * 2002-01-31 2003-07-31 James Berry License plate frame with programmable electronic display
WO2004063806A1 (de) * 2003-01-09 2004-07-29 Polyic Gmbh & Co. Kg Platine oder substrat für ein organisches elektronikgerät, sowie verwendung dazu
WO2004086338A2 (en) * 2003-03-21 2004-10-07 Intellimats, Llc Flexible electronic display and wireless communication system
US20150170212A1 (en) * 2013-09-24 2015-06-18 Peter McGie Remotely Connected Digital Messageboard System and Method
US20160335705A1 (en) * 2015-05-15 2016-11-17 Manufacturing Resources International, Inc. Smart Electronic Display For Restaurants
GB2544262A (en) * 2015-10-27 2017-05-17 Robert Headley William A remotely configurable display

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Progressive Policy Institute", vol. 1, 2016, pages: 64
JOHN W. TUKEY, AMERICAN MATHEMATICAL MONTHLY, 1958
SCIENCE FRIDAY, 10 May 2016 (2016-05-10)

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111782009A (zh) * 2020-06-30 2020-10-16 西安易朴通讯技术有限公司 电子设备
CN111601463B (zh) * 2020-07-02 2022-06-24 遂宁市海翔电子科技有限公司 一种散热复合型高强度5g电路板的精密制作方法
CN111601463A (zh) * 2020-07-02 2020-08-28 遂宁市海翔电子科技有限公司 一种散热复合型高强度5g电路板的精密制作方法
CN112511484A (zh) * 2020-08-20 2021-03-16 成都悍力鼎科技有限公司 一种u盾安全控制管理系统
CN112511484B (zh) * 2020-08-20 2023-06-30 成都悍力鼎科技有限公司 一种u盾安全控制管理系统
DE102020123105A1 (de) 2020-09-04 2022-03-10 GRID INVENT gGmbH Verkehrssystem
DE102020123107A1 (de) 2020-09-04 2022-03-10 GRID INVENT gGmbH Authentifizierung-Element zur Identifikation eines Nutzers
CN112285746A (zh) * 2020-10-21 2021-01-29 厦门大学 基于多路径信号的欺骗检测方法和装置
CN112285746B (zh) * 2020-10-21 2024-02-13 厦门大学 基于多路径信号的欺骗检测方法和装置
CN112333030A (zh) * 2020-11-24 2021-02-05 北京百度网讯科技有限公司 用于私有网络间通信的方法、装置、电子设备及存储介质
CN114697757B (zh) * 2020-12-31 2023-12-26 深圳市奥拓电子股份有限公司 一种传输高数据率视频的方法、led显示装置及其系统
CN114697757A (zh) * 2020-12-31 2022-07-01 深圳市奥拓电子股份有限公司 一种传输高数据率视频的方法、led显示装置及其系统
CN113160384A (zh) * 2021-03-30 2021-07-23 福建师范大学 基于加窗二值加密相位模板与可控放大重建的多三维物体加解密方法
CN113160384B (zh) * 2021-03-30 2023-07-11 福建师范大学 基于加窗二值相位与可控重建的多三维物体加解密方法
CN113447970A (zh) * 2021-06-28 2021-09-28 潍柴动力股份有限公司 一种导航数据连续确实数据填补方法、装置和导航系统
CN113496047A (zh) * 2021-07-29 2021-10-12 深圳市纽创信安科技开发有限公司 一种带防拆卸保护的电子密码卡
CN113496047B (zh) * 2021-07-29 2024-04-30 深圳市纽创信安科技开发有限公司 一种带防拆卸保护的电子密码卡
CN114048063A (zh) * 2021-09-28 2022-02-15 北京控制工程研究所 一种火星车驶离过程中切机或复位故障处理的方法及系统
CN113709744B (zh) * 2021-10-28 2022-03-11 连连(杭州)信息技术有限公司 一种Wi-Fi管控方法、装置、电子设备及存储介质
CN113709744A (zh) * 2021-10-28 2021-11-26 连连(杭州)信息技术有限公司 一种Wi-Fi管控方法、装置、电子设备及存储介质
CN114189299A (zh) * 2021-11-08 2022-03-15 西安电子科技大学广州研究院 一种可防御频谱感知数据伪造攻击的快速共识方法及系统
CN114095661A (zh) * 2022-01-18 2022-02-25 深圳维特智能科技有限公司 低功耗控制电源管理方法、装置和计算机设备
CN114095661B (zh) * 2022-01-18 2022-06-14 深圳维特智能科技有限公司 低功耗控制电源管理方法、装置和计算机设备
CN114625360A (zh) * 2022-05-16 2022-06-14 西安数道航空技术有限公司 一种无耦合数字化开发平台及系统
CN115204637A (zh) * 2022-06-27 2022-10-18 青岛海信信息科技股份有限公司 一种基于wms系统的smt生产配送方法和设备
CN115174874B (zh) * 2022-07-22 2023-04-07 中国科学院空间应用工程与技术中心 一种基于软交换的天地视频交互系统、方法、介质及设备
CN115174874A (zh) * 2022-07-22 2022-10-11 中国科学院空间应用工程与技术中心 一种基于软交换的天地视频交互系统、方法、介质及设备
CN115310070A (zh) * 2022-10-12 2022-11-08 北京瀚科智翔科技发展有限公司 一种无人机载荷智能识别方法、系统及存储介质
CN115898512A (zh) * 2022-11-10 2023-04-04 河南萱泽科技有限公司 一种瓦斯治理数字化智能分析系统及分析方法
CN116011915A (zh) * 2023-01-16 2023-04-25 中国人民解放军军事科学院系统工程研究院 一种多式联运方案生成方法及装置
CN116011915B (zh) * 2023-01-16 2023-09-05 中国人民解放军军事科学院系统工程研究院 一种多式联运方案生成方法及装置
CN117707409A (zh) * 2024-02-04 2024-03-15 深圳市爱科贝电子有限公司 一种耳机信息展示方法、装置、系统和设备
CN117707409B (zh) * 2024-02-04 2024-05-24 深圳市爱科贝电子有限公司 一种耳机信息展示方法、装置、系统和设备
CN117724386A (zh) * 2024-02-18 2024-03-19 天津德科智控股份有限公司 Eps系统mcu与foc芯片组合使用通信装置及方法
CN117724386B (zh) * 2024-02-18 2024-04-19 天津德科智控股份有限公司 Eps系统mcu与foc芯片组合使用通信装置及方法

Also Published As

Publication number Publication date
DE102018010197A1 (de) 2020-06-18
WO2020125839A1 (de) 2020-06-25
DE112019005630A5 (de) 2021-09-09

Similar Documents

Publication Publication Date Title
WO2020125840A1 (de) Elektronisches element und elektrisch angesteuertes anzeigeelement
CN113273146B (zh) 用于云端通信,计算和全球电子商务的去中心化网络安全的隐私网络
Russell et al. Practical internet of things security
US20140059443A1 (en) Social network for media topics of information relating to the science of positivism
US11423417B2 (en) Method and system for auditing and verifying vehicle identification numbers (VINs) on transport devices with audit fraud detection
Minteer Analytics for the internet of things (iot)
DE102013004795A1 (de) System und Verfahren zum erzeugen von thermische Hot Spot zur Generierung von Zufallszahlen mit thermischen Rauschquellen im Cloud Computing
US10896429B2 (en) Method and system for auditing and verifying vehicle identification numbers (VINs) with crowdsourcing
US20210224338A1 (en) Methods and Systems for Protecting User-Generated Data in Computer Network Traffic
CN105306208A (zh) 身份验证方法及装置
CN105323066A (zh) 身份验证方法及装置
CN108287849A (zh) 操作方跨平台页面跳转控制方法及其相应的装置
Oyama et al. Adaptive phase‐singular‐unit restoration with entire‐spectrum‐processing complex‐valued neural networks in interferometric SAR
Heedt et al. Nanowire Networks: Electronic Properties of Complex Self‐Assembled InAs Nanowire Networks (Adv. Electron. Mater. 6/2016)
CN102984231A (zh) 基于浏览器的交互方法
Assay Social media and the challenges of curtailing the spread of fake news in Nigeria
Kurtz Hacking Wireless Access Points: Cracking, Tracking, and Signal Jacking
Yarali From 5G to 6G: Technologies, Architecture, AI, and Security
EP2480019A1 (de) Bereitstellen eines vorbestimmten Inhalts über ein offenes Funknetz
Singletary Dark web and the rise of underground networks
Parikh Cloud security and platform thinking: an analysis of Cisco Umbrella, a cloud-delivered enterprise security
CN105391625A (zh) 一种空中互联网社交平台安全运行方法
Oxford Analytica IoT ecosystem faces fragmented future
Coursey The Practitioner's Guide to Cellular IoT
Nidagundi Government Regulation on IoT

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19858716

Country of ref document: EP

Kind code of ref document: A1

REG Reference to national code

Ref country code: DE

Ref legal event code: R082

WD Withdrawal of designations after international publication

Designated state(s): DE

Designated state(s): KR

Designated state(s): JP

122 Ep: pct application non-entry in european phase

Ref document number: 19858716

Country of ref document: EP

Kind code of ref document: A1