EP1730666A1 - Verfahren und system zur identifikation, verifikation, erkennung und wiedererkennung - Google Patents

Verfahren und system zur identifikation, verifikation, erkennung und wiedererkennung

Info

Publication number
EP1730666A1
EP1730666A1 EP05716298A EP05716298A EP1730666A1 EP 1730666 A1 EP1730666 A1 EP 1730666A1 EP 05716298 A EP05716298 A EP 05716298A EP 05716298 A EP05716298 A EP 05716298A EP 1730666 A1 EP1730666 A1 EP 1730666A1
Authority
EP
European Patent Office
Prior art keywords
data
identification
verification
features
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP05716298A
Other languages
English (en)
French (fr)
Inventor
André Hoffmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE102004039937A external-priority patent/DE102004039937A1/de
Application filed by Individual filed Critical Individual
Publication of EP1730666A1 publication Critical patent/EP1730666A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Definitions

  • the present invention relates to the field of identification and verification, in short
  • Authentication of dead and / or living beings including people, individuals, animals etc. as well as dead matter e.g. Objects, objects, materials etc. and uses at least one laser scan (system) and / or a camera, and / or image acquisition and / or one
  • identification feature (individual) forms, partial forms, shapes, contours, contours, volumes, characteristics, (distinctive) points, (individual) structures, surface properties (e.g. surface roughness, mil ⁇ ostrulctures, roughness depths, etc.), outer, inner geometry, color, structure, structure, reflected light, its spectral composition, its beam path, reflected light patterns and / or part and / or section thereof and / or the like, etc., which are visible and / or not visible to the unarmed eye (one and / or all of the above, from which Information and / or data can be obtained is referred to by the term “identification feature (s)”), in particular by / m and / or for use on natural (n) living and dead naturally occurring teeth and / or artificial (n) (e.g.
  • Security-related facilities or security-sensitive areas power plants, airports, production facilities, border crossing, etc.
  • ATMs computers, cell phones, protected data, accounts and the cashless
  • iris detection does not work with lens opacity
  • the blind and glass eye wearers problems arise with non-reflective glasses or colored contact lenses and the eyes of a dead person cannot be used.
  • the finger or hand scan is susceptible to contamination due to contact. Injuries to the finger, too dry or too oily skin or old fingerprints on the sensor can also make identification impossible.
  • the geometrical dimensions of hands do not differ significantly.
  • the previous face recognition is not very reliable, wrong results are caused, for example, by beard growth, glasses or facial expressions determined by the situation. Signatures, voice, sequence of movements are already intra-individual, i.e. they are so variable within one and the same individual, e.g.
  • the teeth provide one or more fixed point (s) for the detection of the structures surrounding them, on which the detection systems can be oriented, the inclusion of the "tooth" in the detection using previously known identification systems (eg face detection, iris scan or the like ) should also enjoy protection with this application.
  • identification features or parts thereof for example of teeth, teeth and / or tooth portions, those of the body and / or parts thereof should also be claimed the identification and or verification of living beings, persons or the like, in particular also in combination, can be made usable.
  • the “identification features” and / or information acquisition is recorded in the corresponding methods, for example by means of laser scanning and / or a sensor and / or detector and / or camera system and / or contact scanning with or without lighting etc. and corresponding processing
  • the detection of areas around the tooth, teeth and / or teeth eg body, head, face, parts thereof, etc.
  • the negative relief or model can be in the form of data or in the form of a mat erials exist.
  • the negative can be cleared e.g. converted into positive data within a computer program or used directly.
  • living beings, objects, objects etc. have a characterizing shape, shape, contour, outline as well as surface quality, characteristic features, identification features, also artificially created markings in the visible area or no longer visible with the naked, unarmed eye, which also these characterize individual features by which this dead matter, the object or the object, etc. can be recognized, recognized, identified and / or verified.
  • the Detection of the surface structure also provides information as to whether the feature or area used for identification and / or verification is living or dead or artificial.
  • the methods according to the patent use laser systems and / or detector and / or sensor and / or camera systems etc., etc., capable of scanning or recording and / or recognizing bodies, objects, surface structures, identification features etc. with or without lighting at least the area used for identification and or verification evaluation.
  • a light transmitter which is a laser system that emits laser light and a light receiver that receives it.
  • a laser is used on humans in accordance with D3N, a laser that is harmless for this or the characteristic used for identification, such as the Type 1 or 2 etc. laser, is to be used.
  • the shape, the contour, the shape, the volume, the outline, the (surface structure, for example the surface relief, macro-reliefs, micro-reliefs, the roughness, etc. of the tooth, tooth portion, teeth and or of the dentition are used for identification work, for example, on the basis of the triangulation method, in which a transmitted laser beam deflected by a rotating mirror hits the point on the object recorded by, for example, an EMCCD, CCD camera, sensor, etc., the pulse process, which is reflected on the detection of the transit time of the transmitted and recorded laser beam, the phase comparison method, the stereoscopy, the light-emitting method etc.
  • Converted data into 3D buildings can also allow virtual sections through the body or the object, the extent of which, for example, cross-sectional length, shape, circumferential length, etc. can also be used for identification or verification, which is a sophisticated variant. However, this data can also be generated without virtual cuts. There are also other laser processes that can also be used for the above-mentioned purposes and can also be used according to the requirements. Using a combination with a camera or image recording unit, a color image, for example, can also be added
  • a color analysis is also made possible, which e.g. via the RGB color system, the L * a * b * - and or via one or more of the other color systems and / or other data (information), etc.
  • Color data can be used both as reference data and as a password and / or code substitute, for example also by the search program. In this way, the flood of data is taken into account and a preselection via color data or an acceleration of the selection of reference data in a sophisticated method variant is made possible.
  • a color detection via a laser system whereby spectral data and / or data are obtained by deflecting the beam (change in angle) and / or also in the case of laser light with a spectrum via the spectral analysis of the reflected light. It is also possible to combine a previous method with the laser system at all levels of detection. Combined measuring (e.g. the color measuring apparatus) and laser light, let, with knowledge of the angle of incidence of the light on the tangential surface of the object and the angle of the reflection beam to a defined line or plane, the data distortion e.g. minimize on curved surfaces.
  • the beam path of measurement light from the color measurement apparatus can be detected via the laser radiation, which takes the same path to the measurement point, and can be included in the color data.
  • the curvature detection of the feature can also be used to simulate the beam path or flow into the data recording.
  • the data of the image capture are at least so close that the system, according to its intended Tolerance or sensitivity for this purpose, which confirms authenticity or correspondence or rejects it in the absence of data.
  • the explanations for the laser scan are only illustrative and can also lead to the goal in a variety of other methods.
  • Teeth or human teeth have the main advantage, they are not subject to facial expressions and mostly in a relatively rigid connection with the facial skull. However, teeth change their shape over time due to caries, abrasion, erosion and as a result of dental interventions, as well as their color due to deposits or aging, especially after the age of 40.
  • Identification and verification is relevant, initiated by the person e.g. to effect a new acquisition of the reference data by pressing a button on a separate acquisition unit and / or the recognition unit and / or on request etc.
  • the first registration and or new registration can also be done directly at the location relevant for identification or verification, e.g. at the bank counter, in the driver's cab of the vehicle, in the
  • This re-acquisition of reference data can take place automatically, for example, after a predetermined number of acquisitions within the identification or verification case or after predetermined periods of time as a function of or without dependence on the acquisitions. Both variants are patented.
  • the newly recorded data must be within a tolerance range selected by the manufacturer or operator of the identification or verification system in order to be used as new reference data.
  • the recorded data are only saved and become reference data if they are within the tolerance range or close to the previous reference data.
  • New recordings of the reference data can also be carried out automatically if the identification system detects deviations, which, however, are within the specified tolerance range. In this case, the system is given a limit deviation within the tolerance range, a reference data update should be carried out if it is exceeded.
  • the new reference data can be recorded using a separate device or directly via the identification and verification device.
  • the new reference data can be recorded either before or after the identification or verification, or simultaneously or immediately in one and the same process of identification or verification.
  • the data acquisition for the reference data or the data acquisition for identification or verification can take place directly, for example, on the tooth, teeth or teeth, body, face, a part thereof, etc., but it can also be done using a negative, for example an impression negative, with an in impression material (e.g.
  • silicone, polyether, etc. used in dental practice, which is initially plastically deformable and becomes hard or elastic through reaction.
  • a recording of a model that was created, for example, by taking an impression, for example with the above-mentioned mass, by taking the impression, for example, by tamping or pouring, etc. with a material, such as plaster, plastic, etc., or milling without or according to data (e.g. copy milling , mechanical scanning and milling, etc.) possible.
  • a data acquisition reference data and / or new data acquisition in the case of identification
  • Both reference data and newly acquired data can be acquired, for example, by a camera, sensor, detector and / or laser scan, etc.
  • a recording of the personal characteristics of teeth, teeth, tooth parts, body parts exclusively via one or more camera system (s), image acquisition, sensor, detector, camera and / or laser systems both with and without lighting and or with or without color determination are patented variants ,
  • the image acquisition, sensor and / or detector and / or camera and or laser acquisition and or otherwise acquired information or data of the identification features can include teeth, teeth, a tooth and / or tooth portion and / or body, head, face, ear, Nose, eye, arm, hand, leg, foot, torso, finger and / or toe and / or a part and / or a section and / or feature thereof. This applies to the reference data as well as to the data recorded in the identification or verification case.
  • a line or a partial line, but at least two points in a data area of the reference-recorded dentition are sufficient for decision-making within an identification or verification process. Theoretically, it would be sufficient if the same two points were found and recorded in the identification or verification case as in the reference data acquisition case to make the decision described.
  • Head posture, head, body and positioning is independent. The downstream
  • Processing is carried out by examining the data correspondence within all or one or all of the stored teeth and / or body and / or area thereof.
  • Data relations or value relations which, in a figurative or non-figurative sense, contain the tapped points and their relations to each other can only be found on the same individual and only at the same location of these points and leave not only the person and / or the living being and / or the object but also identify and / or verify the local insulation within the area used for this purpose, if this and / or this, for example is connected with a marking and / or with an identifier and / or information etc.
  • Subsequent processing thus has the task of bringing the data and / or the section and corresponding relations to cover with the reference data and / or the 2D and / or 3D reference image, which one will it be via an image and / or real and / or Transferred in a figurative sense to a 2D and / or 3D representation, checked for correspondence or proximity by moving, rotating, etc. of the new partial shape on the reference shape and trying to match it.
  • identification and / or verification via body, body part, face, face part as a bone (ante), skeleton, (personal) characteristic or the like also takes place.
  • the complete feature or a part of it can also be recorded in the form.
  • identification or verification it would also suffice here in the case of identification or verification to tap a part, for example, a line which, for example, forms horizontally, vertically, diagonally to a degree defined on the feature, for example a longitudinal axis, or takes all other angular sizes with respect to it. Even tapping in the case of identification and / or verification of only two points would theoretically be sufficient if these two points are the same and / or have the same relation to one another and / or to the environment as that of the reference.
  • the reference data pool with the data acquisition of the entire feature for example teeth and / or face and / or body etc.
  • only a small section is sufficient for the renewed data acquisition within the identification or verification case.
  • the method and the equipment which is now irrelevant, from which side or whether from obliquely above or below or at what angle, for example, the laser beam for scanning or the beam path for image acquisition etc., for example the body, face and / or of teeth, etc.
  • the person to be identified or verified is therefore position-independent for these methods.
  • All surfaces of the human body accessible to the laser scan can be used. They can be recorded in their visible form, shape, contour and / or the outline or a part of this as well as surface structure as well as surface structure that is not visible to the unarmed eye (e.g. relief, microrelief, roughness etc.) and thus as a personal characteristic for identification or Verification can be used. Every person has a different body, face, ear shape, etc., which is individual and unique to him. According to the claim, the combination of the detection of shape, shape, contour and / or the outline and / or a part thereof and the surface structure of the body, head, face, ear, nose, arms, legs, hands, feet, fingers and / or toes is also suitable etc.
  • a data record that can also be generated in 3D can be acquired via several cameras, but at least via one camera.
  • the dentition which naturally has an arch shape, can be represented, for example, by reconstruction within the image plane. If the first and / or reconstructed 3D reference data are known, a 2D representation and / or their data and / or data about the area to be evaluated, which is brought into line with the reference and / or in the positive case thereof, is sufficient in the identification case and / or verification case Tolerance range they should be.
  • a laser-recorded structure e.g. teeth, head, face, etc.
  • reference data can only be used for the new data acquisition, for example, only by means of a camera, sensor,
  • Detector and or image acquisition etc. carry out identification and / or verification, the data recorded by the camera not necessarily being 3D and 2D acquisition being sufficient. The same applies in cases where other systems are combined.
  • the location and position of the teeth and natural dividing line are useful features. Suitable for identification and / or verification and / or for data formation and / or usable features are, for example, the striking points on the dentition and on the tooth, for example according to FIG. 5, the mesial corner (7) and distal corner (4), cervical crown end ( Arrows), cusp tip or canine tip (2), incisal edge (1), mesial side or edge (5), distal side or edge (3), mesial slope (9), distal slope (8), and according to Fig.
  • Points of a tooth can also be connected to points of an adjacent or non-adjacent tooth.
  • structural lines naturally or distinctive lines
  • proximal sides incisal sides
  • cusp slopes tooth equator
  • tooth crown axis proximal sides
  • incisal sides incisal sides
  • cusp slopes tooth equator
  • tooth crown axis proximal sides
  • incisal sides incisal sides
  • connection lines that are based on distinctive points
  • additional lines can be formed by adding further distinctive points. Constructed points arise when connecting lines or extended lines,
  • all points can be connected to each other, including (natural) striking points, crossing points, constructed points with each other and with each other.
  • Newly created connecting lines create newly constructed crossing points, so that new generations and / or hierarchies of connecting lines and crossing points or constructed points can arise and are also usable, so that potentially applicable points and lines could be infinitely large in number due to constructions.
  • the tooth surface can be further divided in a sophisticated variant. 8-12 are selected exemplary drawings for this. This division can also be done e.g. the tooth crown axis and / or horizontal dividing line, the anatomical equator (largest circumference to the crown axis) etc. are realized.
  • Points that have been used in the first generation have exponentially more usable points and connecting lines and consequently more angles, surfaces, spaces and patterns for each generation
  • Angles for example, between natural edges (for example, between mesial and distal cusp slopes, mesial proximal sides and incisal sides, the approximal sides, the incisal sides, distal approximal sides and incisal sides, mesial approximal sides and the mesial side slope, the distal proximal side and the distal side slope, the mesial distal side and the mesial distal side Slope, the distal proximal side and the mesial-side slope (selected examples in FIGS. 5, 7) of adjacent and / or non-adjacent teeth (FIGS.
  • these sizes can be reconstructed by image reconstruction (e.g. zoom, enlargement, reduction, rotation, etc.) and thus used absolutely.
  • Distorted angles, line lengths and / or areas can be reconstructed by knowing the overall structure or can help in the reconstruction of the feature area and / or in, for example, aligning the newly captured image with the reference image.
  • angles, lines and / or areas match the prototype in another claim variant, e.g. in the case of positive identification and / or verification, the head outline and / or detail outline and / or the features also match in connection with the overall picture and / or the feature proportions etc.
  • Another variant according to the claims uses the structure proportions and / or the relations between defined lines, edges and / or connecting lines and / or relations between defined angles and / or the relations between defined surfaces and / or planes and / or spaces and / or with one another.
  • the relationship between the length of two or more identical or different edges of the same tooth for example those named above, immediately adjacent and / or non-adjacent teeth, distance between the level differences of adjacent or non-adjacent (incisal) edges, lengths of constructed lines and or connecting lines between prominent and / or constructed points, angles and / or and or surfaces and / or their relation between two or more identical or differently named edges and / or sides of one and the same tooth, immediately adjacent and / or non-adjacent teeth and / or jaw areas and / or constructed lines and connecting lines with one another and / or with distinctive lines and / or edges.
  • Which lines, angles, planes or surfaces, rooms, how many, how the surfaces look e.g.
  • the orientation of the grating can also be oriented either at least over a defined crossing point and or over a defined point within a defined grating element at at least one striking point, feature, feature group, and / or feature area and / or constructed point.
  • the image information content of grid elements for example, via the accumulation of features and / or the number of changes in continuity and / or interruptions in continuity, can thus be determined, for example, by the color saturation of the gray tones, color density, pixel density, bits or the like. etc. can be used within a grid element for identification and / or verification.
  • the image information content on the accumulation of features and / or the number of changes in continuity and / or interruptions in continuity can also be used for feature detection and does not necessarily require a grid or lines, in a further method variant.
  • a system and or apparatus can provide data and / or image information about areas, rooms, grid elements, areas, for example through their information content (e.g. about color tones, grayscale, quantity and density of the tapping points etc. e.g. of the image areas, pixels, etc.), and provide information on structures and distinctive points and / or features.
  • At least one image acquisition unit e.g. A camera, detector and / or a sensor, with or without lighting, and / or laser scanning unit etc., image and / or data processing and / or data analysis are necessary.
  • FIG. 22 Another variant as claimed uses the resulting intersection points between striking edges, lines, constructed lines and / or connecting lines with horizontal lines and / or vertical lines of the grid and / or also the new constructed lines between newly constructed intersection points and / or angles and / or Areas and / or patterns that result from this.
  • arrows point to a few selected structures crossed by horizontal lines (FIG. 22) and vertical lines (FIG. 23), which are also used to construct connecting lines and / or in relation of the points to one another Identification and / or verification can be used.
  • 18 shows three connection examples here
  • Crown centers, crown thirds, etc. oriented (selected examples in Fig. 18, 19).
  • the individual lines have individual distances from one another (selected examples in Fig. 17) and individual angles between lines are created here. Selected examples in Fig. 19. Individual information can be derived from this.
  • the same statements as for the assembled grid can apply to the individual lines and the individual grid.
  • information can be recognized by crossing the extended grid mesh lines with the edge of the grid and / or the image and / or with predetermined defined planes or lines.
  • the information is similar to that of a bar code on the edge of the grid and / or image and can be read using appropriate technology, for example the detection of light and dark.
  • the lines can also be planes in the 3D version
  • Both individual dental-based nertical lines cross striking face structures and these have distances or distance relationships, for example to the face outline (FIGS. 25, 26 selected examples).
  • 25 shows an example of some dental-based nertical lines and selected intersection points with natural structures (arrows) and FIG. 26.
  • Lengths of several plumb lines on nertical lines which are in contact with the facial outline or prominent points. 26 and 27 also show a few selected diagonally running connecting lines between Buchimgsticianen.
  • Vertical lines of the face face-based
  • Vertical lines are formed by a plumb line that passes through a striking point and / or feature. Vertical lines also form relationships with each other. The same applies to
  • Fig. 27 additionally shows some constructed connecting lines and crossing points between natural ones
  • distinctive dots can be used to create an individual grid, whereby the lines must cross all symmetrical features and / or at least one (3 see selected example of the upper horizontal line) in order to be defined.
  • Fig. 44 shows a possible individual grid, for which, moreover, what has already been said about the individual grid in the tooth area applies. The same also applies to the constructed lines and / or connecting lines and / or the grid in the area or partial areas of the body, head and / or face and / or the combination of these and / or parts thereof with the bit and / or parts thereof.
  • the dashed diagonals in FIG. 43 represent selected connection line examples.
  • the grid network can have both more uniform line relations and lines which are distributed unevenly (FIG. 44) over the viewing space (FIG. 45).
  • Vertical lines can be based on features or distinctive points (FIG. 44) and / or on intersection points, for example of the horizontal lines with body structures (FIG. 45).
  • Some selected intersection point examples shown in FIG. 46 are those which result from crossing a facial horizontal line with a facial contour (1), with a facial structure (4), crossing a facial vertical line with a corresponding horizontal line (2), a facial horizontal line (3).
  • Nertikalline (5) with a connecting line between a prominent point or a facial horizontal line with the proximal papilla between teeth 11 and 21 have arisen.
  • FIG. 30 Further data can be obtained, for example, about the length or relation of the eye pupil (FIG. 30), the inner corner of the eye (FIG. 31), the outer corner of the eye (FIG. 32), the lateral nostril and / or subnasals (FIG. 33), striking ear points (Fig. 34) to one or more striking (eg corner point or end point of tooth edges or sides, approximate points,) and / or constructed point on the teeth.
  • the locality is the To determine the pupil in the room (pupil position).
  • the aim of the verifying look is to determine the direction of the gaze and / or head and / or body position via the pupil position and to create the possibility of also reconstructing body relations or feature relations to one another.
  • Points and / or lines e.g. Ihzisalkanten and / or other tooth features, relation of the
  • Tip of the nose to the tooth features, distance or relation of one or more points of the
  • the length can be according to the program specification both from the plumb line (an example Fig. 41 and with distance differences Fig. 42), from the shortest connecting line or the longest and / or a defined lines specified by points as well as corresponding relations, angles, areas, spaces and / or patterns are used.
  • Some prominent points on the face are marked by arrows in FIG. 29. They and / or their relations to one another and / or to the dentition and the lines, angles, surfaces and spaces that arise from them can be used for sophisticated process variants. 30, 31, 35, 36, 37, 38, 39 show some selected variants. An extension of these lines can be seen in FIG. 40 and allows information to be obtained.
  • Additional crossing points also with the picture edge additional lines, angles, areas and spaces arise which can also be used.
  • Crossing points with an image and / or detection cut-out edge or with one or more defined vertical-horizontal lines and or grid lines have an information content.
  • line crossing corresponds to a dark point, for example
  • recording crossing points and / or a relation of crossing points on a line this represents a further variant which is more sophisticated than the formation of the data basis.
  • the ear contains the fossa triangularis (1), Crura antihelicis (2), Incisura anterior (3), Tragus (4), Cavitas conchalis (5), Incisura intertragica (6), Lobulus aurikularis (11), Antitragus (12), Antihelix (13), Helix (14), Scapha (15) and the Cymba conchalis and Crus helicis below the Crura antihelicis and above the Cavitas conchalis can be used as examples for identification and / or verification. 48, some selected exemplary arrows point to areas or points which, or a part thereof, are used for the above-mentioned purpose in method variants according to the claims.
  • connections, constructed lines and / or natural structure lines can also be used in relation to one another and to the surroundings and in space, as well as the pattern formed by them for the same purpose and angles, surfaces and / or spaces formed by them, patterns for the purpose of Data acquisition or for the acquisition of data and / or information for identification and or verification are used and through them new usable intersection points are constructed.
  • the probability of obtaining two identical teeth from different individuals migrates depending on the number of points picked up, for example 720 million pixels a second scan, with each pixel in relation to each pixel, to 1: infinite -1.
  • the denture detection contains at least 100000 feature points, possibly with further sub-points.
  • tooth shape for example, tooth shape, outline, circumference, volume, contour, size, shape, partial shape, structure, crown curvature, radius, tooth positions, bit characteristics,
  • Tooth control errors t for example, tooth tilts, inclinations, rotations, gaps, missing
  • Teeth etc. presence of teeth, distance, arrangement, number of teeth, inclination, height,
  • Width edge courses, relations, relationships, tooth cross-section, shape anomalies,
  • Toothings with the opposing jaw teeth, relation of the upper jaw to the lower jaw teeth, tooth size, size of the interdental space, shape and size of the dental arch, steps between the incisal edges etc. is also possible both on artificial and or natural teeth, teeth, tooth, tooth portion, gums etc. and / or parts of it.
  • the entries mentioned above and / or after the text can e.g. with laser and / or camera and / or sensor and / or detector and / or image acquisition etc. via contact and / or non-contact (without contact) etc. with or without lighting.
  • Color camera to be carried out to make a color selection and so a color preselection.
  • This color preselection speeds up the selection of the iris data, which are assigned to the iris features and represents a sophisticated variant.
  • the color data can e.g. the iris and / or teeth etc. the selection of data from differently obtained data e.g.
  • Color acquisitions can also be carried out by means of color measuring apparatuses and / or sensors and / or detectors and / or by means of camera and / or image acquisition without or with lighting or the like. the area used for identification or verification for one or more of the claims and or for the color detection.
  • the iris color and / or other body colors can also be assigned tooth shape data, which may also be due to the color preselected and / or used for identification / and / or verification or tooth shades are used for the preselection of iris data or body shape data or facial feature data etc. etc.
  • color data of the same or another feature can encode shape data, for example, have information about this and / or represent Mer just as data such as form, outline of a feature that encode another and / or have information about this and / or can be representative of this.
  • shape data of tooth features can be compared with shape features of the face or another part of the body by, for example, a translation and thus serve the purpose of identification and / or verification.
  • people, living beings, objects, objects, etc. can, according to the patent, carry a feature, object, marking or the like and have or have attached or contain them, which and / or which, for example, this living being / this person from a greater distance and / or the object, the object etc., in particular via laser-based and / or ka era, sensor, detector-based, image capturing, etc.; Identify and / or verify data collection.
  • data acquisition for example, exclusively by means of image acquisition and / or camera and / or sensor and / or detector, etc.
  • Bombs or mines can be recognized by their marking or their overall shape, etc.
  • the license plate or a mark, for example on the motor vehicle enables it to be recognized and thus the holder to be identified.
  • a combination of this recording along, for example, a motorway or highway, a tunnel or bridges when approaching and departing from such routes enables, according to the claims, control and use and determination of the extent of the use of such a device, for example in terms of charging and calculating this, and offers a contribution to toll collection.
  • a completely scanned and / or recorded feature for example a license plate in the form of reference data
  • a partial scan or partial detection for example a line, partial line, section on the license plate, which subsequently translates into data, is also sufficient can be brought.
  • the line is at a certain height and grabs the data like a bar code, which is now compared with the reference data.
  • the feature can also be tapped in other directions.
  • a system is inexpensive, the motor vehicles do not necessarily have to be equipped with a receiving and transmitting system such as GPS-based or radio systems based toll systems, the system is self-sufficient in the country and not dependent on international satellites, manipulation-proof due to the lack of access by the driver the plant.
  • a combination with other systems e.g. GPS, radio waves, etc.
  • Such a system consists of light transmitters and receivers and a data generation data processing system.
  • Such a light transmitter / receiver system is installed at every entrance and exit, for example from toll motorways or in direct relation to the toll tunnel or bridge system.
  • the processing unit can be physically and / or spatially separated from this recording system, for example centrally and / or decentrally with portions in the area of the recording system, the division of the data generation and processing unit being left open according to the patent and thus at every point of the level of data recording downstream of the sensor and processing can happen.
  • No surface resembles another and no section of a surface resembles another in areas which are no longer accessible to the human unarmed eye, even if the surface of two objects of the same name or of the same type or of the same batch or even the same object is visually the same in different places acting areas.
  • Even surface sections, previously recorded in the form of reference data and possibly provided with an identifier, information, code, etc. can, after further data acquisition and corresponding data relationship within the
  • Tolerance range can be identified or verified. The same applies, for example, to
  • Objects, objects, materials, materials etc. which is so varied, the variation of the roughness depths, the variation of the shape of the positive or negative parts of this relief, etc. are so characteristic that they can be used in particular for laser-based identification and / or verification.
  • An artificial marking as an object-specific identifier for example engraving, laser-assisted marking, etc.
  • the identifier can contain a code, information about the product, etc.
  • a sophisticated marking variant can be invisible or not visible to the unarmed eye or visible to uninitiated persons in the content or can be understood or identified. Such an identification or marking is intended to enable the authenticity of the document, for example, and / or the identification or verification of its carrier in a manner which is in line with the claims.
  • the reference data of the method according to the claims need not necessarily be stored in a central file or, for example, a memory carried by the person to be verified, for example a chip card, transponder, floppy disk, chip, etc., but can be tapped, for example, via markings, images, etc. in the identification verification case.
  • a picture, an impression, positive or negative relief, etc. of the tooth / denture can be scanned and / or recorded from an ID card or passport and with the data collected from the person, living being and / or individual to be identified and / or verified be compared.
  • the tooth image of the ID card in this case forms the reference for the scan data or data of the teeth, for example, on the person or the teeth as a personal characteristic, tapped on the person form the reference data for the denture image on the ID card.
  • the body, head, head, face, etc. can also be handled, for example.
  • a marking is, for example, also a picture of a fingerprint or face, etc., which is also recorded in the verification case in order to record one or more personal characteristics of the living model.
  • the detection of one or more features forms the reference to the model of the feature to be recorded and / or that Verification used feature of the person and or of the living being and / or individual is the model reference for the data of the eg. ID cards, passports etc.
  • the recording of the pre-image data can take place both with the same system or with a different or different system:
  • the recording for the original data can be done via a camera system, e.g. passport, ID card, chip card etc. and the real structure and or the real feature e.g. Teeth, face, etc. are detected with a laser system or vice versa, etc.
  • one and / or several characteristics e.g. of the ID card, passport or features on these, etc.
  • a facial image on the identification card tooth features, iris features, head, body features, personal data etc. of the person / living being or the iris and / or the fingerprint on the picture encode a verification via the tooth scan on the person and the identification and / or verification e.g. by comparing the iris of the ID card with the acquisition data of the tooth, the comparison of the face of the ID card with the acquisition data of the fingerprint, etc.
  • the iris image on the ID card and the dentition on the person can be recorded and the person identified and / or verified.
  • the reference data are selected from the database and / or the data acquired Data, partial data or parts of data compared with the reference data or parts or a part of these. Another variant of the identification and verification process is based on this.
  • Reference data can also be in a database and from this e.g. by e.g. Code entry or selected by the renewed data acquisition and used for a comparison with the newly acquired data.
  • reference data can also be stored on a data carrier carried or owned by the person (e.g. memory chip, transponder, floppy disk, etc.) or mapped or in relief (tooth rack, face, ear, fingerprint, body shape, etc.), or encoded (e.g. barcode, Letter, number code, etc.) etc.
  • This carried data carrier can be an identity card, passport, a chip card, an access authorization card, etc.
  • the person to be identified and / or verified can, for example, enter a code or password and have their data recorded in the same process. The code selects the reference data which are used for the comparison with the newly recorded data.
  • the toothbud can also be compared, for example, on the ID card, passport, chip card with the real teeth and / or teeth and / or tooth portions of the person to be identified and / or verified by both capturing the image and / or photos and / or reliefs and the teeth and / or teeth and / or tooth portions of the person are recorded.
  • Reference data originate from a laser scan and the acquisition of the data of the identification or verification case originate from a conventional camera scan or can be supplemented.
  • camera images can feed the reference data pool and the data acquisition within the identification or verification process will be carried out via a laser scan.
  • Several methods can also be connected in parallel or in series
  • the data or partial data and / or data elements resulting from at least two different recording methods and or recording systems can be used separately from one another or linked to one another.
  • the use of a neural network (modularly structured) is used to increase the precision of the methods and minimize errors and to optimize the detection Calculation models based on the principle of the biological model with the characteristic of learning ability) proposed and forms the basis of a claim variant.
  • the system should therefore optimize the detection path itself based on individual parameters.
  • the neural network should also be used in general for color evaluation and identification, but also in particular for teeth.
  • the reference data and / or information from the corresponding identification feature (s) can be stored centrally, for example, in a database or decentrally on a “data storage”, for example, used by the person to be identified or verified, for example chip card, floppy disk, transponder, storage media, microfilm, CD, hard disk, RFID ( Radio frequency identification), image, relief, structure, impressions, image form, paper form, foil form, written form, cryptic, object form, contour, volume, outline and the like, etc., ie when it comes to capturing and or recording and or storing data This can be done via any conceivable and / or previously known possibility and is demanding, since all electromagnetic rays follow the general physical laws (radiation propagation, refraction, diffraction, absorption, transmission, reflection, interactions with materials, etc.), but due to their wavelength accordingly differ I, it is possible to identify and or verify which and / or by means of a corresponding system consisting of at least one corresponding system element which emits electromagnetic radiation and a system element which detect
  • Detectors and / or sensors radiation can record statements about the beam angle and its change after interaction, for example with the material, object, the
  • the relevant radiation protection requirements and regulations apply.
  • the entire electromagnetic spectrum and / or parts and / or a section thereof and / or only one type of radiation with a wavelength can theoretically be used for identification and / or verification.
  • packs of objects can be identified as well as materials, objects and / or people, etc.
  • the volume, the geometry, the features of identification of the space of the pulp (popularly known as the "tooth nerve") or a part thereof can also be identified
  • One or more teeth are grasped and used for the corresponding purpose of identification and / or verification the X-ray image) or 3D (e.g. MRT, CT) and their data are used for identification and verification.
  • 3D e.g. MRT, CT
  • a central data storage in the form of a database of the data recorded according to the method would be problem-solving.
  • Works of art, pictures, paintings skeletons, bones, stones, valuable e.g. World-famous gemstones etc. can also be recorded in the data in accordance with the method according to the claims and then identified or verified at any time when they are recaptured. Areas of use are therefore in archeology, geology, the art market, museums.
  • Identification of means of payment e.g. chip cards, credit cards, banknotes, coins, stamps
  • documents ID cards, passports, Cip cards etc. as well as garbage e.g. to the
  • Banking sector, computer security, e-commerce, law and public security, authorities, companies, healthcare, telecommunications, private space, device access control, etc. are exemplary areas that can use one or more of the sophisticated methods.
  • the list of applications and possible uses could be continued almost indefinitely. If portable devices are also used with wireless data exchange and / or processing, police identification measures with identification and / or verification can be carried out directly at the crime scene, for example.
  • the fields of application and industries which could potentially use these methods could be continued indefinitely, many fields of application and possible uses of previously known authentication methods can be found in the relevant literature and are also possibilities for the methods according to the invention.
  • Light falling on the sensor is processed as an example in the following by striking photocells, then converting it into electrical signals and finally converting it into digital signals. From the digital signals, for example, color measurement numbers, values, values for creating spectra curves, etc. can be calculated. At every level of processing downstream of the sensor, usable data, partial data or data parts are created. At this point, it makes sense to consult the as yet unpublished studies with six different measuring devices and far more than 100,000 recorded and evaluated values from the patent applicant. According to these, essential differences between the visually assessed means are routinely used in dental practice standing comparison samples of so-called tooth shade rings and the measurement technology
  • Tooth shade determined. Furthermore, natural teeth of the same color are evaluated visually based on these samples and measured completely differently in terms of measurement technology, and no tooth had even approximately similar measurement results to another. Both the influence of the tooth crown curvature and the internal tooth structure were considered insulated and bear, among other things. to the range of colorimetric values indicated above.
  • Tooth geometry, its crown and root cell curvature and the uniqueness of the internal structure among other things in the form of its layered structure (enamel, dentin, pulp, relations and variations in layer thickness), its individual crystal structure, individuality of orientation, shape and density of the individual in the development phase grown nanometer-sized prisms, lattice defects in the crystal structure, the individual size and the proportion of organic and inorganic material, the composition and the chemical composition of those proportions etc. have a significant influence on the measurement results.
  • the most complex refraction, reflection, remission, transmission processes result from what has been said, which affect the measurement results and data.
  • the reflected non-absorbed, newly spectrally composed light determines the measurement results and / or data (for example color measure numbers according to the CIELAB, CIELCH 1976, Munseil system etc., color measurement values, values for describing a spectral curve, information contents or the like data etc.).
  • measurement results on inhomogeneous, naturally structured teeth have nothing in common with the measurements on flat, homogeneous artificial materials. If the patent claims or the description of reflected or reflected light is mentioned, the color, the color term or the spectral composition of the light falling on the sensors is also always meant, the same applies vice versa and if there is talk of a tooth, just as well the same for parts of teeth or several teeth and / or dentures.
  • the light reflected by the tooth thus indirectly contains information from the interior of the Zalmin and from its external structure.
  • This inner and outer structure of one Zahn as well as the light reflected by it is at least as unique as one
  • Fingerprint the DNA (gene code) or the iris and is as unique as a
  • Photocell, camera, image capture etc. recorded is converted into a data record or partial data record. That data record or partial data record thus contains information about the light reflected by the tooth, which is in the tooth color and the individual tooth structure
  • This data also contains coded information, among other things. about color,
  • FIGS. 1 and 2 provide information.
  • the tooth is identical to that previously saved in the data , archived or recorded.
  • a missing or inadequate mismatch or approximation of data, partial data or result patterns is not one and the same tooth. The same applies to the identification of the person or the individual who is the natural owner of that natural tooth used for identification.
  • a visually subjective recording or evaluation or comparison of the "identification features" via (previously) individually produced and / or assembled samples or samples (shape samples, dental color samples, comparison samples or the like) by an evaluator would also be a sophisticated variant and also an inexpensive one AUXILIARIES.
  • Tooth or teeth represent not only natural, but also artificial non-natural teeth. Artificial or non-natural teeth stand for dental or dental technical work results or for objects that the patient owns in the sense of teeth / tooth parts or for taking over tasks from teeth / tooth parts and carries or can carry in his own mouth (e.g. fillings, tooth copings, I lays, prostheses, etc.).
  • the identification of the person or the individual takes place on the basis of that work result and / or object or the like which is used for identification and which that person or that individual owns or whose carrier is that. If there is sufficient agreement or approximation of the data, partial data or result pattern, obtained from the reflected light or detection of at least one identification feature (s) or parts thereof of the model (artificial teeth / tooth, work result or object or the like) and its renewed one Registration is this person or individual of the new registration identical to that person or that individual from the model registration.
  • the use of these methods enables the assignment of tooth material to the tooth material of the same individual and to the individual himself in forensic medicine work. The identification of the dead will be another task of these methods.
  • teeth of the same individual have in the data sets as determined in claims on matches or approximations of data.
  • An application would also be conceivable in the archaeological area. If the data records or partial data records of one and the same tooth or the same teeth of the same person or individual are compared, a clear identification of living or dead people or individuals must be carried out in a forensic medical or criminalistic area. A data pool of corresponding tooth data sets, which was created by as many people as possible during their lifetime, would also be conceivable in this context. The identification of a dead person can be clearly carried out, accelerated and facilitated. Other areas include checking access authorizations for security-related facilities and areas, bank accounts, the control of cross-border persons or individuals, the identification and assignment of persons or individuals to a group, community or country.
  • the user or the person or the individual For the selection to compare those data or partial data of the data storage or from the database with the data or partial data of a current recording according to the method, the user or the person or the individual provides a personal identifier, identification, data disclosure or the like (e.g. code number, other personal, identifier on a data carrier, data and / or the like). If the data or partial data of the database or the data storage selected by the identification, identification or data disclosure match the data or partial data of the current recording, then the person is the person for whom they claim to be and their identity is confirmed.
  • Data storage means, inter alia, the location or any previously known way of storing or holding that data. Process example FIG.
  • the data carrier is available for comparison with the data or partial data determined in the current recording.
  • An additional identifier would not be absolutely necessary in this case, but it would also be possible.
  • the processes in combinations, for example with chip cards, ID cards, passports, driving licenses, etc. have a wide variety of possible uses.
  • Providing the recorded data / partial data (based on the aforementioned claims) of materials with an identifier can be used to recognize, recognize, identify and verify the corresponding materials, objects, Objects, colors etc., e.g. for the optimization and control of production processes, in the logistics, customs, forensics sector or similar. deploy.
  • the data, partial data or data parts, as recorded in the claims, directly or via a detour of an identifier can also be provided with information about the material or product.
  • the user areas and advantages are described in the aforementioned claims. A quick access to information is also possible and there is a high level of security against forgery.
  • Each method according to the invention is not restricted in terms of location, arrangement, number and connection of the ner driving steps 5 procedural parts or procedural components as well as the (technical) means used for this. There is also no restriction in the method according to the invention in the type, choice, quantity and number of means for realizing the data processing / comparative method steps and the data used. A universeUse of these processes can be seen as a further advantage.
  • UV light camera UV light camera, spectrophotometer, color sensors, detectors, detectors, three-range measuring device, camera, fluorescence spectroscope, microspectrometer, X-ray unit, CT
  • Apparatus, instruments, systems and / or aids) for selecting and / or obtaining data that can be used for authentication can be selected or enumerated and / or combined with the above, which are also used for the purpose of (biometric) identification and / or verification can be used, used or used in particular on tooth, tooth portion, teeth and / or dentition and / or a section thereof.
  • biometric identification and / or verification can be used, used or used in particular on tooth, tooth portion, teeth and / or dentition and / or a section thereof.
  • a wide variety of means can be used (e.g. artificial light, daylight, standard lighting, sunlight, light that enables higher optical and, in particular, spatial resolution, laser lighting, LEDs, standard lighting, fluorescent tubes, light bulbs, etc.).
  • Even comparison color palettes that can be used for the visually subjective or objective evaluation e.g. color samples, color palettes, tooth shade rings, color match), spectroscopy etc.
  • Each apparatus or auxiliary means can be used alone or
  • biometric identification and / or verification procedures e.g. physiological or behavior-based type etc. (e.g. apparatus or biometric face, fingerprint, finger, hand, geometry recognition, iris, retina detection, nail bed, vein pattern, gait, lip movement, voice, signature recognition, sitting, typing, etc. ) and / or for example holistic (e.g. recording of the entire face, own face, template matching, deformable template matching, Fourier transformation etc.) and / or feature-based (e.g. recording of individual features, facial metrics Elastic Bunch Graph Matching, facial geometry) (Amberg, Fischer Roessler , Biometric Process, 2003, pages 22-25) Approach and or other approaches etc.
  • physiological or behavior-based type etc. e.g. apparatus or biometric face, fingerprint, finger, hand, geometry recognition, iris, retina detection, nail bed, vein pattern, gait, lip movement, voice, signature recognition, sitting, typing, etc.
  • holistic e.g. recording of the entire face, own face, template matching, deformable template matching,

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

Die vorliegende Erfindung bezieht sich auf den Bereich der Identifikation und Verifikation von Lebewesen und nutzt hierzu die Form, Gestalt, Kontur, den Umriss, Oberflächenstruktur, Farbe und Merkmale usw. insbesondere von Gebissen, Zähnen, Zahnanteilen und deren Relation zu den sie umgebenen Gesichts- und Körperstrukturen. Zur Aufnahme dieser personenbezogener Merkmale befähigte Systeme basieren beispielsweise auf Laser, Kamera-, Sensor- Bilder-, Farberfassung usw.. Es werden zur Datenbildung eine Reihe von Möglichkeiten und Konstruktionen vorgestellt, wie ein „dentaler Fingerabdruck' erfasst werden kann. Probleme bisheriger Verfahren auf diesem Gebiet sollen nicht zuletzt aufgrund des grossen Vorteils, welcher durch die Unabhängigkeit der Zähne von der Mimik gegeben ist, überwunden sein. Die Oberflächenerfassung soll Auskunft geben, ob es sich hierbei um eine lebende oder tote Person handelt Der Einsatz ist überall dort möglich, wo Identität einer Person nachgewiesen werden muss, um beispielsweise Zugriffs- oder Zugangsberechtigung, Steuerungsberechtigung zu gewähren. Als potentielle Anwender sind Bankensektor, Computersicherheit, E-Commerce, öffentliche Sicherheit, Behörden, Unternehmen, Gesundheitswesen, Telekommunikation und privaten Raum zu sehen.

Description

Verfahren und System zur Identifikation, Verifikation, Erkennung und Wiedererkennung
Die vorliegende Erfindung bezieht sich auf den Bereich der Identifikation und Verifikation, kurz
Authentifizierung von toten und/oder lebenden Lebewesen, so auch Personen, Individuen, Tieren usw. als auch von toter Materie z.B. Gegenstände, Objekte, Materialien usw. und nutzt hierzu mindestens ein Laserscan(system) und/oder eine Kamera, und/oder Bilderfassung und/oder einen
Sensor und/oder Detektor und /oder eine Apparatur und/oder ein Instrument, o.a. geeignet zum
Abgreifen und/oder Erfassen und/oder Gewinnen von Informationen aus beispielsweise
(individuellen) Formen, Teilformen, Gestalten, Konturen, Umrissen, Volumen, Merkmalen, (markanten) Punkten, (individuellen) Strukturen, Oberflächenbeschaffenheit (z.B. Oberflächenrauigkeiten, Milαostrulcturen, Rautiefen usw.), äußere, innere Geometrie, Farbe, Struktur, Aufbau, zurückgeworfenes Licht, dessen spektraler Zusammensetzung, dessen Strahlengang, reflektierte Lichtmuster und/oder Teil und/oder Ausschnitt hiervon und/oder ähnliches, usw., welche mit unbewaffnetem Auge sichtbar und/oder nicht sichtbar sind (eines und/oder alles Vorgenannte, aus dem Informationen und/oder Daten gewonnen werden kann wird mit dem Begriff „Identifllcationsmerlcmal(e)" bezeichnet), insbesondere von/m und/oder für die Anwendung an natürlichem/n (lebende und tote natürlich vorkommende Zähne) und/oder künstlichem/n (z.B. Zahnersatz, zahnersetzenden und/oder zahnsubstanzersetzende Arbeiten, zahnärztliche und oder zalmtechnische Arbeiten, Kronen, Brücken, Füllungen, Inlays Prothesen usw.) Gebiss und/oder Zahn und/oder an Zähnen und oder Zahnanteilen und/oder Teilen und/oder Ausschnitten hiervon und/oder dieses und/oder diesen und oder diese umgebene Bereiche genutzt werden. Der Erfinder spricht in diesem Zusammenhang in seiner Wortschöpfung von „dentalem Fingerabdruck". Bisher bekannt, und daher nicht schutzfahig, sind lediglich forensisch-medizinische Identifikationen von Toten einzig nur über Patientenunterlagen insbesondere über den direkten visuellen bewertenden Vergleich von den sich im Röntgenbild manifestierten auf Röntgenopazität basierenden Besonderheiten (z.B. Brücken, Kronen Füllungen) mit denen des Gebisses des Schädels durch den Rechtsmediziner. Hierbei wird geschaut, ob beispielsweise die Brücke oder Krone die sich im Röntgenbild durch eine Verschattung darstellt am Gebiss des Toten auch zu finden ist. Diese forensisch-medizinische Identifikation betrachtet ausschließlich und ist angewiesen auf das Vorhandensein von offensichtlichen vorhandenen Besonderheiten und ist dementsprechend stark eingeschränkt, kann beispielsweise nicht zu einem Ziel fuhren, wenn keine Besonderheiten vorhanden sind in einem unbehandelten oder gesunden Gebiß, wenn das Gebiß des Toten auch durch postmortale Umstände unvollständig ist oder wenn nur ein Zahn oder wenige Zähne gefunden werden usw.
Bisherige mögliche Verfahren der biometrischen Personenidentifikation und -Verifikation sind realisiert über Kamerascan des Gesichtes mit der Vermessung von festgelegten Merlαnalsstrukturen (DE 196 10 066 Cl), den kamerabasierenden Finger- Hand- (EP 0 981 801), und Irisscan (DE 692 32 314 T2), Netzhauterkennung, den klassischen visuellen Vergleich von
Fingerabdrücken und des Gesichtes, den Vergleich von Stimme, Bewegungsablauf und
Handschrift.
Derartige Verfahren sollen überall dort eingesetzt werden, wo die Identität einer Person nachgewiesen werden muß, um beispielsweise Zugriffs- oder Zugangsberechtigung,
Steuerungsberechtigung zu gewähren. Hierzu gehören z.B. sicherheitsrelevante Einrichtungen oder sicherheitssensible Bereichen (Kraftwerke, Flughäfen, Produktionsstätte, Grenzübergang usw.), Bankautomaten, Computer, Handys, geschützten Daten, Konten und der bargeldlose
Zahlungsverkehr, Grenzverkehr, Apparaturen, Maschinen, Verkehrsmittel, Steuereinheiten (Auto, Flugzeug usw.) usw.
Allerdings sind o.g. bisher bekannte Verfahren mit großen Nachteilen belegt. So funktioniert die Iriserkennung nicht bei Linsentrübung, bei Blinden und bei Glasaugenträgern, es entstehen bei nicht entspiegelten Brillengläsern oder farbigen Kontaktlinsengläsern Probleme und das Auge eines Toten kann nicht genutzt werden. Durch kontaktbedingte Verschmutzungen ist der Finger- oder der Handscan anfällig. Verletzungen an dem Finger, zu trockene oder zu fettige Haut oder alte Fingerabdrücke am Sensor können zudem die Identifikation unmöglich machen. Die geometrischen Abmaße von Händen unterscheiden sich nicht wesentlich. Die bisherige Gesichterkennung ist nicht sehr zuverlässig, falsche Ergebnisse werden beispielsweise durch Bartwuchs, Brille oder situativ bestimmte Mimik hervorgerufen. Unterschriften, Stimme, Bewegungsablauf sind bereits intraindividuell, also innerhalb ein und desselben Individuums derart variabel z.B. aufgrund von aktuell vorherrschenden Emotionen und der Zeitbedarf für einen Erkennungsvorgang beispielsweise am Bankautomat ist sehr hoch, sodaß ein derartiges System bisher eventuell nur in sehr begrenzten Rahmen zu nutzen sein wird. Derartige Systeme können auch durch die Umgebungseinflüsse z.B. verändertes Licht Fehlleistungen produzieren. Zudem sind Identifizierungen von Objekten, Personen oder Lebewesen in größeren Abständen dieser von beispielsweise der Kamera bislang nicht möglich.
Probleme u.a. dieser Art bei den bisher bekannten o.g. Verfahren zur Identifikation und Verifikation treten durch die patentgemäßen Verfahren, welche in allen bisher in der Literatur als auch oben beschriebenen Bereichen und überall dort einsetzbar sind, wo beispielsweise Lebewesen, Personen, Individuen, Materialien, Objekte, Gegenstände usw. identifiziert und/oder verifiziert werden soll, nicht mehr auf. Darüber hinaus liefern nicht zuletzt die Zähne einen oder mehrere Fixpunkt(e) für die Erfassung der diese umgebenden Strukturen, an denen sich die Erfassungssysteme orientieren können, wobei die Einbeziehung des „Zahnes" in die Erfassung durch bisher bekannten Identifϊzierungssysteme (z.B. Gesichtserkennung, Irisscan o.a.) ebenfaUs mit dieser vorliegenden Anmeldung Schutz genießen soll.
Neben Identifikationsmerkmalen oder Teilen hiervon beispielsweise von Gebiß, Zähnen und/oder Zahnanteilen sollen anspruchsgemäß auch diejenigen vom Körper und/oder Teile hiervon anspruchsgemäß die Identifikation und oder Verifikation von Lebewesen, Personen o.a. insbesondere auch in Kombination nutzbar gemacht werden.
Wenn in den Patentansprüchen von mindestens einem Teile oder Ausschnitt von lebenden oder toten Körper (z.B. von Personen und/oder Lebewesen und oder Individuen und/oder Tiere usw.) die Rede ist so ist mindestens beispielsweise ein Körperteil, der Kopf, das Gesicht,
Gesichtsanteilen, Gesichtsausschnitten, Ohr, die Nase, das Auge, insbesondere Augenhornhaut, der Arm, die Hand das Bein, der Fuß, Torso, Finger, Zeh und/oder ein Teils und/oder einen
Ausschnitt o.a. hiervon gemeint, der/die/das zur Authentifizierung von Personen, Lebewesen und/oder Individuen genutzt werden. Es existieren auf der Erde wahrscheinlich keine zwei Zähne geschweige denn Gebisse, welche in der äußeren und inneren Geometrie und im Erscheinungsbild Übereinstimmung besitzen und somit auch keine zwei Individuen, welche auch nur in z.B. der Form, Farbe, Struktur o.a. eines Zahnes Ähnlichkeit besitzen. Dasselbe gilt für zahnärztliche und/oder zahntechnische Arbeiten jeglicher Art, welche Zähne oder Zahnsubstanz usw. ergänzen oder ersetzen. Die Individualität dieser handwerklich gefertigten Ergebnisse, welche beispielsweise auf dem individuellen ästhetischen Empfinden des Zahnarztes, des Zahntechnikers, des Patienten und der hieraus resultierenden Wünsche, der handwerklichen Fähigkeiten und auf den individuellen Vorgaben der individuellen anatomischen Verhältnisse usw. basiert, ist ebenso einzigartig und somit für Identifikationen und Verifikationen nutzbar. Die Erfassung der „Identifikationsmerkmale" und/oder Informationsgewii-nung erfolgt patentgemäß in den entsprechenden Verfahren beispielsweise über eine Laserabtastung und/oder ein Sensor- und/oder Detektor- und/oder Kamerasystem und/oder Kontaktabtastung mit oder ohne Beleuchtung usw. und entsprechender Verarbeitung der so gewonnenen Daten. Gleiches gilt für die Erfassung von Zahn, Zähnen- und/oder gebissumgebenden Bereiche (z.B. Körper, Kopf, Gesicht, Teile hiervon usw.), welche ebenfalls zur Identifikation und/oder Verifikation auch zusätzlich herangezogen werden können. Diese Datenerfassung kann anspruchsgemäß direkt iήi Munde und/oder dem herangezogenen Merkmal der Person, des Lebewesens und/oder an einem Abbild jeglicher Art und/oder einer Abformung und/oder Negativreliefs des für eine Identifikation und/oder Verifikation herangezogenen Merkmals und/oder an einem Modell von diesem geschehen. Das Negativrelief oder Modell kann in Form von Daten oder in Form eines Materials existieren. Das Negativ kann über Verrechnung z.B. innerhalb eines Computerpogramm in Positivdaten überfuhrt oder direkt genutzt werden.
Ebenso besitzen Lebewesen, Objekte, Gegenstände usw. eine(n) sie charakterisierende Form, Gestalt, Kontur, Umriß als auch Oberflächenbeschaffenheit, charakteristische Merkmale, Identifikationsmerkmale, auch künstlich herbeigeführte Markierungen im sichtbaren oder mit bloßen unbewaffneten Auge nicht mehr sichtbare Bereich, welche ebenfalls diese charakterisierende individuelle Merkmale darsteüen, an denen diese tote Materie, der Gegenstand oder das Objekt usw. erkannt, wiedererkannt, identifiziert und/oder verifiziert werden kann. Die Erfassung der Oberflächenstruktur gibt zudem Auskunft darüber, ob das zur Identifikation und/oder Verifikation genutzte Merkmal oder der genutzte Bereich lebend oder tot oder künstlich ist.
Die Patentgemäßen Verfahren nutzen zur Abtastung oder Erfassung und/oder Erkennung von Körpern, Objekten, Oberflächenstrukturen, Identifikationsmerkmale usw. befähigte Lasersysteme und/oder Detektor- und/oder Sensor- und/oder Kamerasystem usw. o.a. mit oder ohne eine Beleuchtung mindestens des zur Identifikations- und oder Verifikationsbewertung herangezogenen Bereiches. Derartigen Systeme besitzen im Beleuchtungsfalle einen Lichtgeber, welcher handelt es sich um ein Lasersystem das Laserlicht aussendet und einen Lichtempfänger, der dieses aufnimmt. Aus Sicherheitsgründen wird empfohlen für den Fall der Anwendung eines Lasers am Menschen nach D3N einen für diesen bzw. das zur Identifizierung herangezogene Merkmal unbedenklichen Laser so beispielsweise die Typ 1 oder 2 usw. -Laser zu verwenden. Es werden gemäß Verfahren 1 die Gestalt, die Kontur, Form, Volumen, den Umriß, die (Oberflächenstruktur, beispielsweise das Oberflächenrelief, Makroreliefs, Mikroreliefs, die Rauheit usw. vom Zahn, Zahnanteil, von Zähnen und oder vom Gebiß zur Identifizierung genutzt. Laserverfahren arbeiten beispielsweise auf Basis des Triangulationsverfahrens, bei dem ein ausgesendeter Laserstrahl von einem rotierenden Spiegel abgelenkt auf den durch eine beispielsweise EMCCD, CCD-Kamera, Sensor usw. aufgenommenen Punkt am Objekt trifft, des Impulsverfahres, welches auf der Erfassung der Laufzeit des ausgesandten reflektierten und aufgenommenen Laserstrahls fußt, des Phasenvergleichsverfahres, der Stereoskopie, des Lichtsclmittverfahren usw. Es können auf diese Weise z.B. Entfernungsbilder, welche die geometrische Verhältnisse der Umgebungsobjekte wiedergeben und/oder Intensitätsbilder zur Extraktion, Identifikation Oberflächenidentifikation unabhängig von externer Umgebungsbeleuchtung usw. erstellt werden. So können einzelne Messpunkte unterschiedliche Farbtöne beispielsweise hellgraue Punkte weiter entfernte und dunlcelgraue für naher entfernte Messpunkte zugeordnet werden. Nach dem Laserscannen (optisches Verfahren, das mit Laserlicht arbeitet, insbesondere eine gezielte beispielsweise zellenförmige und/oder meanderförmige Abtastung und oder nur definierte Detektion einzelner Punkte gestattet, und dadurch gegenüber Verfahren mit normalem Licht (z.B. Tageslicht) eine höhere optische und insbesondere auch räumliche Auflösung ermöglicht) kann man eine unstrukturierte Datenmenge (Punktwolke) erhalten, welche auch mit Polygonen vernetzt werden können. Diese Daten können weiterhin rechnerisch ausgedünnt und strukturiert werden Es kann weiterhin die Datenverarbeitung in geometrischen Elementen zu beschreiben versucht und so eine Approximation durchgeführt werden. Auslese und Sortierung der Punkte erfolgt beispielsweise über eine Software und eventuell die Weiterverarbeitung in dreidimensionale Koordinaten über ein CAD- Pogramm (Computer Aided Design).
Konvertierte Daten in 3D- GebUde können auch virtuelle Schnitte durch den Körper oder das Objekt erlauben deren Ausmaß z.B. Querschnittlänge, Ausformung, Umfangslänge usw. ebenfalls zur Identifizierung oder Verifizierung genutzt werden können, was eine anspruchsgemäße Variante darstellt. Diese Daten können aber auch ohne virtuelle Schnitte erzeugt werden. Auch existieren weitere Laserverfahren die ebenfalls für o.g. Zwecke eingesetzt werden können und ebenfalls anspruchsgemäß genutzt werden können. Über eine Kombination mit einer Kamera oder Bildaufhahmeeinheit kann zusätzlich ein z.B. Farbbild beispielsweise das
Intensitätsbild ergänzen und die Datenerfassung ausschließlich über eine Kamera ermöglicht eine
Idntifikation und/oder Verifikation anhand von Farben und/oder anhand der Kombination von beispielsweise Form-, Umriß- Daten usw. mit der Farbe. Eine Farbanalyse wird ebenfalls anspruchsgerecht ermöglicht, welche z.B. über das RGB-Farbsystem, das L*a*b*- und oder über eines oder mehrerer der andere Farbsysteme und/oder andere Daten(infonnatonen) usw. erfolgen kann. Farbdaten können sowohl als Referenzdaten als auch als Passwort- und oder Codeersatz beispielsweise auch vom Suchpogramm verwandt werden. Hierdurch wird der Datenflut Rechnung getragen und eine Vorauswahl über Farbdaten oder eine Beschleunigung der Auswahl von Referenzdaten in einer anspruchsgerechten Verfahrensvariante ermöglicht. Ebenfalls wird als weitere anspruchsgemäße Variante eine Farberfassung über ein Lasersystem beschrieben, wodurch spektrale Daten und/oder Daten durch Ablenkung des Strahles (Winkeiänderung) gewonnen werden und/oder auch bei Laserlicht mit einem Spektrum über die Spektrale Analyse des zurückgeworfenen Lichtes. Auch ist die Kombination eines bisherigen Verfahrens mit dem Lasersystem auf allen Ebenen der Erfassung möglich. Meß- (z.B. der Farbmessapparatur) und Laserlicht kombiniert, lassen, mit wissen um den Auf-reffwinkel des Lichtes auf die Tangentialfläche des Objektes und des Winkels des Reflexionsstrahles zu einer definierten Linie oder Ebene, die Datenverzerrung z.B. an gekrümmten Flächen minimieren. Der Strahlengang von Mεsslicht der Farbmessapparatur kann über die Laserstrahlung welche den gleichen Weg zum Messpunkt nimmt erfasst und in die Farbdaten it einbezogen werden. Über die Krürnmungserfassung des Merkmals läßt sich auch der Strahlengangsverlauf simulieren oder in die Datenerfassung einfließen.
Ebenfalls kann das laserbasierende Entfernungsbüd mit dem Intensitätsbild überlagert werden. Die Lokalisation und Erfassung der Form des Objektes oder der Person oder von Ausschnitten und/oder Bereichen hierauf werden so ermöglicht Soll das Objekt so auch das Gebiß oder der Zahn komplett erfasst werden, muß von mehreren Standpunkten und/oder Orten und/oder aus mehreren Perspektiven mit einer und/oder mehreren beispielsweise Lasererfassungsapparatur(en), Kameras, Sensoren, Detektoren und/oder Bilderfassungen usw. zeitgleich oder hintereinander die Datenerfassung erfolgen. Die lokalen isolierten Koordinatensysteme müssen nun in ein einheitliches (übergeordnetes) Koordinatensystem transformiert werden. Dies geschieht beispielsweise über Verlcnüpfungspunkte oder über ein interaktives Verfahren direkt über die verschiedenen Punktwolken. Die Kombination beispielsweise mit einer Digitalkamera bietet fotoreälistische 3D- Darstellungen. Erfassungen mit Genauigkeiten mindestens im Millimeterbereich in größeren Entfernungen
>50m oder in der Naherfassung im Mikrometerbereich (1 Mikrometer) oder genauer ermöglichen eine exakte Identifikation oder Verifikation. Genauigkeiten beispielsweise von +/-
15 Mikrometern sind auch bei schnellem Scans von mehr als mehreren Zentimetern pro Sekunde realistisch. Die Punktdichte oder Datenmenge kann erhöht oder reduziert werden. Für die patentgemäßen Verfahren wird gefordert mindestens zwei Punkte zu scannen und deren Relation im Raum und/oder zueinander zu erfassen. Dennoch ist für die Sicherheit vor Verwechslungen und falschen Ergebnissen, falsch verifizierten oder falsifizierten Personen, Lebewesen Objekten usw. zu empfehlen, möglichst viele Punkte zu erfassen, aber andererseits zu bedenken, dass je mehr Punkte für die Verfahren verwandt werden umso länger aufgrund der Datenmenge entsprechend dieses dauert bis eine Ergebnisfindung erfolgt. Algorithmen spannen einen dreidimensionalen metrischen Raum auf, in dem die Abstände verschiedener biometrischer Merkmale mathematisch eindeutig definiert sind. Patentgemäß muß also nicht eine Verarbeitung der Daten zu einem 3D-Bild oder der ebenfalls allerdings einfacheren ansprachsgemäßen 2D- Bild-Variante und/oder den Daten hierzu generiert werden sondern es reicht zur Identifikation, daß Daten, welche durch das entsprechende Erfassungssystem oder die entsprechenden Erfassungssysteme auf irgend einem Verarbeitungsniveau hinter dem Laser, Sensor, der Kamera, der Bilderfassung und/oder dem Detektor und/oder hinter der Erfassung von Daten oder Informationen bei der erneuten Erfassung den Daten der Vorbildserfassung mindestens so nahe kommen, daß das System, entsprechend seiner gewollten Toleranz oder Sensibilität für diesen Zweck, die Echtheit bzw. Übereinstimmung bestätigt oder bei fehlender Datennähe ablehnt. Selbstverständlich sind die Ausführungen zum Laserscan nur ülustrativ und können in einer Vielzahl von anderen Verfahren ebenfalls zum Ziel führen Informationen und/oder Daten für den Zweck der Identifikation und/oder Verifikation zu Gewinnen. Laser- und/oder anderserfasste Vorbildsdaten, verbunden mit einer Person und/oder dem Lebewesen und/oder den persönlichen Kenndaten z.B. Namen, Alter, Wohnort usw. der Person lassen bei der erneuten Datenerfassung die Person oder das Lebewesen eindeutig identifizieren oder entsprechend verifizieren, wenn die neuerfassten Daten den Vorbild- oder Referenzdaten innerhalb des Toleranzrahmens nahe kommen. Zähne oder menschliche Gebisse haben den wesentlichen Vorteil, sie sind nicht der Mimik unterworfen und meist in einer Relativ starren Verbindung mit dem Gesichtsschädel. Zähne verändern allerdings mit der Zeit ihre Form durch Karies, Abrasion, Erosion und in Folge von zahnärztlichen Eingriffen als auch ihre Farbe durch Beläge oder Alterung insbesondere nach dem 40. Lebensjahr. Alle Prozesse sind langsam und schleichende Vorgänge, welche zusätzüch aufgrund des heute hohen Stand der zahnärztüchen Versorgung und Prophylaxe weiterhin verlangsamt und mitunter aufgehalten werden. Statistisch nehmen die Karieserkrankungen ab und sind in absehbarer Zeit von einem ehemalig Volkskrankheitscharakter zu einer vernachlässigbaren peripheren Größe der Zukunft verdrängt. Dennoch muß in der Gegenwart dieser Faktor der Merkmalsänderung für die Identifikation und Verifikation Beachtung finden. Es wird anspruchsgemäß vorgeschlagen, nach jedem zahnärztlichen Eingriff, welcher für die
Identifikation und Verifikation relevant ist von der Person initiiert z.B. durch Knopfdruck an einer gesonderten Erfassungseinheit und/oder der Erkennungseinheit und/oder auf Antrag usw. eine Neuerfassung der Referenzdaten zu bewirken. Die Ersterfassung und oder Neuerfassung kann ebenfalls zu diesem Zweck patentgemäß direkt am identifikations- oder verifikationsrelevanten Ort z.B. am Bankschalter, im Führerstand des Fahrzeuges, im
Passierbereich, der Grenze oder des sicherheitsrelevanten Zugangsbereichs usw. und/oder auch direkt von derselben Apparatur, welche die Identifikation oder Verifikation durchführt anhand der neuen Daten mit den bereits gespeicherten, erfolgen oder an einer gesonderten Erfassungseinheit, welche nicht in unmittelbaren örtlichen Zusammenhang zum Identifikationsund/oder Verifikationsort stehen muß. Diese Neuerfassuhg von Referenzdaten kann hier automatisch z.B. nach einer vorgegebenen Anzahl der Erfassungen innerhalb des Identifikationsoder Verifikationsfalles oder nach vorgegebenen Zeiträumen in Abhängigkeit oder ohne Abhängigkeit von den Erfassungen erfolgen. Beide Varianten sind patentgemäß. Hierbei müssen die Neuerfassten Daten innerhalb eines vom Hersteller oder Betreiber des Identifikations- oder Verifilcationssystems gewählten Toleranzrahmens befindlich sein, um als neue Referenzdaten genutzt zu werden. Die erfassten Daten werden erst gespeichert und zu Referenzdaten, wenn sie sich innerhalb des Toleranzbereich oder in der Nähe der bisherigen Referenzdaten befinden. Auch können Neuerfassungen der Referenzdaten automatisch durchgeführt werden, wenn das Identifikationssystem Abweichungen erkennt, welche allerdings innerhalb des vorgegebenen Toleranzbereichs befindheh sind. Hierbei wird dem System eine Grenzabweichung innerhalb des Toleranzbereiches vorgegeben, bei dessen Überschreitung ein Referenzdatenupdate erfolgen soll. Die Referenzdatenneuerfassung kann über ein separate Apparatur oder direkt über die Identifikations- und Verifikationsapparatur erfolgen. Die Referenzdatenneuerfassung kann sowohl vor oder nach der Identifikation oder Verifikation als auch gleichzeitig oder unmittelbar in ein und dem selben Vorgang der Identifikation oder Verifikation ebenfalls patentgemäß erfolgen. Die Datenerfassung für die Referenzdaten oder die zur Identifikation oder Verifikation erfolgte Datenerfassung kann direkt beispielsweise am Zahn, an den Zähnen oder dem Gebiß, Körper, Gesicht, eines Teils hievon usw. erfolgen, sie kann aber auch anhand eines Negativs beispielsweise Abformungsnegativs z.B. mit einer in der zahnmedizinischen Praxis Verwendung findenden Abformmasse (z.B. Silikon, Polyether usw.) uns., welche zunächst z.B. plastisch verformbar und über Reaktion hart oder elastisch wird, durchgeführt werden. Patentgemäß ist ebenfalls eine Erfassung von einem Modell, welches beispielsweise über Abformung z.B. mit der oben erwähnten Masse erstellt wurde, indem die Abformung beispielsweise durch Stopfung oder Ausgießen usw. mit einem Werkstoff z.B. Gips, Kunststoff usw. oder Fräsung ohne oder nach Daten (z.B. Kopierfräsen, mechanische Abtastung und Fräsung usw.) mögüch. Eine Datenerfassung (Referenzdaten und/oder Datenneuerfassung im Identifikationsfalle) ist anspruchsgemäß auch selbst über Abtastung über Kontakt oder mechanische Abtastung mittels hierfür befähigter Apparatur (z.B. über eine Tastspitze, mechanischer Scanner, Kopiersystem usw.) ebenfalls am Original, Kopie oder Abformnegativ möglich und fällt unter den anspruchsgemäßen Schutz. Sowohl Referenzdaten als auch neuerfasste Daten können beispielsweise durch Kamera, Sensor, Detektor und/oder Laserscan usw. erfasst werden. Auch eine Erfassung der persönlichen Merkmale Gebiß, Zähne Zahnanteile, Körperanteile ausschließlich über ein oder mehrere Kamerasystem(e), Bilderfassung, Sensor-, Detektor- Kamera- und/oder Laserssysteme sowohl mit als auch ohne Beleuchtung und oder mit oder ohne Farbbestirnmung sind patentgemäße Varianten.
Die Bilderfassung, Sensor- und/oder Detektor- und/oder Kamera- und oder Lasererfassung und oder anders erfasste Informationen oder Daten der Identifikationsmerkmale können das Gebiß, Zähne, einen Zahn und/oder Zahnanteil und/oder Körper, Kopf, Gesicht, Ohr, Nase, Auge, Arm, Hand Bein Fuß Torso Finger und/oder Zeh und/oder eines Teils und/oder einen Ausschnitt und /oder Merkmal hiervon betreffen. Dies gilt für die Referenzdaten als auch für die im Identifikations- oder Verifikationsfalle erfaßten Daten.
Im Falle der Erfassung über den Laser im Identifikations- oder Verifikationsfalle kann diese beispielsweise auch über nur einen Ausschnitt oder eine Punktlinie erfolgen, welcher oder welche allerdings innerhalb der Referenzpunktwolke bzw. auf einer beliebigen Höhe, allerdings innerhalb der referenzgescannten Bereiche liegen muß. So kann z.B. eine Linie oder eine Teillinie mindestens aber zwei Punkte in einem Datenbereich des referenzerfaßten Gebisses für die Entscheidungsfindung innerhalb eines Identifikations- oder Verifikationsvorgang ausreichen. Theoretisch würde es ausreichen, werden im Identifikations- oder Verifikationsfalle dieselben zwei Punkte aufgefunden und erfasst wie im Referenzdatenerfassungsfalle, die beschriebene Entscheidung zu fallen.
Alles bisher gesagte kann ebenso für die Daten und/oder Bilder erfasst durch ausschließlich über ein(en) Lasererscan und/oder Detektor- und/oder Sensor- und/oder Kamera-, und/oder Bilderfassungssystem o.a. und in leicht abgewandelter Form auch für die Erfassung durch diese gelten. Ist beispielsweise das gesamte Gebiß und/oder Körper Und oder Teile hiervon in Referenzdatendatei gespeichert ist es für die Datenerfassung im Identifikations- oder Verifikationsfalle nicht notwendig das gesamte Gebiß oder den gesamten Körper oder Teüe hiervon abermals zu erfassen, es reicht hier aus beispielsweise ein Teilgebiß, einen Zahn, einen Zahnanteil, ein Gesichtsteil usw. und/oder einen Ausschnitt und/oder eine Linie oder Teillinie und/oder Merkmale auf diesem gar nur zwei Punkte in Relation zueinander und/oder zum und/ oder im Raum und/oder zur umgebenden Straktur zu erfassen. Das Abgreifen oder Erfassen einer Linie, eines Ausschnittes oder mehrerer Ausschnitte usw. kann in alle Raunrichtungen und allen Winkeln beispielsweise senkrecht, waagerecht, diagonal, meanderförmig beispielsweise zur Zahnachse, Bildachse, auf dem Merkmal usw. erfolgen. Fig. 3 zeigen hier beispielhaft einige von nahezu unzähligen Möglichkeiten. Unzählig viele Erfassungsvarianten sind möglich. Hierbei ist die Möglichkeit gegeben die Einrichtung am Identifikations- oder Verifikationsort einfacher und mit einem Lasersystem und/oder Detektor- und/oder Sensor- und/oder Kamera-, und/oder
Bilderfassungssystem auszustatten, welches nicht von mehreren Richtungen beispielsweise die Zahnform erfassen muß. Vielmehr reicht ein kleiner Ausschnitt, welcher die Daten durch
Abgreifen oder Erfassung an einem beliebig Bereich und so von der Stellung und der
Kopfhaltung, Kopf-, Körper- und -positionierung unabhängig ist. Die Nachgeschaltete
Verarbeitung erfolgt über eine Untersuchung der Datenübereinstimmung innerhalb aller gespeicherten oder dieses einen gespeicherten Gebisses und/oder Körpers und/oder Bereiches hiervon. Datenrelationen oder Werterelationen welche im übertragenen oder im nichtübertragenen Sinne die Abgegriffenen Punkte und deren Relationen zueinander beinhalten sind nur an dem selben Individuum und nur an derselben Lokalisation dieser Punkte zu finden und lassen nicht nur die Person und/oder das Lebewesen und/oder das Objekt sondern auch die Lokalisafion innerhalb des abgegriffenen zu diesem Zweck verwandten Bereichs identifizieren und/oder verifizieren, wenn diese und/oder dieser z.B. mit einer Markierung und/oder mit einer Kennung und/oder einer Information usw. verbunden ist. Eine nachgeschaltete Verarbeitung hat so die Aufgabe, die Daten und/oder den Ausschnitt und entsprechende Relationen zur Deckung mit den Referenzdaten und/oder dem 2D und oder 3D-Referenzbilfd zu bringen, welches, wird es über eine bildUch und/oder real und/oder im übertragenen Sinne auf eine 2D- und/oder 3D- Darstellung übertragen, durch Verschiebung, Rotation usw. der neuen Teilform auf der Referenzform auf Übereinstin mung oder Nähe geprüft und versuch dieses zu Deckung zu bringen..
Die Identifikation und/oder Verifikation über Körper, Körperteü, Gesicht Gesichtsteil als Knocheh(-anteü), Skelett, (persönliches) Merkmal o.a. erfolgt ebenso. Ebenfalls kann des komplette Merkmal oder ein Teil dessen in der Form erfasst werden. Es würde auch hier im Identifikations- oder Verifikationsfalle reichen ein Teil so z.B. eine Linie abzugreifen welche beispielsweise waagerecht, senkrecht, diagonal zu einer auf dem Merkmal definierten Graden z.B. Längsachse bilden oder alle anderen Winkelgrößen zu ihr einnehmen. Auch das abgreifen im Identifikations- und/oder Verifikationsfalle von nur zwei Punkten würde theoretisch ausreichen, wenn diese zwei Punkte dieselben sind und/oder dieselbe Relation zueinander und/oder zur Umgebung haben wie die der Referenz. Ist der Referenzdatenpool mit der Datenerfassung des gesamten Merkmals z.B. Gebisses und oder Gesichtes und/oder Körpers usw. vorhanden reicht nur ein kleiner Ausschnitt für die erneute Datenerfassung innerhalb des Identifikations- oder Verifikationsfalles aus. Hierbei ist ein Vorteil des Verfahrens und der Apparatur, das es nun unerheblich ist, von welcher Seite oder ob von schräg oben oder unten oder unter welchem Winkel beispielsweise der Laserstrahl zur Abtastung oder der Strahlengang zur Bilderfassung usw. z.B. des Körpers, Gesichtes und/oder der Zähne usw. entlanggeht. Die zu identifizierende oder verifizierende Person ist somit für diese Verfahren positionsunabhängig. Da lasererfasste Punkte mit Genauigkeiten im Mikro- gar in Nanometerbereich abgegriffen werden können, ist auch eine Erfassung von Strukturen, welche mit unbewaffneten Auge nicht wahrnehmbar sind, möglich und für den Zweck der Identifikation oder Verifikation anspruchsgemäß nutzbar. Gleiches gilt beispielsweise für die Bilderfassung und -nutzung, wobei hier beispielsweise Zoom, Vergrößerung, Vergrößerungslinsen, entsprechende Optiken o.a. usw. eingesetzt werden.
Alle dem Laserscan zugänglichen Oberflächen des menschlichen Körpers sind nutzbar. Sie können sowohl in ihrer sichtbaren Form, Gestalt, Kontur und/oder des Umriß oder eines Teiles dieser sowie Oberflächenstruktur als auch mit unbewaffneten Auge nicht sichtbaren Oberflächenstruktur (z.B. Relief, Mikrorelief, Rauheit usw.) erfasst und so als persönliches Merkmal für die Identifikation oder Verifikation verwandt werden. Jeder Mensch hat eine unterschiedliche Körper-, Gesichts-, Ohrform usw. die ihm individuell und nur ihm eigen ist. Ansprachsgemäß ist ebenfalls die Kombination der Erfassung von Form, Gestalt, Kontur und/oder des Umriß und/oder eines Teiles dieser sowie Oberflächenstruktur von Körper, Kopf, Gesicht, Ohr, Nase, Arme, Beine, Hände, Füße, Finger und/oder Zehen usw. mit der und/oder dem des Gebisses, Zahne, Zahnanteils und oder -merkmals. Im Falle der Kombination können Relationen beispielsweise zwischen Körperbereichen und/oder Körpe unkten oder Punktgemeinschaften z.B. im Bereich des Gesichtes, Ohres usw. zu Punkten, Bereichen, Punktgemeinschaften von Gebiß und/oder Zähnen und/oder Zahn(anteilen) hergestellt werden. Diese Relationen können markante Punkte und/oder Merkmale sein oder aber auch x-belibige. Die Vorgabe hierzu, welche Relationen und Punkte genutzt werden, kann durch das Pogramm erfolgen oder durch den Nutzer oder Nutzenden dieses Systems vorgegeben werden. Für die Lasergestützte Identifikation und Verifikation sind mindestens die zwei für diesen Zweck benötigten Punkte ausreichend und z.B. Punkte, eine Punkwolke, Punktwolkenausschnitte oder entsprechende Daten usw. nutzbar.
Soll ausschließlich oder in Verbindung mit anderer Technologie über die anspruchsgemäße Kameraerfassung das Gebiß, der Zahn, Zahnanteil identifiziert oder verifiziert werden, kann ein Datensatz, welcher auch in 3D generierbar ist über mehrere Kameras, mindestens aber über eine Kamera erfasst werden. Grundsätzlich kann aber auch in 2D generiert und/oder bei Wahrung der Relationen das Gebiß welches natürlicherweise Bogenform besitzt beispielsweise durch Rekonstruktion innerhalb der Bildebene dargestellt werden. Sind ersteUte und/oder rekonstruierte 3D-Referenzdaten bekannt reicht im Identifikationsfalle und/oder Verifikationsfalle eine 2D- Darstellung und/oder deren Daten und/oder Daten über den zu bewertenden Bereich, welche mit der Referenz in Deckung gebracht und/oder im Positivfalle in dessen Toleranzbereich diese sich befinden sollten. Gleiches gilt auch für den Einsatz eines Lasersystemes und/oder der Kombination von Laser und Kamerasystem oder anderen Technologien, welche ebenfalls eine anspruchsgerechte Verfahrensvariante bildet. Ein lasererfasste Struktur (z.B. Gebiß, Kopf, Gesicht usw.) in Referenzdaten, läßt über die erneute Datenerfassung beispielsweise auch ausschließlich dann mittels Kamera, Sensor,
Detektor und oder Bilderfassung usw. eine Identifikation und/oder Verifikation durchfuhren, wobei nicht zwingend die kameraerfassten Daten 3D sei müssen und eine 2D-erfassung ausreicht. Gleiches gilt in Fällen, wo andere Systeme miteinander kombiniert werden.
Gleiches gilt beispielsweise für andersgelagerte Kombinationen von Verfahrenstechnik und/oder arten der Erfassungen.
Werden Form, Gestalt, Kontur und/oder den Umriß, Oberflächenstruktur (z.B. Relief,
Mikrorelief, Rauheit usw.) von Gebiß, Zähnen, Zahn, Zahnanteilen, Körpers, Kopf, Gesicht, Ohr, Nase, Auge, Arm, Hand, Bein, Fuß, Torso, Finger, Zeh o.a. und/oder ein Teil und/oder ein Ausschnitt hiervon beispielsweise mittels Laserer- und/oder Kamera und/oder Sensor und/oder Detektor- und/oder Bilderfassung o.a. usw. erfasst, sind hier immer auch Merkmale und/oder Informationen und/oder Muster in den Daten, im Bild und/oder der erfassten Struktur zu erkennen, welche zur Identifikation und/oder Verifikation ebenfalls genutzten werden können. Nutzbar sind mindestens bei einem Lächeln 8 und einem Lachen 10 Oberkiefer und /oder Unterkieferzähne, im einen oder anderen Falle auch erheblich weniger oder mehr Zähne, welche entsprechend ihrer Position im Kiefer und Quadraten (I, II, fl, IV) von Zahnärzten von 11 bis 18, von 21-28, von 31-38 und von 41-48 nummeriert (s. Fig. 4: 1= 14, 2= 13, 3=12, 4= 11, 5= vertikale Trennlinie, welche die Quadranten I und II als auch DI und IV voneinander trennt, 6= 21, 7=22, 8= 23, 9=24, 10= 33, 11=32, 12=31, 13=41, 14= 42, 15= 43, 16 = horizontale Trennlinie, welche die Quadranten I und IV als auch II und UI voneinander trennt) werden. Die Lage und Position von den Zähnen und natürliche Trennlinie sind nutzbare Merkmale. Für die Identifikation und/oder Verifikation und/oder zur Datenbildung geeignet und/oder nutzbare Merkmale sind auch beispielsweise die markanten Punkte am Gebiß und am Zahn beispielsweise gemäß Fig. 5 die mesiale Ecke (7) und distale Ecke (4), cervikale Kronenende (Pfeile), Höckerspitze oder Eckzahnspitze (2), Inzisalkante (1), mesiale Seite oder Kante (5), distale Seite oder Kante (3), mesialer Abhang (9), distaler Abhang (8), und gemäß Fig. 6 Approximälkontakte oder Approximalräume zwischen zwei Zähnen (Beispiele 1, 4), die vestibuläre Fläche (7), die MitteUinie und der Approximalbereich zwischen dem Zahnl 1 und 21 (4) stellvertretend für die zwischen mehreren und/oder allen anderen Zähne, PapiUenspitzen des Zahnfleisches (3) hier zwischen Zahn 22 und 23 stellvertretend für weitere, der Cervikal- und/oder Gingivalrand (2), mesiale Ecken von 31 und 41 (5) Inzisalkante oder distale Ecke von 12 (6). Beispielhaft seine einige ausgewählte markante Punkte des Gebisses in Fig. 14 mit Pfeilen versehen. Die Verbindungen von Eckpunkten und oder markanten Punkten miteinander bilden Linien beispielhaß ausgewählt in Fig. 8, 9, 12 zu erkennen. Auch können Punkte eines Zahnes mit Punkten eines benachbarten oder nichtbenachbarten Zahnes verbunden werden Beispielhaft seien als zur Identifikation und/oder Verifikation nutzbare Strukturlinien (natürfiche oder markante Linien) und oder Verbmdungslinien, welche auf markanten Punkten beruhen, genannt: Approximalseiten, Inzisalseiten, Höckerabhänge, Zahnäquator, Zahnkronenachse,
Verbindung zwischen Höckerspitzenn Eckpunkten und/oder Zahnfleischpapillen und oder - spitzen benachbarter oder nicht benachbarter Zähne untereinander oder miteinander, zusätzlich können durch Ergänzung weiterer markanter Punkte weitere Linien gebildet werden. Konstruierte Punkte entstehen dann, wenn sich Verbindungslinien oder verlängerte Linien,
Zahngrenzen, Grenzstrukturen, Kontinuitätsänderungen oder -Unterbrechungen und oder andere
Verbindungslinien und/oder konstruierte Linien real oder im übertragenen Sinne miteinander und/oder untereinander überkreuzen (Fast jede Zeichnung enthält solche Punkte). Fig. 10, 11, 19,
20, 21, 40 zeigen beispielhaft ausgewählte Linien. So entstandene Kreuzungspunkte oder konstruierte Punkte lassen sich so ebenfalls verbinden.
Real oder im übertragenen Sinne verbunden werden können alle Punkte miteinander also auch (natürliche) markante Punkte, Kreuzungspunkten, konstruierte Punkte untereinander als auch miteinander. Neu entstehende Verbindungslinien schaffen neu konstruierte Kreuzungspunkte, sodaß immer neue Generationen und/oder Hierarchien von Verbindungslinien und Kreuzungspunkten oder konstruierten Punkten entstehen können und ebenfalls nutzbar sind, sodaß durch Konstruktionen potentiell anwendbare Punkte und Linien in ihrer Anzahl gegen unendlich gehen könnten. Gleiches gilt für Winkel, Flächen und Räume gebildet durch Linien und/oder Punkte. Die Zahnfläche kann in einer anspruchsgemäßen Variante weiter aufgeteilt werden. Fig. 8-12 sind ausgewählte beispielhafte Zeichnungen hierzu. Diese Aufteilung kann auch über z.B. die Zahnkronenachse und/oder horizontaler Trennlinie, den anatomischer Äquator (größte Zirkumferenz zur Kronenachse) usw. realisiert werden.
Punkte, welche, bereits in erster Generation konstruiert, genutzt werden, halten so exponentiell mehr nutzbarer Punkte und Verbindungslinien und in Folge mehr Winkel, Flächen, Räume und Muster für jede Generation bereithält
Winkel beispielsweise zwischen natürlichen Kanten (beispielsweise zwischen mesialen und distalen Höckerabhängen, mesialen Approximalseiten und Inzisalseiten, den Approximalseiten, den Inzisalseiten, distalen Approximalseiten und Inzisalseiten, mesialen Approximalseiten und dem mesialseitigen Abhängen, der distalen Approximalseite und der distalseitigen Abhang, der mesialen Approximalseite und dem distalseitigen Abhang, der distalen Approximalseite und der mesialseitigen Abhang (ausgewählte Beispiele in Fig. 5, 7) benachbarter und/oder nichtbenachbarter Zähne (Fig. 7, 13) und/oder Linien und/oder Verbindungslinien und/oder auch konstruierten Linien oder Verbindungslinien (ausgewählte Beispielslinien Fig. 8, 9, 10. 11, 12) sind zur Identifikations- und Verifikationszwecken nutzbar. Eine oder mehrere Flächen zwischen diesen natürlichen Kanten, markanten Linien, konstruierten Linien usw. und/oder durch Verbindung von markanten und/oder konstruierten Punkten sind ebenfalls zur Identifikation und Verifikation ebenso nutzbar wie neu konstruierte Punkte. Die Nutzung von ein oder mehreren Linien oder Geraden kann über deren Länge, von einem oder mehren Winkel(n) und Fläch(en), Räume über deren Größe erfolgen. Größe der Fläche und Räume, Winkel, Längen der Linien können so mit der Kenntnis beispielsweise des Objekt- Objektivabstandes oder Objekt- Apparaturabstandes durch die Referenzdatenerfassung, im Identifikations- und/oder Verifikationsfalle genutzt, als Merkmale dienen. Hier kann durch Bildrekonstruktion (beispielsweise Zoom, Vergrößerung, Verkleinerung, Rotation usw.) diese Größen rekonstruiert werden und somit absolut genutzt werden. Verzerrte Winkel, Linienlängen und/oder Flächen können über Kenntnis der Gesamtstruktur rekonstruiert werden oder bei der Rekonstruktion des Merkmalbereichs und/oder bei beispielsweise dem zur Deckung bringen des neuerfassten Bildes mit dem Referenzbild helfen.
Stimmen in einer weiteren Anspruchsvariante Winkel, Linien und /oder Flächen mit dem Vorbild überein, muß z.B. bei positiver Identifikation und/oder Verifikation der Kopfumriß und/oder Ausschnittsumriß und/oder die Merkmale auch in Zusammenhang mit dem Gesamtbild und/oder den Merkmalsproportionen usw. übereinstimmen. Eine weitere anspruchsgemäße Variante nutzt die Strukttirproportionen und/oder die Relationen zwischen definierten Linien, Kanten und/oder Verbindungslinien und/oder Relationen zwischen definierten Winkeln und/oder die Relationen zwischen definierten Flächen und/oder Ebenen und/oder Räumen und/oder untereinander. So seien beispielsweise die Relation der Länge von zwei oder mehreren gleicher oder unterschiedlich beispielsweise oben benannter Kanten ein und desselben Zahnes, unmittelbar benachbarter und/oder nichtbenachbarter Zähne, Strecke zwischen den Niveauunterschieden benachbarter oder nicht benachbarter (Inzisal)kanten, Längen konstruierter Linien und oder Verbindungslinien zwischen markanten und/oder konstruierten Punkten, Winkel und/oder und oder Flächen und/oder deren Relation zwischen zwei oder mehrerer gleicher oder unterschiedlich oben benannter Kanten und/oder Seiten ein und desselben Zahnes, unmittelbar benachbarter und/oder nichtbenachbarter Zähne und/oder Kieferareale und/oder konstruierten Linien und Verbindungslinien miteinander und/oder mit markanten Linien und/oder Kanten, genannt. Welche Linien, Winkel, Ebenen oder Flächen, Räume, wie viele, wie die Flächen aussehen, z.B. wie viele Ecken sie besitzen, wie viele markante natürUche und oder konstruierte Punlcte genutzt werden usw., kann beispielsweise je nach Sicherheitsbedürfhis des Einsetzenden dieser Verfahren eingestellt werden. Je mehr Punkte, Linien, Winkel und/oder Flächen und/oder Räume eingesetzt werden, umso genauer das Ergebnis der Identifikation und/oder Verifikation aber auch umso mehr Datenmengen müssen verglichen werden und umso länger dauert der Erfassungs-, Such-, und Abgleichsvorgang.
Daten könne beispielsweise Komprimiert werden indem Daten zusammengefasst werden können. Beispielsweise können Punlcte zu Linien, diese zu Flächen und diese zu Räumen und diese zu Mustern zusammengefasst und so die Datenmenge klein gehalten werden. Mindestens ein Merkmal und /oder Punkt und/oder Winkel und/oder Fläche und/oder Raum bilden (Vorteil: u.a. Datenkomprimierung) so in einer weiteren Verfahrensvariante Relationen und Muster, welche ebenfalls zu Identifikations- und/oder Verifikationszwecke nutzbar sind.
Eine anspruchsgerechte Variante arbeitet mit einem konfektioniert für alle Merlcmalserfassungen gleichen Gitternetz (Ausschnitt Fig. 24), welches real oder imaginär über die Daten über das Bild und oder den Erfassungsausschnitt und/oder das zu bewertenden Merkmal gebracht hier eine
Einteilung vornimmt. Es orientiert sich z.B. an ein oder mehreren markanten Punkten des
Gebisses und/oder eines Zahn(-anteils) und/oder eines Gesichtes und /oder Gesichtsanteils und/oder Körpers und/oder Körperanteils. Wobei sich die Ausrichtung des Gitters auch entweder über mindestens einem definierten Kreuzungspunkt und oder einem definierten Punkt innerhalb eines definierten Gitterelementes an mindestens einer markanten Punkt, Merkmal, Merkmalgruppe, und/oder Merkmalbereichs und/oder konstruierten Punkt orientieren kann. Der Bildinformationsgehalt von Gitterelementen beispielsweise über Merkmalshäufung und/oder Anzahl von Kontinuitätsveränderungen und/oder Kontinuitätsunterbrechungen kann so beispielsweise über Farbsättigung der Grautöne, Farbdichte, Pixeldichte, Bits o.a. usw. innerhalb eins Gitterelementes zur Identifizierung und/oder Verifizierung genutzt werden. Der Bildinformationsgehalt über Merkmalshäufung und/oder Anzahl von Kontinuitätsveränderungen und/oder Kontinuitätsunterbrechungen beispielsweise über Farbsättigung der Grautöne und/oder über die Häufung von abgegriffenen Punkten usw. kann auch zur Merkmalsdetektion genutzt werden und bedarf in einer weiteren Verfahrensvariante nicht zwingend eines Gitters oder Linien usw.
Ein System und oder Apparatur kann Daten und/oder Bildinformation über Flächen, Räume, Gitterelemente, Bereiche beispielsweise durch ihren Informationsgehalt (z.B. über Farbtöne, Graustufung, Mengen und Dichte der Abgreifpunkte usw. z.B. der Bildflächen, Pixel usw.), Aussagen liefern zu Stnikturen und markante Punkten und/oder Merkmalen. Mindestens eine Bilderfassungseinheit z.B. Kamera, Detektor und/oder ein Sensor, mit oder ohne Beleuchtung, und/oder Laserscaneinheit usw., Bild und/oder Datenverarbeitung und/oder Datenanalysen sind notwendig. Durch Anwendung eines neuronalen Netztes kann die Merkmalserkennung und -findung und oder Verarbeitung durch das System verbessert werden.
Eine weitere anspruchsgemäße Variante nutzt hierfür die entstehenden Kreuzungspunkte zwischen markanten Kanten, Linien, konstruierten Linien und/oder Verbindungslinien mit Horizontallinien und/oder Vertikallinien des Gitternetzes und/oder auch die neuen konstruierten Linien zwischen neu konstruierten K-reuzungspunkten und/oder Winkel und/oder Flächen und/oder Muster die hierdurch entstehen. In der Zeichnung weisen Pfeilen auf einige ausgewählte durch Horizontallinien (Fig.22) und Vertikallinien (Fig. 23) gekreuzte Strukturen, welche auch zur Konstruktion von Verbindungslinien und/oder in Relation der Punkte zueinander zur Identifikation und/oder Verifikation nutzbar sind. Fig. 18 zeigt hier drei Verbindungsbeispiele
(gestrichelte Linien) von nahezu unzähligen Möglichkeiten
Ein individuelles Gitternetz, welches seine Horizontallinien beispielsweise an Incisalkanten gleichbezeichneter (z.B. mittlere obere Schneidezähne, seitliche oder Schneidezähne, erste oder zweite Prämolaren oder Molaren usw.) (Fig. 15) und/oder ungleichbezeichnete Zähne und/oder deren Mittelpunkte an markanten oder konstruierten Punkten usw. und/oder seine Vertikallinien beispielsweise an den Approximalräumen und oder mesialen und/oder distalen Kanten/Linien
(ausgewählte Beispiele in Fig.16) und/oder an markanten oder konstruierten Punkten,
Kronenmitten, Kronendrittelungen usw. orientiert (ausgewählte Beispiele in Fig. 18, 19). Die individuellen Linien besitzen individuelle Abstände voneinander (ausgewählte Beispiele in Fig.17) und es entstehen hier individuelle Winkel zwischen Linien. Ausgewählte Beispiele in Fig. 19. Individuelle Informationen sind hieraus abzuleiten.
Für die individuellen Linien sowie das individuelle Gitternetz können dieselben Aussagen wie für das konfektionierte Gitternetz gelten. Zusätzlich lassen sich Informationen durch die Kreuzung der verlängerten Gittemetzlinien mit dem Rand des Gitternetzes und/oder des Bildes und/oder mit vorgegebenen definierten Ebenen oder Linien erkennen. Gleiches gilt für individuell konstruierte und/oder markante Linien. Die Information ist ähnlich die eines Strichcodes auf dem Rand des Gitters und/oder Bildes und kann über entsprechende Technik beispielsweise das erfassen von hell und dunkel gelesen werden. Die Linien können in der 3D-Version auch Ebenen sein
Alles bisher gesagte läßt sich auch miteinander Kombinieren oder ist kombinierbar. Beziehungen und Relationen des restlichen Körpers und/oder ein oder mehrerer persönlicher Merkmale zu einem Zahn(-anteil), den Zähnen und/oder dem Gebiß können ebenfalls über markante Punkte konstruierte Punkte, Verbindungslinien, konstruierte Linien, Winkel, und/oder Flächen hergestellt werden. Dies ist absolut und/oder relativ möglich. Markante und/oder konstruierte Punkte, Verbindungslinien, konstruierte Linien, Winkel, und/oder Flächen und/oder Räume bilden für die Identifikation und/oder Verifikation nutzbare Relationen, Muster, Daten Informationen o.a.. Nutzbar sind sowohl Merkmale, markante Punlcte, konstruierte Punkte, Verbindungslinien , konstruierte Linien, Winkel und/oder Flächen, Relationen und /oder Muster ausschließUch im Bereich des Kopfes, Gesichtes, Ohres, des restlichen Körpers und/oder von Teile hiervon als auch die Relation dieser zu denen des Gebisses.
Sowohl individuelle dentalbasierende Nertikallinien kreuzen markante Gesichtstrukturen und diese besitzen Abstände oder Abstandsrelationen beispielsweise zum Gesichtsumriß (Fig. 25, 26 ausgewählte Beispiele). Gleiches gilt für dentalbasierte Horizontallinien (Fig. 15, 19). Fig. 25 zeigt beispielhaft einige dentalbasierte Nertikallinien und ausgewählte Kreuzungspunkte mit natürlichen Strukturen (Pfeile) und Fig. 26. Längen von mehreren Loten auf Nertikallinien, welche zum Gesichtsumriß oder markanten Punkten Kontakt haben. Fig. 26 und Fig. 27 zeigen weiterhin einige wenige ausgewählte diagonal verlaufende Verbindungslinien zwischen Kreuzimgspunkten. Auch können Vertikallinien des Gesichtes (gesichtsbasierende
Vertikallinien) (Beispiele Fig. 29) alleine und/oder mit dentalbasierenden Vertikallinien
(Beispiele Fig. 28) als auch mit Körperbasierenden Vertikallinien kombiniert werden.
Vertikallinien werden gebildet durch ein Lot, welches durch einen markanten Punkt und/oder Merkmal zieht. Vertikallinien bilden ebenfalls Relationen zueinander besitzen. Gleiches gilt für
Horizontallinien und für Gitternetze. Ebenso können dentalbasierende Vertikallinien (1) mit gesichtsbasierenden Horizontallinien (2) ein Gitternetz und/oder Kreuzungen bilden. Fig.27 zeigt zusätzlich einige konstruierte Verbindungslinien und Kreuzungspunkte zwischen natürlicher
Struktur und gesichtsbasierender Horizontallinie (5), Gesichtsstraktur und dentalbasierter Vertikallinie (4), Verbindungslinien von einer Kreuzung von Vertikallinie und Horizontallinie zu einem weiteren (6), Kreuzungspunkt zwischen Verbindungslinie von zwei markanten Punkten und einer Vertikallinie (8) Kreuzung einer Verbindungslinie mit einer markanten Linie (7). Für das Gesicht läßt sich anhand von markanten Punkten in ein individuelles Gitternetz erzeugen, wobei die Linien alle symmetrischen Merkmale und/oder mindestens aber eines durchqueren muß (3 s. ausgewähltes Beispiel der oberen Horizontallinie), um merkmalsdefiniert zu sein. Fig. 44 zeigt ein mögliches individuelles Gitter, für das im übrigen das bereits gesagte zum individuellen Gitter im Zahnbereich gilt. Ebenfalls gilt dasselbe für die konstruierten Linien und/oder Verbindungslinien und/oder das Gitternetz im Bereich oder Teilbereichen des Körpers, Kopfes und/oder Gesichtes und/oder der Kombination dieser und/oder Teile dieser mit dem Gebiß und/oder Teilen hiervon.
Die gestrichelten Diagonalen in Fig. 43 stellen ausgewählte Verbindungslinienbeispiele dar. Das Gitternetz kann sowohl gleichmäßigere Linienrelationen als auch ungleichmäßig (Fig. 44) über den Betrachtungsraum verteilte Linien (Fig. 45) besitzen. Vertikallinien können sich an Merkmalen oder markanten Punkten orientieren (Fig. 44) und/oder an Kreuzungspunkten beispielsweise der Horizontallinien mit Körpersttukturen (Fig. 45). Einige ausgewählte Kreuzungspunkbeispiele in Fig. 46 aufgezeigt sind die, die durch die Kreuzung einer gesichtsbedingten Horizontallinie mit einer Gesichtskontur (1), mit einer Gesichtsstruktur (4), Kreuzung einer gesichtsbezogenen Nertikallinie mit einer entsprechenden Horizontallinie (2), einer gesichtsbezogenen Horizontallinie (3) und Nertikallinie (5) mit einer Verbindungslinie zwischen einem markanten Punkt oder einer gesichtsbezogenen Horizontallinie mit der Approximalpapille zwischen Zahn 11 und 21 entstanden sind.
Weitere Daten können gewonnen werden beispielsweise über die Länge oder Relation der Augenpupille (Fig. 30), dem inneren Augenwinkel (Fig. 31), dem äußeren Augenwinkel (Fig. 32), dem seitlichen Nasenflügel und/oder Subnasale (Fig.33), markanten Ohrpunkten (Fig. 34) zu einem oder mehreren markanten (z.B. Eckpunlct oder Endpunkt von Zahnkanten oder -Seiten, Aproximalpunkte, ) und/oder konstruierten Punkt auf den Zähnen. Mit den Relationen beispielsweise der AugenpupUle zu aUen anderen markanten Orten im Gesicht (ausgewählte Beispiele Figur 29, s. Pfeile) z.B. mit de Augenwinkeln zu den Zähnen ist die Örtlichkeit der Pupille im Raum (Pupillenstellung) zu ermitteln. Durch Aufforderung eine Markierung der
Erfassungsapparatur zu Fixieren oder durch einen Spiegel in die der zu Identifizierende und/oder
Verifizierende schauen soll ist über die Pupillenstellung die Blickrichtung und/oder Kopf und/oder Körperstellung zu erfassen und die Möglichkeit geschaffen, Körperrelationen oder Merkmalsrelationen auch zueinander zu rekonstruieren.
Länge und Relation der Bipupillarlinie (Verbindungslinie zwischen beiden Augenpupillen) zu
Punkten und/oder Linien (z.B. Ihzisalkanten und/oder anderen Zahnmerkmalen, Relation der
Nasenspitze zu den Zahnmerkmalen, Abstand oder Relation eines oder mehrer Punkte des
Gesichtes (z.B. unterer oder oberer Orbitarand usw.) zu einem oder mehreren der Zahnmerkmale. Hierbei kann die Länge gemäß der Pogrammvorgabe sowohl vom Lot (ein Beispiel Fig. 41 und mit Abstandsdifferenzen Fig. 42), von der kürzesten Verbindungslinie oder der Längsten und/oder einer durch Punkte vorgegebene definierten Linien sowie entsprechende Relationen, Winkel, Flächen, Räume und/oder Muster genutzt werden. Einige markante Punkte des Gesichtes sind in Fig. 29 durch Pfeile markiert. Sie und/oder ihre Relationen zueinander und/oder zum Gebiß und hieraus entstehenden Linien, Winkels, Flächen, Räume sind für anspruchsgemäße Verfahrensvarianten einsetzbar. Fig. 30, 31, 35, 36, 37, 38, 39 zeigen einige ausgewählte Varianten. Eine Verlängerung dieser Linien ist in Fig. 40 zu sehen und erlaubt einen Informationsgewinn. Zusätzliche Kreuzungspunkte auch mit dem Bildrand zusätzliche Linien, Winkel, Flächen und Räume entstehen welche ebenfalls nutzbar sind. Kreuzungspunkte mit einem Bild und/oder Erfassungsausschnittrand oder mit ein/oder mehreren definiert gelegten Vertikal-Horizontallinien und oder Gitterlinien besitzen einen Informationsgehalt. Es stellt sich so beispielsweise durch Erfassung von hell und Dunkel (Linienkreuzung entspricht beispielsweise einem Dunkelpunkt) und/oder Erfassung von Kreuzungspunkten und/oder einer Relation von Kreuzungspuhkten auf einer Linie eine weitere anspruchsgemäße Variante als zur Bildung vom Datengrundlagen dar.
Das Ohr (Fig. 47) enthält die fossa triangularis (1), Crura antihelicis (2), Incisura anterior (3), Tragus (4), Cavitas conchalis (5), Incisura intertragica (6), Lobulus aurikularis (11), Antitragus (12), Antihelix (13), Helix (14), Scapha (15) und die Cymba conchalis und Crus helicis unterhalb der Crura antihelicis und oberhalb der Cavitas conchalis als Beispiele zur Identifikation und/oder Verifikation nutzbare Strukturen. In Fig. 48 weisen einige ausgewählte beispielhafte Pfeile auf Bereiche oder Punkte welche oder ein Teil dieser zu o.g. Zweck in anspruchsgemäßen Verfahrensvarianten Verwendung finden. Für den FaU des Einsatzes von Horizontaüinien, Vertikallinien, Verbindungslinien, konstruierten Linien, Gitternetze individueU oder konfektioniert usw. gilt das bereits gesagte auch hierfür. Siehe hierzu beispielhaft Fig.49, 50, 51, 52, 53. Das Merkmale, konstruierte Punkte, markante Punkte, Verbmdungslinien, konstruierte Linien, Winkel, Flächen, Räume auch von anderen Perspektiven aus nutzbar sind oder gemacht werden können ist in Fig. 54, 55, 56, 57, 58, 59. Eine Linien von markanten oder definierten Zahnpunkten kann sowohl ein Lot oder aber auch in definierten und/oder durch Pogrammvorgabe gewählten Winkeln geschehen. Ebenfalls entstehen durch die Kreuzung von Linien mit Strukturen, natürlichen Linien oder konstruierten Linien Kreuzungspunlcte welche ebenfalls weiter genutzt werden können. Fig. 60, 61, 62 sind ausgewählte Beispiele hierfür. Dasselbe ist auch möglich mit allen anderen markanten und/oder konstruierten und/oder definierten Punkten. Grundsätzlich sind alle natürlich vorgegebenen, markanten und/oder definierten und/oder Punkte, Kreuzungspunkte und/oder per definitionem konstruierten Punkte und/oder Merkmale des Körpers, Kopfes, Gesichtes und/oder Gebisses und/oder Teile in ihrer Relation zueinander in dem Muster das sie bilden können und/oder der Relation zur Umgebung und im Raum zur Identifikation und/oder Verifikation nutzbar und/oder alle miteinander verbindbar. Weiterhin können alle diese Verbindungen, konstruierten Linien und /oder natürlichen Sfrukturlinien ebenfalls in Relation zueinander und zur Umgebung und im Raum sowie das durch sie gebildete Muster zum gleichem Zwecke genutzt werden und durch sie gebildete Winkel, Flächen und/oder Räume, Muster zum Zweck der Datenbeschaffung bzw. zur Gewinnung von Daten und/oder Informationen zur Identifikation und oder Verifikation herangezogen und durch sie neue nutzbare Kreuzungspunkte konstruieren werden.
Auch stehen alle Punkte, Linien, Winkel und/oder Flächen mindestens aber zwei von denen untereinander und miteinander in Relation und/oder bilden ein Muster. Relation und/oder Muster sind dermaßen individuell und so ebenfalls anspruchsgerecht einsetzbar und/oder können zur Datenbeschaffung herangezogen werden. Die einzelnen Zeichnungen bzw. Figuren sind Beispiele und zeigen auch nur beispielhaft einige der unzähligen Möglichkeiten, Gebiß Zähne usw. zur Identifikation zu nutzen und auch die Teile und einzelnen Elemente innerhalb der Zeichnungen und Figuren sind stellvertretend ausgewählte Beispiele die illustrierend angegeben, so also ergänzt und/oder durch andere ersetzt werden können, welche ebenfalls den Schutz dieser Anmeldung genießen sollen. Es versteht sich, dass die oben beschriebenen Ausfuhrungen zu den Punkten, Linie, Winkeln, Flächen, Ebenen, Räumen und Konstruktionen, Merkmalen usw. nur illustrativ für die Anmeldung sind. Andere Ausführungen, Konstruktionen, Merkmale, markante oder konstruierte Punkte usw. können leicht von Fachleuten definiert, entworfen oder gefunden werden, die die Prinzipien eines Erfϊndungsteils dieser vorliegenden Anmeldung verkörpern und somit in den Schutzbereich hiervon fallen. Informationen und/oder Daten können aus vorstehenden Aussagen gewonnen werden und dem Zweck der Identifikation und Verifikation direkt oder über eine weitere Verarbeitung auch evtl. Codierung zugeftihrt werden.
Mit einem Lächeln werden mindesten 8 mit einem Lachen mehr Zähne für den o.g. Zweck freigelegt. Hieraus ergibt sich alleine durch die Linienmerkmals- und Winkel- und Flächenkombinationen eine Wahrscheinüchkeit zu einer Übereinstimmung von 1 : 10100
Die Wahrscheinlichkeit jedoch insbesondere beim Laserscan und/oder der Kameraanwendung und/oder Bilderfassung und/oder -Verarbeitung zwei gleiche Zähne von verschiedenen Individuen zu erhalten wandert je nach Anzahl der Abgegriffenen Punkte z.B. 720 Mill. Bildpunkte bei einem Sekundenscan, wobei jeder Bildpunkt mit jedem Bildpunkt in Relation steht, auf 1: unendlich -1. Die Gebißerkennung enthält niindestens 100000 Merkmalspunkte eventuell mit weiteren Unterpunkten.
Die Erfassung von beispielsweise Zahnfoπn, Umriß, Umfang, Volumen, Kontur, Größe, Form Teilform, Struktur, Kronenwölbung, Radius, Zahnstellungen, Gebißbesonderheiten,
ZahnsteUungsfehler tbeispielsweise Zahnkippungen, -neigungen, -rotationen, -lücken, fehlenden
Zähnen usw.), Vorhandensein von Zähnen, Abstand, Anordnung, Zahnzahl, Neigung, Höhe,
Breite, Kantenverläufe, Relationen, Verhältnisse, Zahnquerschnitt, FormanormaHen,
Verzahnungen mit den Gegenkieferzähnen, Relation Oberkiefer zu Unterkieferzähne, Zahngröße, Größe des Interdentalraumes, Form und Größe des Zahnbogens, Stufen zwischen den Inzisalkanten usw. ist ebenfalls möglich sowohl an künstlichen und oder natürlichen Gebissen, Zähnen, Zahn, Zahnanteil , Zahnfleisch usw. und/oder Teüen hiervon. Die im Text vor- und/oder nachgenannten Erfassungen können z.B. mit Laser und/oder Kamera und/oder Sensor und/oder Detektor und/oder Bilderfassung usw. über Kontakt und/oder Non-kontakt (ohne Kontakt) erfolgen usw. mit oder ohne Beleuchtung erfolgen.
Weiterhin können mit allen Erfassungsmöglichkeiten (z.B. Laser, Kamera, Sensor, Bilderfassung usw.) Beziehungen und Relationen von Daten des restUchen Körpers und/oder ein oder mehrerer persönlicher Merkmale zu einem Zahn(anteil), den Zähnen und/oder dem Gebiß hergestellt werden. Selbst eine Veränderung der halben oder dreiviertel der Gebißfront oder mehr beispielsweise durch Extraktionen oder Zahnersatz usw. könnte bei derartiger Walπscheinlichkeitsverhältnissen als tolerabel eingestuft und der Restzahnbestand weiterhin zur Identifikation und Verifikation genutzt werden. Selbst kann die Identifikation/Verifikation an einem Zahn gar einem Anteil hiervon mit hoher Treffsicherheit durchgeführt werden. Aus dem Grunde würde es auch vollkommen ausreichen, nur ein Teil der Daten zu nutzen oder diese zu Komprimieren oder integrieren, nicht zuletzt auch, um eine Datenflut zu vermeiden.
Auch wird zur Vermeidung der Datenflut als sinnvolle Verfahrensvariante vorgeschlagen, die ausschließlichen das Lebewesen oder die Person charakterisierenden Merkmale also die Besonderheiten, die nur dieses bzw. diese besitzt als Referenzdaten und/oder neuerfasste Daten des Identifikations- und/oder Verifikationsfalle zu erfassen und/oder neu zu erfassen und oder zu vergleichen. Auch können solche Besonderheiten entsprechend vorgenanter Identifikationsmerkmale helfen bei der Auswahl der Referenzdaten und so vom Suchsystem genutzt werden. Daten könne beispielsweise auch Komprimiert werden indem Daten zusammengefasst werden. Mit eine Farbverarbeitung und/oder -bestimmung mit vergleichbarem Ziel für eine Datenvorauswahl aus den Referenzdaten nicht zuletzt aufgrund der mit zunehmenden Einsatz von Identifikationsmethoden und/oder Verifikationsmethoden steigenden Datenmenge wird in einer weiteren Verfahrensvariante begegnet. So kann beispielsweise auch alleine der herkömmliche Irisscan, durch eine Farbkamera mit
Farbverarbeitung oder -erkennung ergänzend und/oder kombiniert und/oder durch eine
Farbkamera durchgeführt werden, um über die Farberfassung und so eine Farbvorauswahl zu treffen. Diese Farbvorauswahl beschleunigt die Auswahl der Iris-Daten., welche der Irismerkmale zugeordnet sind und stellt eine anspruchsgemäße Variante dar. Gleiches gilt für andere Körperfarben z.B. von Haut Zahn, Gesichts, o.a. Auch können die Farbdaten z.B. der Iris und/oder von Zähnen usw. die Datenauswahl von anders gewonnenen Daten z.B.
Gesichtserkennungen, Fingerarkennung Spracherkennung usw. o.a.
Farberfassungen können ebenfalls mittels Farbmessapparaturen und/oder Sensoren und/oder - Detektoren und/oder über Kamera- und/oder Bilderfassung ohne oder mit Beleuchtung o.a. der zu Identifikation oder Verifikation für ein oder mehrerer der Ansprüche und oder für die Farberfassung herangezogenen Fläche erfolgen.
Eine Kombination der Farberfassung und Nutzung dieser mit einem oder mehrerer der Patentansprüche stellt eine anspruchsgerechte Variante dar. So kann beispielsweise der Irisfarbe und/oder anderen Körperfarben (Haar, Haut usw.) auch Zahnformdaten zugeordnet werden, welche in Folge evtl. auch durch die Farbe vorausgewählt und/oder zur Identifikation/und/oder Verifikation herangezogen werden oder es werden Zahnfarben für die Vorauswahl von Irisdaten oder Körperformdaten oder Gesichtsmerkmalsdaten usw. genutzt usw. Auch könne Farbdaten von dem gleichen oder einem anderen Merkmal beispielsweise Formdaten codieren, hierüber Informationen besitzen und/oder stellvertretend Merfür stehen ebenso wie beispielsweise Daten von Form, Umriß eines Merkmals die eines anderen codieren und/oder hierüber Informationen besitzen und/oder stellvertretend hierfür sein kann. Auf diese Weise könne Formdaten von Zahnmerkmalen mit Formmerkmalen des Gesichtes oder eine anderen Körperteils durch beispielsweise eine Übersetzung verglichen werden und so dem Zweck der Identifikation und/oder Verifikation dienen..
Das bisher Erwähnte gilt patentgemäß ebenfalls für unbelebte Objekte, Gegenstände usw. Sind diese durch Handarbeit entstanden, besteht Nachvollziehbarerweise die Individualität der Form des Umfanges, Umrisses, Merkmale, Farbe usw. in der Individualität der Handführung oder Handwerkszeugfunrung (z.B. Kunstwerk usw.), welche beispielsweise von der Tagesform, Emotionalität, des Gestaltungswillen usw. des Erstellenden abhängt. Aber selbst bei fabrikmäßig, konfektioniert erstellten Produkten ist eine Individualität einer Produkteinheit, welche sich durch Variationsmerkmale von einer weiteren selbst gleichbezeichneten abhebt, gegeben und kann durch diese zweifelsfrei über oder angelehnt an entsprechend genannte Verfahren mit entsprechenden vorgenannten Mitteln identifiziert und/oder verifiziert werden. In Entfernungen können weiterhin aufgrund des Umrisses nicht nur Personen sondern z.B. Automarken, Flugzeug-, Schiffstypen, Bomben- oder Minen-, Feuerwaffentypen oder ganz bestimmte Gegenstände, welche individuell bei der Referenzerfassung benannt, charakterisiert oder mit Informationen oder nur mit einem Code belegt wurden, an der Form, ihren Umriß usw. identifiziert, verifiziert, erkannt oder wiedererkannt werden.
Beispielsweise Personen, Lebewesen, Gegenstände, Objekte usw. können patentgemäß an sich oder bei sich ein Merkmal, Objekt, Markierung o.a. tragen und oder mitführen bzw. angebracht haben oder dieses enthalten, welches und/oder welche aus größerer Entfernung beispielsweise dieses Lebewesen/diese Person und/oder das Objekt, den Gegenstand usw. insbesondere über laserbasierten und/oder ka era-, Sensor-, Detektorbasierende, Bilderfassende usw; Datenerfassung identifizieren und/oder verifizieren läßt. Gleiches gilt für die Datenerfassung beispielsweise ausschließlich mittels Bilderfassung und/oder Kamera und/oder Sensor und/oder Detektor usw.. So kann beispielsweise im miUtärischen Einsatz Freund und Feind unterschieden, einzelne Personen identifiziert oder verifiziert, werden. Bomben oder Minen an ihrer Markierung oder ihrer Gesamtform usw. erkannt werden. Das Nummernschild oder eine Markierung z.B. am Kraftfahrzeug ermöglicht seine Erkennung und somit die Feststellung seines Halters. Eine Kombination dieser Erfassung entlang z.B. einer Autobahn oder Autostraße, eines Tunnels oder von Brücken bei der Zufahrt und bei der Abfahrt solcher Strecken ermöglicht anspruchsgemäß eine Kontrolle und des Gebrauches und Ermittlung des Ausmaßes der Benutzimg derartiger Einrichtung z.B. im Sinne einer Gebührenerhebung und Berechnung dieser und bietet einen Beitrag zur Mauterfassung. Wird ein vollständig gescanntes und/oder erfasstes Merkmal beispielsweise ein Nummernschild in Form von Referenzdaten erneut gescannt und/oder erfaßt, reicht hierbei auch ein Teilscan oder Teilerfassung beispielsweise eine Linie, Teillinie, ausschnitt auf dem Nummernschild aus, welche folgend in Daten übersetzt, in Deckung gebracht werden kann. Wird beispielsweise das Nummernschild quer, also in waagerechter Richtung gescannt ist die Linie auf einer bestimmten Höhe und greift die Daten wie ein Strichcode, der nun mit den Referenzdaten verglichen wird. Das Merkmal kann aber auch in aüen anderen Richtungen abgegriffen werden. Ein derartiges System ist günstig, die Kraftfahrzeuge brauchen nicht zwingend mit einer Empfangs- Sendeanlage wie beispielsweise auf GPS- basierenden oder auf Radiowellen fußenden Mautsystemen bestückt werden, das System ist somit Landesautark und nicht von internationalen Satelliten abhängig, Manipulationssicher aufgrund des fehlenden Zugangs des Fahrzeugführers zu der Anlage. Allerdings ist auch eine Kombination mit anderen System (z.B. GPS, Radiowellen usw.) möglich. Eine derartiges System besteht aus Lichtgebern und -empfängem und einem Datenerzeugungs- Datenverarbeitungssystem. Ein solches Lichtgeber- Empfangersystem ist an jeder Auf- und Abfahrt z.B. von mautpflichtigen Autobahnen oder in unmittelbarer Beziehung zur mautpflichtigen Tunnel oder Brückenanlage aufgestellt. Die Verarbeitungseinheit kann von dieser Erfassungsanlage körperlich und/oder örtlich getrennt beispielsweise zentral und/oder dezentral mit Anteilen im Bereich der Erfassungsanlage eingerichtet sein, wobei die Aufteilung der Datenerzeugung und Verarbeitungseinheit patentgemäß offen gelassen ist und somit an jeder Stelle des dem Sensor nachgeschalteten Niveau der Datenerfassung und Verarbeitung geschehen kann. Keine Oberfläche gleicht einer weiteren und kein Ausschnitt einer Oberfläche gleicht einem weiteren im Bereichen , welche den menschHchen unbewaffneten Auge nicht mehr zugänglich sind, selbst wenn es sich bei der Oberfläche von zwei gleichbezeichneten oder gleichartigen oder gleichchargigen Objekten oder gar demselben Objekt an unterschiedlichen Stellen visuell gleich wirkenden Bereichen handelt. Selbst Oberflächenausschnitte, zuvor in Form von Referenzdaten erfasst und eventueU beispielsweise mit einer Kennung , Information, Code usw. versehen, kann nach einer weiteren Datenerfassung und entsprechender Datenverwandtschaft innerhalb des
Toleranzbereiches identifiziert oder verifiziert werden. Das gleiche gilt beispielsweise für
Objekte, Gegenstände, Materialien Stoffe usw. Das derartig variationsreiche Mikrorelief, die Variation der Rautiefen, die Variation der Form der positiv oder Negativanteile dieses Reliefs usw. sind derart charakteristisch, daß sie insbesondere für eine laserbasierte Identifikation und/oder Verifikation herangezogen werden können. Eine künstliche Markierung als objektindividuelles Kennzeichen (beispielsweise Gravur, lasergestützte Markierung, usw.) zur Identifikation oder Verifikation ist in einer weiteren patentgemäßen Variante beschrieben Das Kennzeichen kann einen Code, Informationen über das Produkt, usw. enthalten.
Eine anspruchsgemäße Markierungsvariante kann mit unbewaffnetem Auge unsichtbar oder sichtbar vom uneingeweihten Personen im Inhalt nicht oder doch versteh- oder identifizierbar sein. Ein solches Kennzeichen oder Markierung soll die Echtheit beispielsweise des Dokumentes und /oder die Identifikation oder Verifikation seines Trägers in einer anspruchsgemäßen Weise ermöglichen.
Die Referenzdaten der anspruchsgemäßen Verfahren müssen nicht zwangsläufig in einer zentralen Datei oder z.B. einem von der zu verifizierenden Person mitgeführten Speicher z.B. Chipkarte, Transponder, Diskette, Chip usw. gespeichert sein sonder können z.B. über Markierungen, Bilder usw. im Identifikations- VerifϊkationsfaUe abgegriffen werden. So können beispielsweise von einem Ausweis oder Paß o.a. z.B. ein Bild, eine Impression, positives oder negatives Relief usw. des Zahnes/Gebisses abgescannt und/oder erfaßt werden und mit den abgegriffenen Daten der zu identifizierenden und/oder verifizierenden Person, Lebewesens und/oder Individuums verglichen werden. So bildet je nach Reihenfolge der Erfassungen in diesem Falle beispielsweise das Zahnbild des Ausweises die Referenz für die Scandaten oder Erfassungsdaten der Zähne z.B. an der Person oder die Zähne als persönUches Merkmal, abgegriffen an der Person bilden die Referenzdaten für das Gebissbild auf dem Ausweis. Ebenso können beispielsweise mit dem Köper Kopf, Kopfanteilen, Gesicht usw. umgegangen werden. Eine Markierung ist beispielsweise auch ein Büd eines Fingerabdrucks oder Gesichtes usw. welches ebenfalls im Verifilcationsfalle zu den Erfassung eines oder mehrerer persönlichen Merkmale des lebenden Vorbildes erfaßt wird. Die Erfassung eines oder mehrerer Merkmale z.B. vom Ausweis, Erkennungskarte usw. büdet in diesem anspruchsgemäßen Identifikations- oder Verifikationsvariante die Vorbildsreferenz des zu erfassenden Merkmals und/oder das zur Verifikation herangezogene Merkmal der Person und oder des Lebewesens und/oder Individuum bUdet die Vorbildreferenz für die Daten des z.B.. Ausweises, Passes usw.
Die Erfassung der Vorbüdsdaten kann sowohl mit dem gleichen System oder aber auch mit einem andersartigen oder anderen System erfolgen: So kann beispielsweise die Erfassung für die Vorbildsdaten über ein Kamerasystem z.B. vom Paß, Ausweis, Chipkarte usw. erfolgen und die reale Struktur und oder das reale Merkmal z.B. Gebiß, Gesicht usw. wird mit einem Lasersystem erfaßt oder umgekehrt usw..
Auch kann indem Daten mit anderen Daten verknüpft werden anspruchsgerecht ein und/oder mehrere Merkmale z.B. des Ausweises, Passes oder Merkmale auf diesen usw. ein oder mehrere andere Merkmale der Person stellvertretend codieren und die Verifikation über den Scan und/oder Erfassung des entsprechenden Merkmals realisieren. So kann z.B. ein Gesichtsbild auf dem Ausweis Zahnmerkmale, Irismerkmale, Kopf -,Körpermerkmale, persönliche Daten usw. der Person/Lebewesen oder die Iris und/oder der Fingerabdruck auf dem Bild eine Verifikation über den Zahnscann an der Person codieren und die Identifikation und/oder Verifikation z.B. durch den Vergleich der Iris des Ausweises mit den Erfassungsdaten des Zahnes, den Vergleich des Gesichtes des Ausweises mit den Erfassungsdaten des Fingerabdruckes usw. ermögUchen. So kann beispielsweise das Irisbid auf dem Ausweis und das Gebiß an der Person erfasst und so die Person identifiziert und/oder verifiziert werden. Durch die Eingabe eines Codes und/oder durch die neuerfaßten Daten und/oder Teildaten und/oder Datenteile und/oder durch Daten auf einem von der zu Identifizierenden/ Verifizierenden Person/Lebewesen mitgefühlten Datenträger werden aus der Datenbank die Referenzdaten ausgewählt und/oder die erfassten Daten, Teildaten oder Datenteile mit den Referenzdaten oder TeUen oder einem Teil von diesen abgegüchen. Hierauf stützt sich eine weitere Variante des Identifikations- und Verifikationsverfahrens. Referenzdaten können auch in einer Datenbank befindlich sein und aus dieser z.B. durch eine z.B. Codeeingabe oder durch die erneute Datenerfassung ausgewählt und für einen Vergleich mit den neu erfassten Daten herangezogen werden. Referenzdaten können aber auch auf einem von der Person mitgeführten oder der Person gehörenden Datenträger gespeichert (z.B. Speicherchip, Transponder, Diskette usw.) oder abgebildet oder reliefbildend (Zahnleiste, Gesicht, Ohr, Fingerabdruck, Körpergestalt usw.), oder codiert (z.B. Barcode, Buchstaben -, Zahlencode usw.) usw. sein. Dieses Mitgeführte Datenträger kann ein Personalausweis, Reisepaß, eine Chipkarte, eine Zugangsberechtigungsausweis usw. sein. Auch kann der zu Identifizierende und/oder Verifizierende beispielsweise einen Code oder Paßwort eingeben und im selben Vorgang seine Daten erfassen lassen. Der Code wählt die Referenzdaten aus welche für den Vergleich mit den erneut erfassten Daten gebraucht werden.
Letztendlich kann auch das Zahnbüd beispielsweise auf dem Ausweis, Paß, der Chipkarte mit dem realen Gebiß und/oder Zähnen und/oder Zahnanteilen der zu Identifizierenden und/oder verifizierenden Person Vergüchen werden indem sowohl die Erfassung des Bildes und/oder Fotos und/oder Reliefs und das Gebiß und/oder die Zähnen und/oder Zahnanteile der Person erfasst werden.
Mehrere Erfassungsverfahren können hier kombiniert werden. So können die beispielsweise
Referenzdaten aus einem Laserscan herrühren und die Erfassung der Daten des Identifikations- oder Verifikationsfalles aus einem herkömmlichen Kamerascan herrühren oder ergänzt werden.
Andererseits können umgekehrt beispielsweise Kamerabilder den Referenzdatenpool speisen und die Datenerfassung innerhalb des Identifizϊerungs- oder Verifizierungsvorganges werden über einen Laserscan erfolgen. Auch können mehrere Verfahren parallel oder hintereinandergeschaltet
Daten für die Referenzdaten liefern und/oder den die Datenerfassung des Identifikations- oder Verifikationsfalles ermöglichen, was zusätzlich dem menschUchen Sicherheitsbedürfnis weitergehend entgegenkommt. Die aus mindestens zwei verschiedenen Erfassungsmethoden und oder Erfassungssystemen entstehenden Daten oder Teildaten und/oder Datenteüe hiervon können getrennt voneinander oder miteinander verknüpft genutzt werden Zur Präzisionssteigerung der Verfahren und M- imierung von Fehlleistungen sowie zur Optimierung der Erkennung wird die Anwendung eines neuronalen Netzes (modulär aufgebaute Berechnungsmodelle nach dem Prinzip des biologischen Vorbildes mit dem CharaJrieristikum der Lernfähigkeit) vorgeschlagen und bildet die Grundlage einer Anspruchsvariante. Das System soU hiemach selbst aufgrund von individuellen Parametern für sich den Erkennungsweg optimieren. Das Neuronale Netz soll auch bei der Farbbewertung und -identifikation allgemein aber auch insbesondere an Zähnen Anwendung finden.
Die Referenzdaten und oder Informationen von dem/ entsprechenden Identifikationsmerkmal(en) können zentral z.B. Datenbank oder dezentral auf einer z.B. von der zu Identifizierenden oder Verifizierenden Person nUtgeführten „Datenspeicher" z.B. Chipcard, Diskette, Transponder, Speichermedien, Mikrofilm, CD, Festplatte, RFID (Radiofrequenzidentifikation), Abbild, Relief, Struktur, Impressionen, Bildform, Papierform, Folienform, Schriftform, Kryptisch, Gegenstandsform, Kontur, Volumen, Umriß und dergleichen mehr o.a. festgehalten sein. Wenn also von Erfassen und oder Festhalten und oder Speichern von Daten die Rede ist kann dies demnach über jede erdenkliche und/oder bisher bekannte Möglichkeit erfolgen und ist anspruchsgemäß. Da alle elektromagnetischen Strahlen den allgemein physikalischen Gesetzen (Strahlungsausbreitung, Brechung, Beugung, Absorption, Transmission, Reflexion, Wechselwirkungen mit Materialien usw.) folgen, allerdings aufgrund ihrer Wellenlänge entsprechend unterschiedlich, ist es möglich, mittels entsprechendem System bestehend aus mindestens einem entsprechende elektromagnetische Strahlung abgebenden Systemelement und einem diese erfassenden und nutzenden Systemelement, beispielsweise ein Material, Objekt, Lebewesen und/oder eine Person usw. zu identifizieren und oder verifizieren, welche und/oder welches dieser Strahlung ausgesetzt war aufgrund der durch das Material, Objekt, Lebewesen und oder die Person usw. veränderten Strahlen, welche detektiert wurden. Nutzbar sind sowohl Strahlenmuster, Strahlungsintensitäten, Strahlenort, als auch Strahlengänge. Wird über mehrere
Detektoren und/oder Sensoren Strahlung erfasst können Aussagen über die Strahlenwinkel und deren Veränderung nach Wechselwirkung beispielsweise mit dem Material, Objekt, dem
Lebewesen, der Person usw. werden. Energiereichere Strahlung durchdringt das Objekt leichter, energieärmere Strahlung wird beispielsweise Resorbiert oder Reflektiert oder stärker gestreut.
Intensitäten, Strahlengangsänderungen usw. bilden für die Identifikation und oder Verifikation nutzbare Strahlenmuster und somit Daten. Für den Anwendungsfall am Menschen und den
Gebrauch von energiereicher Strahlung gelten die entsprechende Strahlenschutzvoraussetzungen und -bestimmungen. Anspruchsgemäß kann theoretisch das gesamte elektromagnetische Spektrum und/oder Teile und/oder ein Ausschnitt hiervon und/oder auch nur eine Strahlensorte mit einer Wellenlänge zur Identifikation und/oder Verifikation genutzt werden. Beispielsweise Packungen von Gegenständen, können ebenso identifiziert werden wie Materialien, Gegenstände und/oder Personen usw. Insbesondere an Zähnen kann so auch das Volumen der Umfang, die Geometrie, Identifikationsmerkmale des Raumes der Pulpa (im Volksmund der „Zahnnerv") oder eines Teiles hiervon eines oder mehrer Zähne erfaß und zu entsprechenden Zweck der Identifikation und/oder Verifikation genutzt werden. Ebenfalls können nebender Pulpa auch die individuelle Dentinschichtdicke und Schmelzschichtdicke, deren Fläche im Querschnit, deren Volumen im 3D-Raum und dergleichen mehr z.B. 2D (z.B. über die Flächengröße das Röntgenbilds) oder 3D (z.B. MRT, CT) ausgemessen und deren Daten für die Identifikation und Verifikation genutzt werden. EbenfaUs sind individuelle Geometrie, Form, Aussehen, „Identifikationsmerkmale" von Zahnwurzeln, nicht offen zugängliche oder einsehbare Strulcturen auch des restlichen Körpers (z.B. (Gesichts-)knochen, Arterien-, Nervenverlauf, Muster der Spongiosabälkchen des Knochens, Dicke der Knochenkortikaüs, Geometrie bzw. Teüe hiervon des Skelettes usw.) entsprechend der Ansprüche nutzbar. Die Identifikation nach einem oder mehreren der Verfahren ist auch im rechtsmedizinisch- kriminalistischen Bereich ermöglicht. Identifikationen herköinmUcher Art in speziell diesem Bereich z.B. zur Leichenidentifikation werden anhand von Modellen und Röntgenbildern die beim Zahnarzt aufbewahrt werden durchgeführt. Ein Problem besteht bei der gerade einmal 10 - jährigen Aufoewahrungspflicht. Nicht selten insbesondere bei Personen, welche selten die zahnmedizinische Kunst wahrnehmen, sind derartige Unterlagen welche zur Identifizierung herangezogen werden könnten nicht mehr vorhanden. Eine zentrale Datenspeicherung in Form einer Datenbank der Verfahrensgemäß erfassten Daten währe problemlösend. Kunstwerke, Bilder, Gemälde Skelette, Knochen, Steine, wertvolle z.B. weltbekannte Edelsteine usw. können ebenfalls in den Daten entsprechend der anspruchsgemäßen Verfahren erfasst und dann jederzeit bei erneuter Erfassung identifiziert oder verifiziert werden. Nutzungsbereiche sind demnach in Archäologie, Geologie, der Kunstmarkt, Museen.
Diese alle Verfahren können beispielsweise eingesetzt werden im Bereich von Banken (Zugang zu sensiblen Bereichen, Zugangsberechtigung zum Tresor, Geldscheinautomat, Bargeldloser Zahlungsverkehr, ZugangskontroUe, Bankautomaten), Sicherheitsrelevanten Einrichtungen (z.B.
Produktionsstätten, -Kraftwerke, Flughäfen, Zoll) sowie sicherheitsrelevanteh Maschienen und
Fahrzeugen (Auto, LKW, Flugzeug, Schiff, Baumaschinen, Seilbahnen, Lift usw.). Die
Identifikation von Zahlungsmitteln (z.B. Chipkarten, Kreditkarten, Schein-, Münzgeld, Briefmarken) und Dokumenten, Ausweisen, Pässen Cipkarten usw. als auch Müll z.B. zum
Zweck der Mülltrennung bei Müllverwertungsbetrieben ist ebenfalls möghcht. Militärische
Nutzung oder Zivile Nutzung auch zur der Erkennung oder Wiedererkennung von entfernten oder in der Nähe befindlichen Gegenständen, Objekten oder Personen.
Bankensektor, Computersicherheit, E-Commerce, Recht und öffentliche Sicherheit, Behörden, Unternehmen, Gesundheitswesen, Telekommunikation, privater Raum, Gerätezugangskontrolle u.a. sind beispielhafte Bereiche, welche eines oder mehrere der anspruchsgerechten Verfahren nutzen können. Die Liste der Anwendungen und Einsatzmöglichkeiten ließe sich nahezu unbegrenzt fortführen. Werden portable Apparaturen auch mit kabellosem Datenaustausch und/oder Verarbeitung eingesetzt, so kann beispielsweise direkt am Tatort polizeiliche erkennungsdienstliche Maßnahmen mit Identifizierung und/oder Verifizierung durchgeführt werden können. Die Anwendungsbereiche und Branchen, welche diese Verfahren potentiell nutzen könnten ließe sich endlos fortführen, viele Einsatzbereiche und Anwendungsmöglichkeiten von bisher bekannten Au entifizierungsverfahren sind in der einschlägigen Literatur zu entnehmen und sind auch hier Möglichkeiten für die erfindungsgemäßen Verfahren.
Zum Zwecke der objektiven Farbbeschreibung wird die Farbmessung mit unterschiedlichsten Systemen bisher in der Industrie zur Qualitätsüberwachung und in Forschung im werkstofflcundlichen Sinne eingesetzt. Derartige Apparaturen und Systeme (beispielsweise Spektralphotometer, Dreibereichsmessgeräte, Farbsensoren, Farbdetektoren usw. o.a.) sind konzipiert zur Messung an planer Fläche und homogenen Werkstoffen wie Kunststoffe, Autolacke, Druckerzeugnisse, Textilien. Sie mitunter erzeugen sie ein genormtes Licht, welches auf das farbüch zu bewertende Objekt gerichtet wird. Dieses Objekt reflektiert das nicht von ihm absorbierte Licht in entsprechender spektraler Zusammensetzung, welches zum Zweck einer Messung auf den zur Detektion der Messapparatur befähigten Sensor treffen muss. Auf den Sensor fallendes Licht wird folgend beispielhaft verarbeitet, indem es auf Fotozellen trifft, nun in elektrische Signale umgewandelt und schließlich in digitale Signale umgesetzt wird. Aus den digitalen Signalen können beispielsweise Farbmesszahlen, - werte, Werte zur Erstellung von Spekfralkurven usw. berechnet werden. Auf jedem dem Sensor nachgeschalteten Niveau der Verarbeitung entstehen nutzbare Daten, Teildaten oder Datenteile. An dieser Stelle ist es sinnvoU, die noch unveröffentlichten Studien mit sechs verschiedenen Messapparaturen und weit mehr als 100000 erfassten und ausgewerteten Werten des Patentantragsstellers heranzuziehen. Nach diesen werden u.a. wesentliche Differenzen zwischen der visuell bewerteten mittels in der zahnmedizinischen Praxis routinemäßig im Gebrauch stehenden Vergleichsmuster sogenannter Zahnfarbringe und der messtechnisch erfassten
Zahnfarbe ermittelt. Weiterhin werden visuell anhand dieser Muster farbüch gleichbewertete natürliche Zähne messtechnisch völlig unterschiedlich bewertet und kein Zahn hatte auch nur annähernd ähnliche Messresultate zu einem weiteren aufzuweisen. Sowohl der Einfiuss der Zahnkronenkrümmung als auch die innere Zahnstruktur wurde isofiert betrachtet und tragen u.a. zu der oben angedeuteten farbmetrischen Wertevielfalt bei.
Mit anderen Worten, die äußere höchst individuelle Struktur des natürlichen Zahnes in Form der
Zahngeometrie, seiner Kronen-A^urzellcrümmung und die Einzigartigkeit der inneren Struktur u.a. in Form seines geschichteten Aufbaues (Schmelz, Dentin, Pulpa, Relationen und Variationen der Schichtdicken), seiner individueüen Kristallstruktur, Individualität der Ausrichtung, Form und Dichte der individueU in der Entwicklungsphase gewachsenen nanometergroßen Prismen, Gitterfehler des Kristallaufbaus, das individuelle Maß und der Anteil organischen und anorganischen Materials, der Komposition und die chemischen Zusammensetzungen jener Anteile usw. haben bedeutenden Einfiuss auf die Messergebnisse. Aus dem Gesagten resultieren komplexeste Brechungs-, Reflexion-, Remissions-, Transmissionsvorgänge, welche sich auf die Messergebnisse und Daten auswirken. Das zurückgeworfene nicht absorbierte neu spektral zusammengesetzte Licht bestimmt die Messergebnisse und/oder Daten (z.B. Farbmaßzahlen nach dem CIELAB, CIELCH 1976, Munseil- System usw., Farbmesswerte, Werte zur Beschreibung einer Spektralkurve, Informationsgehalte o.a. Daten usw.). Diese Messergebnisse an inhomogenen in sich strakturierten natürlichen Zähnen haben keine Gemeinsamkeiten, mit den Messungen an planen homogenen künstlichen Werkstoffen. Wenn in den Patentansprüchen oder in der Beschreibung von reflektiertem oder zurückgeworfenem Licht die Rede ist, ist u.a. immer auch die Farbe, der Farbbegriff oder die spektrale Zusammensetzung des auf die Sensoren faUenden Lichtes gemeint, gleiches gilt umgekehrt und wenn von einem Zahn die Rede ist, so gut dasselbe auch für Zahnanteile oder mehrere Zähne und/oder Gebiss(e). Wenn in den Patentansprüchen oder in der Beschreibung Daten oder Teildäten Erwähnung finden, wäre in jedem Falle auch dasselbe Vorgehen mit nur einem Datenteil oder einem Datum oder Teil hiervon möglich. Dennoch wäre aufgrund der theoretischen, mathematischen Betrachtung der Wahrscheinlichkeit anzuraten, möglichst mehr als weniger Daten für die Verfahren der Patentansprüche zu verwenden. Ob nun größere oder kleinere Datenmengen für diese Zwecke gebraucht werden, richtet sich u.a. maßgeblich nach dem Sicherheitsinteresse des Benutzers oder des/der Einsetzenden dieser Verfahren. Jenes oben erwähnte zurückgeworfene Licht entsteht, trifft ein von einem Lichtgeber ausgeworfenes (z.B. künstliches und/oder naturähnliches und/oder NormUcht, Apparatureigen oder Raumleuchte, Kunstlicht usw. o.a.) und/oder das natürliche Licht (z.B. Sonnenlicht, TagesUcht) auf den Zahn, welcher seinerseits das Licht durch seine höchst individuelle innere und äußere Struktur verändert und jenes veränderte Licht zurückwirft. Das vom Zahn zurückgeworfene Licht enthält so auf indirekte Weise Informationen aus dem Zalminneren sowie von seiner äußeren Struktur. Diese innere und äußere Struktur eines Zahnes als auch das von ihm zurückgeworfene Licht ist mindestens so einzigartig wie ein
Fingerabdruck, die DNA (Gencode) oder die Regenbogenhaut und ist derart einmalig, wie ein
Mensch oder ein Individuum. Dieses zurückgeworfene Licht, durch einen Sensor, Detektor,
Fotozelle, Kamera, Bilderfassung o.a. aufgenommen, wird in einen Datensatz oder Teildatensatz überführt. Jener Datensatz oder Teildatensatz enthält so Information des von dem Zahn zurückgeworfenen Lichtes, welches in der Zahnfarbe und der individuellen zahneigenen Struktur
Begründung findet. Diese Daten enthalten also ebenso codierte Information u.a. über Farbe,
Struktur und Aufbau des Zahnes, Somit sind jene Daten oder Teildaten genauso einzigartig wie der gewachsene natürüche Zahn eines Menschen oder eines Individuums. Zahnidentifizierungen sind so möglich. Der naturgegebene Besitzer dieses Zahnes ist mit diesem verbunden und kann an ihm identifiziert werden. Diese Daten oder Teildaten, gewonnen aus dem vom Zahn zurückgeworfenen Licht, einmal gespeichert, archiviert oder festgehalten, können als Vorbild bei einer erneuten Erfassung oder Teilerfassung der zurückgeworfenen und vom Sensor detektierten Lichtes mit den hieraus resultierenden Daten oder Teildaten zur Identifikation oder Verifikation von Zähnen, Personen oder Individuen genutzt werden. Hierzu geben die beispielhaften Zeichnungen Fig. 1 und 2 Aufschluss. Stimmen die aus einer erneuten Erfassung des vom Zahn zurückgeworfenen Lichtes entstandenen Daten oder Teildaten mit denen der gespeicherten, archivierten oder festgehaltenen Daten/Teildaten im wesentlichen überein oder nähern sich ihnen an oder existieren ähnliche Ergebnismuster, ist der Zahn identisch mit dem zuvor in den Daten gespeicherten, archivierten oder festgehaltenen. Im anderen Falle einer fehlenden oder mangelnden Überemstimmung oder Annäherung von Daten, Teildaten oder Ergebnismustern handelt es sich nicht um ein und denselben Zahn. Dasselbe gilt für die Identifikation der Person oder des Individuums, welche(s) der naturgegebene Besitzer jenes zur Identifikation herangezogenen natürlichen Zahnes ist. Bei ausreichender Übereinstimmung oder Annäherung der Daten, Teildaten oder Ergebnismuster, gewonnen aus dem zurückgeworfenen Licht des Vorbildes (Vorbildzahnes) und seiner (Zahn) erneuten Erfassung ist diese Person oder dieses Individuum der erneuten Erfassung identisch mit jener Person oder jenem Individuum aus der Vorbildserfassung. Der Vorteil einer bildlichen Erfassung (z.B. Laserscan,. Kamera, Videokamera, digitalen, analogen Kamera Fotokamera, Fotoscanner usw.) mindestens zur Identifikation und oder Verifikation herangezogenen Körpers und/oder Gebisses und/oder Bereichs und/oder Ausschnittes und/oder eines Identifikationsmerkmales und/oder Teiles hiervon und insbesondere an Zähnen eröffnet die Möglichkeit den/die in z.B. Farbe Muster, Relation, Form o.a. zu nutzenden Ausschnitt(e), Punkt(e) o.ä und/oder einen entsprechend z.B. auf dem Identifikationsmerkmal(e) befindlichen und oder den zu nutzenden Bereich(e) über die Einstellung in Größe, Lolcalisation, Form und dessen Anzahl, Muster o.ä. (z.B. über Werkseinstellung, BenutzereinsteUung, den zu Authentifizierenden, BUdbearbeitung o.ä.) einzugrenzen und/oder zu wählen, wobei hierdurch die ÜberUstung des Systems durch Unbefugte erschwert wird, wobei diese hierdurch nicht wissen können, an welcher Stelle sie simulierend bzw. manipulierend eingreifen müssen, um das System zu überwinden. Gleiches gilt für die
Erfassung aller Identifikatuionsmerkmale also z.B. auch u.a. für die Form und Gestalterfassung.
Eine visuell subjektive Erfassung bzw. Bewertung oder Vergleich der „Identifikationsmerkmale" über (zuvor) individuell hergestellte und/oder konfektionierte Muster oder Proben (Formmuster, dentale Farbmuster, Vergleichsmuster o.ä.) durch einen Bewertenden würde ebenfalls eine anspruchsgerechte Variante und ein zudem kostengünstiges Hilfsmittel darsteUen.
Des weiteren birgt die zahntechnische oder zahnärztliche Kunst aufgrund der hohen
Individualität der handwerklichen Fähigkeiten und Empfindungen für Ästhetik, Farbe und
Formen sowie die Anpassung an natürliche höchst individueUe Gegebenheiten auch bei Zahnersatz und Zahnprothetik ein hohes Maß an Individualität in Farbe, Form, Stärken der Schichtung usw. , welche hier ebenfalls die Identifikation von diesen Arbeiten, der Person oder des Individuums als Träger jener Arbeiten erlaubt. So stehen Zahn oder Zähne stellvertretend nicht nur für natürliche, sondern auch für künstUche nicht- natürliche Zähne. Künstliche oder nicht- natürliche Zähne stehen für zahnärztliche oder zahntechnische Arbeitsergebnisse oder für Objekte, welche der Patient im Sinne von Zähnen/ Zahnanteilen oder zur Übernahme von Aufgaben von Zähnen/Zahnanteilen besitzt und im eigenen Munde trägt oder tragen kann (z.B. Füllungen, Zahnkäppchen, I lays, Prothesen usw.).
Die Identifikation der Person oder des Individuums erfolgt anhand jenes zur Identifikation herangezogenen Arbeitsergebnisses und/oder Objektes o.a., welches jene Person oder jenes Individuums besitzt bzw. dessen Träger jene(s) ist. Bei ausreichender Übereinstimmung oder Annäherung der Daten, Teildaten oder Ergebnismuster, gewonnen aus dem zurückgeworfenen Licht oder Erfassung mindestens eines Identifikationsmerkmal(en) oder Teilen hiervon des Vorbildes (künstliche(r) Zähne /Zahn, Arbeitsergebnis oder Objekt o.ä.) und seiner erneuten Erfassung ist diese Person oder dieses Individuum der erneuten Erfassung identisch mit jener Person oder jenem Individuum aus der Vorbildserfassung. Die Anwendung jener Verfahren ermöglichen in der rechtsmedizinischen Arbeit eine Zuordnung von Zahnmaterial zu dem Zahnmaterial des gleichen Individuums gehörenden und zum Individuum selbst. Die Identifikation von Toten wird eine weitere Aufgabe dieser Verfahren sein. Denn Zähne eines gleichen Individuums weisen in den wie in Ansprüchen ermittelten Datensätzen Übereinstimmungen oder Annäherungen von Daten auf. Ein Einsatz wäre auch auf archäologischem Gebiet denkbar. Werden die Datensätze oder Teildatensätze ein und desselben Zahnes oder derselben Zähne ein und der selben Person oder Individuums verglichen, ist eine eindeutige Identifizierung von lebenden oder toten Personen oder Individuen rechtsmedizinisch oder in kriminalistischem Bereich durchzuführen. Denkbar in diesem Zusammenhang wäre auch ein Datenpool von entsprechenden Zahndatensätzen, welcher von möglichst vielen Menschen zu Lebzeiten erstellt worden ist. Die Identifizierung eines Toten kann hierüber eindeutig durchgeführt, beschleunigt und erleichtert werden. Weitere Bereiche sind die Überprüfung von Zugangsberechtigungen u.a. für sicherheitsrelevante Einrichtungen und Bereiche, zu Bankkonten, die Kontrolle von grenzübertretenden Personen oder Individuen, Identifizierung und Zuordnung von Personen oder Individuen zu einer Gruppe, Gemeinschaft oder eines Landes.
Diese Datensätze oder Teüdatensätze, in Verbindung mit Ausweisen, Pässen, Fahrerlaubnissen,
Zugangsberechtigungen, lassen die Person oder das Individuum identifizieren. Banken- oder Sparkassenwesen, sicherheitsrelevante Einrichtungen (Kraftwerke, Produktionsstätten,
Flughäfen, Flugzeuge usw.), Rechtsmedizin, Kriminalistik u.a. sind potentielle Nutzende dieses
Verfahrens.
Ein wesentlicher Vorteil der Nutzung des von den Zähnen zurückgeworfenen Lichtes zur
Identifizierung und Verifizierung ist, dass Zähne insbesondere die Frontzähne über langfristige Zeiträume Sttukturellen bestand haben. Die innere und äußere Struktur von bleibenden Zähnen im Erwachsenenalter unterliegen keinerlei Veränderungen. Veränderungen durch Karies, Erosionen, zahnärztliche Tätigkeiten treten aufgrund moderner zahnprophylaktischer Bestrebungen mit den jüngeren Generationen zunehmend in den Hintergrund und selbst zahnärztlich bedingte Veränderungen an dem Individuum Zahn, können aufgenommen werden, indem sich durch eine einfache Datenerfassung nach einem Eingriff in die Zalinstraktur der Datensatz auf den neusten Stand aktualisieren lässt. Verifikation: Die neuen Eingangsdaten/oder Teildaten aus dem zurückgeworfenen Licht überführt, werden mit den bereits gespeicherten Daten oder Teildaten aus entsprechendem Verfahren der unter Anspruch 1 und/oder 2 beschriebenen Datenerhebung vergüchen. Für die Auswahl zum Abgleich jener Daten oder Teildaten des Datenspeichers oder aus der Datenbank mit den Daten oder Teildaten einer aktuellen Erfassung nach dem Verfahren wird vom Benutzer bzw. von der Person oder vom Individuum eine persönliche Kennung, Identifikation, Datenoffenbarung oder ähnliches (z.B. Codenummer, andere Persönliche, Kennung auf einem Datenträger, Daten und/oder ähnliches) abverlangt. Stimmen die durch die Kennung, Identifikation oder Datenoffenbarung ausgewähltem Daten oder Teildaten der Datenbanlc oder des Datenspeichers mit den Daten oder Teildaten der aktuellen Erfassung überein, so ist die Person die Person für die sie sich ausgibt und ist in ihrer angegebenen Identität bestätigt. Mit Datenspeicher kann u.a. auch der Ort oder jegliche bisher bekannte Art der Aufbewahrung oder Festhaltung jener Daten gemeint sein. Verfahrensbeispiel Fig. 2 sieht vor, dass eine Auswahl der mit der aktuellen Erfassung zu vergleichenden Daten oder Teildäten aus einem zentralen Datenspeicher über eine Kennung geschieht, sondern die Vergleichsdaten in Form eines tragbaren oder sich im Besitz der zu verifizierenden Person oder des zu verifizierenden Individuums befindlichen Datenträgers im Verifikationsfall dem Vergleich mit den in der aktuellen Erfassung ermittelten Daten oder Teildaten zur Verfügung stehen. Eine zusätzliche Kennung wäre in diesem Falle nicht zwingend notwendig, jedoch auch mögüch. Die Verfahren in Kombinationen, mit z.B. Chipkarten, Ausweisen, Pässen, Führerscheinen u.a. vielfältigste Einsatzmöglichkeiten zukommen. Dem Wunsch nach mehr Sicherheit im Bankenwesen, bei Zugangsberechtigungen sicherheitsrelevanten Eimichtungen, Kraftwerken, Produktionsstätten, Flughäfen durch diese Entwicklung der zahnbezogenen persönlichen personengebundenen Identifkationsmerkmale kann so Rechnung getragen werden und die bisherigen existierenden Methoden auf dem Feld der Biometrik um eine neue Methodiken bzw. ein neue Verfahren und eine neue Möglichkeiten in diesem Bereich ergänzt werden. Diese Datensätze oder Teildatensätze, in Verbindung mit Ausweisen, Pässen, Fahrerlaubnis, Zugangsberechtigungen gebracht, lassen die Person oder das Individuum biometrisch identifizieren, verifizieren, erkennen und wiedererkennen. Banken- oder Sparkassenwesen, sicherheitsrelevante Einrichtungen (Kraftwerke, Produktionsstätten, Flughäfen, Flugzeuge usw.), Rechtsmedizin, Kriminalistik u.a. sind potentielle Nutzende diese Verfahrens. Das Versehen der erfassten Daten/Teildaten (in Anlehnung an die vorgenannten Ansprüche) von Materialien mit einer Kennung (z.B. über Barcode, Codenummer, Daten/Teildaten, Materialbeschreibung o.a.) lässt sich zur Erkennung, Wiedererkennung, Identifikation und Verifikation der entsprechenden Materialien, Gegenstände, Objekte, Farben usw. z.B. zur Optimierung und Kontrolle von Produktionsabläufen, im Logistik-, Zoll-, Kriminalistikbereich o.ä. einsetzen. Die wie in den Ansprüchen erfassten Daten, Teildaten oder Datenteile direkt oder über den Umweg einer Kennung können auch mit Infoπnationen über das Material oder Produkt versehen werden. Die Anwenderbereiche und Vorteile sind in den vorgenannten Ansprüchen beschrieben. Ein schneller Informationszugriff ist zudem möglich und es besteht ein hohes Maß an Fälschungssicherheit Ein jedes erfindungsgemäße Verfahren ist nicht in Örtlichkeit, Anordnung, Anzahl und Verbindung der Nerfahrenschritte5 Verfahrejisanteile oder Verfahrensbestandteile sowie der hierfür verwandten (technischen) Mittel eingeschränkt. Auch besteht bei den erfindungsgemäßen Verfahren keinerlei Einsschränkung in der Art, Wahl, Menge und der Anzahl der Mittel zur Realisierung der datenverarbeitenden/-vergleichenden Verfahrensschritte sowie der herangezogenen Daten. Ein universeUer Einsatz dieser Verfahren ist so als ein weiterer Vorteil anzusehen.
Es versteht sich von selbst, dass bei der großen nahezu unüberschaubaren Vielzahl von Apparaturen, Instrumenten, Systeme und/oder Hilfsmitteln und deren diversen Benennungen und Bezeichnungen, die es insbesondere für die Erfassung von Form, Teilform, Gestalt, Kontur, U riss, Volumen, Merkmale, Farbe, Relationen, Besonderheiten, des reflektierten Licht, elektromagnetischer Strahlung, dessen Muster, dessen spektraler Zusammensetzung, dessen Strahlengang, von Reflexion und/oder Transmission auch bereits für allgemeine Zwecke gibt - mit Rücksicht auf die Beschränkung des Umfangs dieser vorliegenden Patentanmeldung - nur beispielhaft aufgelistet werden können, sodaß aus diesem Grund das für die entsprechenden patentgemäßen Verfahren neben den beispielhaft AufgeUsteten wie z.B. CCD- (Charge Coupled Devices), ICCD- (Intensified Charge Coupled Devices), EMCCD- (Elektron Multiplaying Charge Coupled Devices), CMOS- -Detektor, Kamera, Sensor, Zeilen-, Videokamera , Farbkamera, Büdverarbeitung, Bildaufhahme, ΝIR- (Νahinfrarot)-Kamera (WeUenbereich 900- 1700nm), ER. (infrarot-)-Kamera, CCM-Koordinatenmeßmaschine, CAD-CAM-System, Photodetektor, Schwarz-weiß- oder Farb(bild)kamera, in bewegten oder unbewegten Bildern,
UV-Lichtkamera, Spektralphotometer, Farbsensoren, -detektoren, Detektoren, Dreibereichs- messgerät, FotozeUe, Fluoreszenzspektroskop, Mikrospektrometer, Röntgeneinheit, CT
(Computertomographie), RT (Magnetresonanztomographie), Automatic ID (biometrisches System), Biometrie Device (biometrisches Aufnahmegerät, Biometrie Engine (Softwareelement
Registrierung, Aufnahme, Vergleich, Extraktion und Überemstimmung bearbeitet),
Streifenlichttopometrie, CCM-Koordinatenmeßmaschiene, berührungsloses Freiformscannen usw. für die Patentansprüche auch noch eine Vielzahl weiterer Möglichkeiten (Methoden,
Apparaturen, Instrumenten, Systemen und/oder Hilfsmitteln) zur entsprechenden Erfassung und/oder Gewinnung von zur Authentifizierung nutzbaren Daten gewählt oder aufgezählt werden und/oder mit obenstehenden kombiniert werden können, welche hier ebenfalls zu diesem Zweck der (biometrischen) Identifikation und/oder Verifikation insbesondere an Zahn, Zahnanteil, Zähnen und/oder Gebiss und/oder einen Ausschnitt hiervon genutzt, eingesetzt bzw. verwandt werden, können. Im Beleuchtungsfalle können die verschiedensten Mittel eingesetzt werden (z.B. Kunstlicht, Tageslicht, NormUcht, Sonnenlicht, Licht, welches höherer optischer und insbesondere auch räumlicher Auflösung ermöglicht, LaserUcht, LEDs, Normlichtleuchten, Leuchtstoffröhren, Glühbirnen usw.). Selbst für die visuell subjektive oder objektive Bewertung nutzbare Vergleichsfarbpaletten (z.B. Farbproben, Farbpaletten Zahnfarbringe, color match), Spektroskopie usw. können genutzt werden. Jede(s) Apparaturen oder Hilfsmittel kann alleine oder kombiniert anspruchsgemäß zum Zweck der Identifikation und/oder Verifikation eingesetzt werden eingesetzt bzw. angewandt werden.
Theoretisch können alle bisher bekannten oder publizierten Instrumente, Apparaturen, Geräte, Sensoren, Detektoren, Kameras, Erfassungseinheiten, Systeme, Verfahren, Möglichkeiten usw., die zur Erfassung von und/oder Daten und/oder Informationsgewinnung aus Formen und/oder Teilforen und/oder Gestalt und/oder Kontur und oder Volumen und/oder den Umriß und/oder Merkmalen und oder Besonderheiten und/oder Oberflächenstrukturen (z.B. Relief, Mikrorelief, Rauheit usw.) und/oder äußere und/oder innere Geometrien und/oder Farben und/oder Strukturen und/oder Aufbau und/oder natürliches und/oder künstliches zurückgeworfenes Licht und/oder elektromagnetischer Strahlung und/oder Ted und/oder dessen spektraler Zusammensetzung und/oder dessen Strahlengang, Parameter und/oder formationsgewinnung usw. o.ä. befähigt sind und/oder genutzt und/oder angewandt werden und/oder beschrieben sind, auch anspruchsgemäß zur Identifikation und/oder Verifikation insbesondere an Gebiß, Zähnen, Zahn(anteilen) o.ä. ebenfalls eingesetzt bzw. angewendet werden und fallen somit unter den Schutz dieser Anmeldung. Es wird jedoch im HinbUck und mit Rücksicht auf die Begrenzung des Umfanges dieser vorüegenden Anmeldung auf diese Aufzählung einer Vielzahl von weiteren möglichen Möglichkeiten und der Darstellung deren theoretischen Hintergründe verzichtet und darauf verwiesen, dass alle Möglichkeiten, die imstande sind o.g. bzw. anspruchsgemäße biometrischen Parameter/Grundlagen zu erfassen für die Anwendung insbesondere an Zähnen (Zahn,
Zahnanteil, Zähnen und/oder Gebiss) und/oder gemäß der Ansprüche ebenfalls hier anspruchsgerechten Schutz erhalten sollen.
Es versteht sich ebenfalls von selbst, dass die (allgemeinen) Funktionsweisen und/oder Grundlagen und/oder Technologien und/oder Verfahren(sdurchführung) und/oder Möglichkeiten auch zur Informations- und/oder Datenverarbeitung und oder dem Vorgehen usw. (z.B.
Erfassung, Verarbeitung, Datenaufbereitung, (Daten)vergleich usw.) von bisher bekannten
(biometrischen) Identifikations- und/oder Verifikationsverfahren z.B. physiologischer oder verhaltensbasierender Art usw. (z.B. apparative bzw. biometrische Gesichts-, Fingerabdruck-, Finger-, Handgeometrieerkennung, Iris, Retinaerfassung, Nagelbett-, Venenmuster-, Gang-, Lippenbewegung-, Stimm-, Unterschriftenerkennung, Sitz-, Tippverhalten usw.) und/oder beispielsweise holistischer (z.B. Erfassung des gesamten Gesichtes, Eigenface, Template Matching, Deformable Template Matching, Fourier Transformation usw.) und/oder merkmalsbasierender (z.B. Erfassung einzelner Merkmale, Gesichtsmetrik Elastic Bunch Graph Matching, Gesichtsgeometrie) (Amberg, Fischer Rößler, Biometrische Verfahren, 2003, Seiten 22-25) Ansatz und oder weiterer Ansätze usw. (wie z.B. Mittelwertsbildung aus Pixeln und Graustufen, Schwellenwertsbildung, Merkmalsextraktion, Abgleich des Abdruckes mit einem Template, Analoge oder digitale Daten können genutzt werden, Hamming-Abstand -Anzahl der nichtübere stimmenden Bits zwischen zwei binären Vektoren- wird als Maß für die Unterschiedlichkeit verwandt-, Vorverarbeitung für den Abgleich Positionierung der Figur Template mit der neuen Aufnahme, Merkmalsexteaktion, Durchschnittswertbidung, Erstehung von Jets und Wavelets, Verktorennutzung, Fourier-Transformation usw.) und/oder Teile und/oder einzelne Verfahrensschritte usw. hiervon ebenfalls für die Authentifizierung insbesondere anhand von Zahn, Zahnanteil, Zähnen und/oder Gebiss, dieses umgebende Strukturen usw. oder Teilen hiervon angewandt und/oder mit den Verfahren der Ansprüche anspruchsgemäß ebenfalls verwandt werden können und somit anspruchsgemäß in diesem Anwendungszusammenhang mit Zahn, Zahnanteil, Zähnen und/oder Gebiss dieses umgebende Strukturen usw. oder Teüen hiervon usw. unter den Schutz dieser Anmeldung fallen. Das gleiche gilt für die Kombination bisher bekannter Verfahren auf diesem Gebiet mit denen dieser Patentanmeldung. Wird in Beschreibung und Patentansprüchen nur von Lebewesen oder Personen oder Tieren oder Individuen gesprochen, so ist es selbstverständUch, dass lebende und/oder tote Lebewesen und/oder Personen und/oder Tiere und/oder Individuen und/oder belebte Natur gemeint sind. Jegliche Nutzung, in welcher Art und Weise auch immer, von Gebiß, Zähnen, Zahn, Zahnanteilen und/oder z.B. von diesem diesen abgeleitete und oder gewonnenen Parameter, Charakteristika, I-nformationen, Daten, usw. o.a. mit und ohne Kombination und/oder Einbeziehung anderer umgebenden (Körper-)bereiche und/oder belebter und/oder unbelebter Natur zum Zweck der Identifikation und/oder Verifikation von Personen, Lebewesen, Tieren, Individuen usw. faUen unter den anspruchsgemäßen Schutz dieser Anmeldung.

Claims

Patentansprüche:
1. Verfahren nutzt die Form und oder Teilform und/oder Gestalt und/oder Kontur und/oder Volumen und/oder den Umriß und/oder Umfang und/oder Proportion und/oder Maß und/oder Größe und/oder ein oder mehrere Merkmale und/oder Besonderheiten und/oder Oberflächenstruktur (z.B. Relief, Mikrorelief, Rauheit, Textur usw.) und oder äußere und/oder innere Geometrie und oder Relationen und/oder Farbe und/oder Struktur und/oder Aufbau und/oder Schichtung und/oder Beschaffenheit und/oder Anordnung und/oder natürliches und/oder künstliches zurückgeworfenes Licht und/oder elektromagnetische Strahlung und/oder künstlich und/oder natürliche Parameter und/oder Charakteristika und/oder Teil und/oder Ausschnitt hiervon und/oder ähnliches usw. (Identifikationsmerkmale) von natürlichem/n und/oder künstlichem/n Gebiß und/oder Zähnen und oder Zahn und/oder Zahnanteilen als Merkmal (dentales Identifikationsmerkmal) zum Zweck der Identifikation von lebenden und/oder toten Personen und/oder Lebewesen und/oder Individuen und erfasst dieses mittels einer und/oder eines hierfür geeigneten und oder befähigten Apparatur und oder struments und/oder Systems und oder (HUfs-)mittels und ist beispielhaft gekennzeichnet durch:
- Erfassung eines oder mehrerer der o.g. Merkmale und/oder Identifikationsmerkmale und/oder ein Teil und/oder einen Ausschnitt jenes mittels einer/eines hierzu geeigneten und/oder befähigten Apparatur und oder Instruments und/oder Systems und/oder Mittels. .
- Gewinnung hieraus von für diesen Verfahrenszweck verwertbaren und/oder nutzbaren Daten und/oder Teildaten und/oder Datenteile. - Abspeicherung und oder Festhalten der so ermittelten Daten und/oder Teildaten und/oder Datenteile.
- Verwendung der so und/oder anders erfassten und abgespeicherten Daten und/oder Teildaten und/oder Datenteile und/oder Datensätze zur Zahn- und/oder Personen- und/oder Individuen- und/oder Lebewesenidentifizierung, indem jeweils neu erfasste Daten und/oder Teildäten und/oder Datenteüe mit den zuvor gespeicherten oder festgehaltenen Daten, Teildaten und/oder Datenteilen vergUchen werden.
2. Verfahren vorzugsweise nach vorgenanntem Verfahren nutzt die Form und/oder Teilform und/oder Gestalt und/oder Kontur und/oder Volumen und/oder den Umriß und/oder Umfang und/oder Proportion und/oder Maß und/oder Größe und oder ein oder mehrere Merkmale und/oder Besonderheiten und/oder Oberflächenstruktur (z.B. Relief, Mikrorelief, Rauheit, Textur usw.) und/oder äußere und/oder innere Geometrie und/oder Relationen und/oder Farbe und/oder Struktur und/oder Aufbau und/oder Schichtung und/oder Beschaffenheit und/oder Anordnung und oder zurückgeworfenes Licht und/oder künstlich und/oder natürliche Parameter und/oder
Charakteristika und/oder Teil und oder Ausschnitt hiervon und/oder ähnliches als Merkmal(e) usw. o.ä. von lebenden oder toten Körpern (z.B. Personen und/oder Lebewesen und/oder
Individuen und/oder Tiere usw.) und/oder von unbelebten Körpern (z.B. Gegenstände, Materialien, Stoffe, Objekte usw.) und/oder mindestens ein Teil und/oder Ausschnitt hiervon als
Merkmal (Identifikationsmerkmal) zur Identifikation mittels einer und/oder eines hierfür geeigneten Apparatur und/oder Instruments und/oder Systems und/oder (Hilfs-)mittels und ist beispielhaft gekennzeichnet durch:
- Erfassung eines oder mehrerer der o.g. Merkmale und oder Identifikationsmerkmale und/oder ein Teil und oder einen Ausschnitt jenes mittels mindestens einer hierzu geeigneten Apparatur und/oder einem geeigneten Instrument und oder eines geeigneten Systems und/oder geeigneten Mittels.
- Gewinnung hieraus von für diesen Verfahrenszweck verwertbaren und/oder nutzbaren Daten und/oder Teildaten und/oder Datenteile. - Abspeicherung und oder festhalten der so ermittelten Daten und/oder Teildaten und/oder Datenteile.
- Verwendung der so und/oder anders erfassten und abgespeicherten Daten und/oder Teildaten und oder Datenteile und/oder Datensätze zur Zahn- und oder Personen- und/oder Individuen und/oder I bewesenidentifizierung, indem jeweils neu erfasste Daten, und/oder Teildaten und/oder Datenteile mit den zuvor gespeicherten oder festgehaltenen Daten, Teildaten und/oder Datenteilen verghchen werden.
3. Verfahren nach einem oder mehreren der vorgenannten Ansprüche ist dadurch gekennzeichnet, dass zusätzliche Identifikationsmerkmale und/oder Strukturen du/oder Bereiche und/oder Teile und/oder Ausschnitte hiervon in der näheren oder weiteren Umgebung des Gebisses und/oder der Zähne und/oder des Zahnes und/oder Zahnanteils (beispielsweise Körper, Kopf, Gesicht, Ohr, Nase, Augen, insbesondere Augenhornhaut, Arm, Hand, Bein, Fuß Torso Finger, Zeh usw. und/oder eines Teils und/oder einen Ausschnitt, Bereich, Teil hiervon usw.) mit in die Erfassung, Verarbeitung und/oder Auswertung der Merkmale einbezogen und/oder mit diesen kombiniert werden.
4. Verfahren vorzugsweise nach einem oder mehreren der Vorgenannten zum Zweck der Identifikation von Personen, Individuen oder Lebewesen anhand eines oder mehrerer von diesen getragenen oder an ihnen befindlichen oder von ihnen vorgezeigten Erkennungsmerkmalen und/oder Identifikationsmerkmalen, wobei die Erfassung jener mittels geeigneten Apparatur, Instruments, Systems und/oder Hilfsmittels (z B. einen Laser, Kamera usw.) erfolgt.
5. Verfahren vorzugsweise nach einem oder mehrerer der vorgenannten Verfahren nachdem die
Erfassung von einem oder mehrerer Erkennungsmerkmale und/oder Identifikationsmerkmalen auch in größerer Entfernung des Erkennungsmerkmales zum Ort des Erfassungsapparatur, - instrumentes, -Systems und oder -hilfsmittels erfolgen kann und/oder ein oder mehrere Merkmale und/oder zur Identifikation und/oder Verifikation nutzbaren Bereiche vergrößert werden können.
6 Verfahren nach einem oder mehren der vorgenannten Verfahren ist gekennzeichnet durch die Anwendung der Erkennung beispielsweise einer anwesenden Person z.B. in einem bestimmten oder vorgegebenen Raum oder auf einem Areal und oder seiner Lokalisation usw..
7. Verfahren vorzugsweise nach einem oder mehrerer der vorgenannten Verfahren nutzt die naturgegebenen Merkmale und/oder Identifikatonesmerkmale (beispielsweise Körper, objekt-, material-, produkteigene(s) oder -charakteristische Struktur oder Relief),
8. Verfahren vorzugsweise nach einem oder mehrerer der vorgenannten Verfahren nutzt allerdings künstlich hervorgerufene und oder bearbeitete Merkmale und/oder Identifikations- merkmale (beispielsweise künstlich erzeugtes Relief z.B. chemisch, über Laser usw.).
9. Verfahren nach einem oder mehrer der vorgenannten Verfahren, nachdem die zur Identifikation und/oder Verifikation herangezogene(n) Identifikationsmerkmal(e) und/oder
Struktur(en), und/oder Merkmal(e) usw. mit unbewaffneten Auge zu erkennen und oder zu sehen ist/sind und/oder nicht zu sehen und/oder erkennen sind.
10. Verfahren nach einem oder mehrerer der vorgenannten Verfahren, wobei das Identifikationsmerkmale und/oder Merkmal und/oder Relief und/oder Struktur usw. beispielsweise eine Kennung, einen Code, eine Information über und oder Beschreibung usw. von diese(r ) Person, dieses Individuums und oder Lebewesens und/oder dem Objekt und/oder Material usw. enthält und/oder diesem zugeordnet wird oder werden kann, welche(s) z.B. mit dem Objekt oder Körper(anteü) in Zusammenhang steht und/oder dem künstlich erzeugten und/oder natürlichen Merkmall Relief und/oder Struktur ein Code und/oder eine Information und/oder Kennung zur Identifikation oder Verifikation und/oder Beschreibung usw. beispielsweise dieses Objektes, Materials usw. zugeordnet wird, welche es dann repräsentiert.
11. Verfahren nach einem oder mehrerer der vorgenannten Verfahren nutzt als Apparatur, Instrument, System und/oder Hilfsmittel zur Erfassung ein entsprechend geeigneten und/oder befähigten Laser und/oder ein hierfür geeignetes und/oder befähigtes Lasersystem mit mindestens einem Lichtgeber und mindestens einem für diese Zwecke geeigneten und/oder geeignete beispielsweise Empfänger, Sensor, Detektor, Kamera usw. und/oder enthält einen solchen und/oder ein solches und/oder ein solche.
12. Verfahren nach einem oder mehrerer der vorgenannten Verfahren nutzt als Apparatur, Instrument, System und/oder Hilfsmittel mindestens eine und/oder einen und/oder ein Kamera und/oder Kamerasystem und/oder Empfänger und/oder Sensor und/oder Detektor und oder Erfassungselement und/oder befähigtes Mittel zur Bilderfassung und oder Merkmalserfassung und/oder Merkmalsaufspürung und/oder enthält mindestens eine solche und/oder einen solchen und/oder ein solches.
13. Verfahren nach einem oder mehrerer der vorgenannten Verfahren ist dadurch gekennzeichnet das die Informationen und/oder Daten über die und/oder das zur Identifikation und/oder Verifikation nutzbare Struktur und/oder herangezogenen Merkmale und/oder herangezogene Merkmal und/oder Identifikationsmerkmal in 2D und/oder 3D gewonnen und/oder erfasst und/oder verarbeitet und/oder genutzt werden und/oder die Informationen und/oder Daten in 3D generierbar sind.
14. Verfahren nach einem oder mehrerer der vorgenannten Verfahren ist dadurch gekennzeichnet das die Erfassungen aus einer Perspektive und/oder von einer Seite erfolgt und/oder aus mehr als einer Perspektive und/oder von mehr als einer Seite erfolgen und/oder so eine Rekonstruktion von Identifikationsmerkmalen und/oder Teilen und/oder Ausschnitten hiervon in 3D zu ermöglichen ist/sind.
15. Verfahren nach einem oder mehreren der vorgenannten Verfahren ermöglicht die Erfassung der Referenzdaten und/oder der neu erfassten Daten direkt am original und/oder an einem
Negativ (z.B. Abdruck, Abbüd usw.) des und/oder an einer Kopie (z.B. Modell usw.) des zur Identifikation und oder Verifikation, Erkennung oder Wiedererkennung genutzten und/oder herangezogenen Identifikationsmerkmal.
16. Verfahren insbesondere nach einem oder mehreren der vorgenannten Verfahren nutzt die Möglichkeit zur Identifikation und oder Verifikation durch von einer und/oder einem und/oder eines zur Erfassung von beispielsweise Identifikationsmerkmal, Form, Gestalt, Kontur, den Umriß Oberflächenstruktur usw. befähigten Apparatur, Instrument, System und/oder Hilfsmittel erzeugte Daten und oder Datenteile und/oder Teüdaten durch Vergleich dieser mit Daten und/oder Datenteile und oder Teildaten, herrührend aus zuvor durchgeführter Erfassung mittels eines und/oder einer andersartigen Verfahrens und/oder Instruments, Systems, Hilfsmittels und/oder Apparatur für diesen Zweck ist gekennzeichnet durch: -Erfassung mindestens eines Identifikationsmerkmals (z.B. s.o. äußeren Form oder Teilform,
Gestalt, Kontur und oder des Umriß usw.) und oder ein Teil jenes und/oder einen Ausschnitt hierauf mittels einer und/oder einem hierzu geeigneten Apparatur, Instrument und/oder eines geeigneten Systems und/oder Mittels und Erzeugung auf diese Weise von für diesen Verfahrenszweck verwertbaren nutzbaren Daten, Teildaten und/oder Datenteile. Abspeicherung oder festhalten der so ermittelten Daten und/oder Teildaten und/oder
Datenteile.
- Verwendung der so und/oder anders erfassten und abgespeicherten Datensätze Identifizierung, indem jeweils neu mittels einer oder eines andersartigen ebenfalls zu diesem Zweck geeigneten Apparatur, Instruments und/oder eines geeigneten Systems und/oder Mittels erfasste Daten,
Teildaten und oder Datenteile mit den zuvor gespeicherten oder festgehaltenen Daten, Teildaten oder Datenteilen verglichen werden.
17. Verfahren nach einem oder mehrerer der vorgenannten Verfahren ist gekennzeichnet durch die Verwendung der so erfassten und abgespeicherten und/oder festgehaltenen Daten, Teildaten und/oder Datenteile zur Personenverifizierung und/oder Lebewesen- und/oder Individuenverifizierung, indem jeweüs neu erfasste Daten, Teildaten und/oder Datenteile mit den durch eine zusätzhche persönliche Kennung ausgezeichneten bereits erfassten und/oder gespeicherten und/oder festgehaltenen und/oder bestehenden Daten, Teildaten und/oder Datenteilen verglichen werden.
18. Verfahren nach einem oder mehreren der vorgenannten Verfahren ist gekennzeichnet durch die Verwendung der so erfassten und abgespeicherten und/oder festgehaltenen Daten, Teildaten und/oder Datenteile zur Personenverifizierung und/oder Lebewesen- und/oder Ihdividuenverifizierung, indem jeweils neu erfasste Daten, Teildaten und/oder Dafenteil von der zu verifizierenden Person, des zu verifizierenden Individuums und/oder Lebewesens mit den durch eine zusätzliche persönliche Kennung ausgezeichneten bereits erfassten und/oder gespeicherten und/oder festgehaltenen und/oder bestehenden, aus entsprechender und/oder andersartiger Erfassung herrührenden und sich beispielsweise bei und oder in der Hand und/oder am Körper und/oder im Besitz usw. von der/des zu identifizierenden bzw. verifizierenden Person, Individuums und/oder Lebewesens befindlichen Daten, Teildaten und/oder Datenteil beispielsweise in Form eines Datenspeichers, Ausweises, Passes, einer Chipkarte usw. , verglichen werden.
19. Verfahren nach einem oder mehrerer der vorgenannten Verfahren ist gekennzeichnet durch die Verwendung der erfassten und abgespeicherten oder festgehaltenen Daten und/oder Teildaten und/oder Datenteile beispielsweise zur Gegenstands-, Objekt- Materialverifizierung usw., indem jeweils neu erfasste Daten, Teildaten und/oder Datenteile mit den durch eine zusätzliche Kennung ausgezeichneten bereits gespeicherten und/oder festgehaltenen und/oder bestehenden
Daten, Teüdaten oder Datenteilen verglichen werden und/oder indem jeweils neu erfasste Daten,
Teildaten und/oder Datenteile von beispielsweise dem zu verifizierenden Gegenstand, Objekt und/oder Material usw. mit den bereits gespeicherten und/oder festgehaltenen und/oder bestehenden und oder durch eine zusätzliche Kennung ausgezeichneten, aus entsprechender und/oder andersartigen Erfassung herrührenden und sich in körperlichen Bezug zu dem zu identifizierenden bzw. verifizierenden beispielsweise Gegenstand, Objekte und/oder Material usw. befindlichen Daten Teildaten/Datenteil, beispielsweise in Form eines Datenspeichers und/oder einer Oberflächenstrakturierung usw., verglichen werden.
20. Verfahren nach einem oder mehrerer der vorgenannten Verfahren ist gekennzeichnet durch die Kombination von mindestens zwei verschiedenen Erfassungsmöglichkeiten beispielsweise Laser- Erfassung in Kombination mit mindestens einer Kameraaufzeichnung und/oder Sensor und/oder Bilderfassung, eine Kameraerfassung mit einer Detektorerfassung und oder andere Kombinationen usw. zur Datenerfassung im Identifikations- und oder Verifikationsfalle und/oder zum Zweck der Referenzdatenerfassung und/oder -erstellung usw..
21. Verfahren insbesondere nach einem oder mehrerer der vorgenannten Verfahren und auch nach bisher bekannten herkömmliche Verfahren (z.B. Gesichtserfassung, Finger- , Irisscaή usw.), ist gekennzeichnet durch die zusätzliche Ergänzung und/oder Kombination dieses und/oder dieser durch vorangehende und/oder nachgeschaltete und/oder gleichzeitige Farberfassung und/oder Farbbestimmung und/oder -Verarbeitung und/oder bildliche Farberfassung und/oder Erfassung der spektralen Zusammensetzung und/oder der Farbcharakteristika und oder des reflektierten Lichtes usw. beispielsweise von (persönlichen) Merkmal(en) und/oder Identifikationsmerkmalen und/oder von zur Identifikation und oder Verifikation nutzbaren Bereichen und/oder Teilbereichen usw.
22. Verfahren insbesondere nach einem oder mehrerer der vorgenannten Verfahren sieht eine Ergänzung und/oder Kombination eines oder mehrerer der vorgenannten Verfahren mit einem oder mehrerer der herkömmlichen Verfahren (beispielsweise Irisscan, Fingerscan, Gesichtserfassung usw.) oder die Ergänzung eines oder mehrerer der herkömmlichen mit einem oder mehreren der vorgenannten und oder nachfolgenden Verfahren vor.
23. Verfahren vorzugsweise nach einem oder mehrer der vorgenanten Verfahren, nachdem die Farberfassung und die hieraus nutzbaren Daten auch von einem anderen Merkmal als das für beispielsweise das Form, Gestalt, Umriß und oder Oberflächenstruktur usw. herangezogene sein kann und/oder dessen Daten codieren und/oder für diese stellvertretend stehen und/oder für die Referenzdatenauswahl dieser genutzt werden kann.
24 Verfahren insbesondere nach einem oder mehreren der vorgenannten Ansprüche zur
Identifikation und/oder Verifikation anhand von Farberfassung und/oder Farbbestimmung und/oder -Verarbeitung und oder bildliche Farberfassung, Erfassung der spektralen Zusammensetzung der Farbcharakteristika o.ä. (beispielsweise von Iris-, Zahn- Haut-, Haarfarbe usw.).
25. Verfahren vorzugsweise nach einem oder mehrer der vorgenannten Ansprüche erfasst und/oder gewinnt Authentifizierungsdaten mittels beispielsweise Farbmessinstrumentes, -sensors, -detektor, Spektralphotometer, Dreibereichsmessgerät, mittels Laser(-systems) Farbmessapparaturen, Farbsensoren, Bildverarbeitung, Farbanalyse des Bildes, Foto-, Video, Digital-, Kamera, einem Bildaufnahmesystem, Bildverarbeitungssystem, Bilderfassung, Kamerasystems, Sensor, Detektor, Erfassung des Strahlenganges, der erfassten spektralen Zusammensetzung des zurückgeworfenen Lichtes usw. o.ä.
26. Verfahren insbesondere nach einem oder mehreren der vorgenannten Ansprüche zur Farbidentifikation über eine Bilderfassung und/oder Farbsensorik oder Farberfassung und Farbverarbeitung insbesondere und oder z.B. für dentale Zwecke ist charakterisiert durch -Bilderfassung und/oder Farbsensorik und/oder Farbmessung. -Umwandlung der detektierten Information in Daten.
- evtl. Verarbeitung der Informationen innerhalb eines neuronalen Netzes.
-Nutzung dieser Daten um Aussagen zur Zahnfarbe z.B. ausgedrückt in entsprechenden dentalen
Nomenklatur und/oder in Dentalproduktmischungsverhältnissen, in Farbmaß-zahlen usw..
27. Verfahren insbesondere nach einem oder mehrer der vorgenannten Ansprüche bei dem mindestens der zur Identifikation oder Verifikation herangezogene Bereich oder Merkmalsteil mit mindestens der Strahlimgsleistung in Größenordnung der des Tageslichtes am Ort des zu erkennenden Objektes und bei Anwendung am lebenden Organismus mit einer Bestrahlungsleistung der LichtqueUe am entsprechenden Ort des zu erkennenden Objektes oder Identifikationsmerkmal unterhalb der maximal zulässigen Bestrahlungsleistung je nach Anwendungsort beispielsweise für das (menschliche) Auge oder die Haut und/oder bei dem die Strahlenleistung am Merkmal mindestens der des Sonnenlichtes aber höchstens unterhalb der für das Merkmal schädigenden Leistung liegt, beleuchtet wird und/oder das Licht, das mindestens des Identifikationsmerkmal beleuchtet das sichtbare Spektrum einnimmt und/oder ein Bereich und/oder mehrere Bereiche des nicht sichtbares und/oder sichtbaren Lichtes beinhalten und/oder auch beinhaltet und/oder das Licht spektral eingeschränkt und oder monochromatisch ist und/oder LaserUcht ist.
28. Verfahren insbesondere nach einem oder mehren der vorgenannten Ansprüche ist dadurch gekennzeichnet, dass bei maximal jeder und oder nach n- definierten und/oder nach einem festzulegenden Zeitraum und/oder nach letzter Identifikation und/oder Verifikation und/oder Referenzdatenerfassung eine Erneuerung der Vorbilds- und/oder Referenzdaten automatisch entweder im Zuge des Identifikations- oder Verifikationsvorganges und/oder separat dazu durch eine Erfassung erfolgt, welche in den Referenzdatenspeicher und/oder den Vorbildsaufbewahrungsort übernommen wird, wenn die Daten noch im verfahrensgemäßen Rahmen d.h. die neuen Daten in der Übereinstimmung oder im Toleranzbereich zu den Referenz- und/oder Vorbildsdaten befindet und/oder der Toleranzbereich beispielsweise je nach System und Anforderung an die Genauigkeit z.B. aufgrund des Sicherheitsstandards gewählt oder vorgegeben werden kann.
29. Verfahren vorzugsweise nach einem oder mehren der vorgenannten Verfahren und/oder bisher bekannter Verfahren ist gekennzeichnet durch die Neuerfassung von Daten aus der Erfassung des persönlichen Merkmals nach einem oder mehreren der vorgenannten Verfahren, die selbst oder ein Teil von ihnen durch das Suchpogramm genutzt werden, um die Referenzdaten aussuchen zu können, mit welchen die neu erfassten Daten, Teildaten und/oder Datenteile verglichen werden können.
30. Verfahren insbesondere nach einem oder mehren der vorgenannten Ansprüche ist gekennzeichnet durch den Gebrauch von Daten, Teildaten und/oder Datenteilen aus der Erfassung durch bisher bekannte Verfahren (Gesicht, Iris, Fingerabdruck usw.) und/oder durch die neuen Verfahren (z.B. Gebiß, Zahn, Zahnanteil usw.) als z.B. Pincode- oder Passwortersatz, welche auch durch das Suchpogramm genutzt werden können, um die Referenzdaten aussuchen zu können, mit welchen die neu erfassten Daten oder Datenteile verglichen werden können und/oder als Referenzdaten für die Daten oder Datenteile der Erfassung nach einem oder mehreren der vorgenannten Verfahren.
31. Verfahren nach einem oder mehren der vorgenannten Ansprüche ist gekennzeichnet durch die Eingabe eines Codes und/oder Speisung des Systems mit Daten aus beispielsweise einem
(tragbaren) Datenspeicher, welcher sich beispielsweise bei der zu identifizierenden oder verifizierenden Person befindet, um hierüber über das Suchpogramm die Referenzdaten schneller aussuchen zu können, mit welchen die neu erfassten Daten verglichen werden sollen und/oder als Beweis, dass der zu Überprüfende beispielsweise der Besitzer dieses Datenträgers und/oder Ausweises und/oder Passes usw. ist.
32. Verfahren vorzugsweise nach einem oder mehrerer der vorgenannten und/oder bisher bekannter Verfahren nutz Identifikationsmerkmale, Farbe Teile hiervon o.ä. und/oder Daten hierzu als Daten und/oder Code für die Datenauswahl durch das Suchpogramm zur Identifikation und/oder Verifikation.
33. Verfahren vorzugsweise nach einem oder mehrer der vorgenannten Verfahren wird genutzt für ein Mautsystem.
34. Verfahren insbesondere nach einem oder mehrer der vorgenannten Verfahren und setzt Zahn, die Zähne oder Zahnanteile, Zahnmerkmale umgebende beispielsweise Strukturen, Merkmale, Bereiche usw. mit diesen in Bezug.
35. Verfahren insbesondere nach einem oder mehrerer der vorgenannten Ansprüche nutzt natürlich gegebene und/oder natürlich markante und oder künstliche markante und oder künstlich konstruierte Merkmale, Punkte und/oder Kreuzungspunkte und/oder Besonderheiten und/oder deren Relation zueinander und/oder untereinander insbesondere ausschließlich am Gebiss, Zahn, an Zähnen und/oder Zahnanteilen in und/oder in Kombination mit umgebenden Identifikationsmerkmalen (z.B. Körper, Kopf, Gesicht, Ohr und/Oder Gegenständen und/oder Objekten und/oder Teilen von diesen usw.) und/oder ausschließlich an umgebenden Identifikationsmerkmalen beispielsweise als Daten und/oder als Datengrundlage zur Identifikation und/oder Verifikation.
36. Verfahren auch nach einem oder mehrerer der vorgenannten Verfahren ist dadurch gekennzeichnet, das natürlich gegebene und/oder natürlich markante und/oder künstlich markante und/oder künstUch erzeugte und oder konstruierte Merkmale, Punkte und/oder I reuzungspunkte, Besonderheiten usw. vom System ausgemacht und/oder erkannt werden und/oder für die Identifikation und/oder Verifikation nutzbar sind.
37. Verfahren insbesondere nach einem oder mehrerer der vorgenannten Verfahren ist dadurch gekennzeichnet, das mindestens ein Punkt und oder Merkmal und oder Besonderheit des Gebisses, an Zähnen, am Zahn und/oder an Zahnanteilen eine Relation zur Umgebung beispielsweise Körper, Kopf, Gesicht, Ohr und oder Teile hiervon usw. und/oder auch zu mindestens einem Punkten und/oder Merkmal und/oder Besonderheit bildet und oder das mindestens zwei Punkte und/oder Merkmale und/oder Besonderheiten eine Relation zueinander und/oder zur Umgebung (Punkte und oder Merkmalen und/oder Besonderheiten) bilden, welche zur Identifikations- und/oder Verifikationszwecken nutzbar ist.
38. Verfahren insbesondere nach einem oder mehrerer der vorgenannten Ansprüche, nachdem Punkte und/oder Merkmale und/oder Besonderheiten usw. im Raum und/oder in der Relation zueinander als zur Identifilcation und/oder Verifikation nutzbares Muster verwandt werden.
39. Verfahren insbesondere nach einem oder mehrerer der vorgenannten Ansprüche ist dadurch gekennzeichnet, das mindestens zwei natürlich gegebene und/oder künstlich erzeugte markante Punlcte und oder Merkmale real oder im übertragenen Sinne beispielsweise von dem Identifikations- oder/oder Verifikationssystem oder der identifizierenden oder verifizierenden Person verbunden werden und so eine künstliche oder natürliche Verbindungslinie bilden und/oder Kreuzungen von Verbindungslinien weitere Punkte (konstruierte Punkte, Kreuzungspunkte) bilden, die ihrerseits miteinander real oder im übertragenen Sinne verbunden werden können (weitere konstruierte Verbindungslinien) und so sich hieraus Daten ableiten lassen.
40. Verfahren insbesondere nach einem oder mehrerer der vorgenannten -Ansprüche ist dadurch gekennzeichnet, das Verbindungslinien, welche auch verlängert sein können, mit beispielsweise natürlich vorgegebenen Strukturen oder Strakturbrüchen Kontinuitätsänderungen usw. kreuzen können und diese Kreuzungen (konstruierte Punkte) ebenfalls Daten über ihre Relation zueinander und/oder zur Umgebung und/oder anderen Punkten und/oder verbunden miteinander und/oder mit anderen Punkten Linien bilden und Daten erzeugen, welche zur Identifikation und/oder Verifikation nutzbar sind.
41. Verfahren nach einem oder mehrerer der vorgenannten Ansprüche nachdem alle markanten und/oder konstruierten Punkte und/oder Merkmale und/oder Kreuzungen usw. miteinander verbunden werden können und/oder verbindbar sind und deren VerbindungsUnien zur Datenerzeugung genutzt werden können.
42. Verfahren insbesondere nach einem oder mehrerer der vorgenannten Ansprüche ist dadurch gekennzeichnet, das mindestens eine Verbindungslinie zwischen zwei natürlich gegebenen markanten und/oder künstlich erzeugten konstruierten Punkten und oder Merkmalen und/oder konstruierte Linie und/oder eine Linie über ihre Länge Daten liefert.
43. Verfahren insbesondere nach einem oder mehrerer der vorgenannten Ansprüche ist dadurch gekennzeichnet das die Datenbildung für die Identifikation und/oder Verifikation basiert auf mindesten einem Winkel, Fläche, Ebene und/oder den Raum, der/die durch (Verbindungs-)- linien zwischen Punkten und oder Merkmalen und/oder Besonderheiten und/oder durch die Punkte und/oder Merkmale und/oder Besonderheiten selbst (z.B. Eckpunkte) gebüdet wird.
44. Verfahren insbesondere nach einem oder mehrerer der vorgenannten Ansprüche ist dadurch gekennzeichnet das eine Rekonstruktion von Längen, Winkel- Flächen-, Ebenen und/oder Raumgrößen für Identifikations- und/oder Verifikationsvorgang ermöglicht werden kann, ist entweder der Abstand des zu bewertenden Straktur oder des zu bewertenden Merkmals zum
Erfassungsapparatur (z.B. Objekt-Objektivabstand) und/oder die Winkel bei der
Referenzdatenerfassung bekannt.
45. Verfahren insbesondere nach einem oder mehrer der vorgenannten Verfahren, nachdem mindestens ein Punkt und/oder Merkmal und/oder Besonderheit und/oder mindestens eine Verbindungslinien und/oder Linien und/oder Fläche und/oder Fläche und/oder mindestens ein Raum im Raum und/oder in Relation zu diesem und/oder in der Relation zueinander als zur Identifikation und/oder Verifikation nutzbares Muster oder ein entsprechend nutzbares Muster bilden verwandt werden und/oder zur Informations- und/oder Datenerzeugung zu vorgenanntem Zweck genutzt werden kann.
46. Verfahren insbesondere auch nach einem oder mehrεr der vorgenannten Verfahren ist dadurch gekennzeichnet das Kreuzungen zwischen einem über das Bild real und/oder imaginär gelegte Horizontallinien, Vertikallinien und/oder Gitternetz und natürliche Strukturlinien, Kontinuitätsänderungen und/oder konstruierte Linien und/oder Verbindungslinien überkreuzt, und das diese Kreuzungen Grundlage für die Bildung zur Identifikation und/oder Verifikation nutzbaren Daten- oder Muster sind oder sein können.
47. Verfahren insbesondere nach einem oder mehrer der vorgenannten Verfahren ist dadurch gekennzeichnet, das die Horizontallinien und /oder die Vertikallinien gleichabständig und/oder undgleichabständig voneinander sind und/oder das Gitternetz gleichgroße und oder ungleichgroße Netzelemente besitzt und/oder die Abständigkeit der Horizontallinien und/oder die Vertikallinien und/oder die Größe der das Gitternetzelemente einstellbar ist.
48 Verfahren insbesondere nach einem oder mehrer der vorgenannten Verfahren ist dadurch gekennzeichnet, das die Horizontallinien und/oder die Vertikallinien und/oder das Gitternetz individuell durch die markanten Punkte, natürliche Merkmale, künstlich konstruierten Punkte gebildet wird und so ein individuelles Muster darstellt, welches zur Identifikation und/oder Verifikation nutzbar ist.
49. Verfahren insbesondere nach einem oder mehrer der vorgenannten Verfahren ist dadurch gekennzeichnet, das beispielsweise die merkmalsbasierenden individuellen Horizontallinien und /oder die Vertikallinien und/oder das individueUe Gitternetz und/oder konstruierte Linien den Rand z.B. des Bildausschnittes und/oder definiert vorgegebene Linien und/oder Ebenen kreuzt und diese Kreuzungen ein individueUes Muster darstellt, welches zur Identifikation und/oder Verifikation nutzbar ist.
50. Verfahren insbesondere nach einem oder mehrer der vorgenannten Verfahren ist dadurch gekennzeichnet, das die Horizontallinien und /oder die Vertikallinien und/oder das Gitternetz, sich individuell an mindestens einem Punkt, Merkmal und/oder Besonderheit orientieren und/oder orientiert und hiernach ausrichten und/oder ausgerichtet und/oder ausgerichtet werden können, wobei der mindestens Punkt, Merkmal und oder Besonderheit insbesondere im Bereich des Gebisses, Zahnes Zahnanteils liegt oder im Bereich des Restlichen Körpers, Kopfes, Gesichtes usw..
51. Verfahren insbesondere auch nach einem oder mehrer der vorgenannten Verfahren ist dadurch gekennzeichnet, daß mindestens ein zusätzlicher Punkt und oder ein zusätzliches
Merkmal und oder Besonderheit im Bereich des Gesichtes und/oder im Bereich des übrigen Körpers und/oder dass mindestens ein solcher Punkt und/oder ein solches Merkmal im Bereich des Zahnes und/oder Gebisses und mindestens ein anderer und/oder anderes im Bereich des restlichen Körpers, Kopfes und/oder Gesichtes liegt.
52. Verfahren insbesondere auch nach einem oder mehrerer der vorgenannten Verfahren bei dem der Bezug zwischen mindestens einem im Gebiß definierten Punkt zu einem Punkt im Gesicht oder auf dem umgebenden Körper hergestellt wird.
53. Verfahren insbesondere ist dadurch gekennzeichnet, dass sich mindestens eine Horizontallinie und /oder die Vertikallinien und oder das Gitternetz und/oder ein Punkt und/oder Bereich von diesen individuell an mindestens einem Punkt, Merkmal und/oder Besonderheit orientiert und/oder ausgerichtet, welcher und/oder welches neben beispielsweise durch das Pogramm, dessen Bediener, den Anwender, Nutzer und/oder Betreiber usw. bestimmt werden kann.
54. Verfahren vorzugsweise nach einem oder mehreren der vorgenannten Verfahren nachdem die Bereiche und/oder Punkte auf den Linien und/oder im Gitternetz (beispielsweise Kreuzungspunkt, definiertes Gitterelement und oder definierter Punkt in einem solchen, Punkt auf einer Linie usw.), die sich und somit das Gitternetz und/oder die Linien nach Merkmalen oder markanten und/oder konstruierten Punkten ausrichten, sollen auch beispielsweise durch das Pogramm, dessen Bediener, den Anwender, Nutzer und/oder Betreiber usw. bestimmt werden können.
55. Verfahren vorzugsweise ist dadurch gekennzeichnet das alle Punkte beispielsweise Kreuzungspunkte, konstruierte und/oder natürlich gegebene markante Punkte usw. untereinander und miteinander Verbmdungslinien bilden können und so über Relationen und/oder Muster beispielsweise von Punkten, Kreuzimgspunkten usw. zueinander und zur Umgebung und/oder zum Raum in dem sie sich befinden und oder über die Relationen der Längen und/oder die Lage von Linien, Winkel die sie einschließen und/oder Flächen und/oder Ebenen und/oder Räume die sie bilden und/oder die sie aufspannen und/oder umschließen und so zur .Identifikation und/oder
Verifikation nutzbare Daten erzeugen und/oder hierfür nützliche Informationen beispielsweise zur Körperhaltung und/oder -Stellung und/oder Kopfstellung beispielsweise über die Pupillenlage und/oder die Kopflage usw. liefern, wodurch sich diese ermitteln lassen.
56. Verfahren vorzugsweise nach einem oder mehreren der vorgenannten Ansprüche, ist dadurch gekennzeichnet das alle natürlich markanten und oder natürlich gegebenen, künstlich erzeugte und/oder künstlich markante und/oder konstruierten und/oder Kreuzungspunkte, das Verbindungslinien und/oder Linien, Winkel, Flächen und/oder Ebenen und/oder Räume, welche ausgewählt werden können, mindestens ein Muster und/oder Musterrelationen und/oder Proportionen bilden, welche(s) zur Identifikation und/oder Verifikation nutzbar ist/sind genutzt werden, welche zur Identifikation und/oder Verifikation nutzbar sind.
57. Verfahren vorzugsweise nach einem oder mehreren der vorgenannten Ansprüche nachdem Verbindungslinien (oder -ebenen) und/oder Linien (Ebenen) und/oder Gitterlinien mindestens eine definierte beispielsweise vorgegebene Ebene und/oder Linie und/oder den Ausschnittsrand des Bildes oder eines Teiles hiervon kreuzen und so ein Muster schaffen, welches zur Identifikation und/oder Verifikation nutzbar ist.
58. Verfahren vorzugsweise nach einem oder mehreren der vorgenannten Ansprüche, nachdem Menge und/oder Art und/oder welche der Punkte, Kreuzungspunkte, Verbmdungslinien und/oder Linien und/oder Gittemetze/Gitternetzelemente deren Weite der Gitterelemente, Anzahl von markanten und/oder konstruierten Punkten, der Kreuzungsstellen miteinander und/oder mit dem Ausschnittsrand des Bildes durch die beispielsweise individuellen Strukturen der zu identifizierenden und/oder verifizierenden Person, Lebewesen und/oder des Individuums und /oder durch den Bewertenden dieses Vorganges und/oder den Programmierer und oder durch das Sicherheitsbedürfnis des Anwenders dieses Pogrames usw. vorgegeben werden können.
59. Verfahren vorzugsweise nach einem oder mehreren der vorgenannten Ansprüche, nachdem der Vergleich von markanten und oder konstruierten Punkten, Linien, Verbindungslinien und/oder Mustern durch Überlagerung von Daten und/oder und oder Informationen Mustern und/oder Bildern von einem Bewertenden visuell, über Computer o.ä. durchgeführt wird.
60. Verfahren vorzugsweise auch nach einem oder mehrerer Verfahren nutzt die. Relation ein oder mehrerer vorstehend genannter Merkmale von Zähnen, Zahn oder Zahnanteilen zu den diese umgebende persönlichen Merkmalen zum Zweck der Identifikation von Personen, Lebewesen und/oder Individuen.
61. Verfahren vorzugsweise nach einem oder mehrerer der vorgenannten Verfahren ist dadurch gekennzeichnet, daß nur individuelle Merkmale (beispielsweise auch Punkte, Linien Ebenen,
Flächen, Ebenen und oder Räume), Besonderheiten und/oder deren Charakteristika, Identifikationsmerkmale und/oder Teile hiervon, welche für die und/oder das zu identifizierende und/oder verifizierende Person, Lebewesen und/oder Individuum besonders ist und/oder diese/s charakterisiert jedoch mindestens eines als Basis für Referenzdaten erfaßt und/oder abgespeichert werden und/oder in einer Neuerfassung innerhalb des Identifikations- und /oder Verifikationsfalles erfasst sowie zur Verifikation und Identifikation genutzt werden können.
62. Verfahren vorzugsweise nach einem oder mehrerer der vorgenannten Verfahren ist dadurch gekennzeichnet, daß individuelle Merkmale, welche für die und/oder das zu identifizierende oder verifizierende Person, Lebewesen und/oder Individuum besonders sind aber mindestens eines und oder diese/s charalterisiert Referenzdaten hefert und/oder in einer Neuerfassung innerhalb des Identifikations- und /oder Verifikationsfalles innerhalb des Suchpogrammes zu Vorauswahl von Referenzdaten dienen und/oder dient.
63. Verfahren vorzugsweise nach einem oder mehrerer der vorgenannten Verfahren ist dadurch gekennzeichnet, dass beispielsweise der Ausweis, die Chipkarte usw. Daten der persönlichen Merkmale (Zähne und/ oder umgebender Körperstrukturen und/oder Teile hiervon) in Datenform und oder in büdlicher Form o.ä. beinhaltet, aufgrund derer das Suchpogramm die Referenzdaten auswählt.
64. Verfahren vorzugsweise auch nach einem oder mehrerer der vorgenannten Verfahren ist dadurch gekennzeichnet, dass beispielsweise der Ausweis, Reisepaß, die Chipkarte usw. Daten der persönlichen Merkmale (beispielsweise Zähne und/ oder umgebender Körperstrukturen und/oder Teile hiervon usw.) in Bildform und/oder in Struktur (Muster, Rauigkeit) beinhaltet, welche ebenfalls neben den an der Person, dem Lebewesen Individuum befindliche Strukturen im Identifikations- und/oder Verifikationsfalle mittels Erfassungsapparatur (z.B. Laser, Kamera, Sensor usw.) erfasst wird, wobei entweder die Erfassung von den Daten beispielsweise am Ausweis und/oder der Chipkarte usw. die Referenzdaten für die Daten der Merkmalerfassung an der Person und oder diese die Referenzdaten für die Erfassung von den Daten beispielsweise am Ausweis und/oder der Chipkarte usw. bilden.
65. Verfahren vorzugsweise nach einem oder mehrerer der vorgenannten Verfahren, nachdem die Erfassung von dem Ausweis und/oder der Chipkarte nicht dasselbe Erfassungssystem besitzen muß wie die Erfassung der Merkmale an der Person, des Lebewesens und oder des Individuums.
66. Verfahren vorzugsweise nach einem oder mehrerer der vorgenannten Verfahren, nachdem beispielsweise ein oder mehrere erfasste Merkmale, Merkmalsdaten, Abbildungen usw. durch ein und/oder mehrere der vorgenannten Verfahren und oder durch ein oder mehrere bisher bekannte herkömmliche Verfahren erfasst ein Datencode beispielsweise als Pincode-, Codewortersatz und/oder die Referenzdaten bilden für die Erfassung mittels eines anderen und/oder andersartigen und/oder ein oder mehrerer der vorgenannten Verfahren bilden.
67. Verfahren insbesondere auch nach einem oder mehrerer der vorgenannten Verfahren, nachdem die Erfassung und/oder ein bestimmter Erfassungsumfang von Daten erst bei einer angemessenen Gewichtung des eine Identifikation und oder Verifikation notwendig machenden Ereignisses erfolgt.
6S. Verfahren insbesondere nach einem oder mehrerer der vorstehenden Verfahren nutzt elektromagnetische Strahlung mit Wellenlängen jenseits der des Lichtbereiches.
69. Verfahren insbesondere auch nach einem oder mehrerer der vorgenannten Verfahren nutzt die Kombination aus Erfassung mittels elektromagnetische Strahlung mit Wellenlängen jenseits der des Lichtbereiches und die Erfassung beispielsweise über Bilderfassung, Kamerasystem Laser usw. in Anlehnung an ein oder mehrerer der vorgenannten Ansprüche.
70. Verfahren insbesondere auch nach einem oder mehrerer der vorgenannten Verfahren nutzt die Daten aus Erfassung mittels elektromagnetische Strahlung in mit Wellenlängen jenseits der des
Lichtbereiches, um durch den Vergleich mit Daten aus der Erfassung beispielsweise über Bilderfassung, Kamerasystem Laser und/oder unter Nutzung von Licht im sichtbaren oder unsichtbaren Spektralbereich usw. in Anlehnung an ein oder mehrerer der vorgenannten Ansprüche eine Person ein Lebewesen, Gegenstand, Material usw. zu identifizieren oder verifizieren.
71. Verfahren insbesondere nach einem oder mehrerer der vorgenannten Verfahren nachdem durch Detektion von Merkmalen ein Muster in 2D und/oder 3D erfolgt mit und ohne Nutzung eines von Koordinatensystems, mit und ohne Nutzung eines Gitternetzes, wobei das Muster zu Identifikation und /oder Verifikation nutzbare Daten liefert.
72. Verfahren insbesondere nach einem oder mehrerer vorgenannten Ansprüche nachdem Flächen, Räume, Gitterelemente, Bereiche durch ihren Informationsgehalt (z.B. über Farbtöne,
Graustufung, Mengen und Dichte der Abgreifpunkte Anzahl der Pixel oder Bits usw. z.B. der Bildflächen, Pixel usw.) Aussagen treffen zu Stnikturen und markanten Punkten und/oder Arealen und/oder Merkmale erkennen.
5 73. Verfahren insbesondere nach einem oder mehrerer vorgenannten Ansprüche nachdem zur Datenkompremierung Daten, Informationen Muster zusammengefasst werden und z.B. einübergeordnetes Muster oder Datenverrechnungen beispielsweise Vektoren oder Matrixbeschreibungen usw. bilden.
10 74. Verfahren insbesondere nach einem oder mehreren der vorgenannten Verfahren, nachdem die abgelegten Referenzdaten aus einer Erfassung von mindestens einem Identifikationsmerkmale (persönliche) Daten über die Person oder bei der Anwendung an einem Gegenstand Daten und/oder Informationen über diese und/oder dieses codiert und/oder enthält.
15 75. Verfahren vorzugsweise nach einem oder mehrerer der vorgenannten Verfahren, ist gekennzeichnet durch die Einstellung oder Auswahl (z.B. durch Werk, Nutzer, Anwender, den zu Identifizierenden und/oder Verifizierenden usw.) z.B. der Lokalisation, Größe, Anzahl, Muster der Erfassungsbereiche und/oder Identifizierungsmerkmale (z.B. auf Gebiß, Körper o.ä.) und/oder der zu nutzenden Daten. 0 76. Verfahren vorzugsweise nach einem oder mehrerer der vorgenannten Verfahren nutz ein neuronales Netz.
77. System und oder Apparatur zur Erfassung und/oder Datenabgleich einsetzbar in einem oder 5 mehrerer der vorgenannten Ansprüche ist gekennzeichnet durch: Erfassungseinrichtung (beispielsweise eventuell mindestens einen Lichtgeber/ Beleuchtungseinheit, z.B. mindestens einen (Licht)empfanger, Sensor, Detektor o.ä.) und Verarbeitungs- und/oder Vergleichseinrichtung (z.B. Verarbeitxmgseinheit/zentraler oder dezentraler Datenspeicher für Referenzdaten und/oder Codedaten, persönliche Daten usw.). 0
78. System und/oder Apparatur insbesondere nach einem oder mehrerer vorgenannten Ansprüche, enthält einen Laserlichtgeber und einen hierfür geeigneten beispielsweise Sensor, Detektor, Kamera oder er enthält nur einen Sensor, Detektor, eine Kamera, Bilderfassungsapparatur usw.. 5
79. System und/oder Apparatur insbesondere nach einem oder mehrerer der Ansprüche nachdem diese und oder dieses portabel ist und oder über schnurlose Verbindung beispielsweise Funk einen Datenaustausch und/oder Datenverarbeitung und/oder den Datenvergleich beispielsweise mit einem Datenpool der Referenzdaten und/oder charakterisierender und/oder beschreibender und oder persönlicher Daten auch über weite Strecken ermöglicht und/oder in Kombination mit einem Sende- . und Empfangssystem um zusätzlich aktuelle Daten (Geschwindigkeit, zurückgelegte Strecke vergangene Fahrzeit usw.) zu erfassen - bildet ein Mautsystem.
80. System und/oder Apparatur insbesondere nach einem oder mehrerer der Ansprüche nachdem die Sensorik in einem U-förmig angeordneten Profil, u-förmig um des Gesicht und den Kopf und/oder den Körper des zu Identifizierenden und/oder Verifizierenden liegt.
81. System und oder Apparatur insbesondere nach einem oder mehrerer der Ansprüche . ist dadurch gekennzeichnet, dass zwischen den herkömmlichen für diesen Zweck genutzten oder den nutzbaren Systemen und dem beispielsweise Objekt ein Vergrößerungssystem z.B. Linsen befindlich ist oder über die Aufbereitung beispielsweise auf digitaler Ebene eine Vergrößerung ermöglicht wird.
82. System und/oder Apparatur insbesondere für ein oder mehrere vorgenannten Verfahren für den Einsatz zur Entferaungsidentifikationen ist dadurch gekennzeichnet, dass zwischen den herkömmlichen für diesen Zweck genutzten oder den nutzbaren Systemen und dem beispielsweise Objekt z.B. Linsen befindlich ist oder über die Aufbereitung beispielsweise auf digitaler Ebene ein Zoom ermöglicht wird.
83. System und/oder Apparatur insbesondere nach einem oder mehreren vorgenannten Verfahren nachdem der Lichtgeber Licht mit einer Leistungen am Objekt mit mindestens der Leistung des Sonnenlichtes liegt, aussendet und/oder nachdem der Lichtgeber Licht mit Leistungen am Objekt maximal der unterhalb der je nach Anwendung für Menschen oder das Merkmal schädigenden Leistung liegen, aussendet und/oder nachdem der Lichtgeber vorzugsweise Infrarotlicht aussendet.
84. System und/oder Apparaturvorzugsweise insbesondere nach einem oder mehrerer der vorgenannten Ansprüche bzw. Verfahren nutz zu diesem Zweck ein neuronales Netz.
85. System und/oder Apparatur insbesondere nach einem oder mehrerer der vorgenannten Ansprüche, ist gekennzeichnet durch Anweisungsgeber z.B. Schrift und/oder Wort visuell und/oder akustisch für mstruktionen an die zu verifizierende Person oder das zu verifizierende Lebewesen usw. und/oder durch einen Spiegel zur Orientierung der Person und der Positionierung des zur Identifikation oder Verifikation heranzuziehenden persönlichen Merkmals und oder gekennzeichnet durch einen Zielsucher und/oder Zielanzeige für die Blickrichtung beispielsweise in Form eines Lasers oder Bildes usw..
EP05716298A 2004-03-29 2005-03-22 Verfahren und system zur identifikation, verifikation, erkennung und wiedererkennung Withdrawn EP1730666A1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102004014875 2004-03-29
DE102004039937A DE102004039937A1 (de) 2004-08-18 2004-08-18 Verfahren und System zur Identifikation, Verifikation, Erkennung und Wiedererkennung
PCT/EP2005/003049 WO2005093637A1 (de) 2004-03-29 2005-03-22 Verfahren und system zur identifikation, verifikation, erkennung und wiedererkennung

Publications (1)

Publication Number Publication Date
EP1730666A1 true EP1730666A1 (de) 2006-12-13

Family

ID=34965058

Family Applications (1)

Application Number Title Priority Date Filing Date
EP05716298A Withdrawn EP1730666A1 (de) 2004-03-29 2005-03-22 Verfahren und system zur identifikation, verifikation, erkennung und wiedererkennung

Country Status (4)

Country Link
US (1) US20070183633A1 (de)
EP (1) EP1730666A1 (de)
CA (1) CA2600938A1 (de)
WO (1) WO2005093637A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112006791A (zh) * 2020-08-31 2020-12-01 上海正雅齿科科技股份有限公司 牙齿矫治信息的获取方法及系统
RU2815689C1 (ru) * 2023-06-14 2024-03-20 Общество с ограниченной ответственностью "МЕТРИКА Б" Способ, терминал и система для биометрической идентификации

Families Citing this family (175)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11026768B2 (en) 1998-10-08 2021-06-08 Align Technology, Inc. Dental appliance reinforcement
US9492245B2 (en) 2004-02-27 2016-11-15 Align Technology, Inc. Method and system for providing dynamic orthodontic assessment and treatment profiles
US8872899B2 (en) * 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
US8681100B2 (en) 2004-07-30 2014-03-25 Extreme Realty Ltd. Apparatus system and method for human-machine-interface
KR101323966B1 (ko) * 2004-07-30 2013-10-31 익스트림 리얼리티 엘티디. 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법
US7689010B2 (en) * 2004-12-03 2010-03-30 Invacare International Sarl Facial feature analysis system
US20060148323A1 (en) * 2004-12-03 2006-07-06 Ulrich Canzler Facial feature analysis system
US7916900B2 (en) * 2005-03-01 2011-03-29 Lanier Joan E Identity kit
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US20070285554A1 (en) 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US20080172386A1 (en) * 2007-01-17 2008-07-17 Ammar Hany H Automated dental identification system
JP2008210140A (ja) * 2007-02-26 2008-09-11 Sony Corp 情報抽出方法、登録装置、照合装置及びプログラム
JP2008210105A (ja) * 2007-02-26 2008-09-11 Hitachi Maxell Ltd 生体情報取得デバイス
WO2008113024A1 (en) * 2007-03-14 2008-09-18 Spectros Corporation Metabolism-or biochemical-based anti-spoofing biometrics devices, systems, and methods
US7878805B2 (en) 2007-05-25 2011-02-01 Align Technology, Inc. Tabbed dental appliance
US8738394B2 (en) 2007-11-08 2014-05-27 Eric E. Kuo Clinical data file
US8108189B2 (en) 2008-03-25 2012-01-31 Align Technologies, Inc. Reconstruction of non-visible part of tooth
WO2009139110A1 (ja) * 2008-05-13 2009-11-19 パナソニック株式会社 口腔内測定装置及び口腔内測定システム
US20090289955A1 (en) * 2008-05-22 2009-11-26 Yahoo! Inc. Reality overlay device
US8711176B2 (en) 2008-05-22 2014-04-29 Yahoo! Inc. Virtual billboards
US8092215B2 (en) 2008-05-23 2012-01-10 Align Technology, Inc. Smile designer
US9492243B2 (en) 2008-05-23 2016-11-15 Align Technology, Inc. Dental implant positioning
US8172569B2 (en) 2008-06-12 2012-05-08 Align Technology, Inc. Dental appliance
US8718383B2 (en) * 2008-08-06 2014-05-06 Obschestvo s ogranischennoi otvetstvennostiu “KUZNETCH” Image and website filter using image comparison
JP5599400B2 (ja) * 2008-09-04 2014-10-01 エクストリーム リアリティー エルティーディー. 画像センサベースのヒューマンマシンインタフェースを提供する方法システムおよびソフトウェア
US20100068676A1 (en) * 2008-09-16 2010-03-18 David Mason Dental condition evaluation and treatment
US8152518B2 (en) 2008-10-08 2012-04-10 Align Technology, Inc. Dental positioning appliance having metallic portion
WO2010046901A2 (en) 2008-10-24 2010-04-29 Extreme Reality Ltd. A method system and associated modules and software components for providing image sensor based human machine interfacing
US8493178B2 (en) * 2008-12-02 2013-07-23 Electronics And Telecommunications Research Institute Forged face detecting method and apparatus thereof
US8180143B2 (en) * 2008-12-23 2012-05-15 General Electric Company Method and system for estimating contact patterns
US8292617B2 (en) 2009-03-19 2012-10-23 Align Technology, Inc. Dental wire attachment
US8320985B2 (en) * 2009-04-02 2012-11-27 Empire Technology Development Llc Touch screen interfaces with pulse oximetry
US8786575B2 (en) * 2009-05-18 2014-07-22 Empire Technology Development LLP Touch-sensitive device and method
US10769412B2 (en) * 2009-05-18 2020-09-08 Mark Thompson Mug shot acquisition system
US20110007167A1 (en) * 2009-07-10 2011-01-13 Starvision Technologies Inc. High-Update Rate Estimation of Attitude and Angular Rates of a Spacecraft
US8765031B2 (en) 2009-08-13 2014-07-01 Align Technology, Inc. Method of forming a dental appliance
KR101577106B1 (ko) 2009-09-21 2015-12-11 익스트림 리얼리티 엘티디. 인간 기계가 가전 기기와 인터페이싱하기 위한 방법, 회로, 장치 및 시스템
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
US8719191B2 (en) * 2010-03-01 2014-05-06 International Business Machines Corporation Training and verification using a correlated boosted entity model
US9241774B2 (en) 2010-04-30 2016-01-26 Align Technology, Inc. Patterned dental positioning appliance
US9211166B2 (en) 2010-04-30 2015-12-15 Align Technology, Inc. Individualized orthodontic treatment index
US20110316670A1 (en) * 2010-06-28 2011-12-29 Schwarz Matthew T Biometric kit and method of creating the same
EP2418472B1 (de) * 2010-08-13 2013-08-07 Berthold Technologies GmbH & Co. KG Vorrichtung zur Anordnung wenigstens eines Probengefäßes in einem optischen Messgerät, optisches Messgerät mit einer solchen Vorrichtung und Verwendung eines solchen optischen Messgerätes
ES2381714B1 (es) * 2010-09-30 2013-04-26 Universidad Rey Juan Carlos Sistema y metodo de identificacion biometrica.
JP5703707B2 (ja) * 2010-11-18 2015-04-22 富士ゼロックス株式会社 画像処理システム、画像処理装置及び画像処理プログラム
US12101354B2 (en) * 2010-11-29 2024-09-24 Biocatch Ltd. Device, system, and method of detecting vishing attacks
US10776476B2 (en) 2010-11-29 2020-09-15 Biocatch Ltd. System, device, and method of visual login
US10164985B2 (en) 2010-11-29 2018-12-25 Biocatch Ltd. Device, system, and method of recovery and resetting of user authentication factor
US10032010B2 (en) 2010-11-29 2018-07-24 Biocatch Ltd. System, device, and method of visual login and stochastic cryptography
US10055560B2 (en) 2010-11-29 2018-08-21 Biocatch Ltd. Device, method, and system of detecting multiple users accessing the same account
US10949514B2 (en) 2010-11-29 2021-03-16 Biocatch Ltd. Device, system, and method of differentiating among users based on detection of hardware components
US10897482B2 (en) 2010-11-29 2021-01-19 Biocatch Ltd. Method, device, and system of back-coloring, forward-coloring, and fraud detection
US11269977B2 (en) 2010-11-29 2022-03-08 Biocatch Ltd. System, apparatus, and method of collecting and processing data in electronic devices
US10474815B2 (en) 2010-11-29 2019-11-12 Biocatch Ltd. System, device, and method of detecting malicious automatic script and code injection
US10069852B2 (en) 2010-11-29 2018-09-04 Biocatch Ltd. Detection of computerized bots and automated cyber-attack modules
US10037421B2 (en) 2010-11-29 2018-07-31 Biocatch Ltd. Device, system, and method of three-dimensional spatial user authentication
US10917431B2 (en) * 2010-11-29 2021-02-09 Biocatch Ltd. System, method, and device of authenticating a user based on selfie image or selfie video
US10949757B2 (en) 2010-11-29 2021-03-16 Biocatch Ltd. System, device, and method of detecting user identity based on motor-control loop model
US11210674B2 (en) 2010-11-29 2021-12-28 Biocatch Ltd. Method, device, and system of detecting mule accounts and accounts used for money laundering
US9531701B2 (en) * 2010-11-29 2016-12-27 Biocatch Ltd. Method, device, and system of differentiating among users based on responses to interferences
US10970394B2 (en) 2017-11-21 2021-04-06 Biocatch Ltd. System, device, and method of detecting vishing attacks
US10728761B2 (en) 2010-11-29 2020-07-28 Biocatch Ltd. Method, device, and system of detecting a lie of a user who inputs data
US10083439B2 (en) 2010-11-29 2018-09-25 Biocatch Ltd. Device, system, and method of differentiating over multiple accounts between legitimate user and cyber-attacker
US10747305B2 (en) 2010-11-29 2020-08-18 Biocatch Ltd. Method, system, and device of authenticating identity of a user of an electronic device
US10298614B2 (en) * 2010-11-29 2019-05-21 Biocatch Ltd. System, device, and method of generating and managing behavioral biometric cookies
US11223619B2 (en) 2010-11-29 2022-01-11 Biocatch Ltd. Device, system, and method of user authentication based on user-specific characteristics of task performance
US10621585B2 (en) 2010-11-29 2020-04-14 Biocatch Ltd. Contextual mapping of web-pages, and generation of fraud-relatedness score-values
US10069837B2 (en) * 2015-07-09 2018-09-04 Biocatch Ltd. Detection of proxy server
US9483292B2 (en) 2010-11-29 2016-11-01 Biocatch Ltd. Method, device, and system of differentiating between virtual machine and non-virtualized device
US10685355B2 (en) 2016-12-04 2020-06-16 Biocatch Ltd. Method, device, and system of detecting mule accounts and accounts used for money laundering
US10586036B2 (en) 2010-11-29 2020-03-10 Biocatch Ltd. System, device, and method of recovery and resetting of user authentication factor
US9747436B2 (en) * 2010-11-29 2017-08-29 Biocatch Ltd. Method, system, and device of differentiating among users based on responses to interferences
US10395018B2 (en) 2010-11-29 2019-08-27 Biocatch Ltd. System, method, and device of detecting identity of a user and authenticating a user
US10834590B2 (en) 2010-11-29 2020-11-10 Biocatch Ltd. Method, device, and system of differentiating between a cyber-attacker and a legitimate user
US20190158535A1 (en) * 2017-11-21 2019-05-23 Biocatch Ltd. Device, System, and Method of Detecting Vishing Attacks
US10404729B2 (en) 2010-11-29 2019-09-03 Biocatch Ltd. Device, method, and system of generating fraud-alerts for cyber-attacks
US10262324B2 (en) 2010-11-29 2019-04-16 Biocatch Ltd. System, device, and method of differentiating among users based on user-specific page navigation sequence
US10476873B2 (en) 2010-11-29 2019-11-12 Biocatch Ltd. Device, system, and method of password-less user authentication and password-less detection of user identity
CA2806520C (en) 2011-01-23 2016-02-16 Extreme Reality Ltd. Methods, systems, devices and associated processing logic for generating stereoscopic images and video
KR20120131499A (ko) * 2011-05-25 2012-12-05 현대자동차주식회사 인체통신을 이용한 차량 제어 시스템 및 그 방법
US20130330447A1 (en) 2012-06-12 2013-12-12 Elwha LLC, a limited liability company of the State of Delaware Substrate Structure Deposition Treatment System And Method For Ingestible Product System and Method
US10239256B2 (en) 2012-06-12 2019-03-26 Elwha Llc Food printing additive layering substrate structure ingestible material preparation system and method
US9922576B2 (en) * 2011-08-26 2018-03-20 Elwha Llc Ingestion intelligence acquisition system and method for ingestible material preparation system and method
US10192037B2 (en) 2011-08-26 2019-01-29 Elwah LLC Reporting system and method for ingestible product preparation system and method
US9997006B2 (en) 2011-08-26 2018-06-12 Elwha Llc Treatment system and method for ingestible product dispensing system and method
US10026336B2 (en) 2011-08-26 2018-07-17 Elwha Llc Refuse intelligence acquisition system and method for ingestible product preparation system and method
US9947167B2 (en) 2011-08-26 2018-04-17 Elwha Llc Treatment system and method for ingestible product dispensing system and method
US10121218B2 (en) 2012-06-12 2018-11-06 Elwha Llc Substrate structure injection treatment system and method for ingestible product system and method
US9785985B2 (en) 2011-08-26 2017-10-10 Elwha Llc Selection information system and method for ingestible product preparation system and method
US10115093B2 (en) * 2011-08-26 2018-10-30 Elwha Llc Food printing goal implementation substrate structure ingestible material preparation system and method
US9403238B2 (en) 2011-09-21 2016-08-02 Align Technology, Inc. Laser cutting
US9375300B2 (en) 2012-02-02 2016-06-28 Align Technology, Inc. Identifying forces on a tooth
US9220580B2 (en) 2012-03-01 2015-12-29 Align Technology, Inc. Determining a dental treatment difficulty
US9076048B2 (en) * 2012-03-06 2015-07-07 Gary David Shubinsky Biometric identification, authentication and verification using near-infrared structured illumination combined with 3D imaging of the human ear
CN102646190B (zh) * 2012-03-19 2018-05-08 深圳市腾讯计算机系统有限公司 一种基于生物特征的认证方法、装置及系统
US9414897B2 (en) 2012-05-22 2016-08-16 Align Technology, Inc. Adjustment of tooth position in a virtual dental model
US9168778B2 (en) * 2012-07-25 2015-10-27 Brian P. Trava Dental-based identification system
JP5954146B2 (ja) * 2012-12-04 2016-07-20 富士通株式会社 補正方法、システム、情報処理装置、および補正プログラム
US20140278579A1 (en) * 2013-03-15 2014-09-18 Hamed Mojahed Medical Form Generation, Customization and Management
CN104639517B (zh) * 2013-11-15 2019-09-17 阿里巴巴集团控股有限公司 利用人体生物特征进行身份验证的方法和装置
CN103690149B (zh) * 2013-12-30 2016-08-17 惠州Tcl移动通信有限公司 通过面部拍照识别身体健康状况的移动终端及其实现方法
CN111898108B (zh) * 2014-09-03 2024-06-04 创新先进技术有限公司 身份认证方法、装置、终端及服务器
US9610141B2 (en) 2014-09-19 2017-04-04 Align Technology, Inc. Arch expanding appliance
US10449016B2 (en) 2014-09-19 2019-10-22 Align Technology, Inc. Arch adjustment appliance
US9744001B2 (en) 2014-11-13 2017-08-29 Align Technology, Inc. Dental appliance with cavity for an unerupted or erupting tooth
US10504386B2 (en) 2015-01-27 2019-12-10 Align Technology, Inc. Training method and system for oral-cavity-imaging-and-modeling equipment
GB2539705B (en) 2015-06-25 2017-10-25 Aimbrain Solutions Ltd Conditional behavioural biometrics
EP3341704A1 (de) 2015-08-28 2018-07-04 Marx, Jürgen Verfahren und vorrichtung zur erfassung der oberflächenstruktur und beschaffenheit einer probe
US11554000B2 (en) 2015-11-12 2023-01-17 Align Technology, Inc. Dental attachment formation structure
US11931222B2 (en) 2015-11-12 2024-03-19 Align Technology, Inc. Dental attachment formation structures
US11103330B2 (en) 2015-12-09 2021-08-31 Align Technology, Inc. Dental attachment placement structure
US11596502B2 (en) 2015-12-09 2023-03-07 Align Technology, Inc. Dental attachment placement structure
US9916511B2 (en) * 2016-03-29 2018-03-13 Tata Consultancy Services Limited Systems and methods for authentication based on human teeth pattern
SG11201809773WA (en) * 2016-05-11 2018-12-28 Sambit Sahoo Biometric unique combination identification system
WO2017218947A1 (en) 2016-06-17 2017-12-21 Align Technology, Inc. Intraoral appliances with sensing
EP3988048B1 (de) 2016-06-17 2024-01-17 Align Technology, Inc. Leistungsüberwachung einer kieferorthopädischen vorrichtung
US11003894B2 (en) * 2016-06-27 2021-05-11 Sony Corporation Information processing system, storage medium, and information processing method to make a response to a user on a basis of an episode constructed from an interaction with a user
GB2552032B (en) 2016-07-08 2019-05-22 Aimbrain Solutions Ltd Step-up authentication
EP3578131B1 (de) 2016-07-27 2020-12-09 Align Technology, Inc. Intraoraler scanner mit zahnmedizinischen diagnosefähigkeiten
WO2018022752A1 (en) * 2016-07-27 2018-02-01 James R. Glidewell Dental Ceramics, Inc. Dental cad automation using deep learning
US10198122B2 (en) 2016-09-30 2019-02-05 Biocatch Ltd. System, device, and method of estimating force applied to a touch surface
US10579784B2 (en) 2016-11-02 2020-03-03 Biocatch Ltd. System, device, and method of secure utilization of fingerprints for user authentication
CN113648088B (zh) 2016-11-04 2023-08-22 阿莱恩技术有限公司 用于牙齿图像的方法和装置
EP3547950A1 (de) 2016-12-02 2019-10-09 Align Technology, Inc. Verfahren und vorrichtungen zur anpassung von schnellen gaumenexpandern unter verwendung von digitalen modellen
US11376101B2 (en) 2016-12-02 2022-07-05 Align Technology, Inc. Force control, stop mechanism, regulating structure of removable arch adjustment appliance
US11026831B2 (en) 2016-12-02 2021-06-08 Align Technology, Inc. Dental appliance features for speech enhancement
EP3824843A1 (de) 2016-12-02 2021-05-26 Align Technology, Inc. Palatale expander und verfahren zur erweiterung des gaumens
US10548700B2 (en) 2016-12-16 2020-02-04 Align Technology, Inc. Dental appliance etch template
US10754323B2 (en) * 2016-12-20 2020-08-25 General Electric Company Methods and systems for implementing distributed ledger manufacturing history
KR20180071589A (ko) 2016-12-20 2018-06-28 삼성전자주식회사 홍채 인식 기능 운용 방법 및 이를 지원하는 전자 장치
US10779718B2 (en) 2017-02-13 2020-09-22 Align Technology, Inc. Cheek retractor and mobile device holder
US10973611B2 (en) 2017-03-20 2021-04-13 Align Technology, Inc. Generating a virtual depiction of an orthodontic treatment of a patient
US12090020B2 (en) 2017-03-27 2024-09-17 Align Technology, Inc. Apparatuses and methods assisting in dental therapies
US10613515B2 (en) 2017-03-31 2020-04-07 Align Technology, Inc. Orthodontic appliances including at least partially un-erupted teeth and method of forming them
US11045283B2 (en) 2017-06-09 2021-06-29 Align Technology, Inc. Palatal expander with skeletal anchorage devices
DE102017005989A1 (de) 2017-06-23 2018-12-27 IDA Indoor Advertising GmbH Verfahren zur zielgerichteten Gestaltung der Aussagekraft von Werbemechanismen und Anordnung zur Durchführung des Verfahrens
US10639134B2 (en) 2017-06-26 2020-05-05 Align Technology, Inc. Biosensor performance indicator for intraoral appliances
US10885521B2 (en) 2017-07-17 2021-01-05 Align Technology, Inc. Method and apparatuses for interactive ordering of dental aligners
US10397262B2 (en) 2017-07-20 2019-08-27 Biocatch Ltd. Device, system, and method of detecting overlay malware
WO2019018784A1 (en) 2017-07-21 2019-01-24 Align Technology, Inc. ANCHOR OF CONTOUR PALATIN
CN115462921A (zh) 2017-07-27 2022-12-13 阿莱恩技术有限公司 牙齿着色、透明度和上釉
CN110909695B (zh) * 2017-07-29 2023-08-18 Oppo广东移动通信有限公司 防伪处理方法及相关产品
US11116605B2 (en) 2017-08-15 2021-09-14 Align Technology, Inc. Buccal corridor assessment and computation
WO2019036677A1 (en) 2017-08-17 2019-02-21 Align Technology, Inc. SURVEILLANCE OF CONFORMITY OF DENTAL DEVICE
US10813720B2 (en) 2017-10-05 2020-10-27 Align Technology, Inc. Interproximal reduction templates
WO2019084326A1 (en) 2017-10-27 2019-05-02 Align Technology, Inc. OTHER BORE ADJUSTMENT STRUCTURES
US10936705B2 (en) * 2017-10-31 2021-03-02 Baidu Usa Llc Authentication method, electronic device, and computer-readable program medium
CN111295153B (zh) 2017-10-31 2023-06-16 阿莱恩技术有限公司 具有选择性牙合负荷和受控牙尖交错的牙科器具
WO2019089989A2 (en) 2017-11-01 2019-05-09 Align Technology, Inc. Automatic treatment planning
US11534974B2 (en) 2017-11-17 2022-12-27 Align Technology, Inc. Customized fabrication of orthodontic retainers based on patient anatomy
US11219506B2 (en) 2017-11-30 2022-01-11 Align Technology, Inc. Sensors for monitoring oral appliances
JP6897793B2 (ja) 2017-12-08 2021-07-07 日本電気株式会社 人物照合装置、方法、及びプログラム
WO2019118876A1 (en) 2017-12-15 2019-06-20 Align Technology, Inc. Closed loop adaptive orthodontic treatment methods and apparatuses
US10980613B2 (en) 2017-12-29 2021-04-20 Align Technology, Inc. Augmented reality enhancements for dental practitioners
KR102483834B1 (ko) * 2018-01-17 2023-01-03 삼성전자주식회사 음성 명령을 이용한 사용자 인증 방법 및 전자 장치
CN114587237A (zh) 2018-01-26 2022-06-07 阿莱恩技术有限公司 诊断性口内扫描和追踪
CN108304828B (zh) * 2018-03-08 2021-03-30 西安知微传感技术有限公司 一种三维活体人脸识别装置及方法
US11007040B2 (en) 2018-03-19 2021-05-18 James R. Glidewell Dental Ceramics, Inc. Dental CAD automation using deep learning
US11937991B2 (en) 2018-03-27 2024-03-26 Align Technology, Inc. Dental attachment placement structure
CN111970990B (zh) 2018-04-11 2023-04-18 阿莱恩技术有限公司 可释放的腭扩张器
CN112270299A (zh) * 2018-04-25 2021-01-26 北京嘀嘀无限科技发展有限公司 一种识别头部运动的系统和方法
CN108615288B (zh) * 2018-04-28 2020-12-01 东莞市华睿电子科技有限公司 一种基于人像识别的开锁控制方法
US11553988B2 (en) 2018-06-29 2023-01-17 Align Technology, Inc. Photo of a patient with new simulated smile in an orthodontic treatment review software
KR102177453B1 (ko) * 2018-10-16 2020-11-11 서울시립대학교 산학협력단 얼굴 인식 방법 및 얼굴 인식 장치
DE102018220433A1 (de) 2018-11-28 2020-05-28 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Carsharing-Fahrzeugs und Carsharing-Fahrzeug
US11373160B2 (en) 2018-12-05 2022-06-28 AiFi Inc. Monitoring shopping activities using weight data in a store
US11443291B2 (en) 2018-12-05 2022-09-13 AiFi Inc. Tracking product items in an automated-checkout store
US11393213B2 (en) * 2018-12-05 2022-07-19 AiFi Inc. Tracking persons in an automated-checkout store
BG67398B1 (bg) * 2018-12-19 2021-11-30 Георгиев Петров Любомир Метод за създаване, обработване, поддържане и използване на база данни от лицево-челюстни статуси и метод за изработване на зъбни гарнитури
JP7276763B2 (ja) * 2019-01-04 2023-05-18 株式会社DSi 識別システム
US11138302B2 (en) 2019-02-27 2021-10-05 International Business Machines Corporation Access control using multi-authentication factors
US11031119B2 (en) * 2019-11-13 2021-06-08 Cube Click, Inc. Dental images processed with deep learning for national security
WO2021180443A1 (en) * 2020-03-13 2021-09-16 British Telecommunications Public Limited Company Computer-implemented continuous control method, system and computer program
US11137291B1 (en) 2021-03-08 2021-10-05 Innovative Beauty LLC Hair colorant assessment, selection and formulation system
US11606353B2 (en) 2021-07-22 2023-03-14 Biocatch Ltd. System, device, and method of generating and utilizing one-time passwords

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2550445A1 (de) * 1975-11-10 1977-05-12 James A Mcdowell Verfahren und vorrichtung zur ausbildung eines codes an einem zahn
CH616070A5 (de) * 1977-03-22 1980-03-14 Muehlemann Hans R
US4935635A (en) * 1988-12-09 1990-06-19 Harra Dale G O System for measuring objects in three dimensions
US5163094A (en) * 1991-03-20 1992-11-10 Francine J. Prokoski Method for identifying individuals from analysis of elemental shapes derived from biosensor data
US5291560A (en) * 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
JP3279913B2 (ja) * 1996-03-18 2002-04-30 株式会社東芝 人物認証装置、特徴点抽出装置及び特徴点抽出方法
US6028960A (en) * 1996-09-20 2000-02-22 Lucent Technologies Inc. Face feature analysis for automatic lipreading and character animation
US6292575B1 (en) * 1998-07-20 2001-09-18 Lau Technologies Real-time facial recognition and verification system
US6456803B2 (en) * 2000-02-04 2002-09-24 Canon Kabushiki Kaisha Image forming apparatus capable of detecting both of regularly reflected light and irregularly reflected light
US6667615B2 (en) * 2000-02-10 2003-12-23 Sankyo Seiki Mfg. Co., Ltd. Coin identifying device using magnetic sensors
US6720712B2 (en) * 2000-03-23 2004-04-13 Cross Match Technologies, Inc. Piezoelectric identification device and applications thereof
NO315017B1 (no) * 2000-06-09 2003-06-23 Idex Asa Sensorbrikke, s¶rlig for måling av strukturer i en fingeroverflate
US20020186818A1 (en) * 2000-08-29 2002-12-12 Osteonet, Inc. System and method for building and manipulating a centralized measurement value database
JP3808302B2 (ja) * 2000-10-18 2006-08-09 富士通株式会社 利用者確認システム及び方法
JP2002196836A (ja) * 2000-12-25 2002-07-12 Io Network:Kk 指紋読取り装置を配備した電子機器装置並びにこの装置を利用した指紋読取り、照合方法及びこの装置に配備する指紋読取り装置
US7027619B2 (en) * 2001-09-13 2006-04-11 Honeywell International Inc. Near-infrared method and system for use in face detection
JP4003453B2 (ja) * 2001-12-26 2007-11-07 アイシン精機株式会社 人体検出装置
US20040042643A1 (en) * 2002-08-28 2004-03-04 Symtron Technology, Inc. Instant face recognition system
US7577297B2 (en) * 2002-12-16 2009-08-18 Canon Kabushiki Kaisha Pattern identification method, device thereof, and program thereof
KR100480781B1 (ko) * 2002-12-28 2005-04-06 삼성전자주식회사 치아영상으로부터 치아영역 추출방법 및 치아영상을이용한 신원확인방법 및 장치
US7512807B2 (en) * 2003-02-25 2009-03-31 Activcard Ireland, Limited Method and apparatus for biometric verification with data packet transmission prioritization
US8171304B2 (en) * 2003-05-15 2012-05-01 Activcard Ireland Limited Method, system and computer program product for multiple biometric template screening
US7317816B2 (en) * 2003-08-19 2008-01-08 Intel Corporation Enabling content-based search of objects in an image database with reduced matching
JP4462988B2 (ja) * 2004-04-13 2010-05-12 Necインフロンティア株式会社 指紋読取方法および指紋読取システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2005093637A1 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112006791A (zh) * 2020-08-31 2020-12-01 上海正雅齿科科技股份有限公司 牙齿矫治信息的获取方法及系统
CN112006791B (zh) * 2020-08-31 2021-11-09 正雅齿科科技(上海)有限公司 牙齿矫治信息的获取方法及系统
RU2815689C1 (ru) * 2023-06-14 2024-03-20 Общество с ограниченной ответственностью "МЕТРИКА Б" Способ, терминал и система для биометрической идентификации

Also Published As

Publication number Publication date
WO2005093637A1 (de) 2005-10-06
US20070183633A1 (en) 2007-08-09
CA2600938A1 (en) 2005-10-06

Similar Documents

Publication Publication Date Title
WO2005093637A1 (de) Verfahren und system zur identifikation, verifikation, erkennung und wiedererkennung
EP3486822B1 (de) Mobiles terminal zum erfassen biometrischer daten
EP2101867B1 (de) Sehhilfe mit dreidimensionaler bilderfassung
EP1693781B1 (de) Verfahren und Anordnung zur optischen Aufnahme biometrischer Fingerdaten
EP1762821B1 (de) Einrichtung und Verfahren zur Herstellung von Zahnersatzteilen
EP3230961B1 (de) Personenidentifikation für mehrstufige personenkontrollen
US20090161925A1 (en) Method for acquiring the shape of the iris of an eye
EP2958086A1 (de) Verfahren zur prüfung eines sicherheitsdokuments
WO2015040001A2 (de) Vorrichtung, system und verfahren zum identifizieren einer person
WO2016170041A1 (de) Verfahren zur identifikation eines sicherheitsmusters über eine artifizielle 3-d-rekonstruktion
CN109871811A (zh) 一种基于图像的活体目标检测方法、装置及系统
DE112012001645T5 (de) Verfahren und System zum Verfolgen einer Kieferbewegung
DE102022100672A1 (de) Materialspektroskopie
DE102022100559A1 (de) Materialspektroskopie
EP1627343B1 (de) Verfahren und vorrichtung zur erkennung biometrischer daten nach aufnahme aus mindestens zwei richtungen
WO2010007094A2 (de) Verfahren und anordnung zur 3d-erfassung von objekten sowie ein entsprechendes computerprogramm und ein computerlesbares speichermedium
EP1408441A2 (de) Vorrichtung zur berührungslosen optischen Erfassung biometrischer Eigenschaften wenigstens eines Körperteils
DE102022100551A1 (de) Materialspektroskopie
DE102004039937A1 (de) Verfahren und System zur Identifikation, Verifikation, Erkennung und Wiedererkennung
DE102020131513B3 (de) Vorrichtung und Verfahren zur berührungslosen optischen Abbildung eines ausgewählten Oberflächenbereiches einer Hand
Sharma et al. Medical imaging security and forensics: a systematic literature review
ZA200608800B (en) Identification, verification, and recognition method and system
WO2017108428A1 (de) Authentifikationsvorrichtung und verfahren zur optischen oder akustischen zeichenerkennung
DE102010004469A1 (de) System und Verfahren zur dreidimensionalen Objektmessung
DE102016101609A1 (de) Authentifikationsvorrichtung, Authentifikationsdokument und Verfahren zur Authentifizierung einer Person

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20061024

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU MC NL PL PT RO SE SI SK TR

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20100205

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20110427