EP2972073A1 - Apparatus for volumetrically measuring an object in the body of an animal for slaughter - Google Patents

Apparatus for volumetrically measuring an object in the body of an animal for slaughter

Info

Publication number
EP2972073A1
EP2972073A1 EP14723314.2A EP14723314A EP2972073A1 EP 2972073 A1 EP2972073 A1 EP 2972073A1 EP 14723314 A EP14723314 A EP 14723314A EP 2972073 A1 EP2972073 A1 EP 2972073A1
Authority
EP
European Patent Office
Prior art keywords
depth
camera
carcass
depth camera
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP14723314.2A
Other languages
German (de)
French (fr)
Inventor
Peter SCHMITZEK
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CSB System AG
Original Assignee
CSB System AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CSB System AG filed Critical CSB System AG
Publication of EP2972073A1 publication Critical patent/EP2972073A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A22BUTCHERING; MEAT TREATMENT; PROCESSING POULTRY OR FISH
    • A22BSLAUGHTERING
    • A22B5/00Accessories for use during or after slaughtering
    • A22B5/0064Accessories for use during or after slaughtering for classifying or grading carcasses; for measuring back fat
    • A22B5/007Non-invasive scanning of carcasses, e.g. using image recognition, tomography, X-rays, ultrasound
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/28Measuring arrangements characterised by the use of optical techniques for measuring areas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Definitions

  • the invention relates to a device for measuring a carcass object, in particular for assessing a slaughter yield.
  • a known procedure is, for example, to hang the carcass on a weighing device, to determine its weight and to make a statement about the existing volume of the carcass and on the expected yield based on the weight and previously defined model data.
  • the carcass body is detected by means of a tomographic method, and the disc-shaped segments of the carcass that can be provided in this way are assembled into a virtual model.
  • the object of the present invention is therefore to provide a device for the volumetric measurement of an ante-mortem object, which enables a correct determination of volumes of the carcass object and a reliable assessment of an expected slaughter yield with little effort and comparatively low costs.
  • Ante-carcass objects in the sense of the solutions according to the invention may in particular be whole carcasses, carcass halves or parts such as ham.
  • the carcass object has a first depth camera with a first depth camera detection area, in which a portion of a surface of the carcass object can be optically detected on a first side and in which spatial coordinates of pixels on the first side of the carcass object can be detected.
  • the portion of the surface of the first side may be both a partial area of the surface and the entire surface of the first side.
  • the spatial coordinates of the detected pixels are composed of their surface coordinates (x, y) and a depth value (z).
  • the first depth camera is further capable of providing the spatial coordinates of the acquired pixels in the portion of the surface of the first page as space coordinate data transferable.
  • the device according to the invention has a second depth camera with a second depth camera detection range, in which a portion of a surface of the carcass object can be optically detected on a second side and in which spatial coordinates of pixels on the second side of the carcass object can be detected.
  • the portion of the surface of the second side may be both a partial area of the surface and the entire surface of the second side.
  • the spatial coordinates of the captured pixels are composed of their area coordinates (x, y) and a depth value (z).
  • the second depth camera is likewise capable of transferring the spatial coordinates of the detected pixels in the section of the surface of the second side as spatial coordinate data.
  • the device according to the invention has a positioning device for positioning the first depth camera relative to the second depth camera, wherein positioning the depth camera detection areas of the first and second depth cameras relative to each other.
  • the relative positioning of the depth cameras relative to each other is such that their optical axes are anti-parallel to each other and that, with a corresponding size of the carcass object and its sufficiently central positioning between the depth cameras, the detection range of the first depth camera is covered so far by the carcass object that the second Depth camera does not affect the first depth camera within its detection range. This applies in the same way vice versa, ie that the first depth camera does not affect the second depth camera in its detection range.
  • the ante-mortem object is preferably guided past the depth cameras by means of a transport system in such a way that the ante-mortem object crosses the depth-camera detection areas of the depth cameras.
  • roller hooks or conveyor belts come into consideration as a transport system in such slaughtered animal bodies.
  • the capture of the pixels by the first and the second depth camera is carried out according to the invention in real time and simultaneously. At the same time means in this context that between the detection by the first and the second depth camera no or only such a sufficiently small movement of the carcass object is done that a summary of the spatial coordinates (x, y, z) of the captured pixels of both depth cameras in a common Room coordinate system remains possible.
  • the real-time capability of the two depth cameras in particular requires a high image recording speed, ie, that the depth cameras are capable of are to simultaneously capture space coordinates in the depth camera detection areas.
  • the device according to the invention also has an evaluation unit, which is connected to the first and second depth camera.
  • connection between the evaluation unit and the depth cameras can be configured both wired and wireless and enables the transmission of the spatial coordinate data to the evaluation unit.
  • the evaluation unit is able to detect the spatial coordinate data provided by the first and second depth cameras and to combine the acquired spatial coordinate data in a common spatial coordinate system to form combined spatial coordinate data.
  • the common spatial coordinate system represents a three-dimensional coordinate system, in particular a Cartesian coordinate system with the directional axes x, y, z, in which at least the position of the two depth cameras and their alignment with one another are known.
  • the evaluation unit is particularly advantageous in being able to provide a surface model of the carcass object from the spatial coordinate data combined in the common spatial coordinate system.
  • the combined space coordinate data of the first and second sides of the carcass object are meshed with each other so as to generate a net-like surface model of the carcass object.
  • volumes of the carcass object are then calculated.
  • the amount of space coordinate data required is preferably selected such that a sufficiently accurate determination of the relevant volumes of the slaughter animal body object is ensured.
  • the device according to the invention thus makes it possible to determine the volumes of an ante-mortem object in a particularly simple manner, whereby a significantly improved measuring accuracy and a higher throughput as well as lower costs for measuring can be achieved compared to conventional methods.
  • maintaining a correct distance of the slaughter animal body object from the depth cameras is not mandatory, since the distance information can already be provided by the depth value per se. This eliminates the need for additional equipment required for an exact positioning of the carcass object.
  • geometric models are stored in the evaluation unit. These are mathematical abstractions of parts of a normative carcass object, such as a hind leg of a pig's half. Such a model is not necessarily scalar fixed and was formed from averages determined by dissection experiments. The geometric model is therefore not determined by the carcass object to be measured.
  • the surface model is an abstraction formed by the particular ante-mortem object to be measured. If points defined by the device of a geometric model on the carcass object are detected as measuring points, the location Draw the measurement points including the geometric model, a volume of the geometric model corresponding part of the carcass, for example, a hind leg of a pig half are determined. It is then a partial volume of the carcass object.
  • the surface model can also be included, on the one hand to calculate ratios of volume and part volume, and on the other to support the recognition of the defined points of a geometric model.
  • This advantageous refinement is based, in particular, on the fact that the apparatus according to the invention makes it possible for striking structures on the surface of one side of the slaughter animal body object to be ascertainable by means of the first or second depth camera and the spatial coordinate data provided by the latter and transmitted into the common spatial coordinate system.
  • Such distinctive structures may be, for example, forelimbs and / or hind legs of the slaughtered animal, which, by their shape, stand out accordingly from the surface of the slaughtered animal body object.
  • the measuring points are determined and assigned to the defined points of the relevant geometric model.
  • the device additionally has at least one image camera.
  • the image camera has an image camera detection area in which a relevant portion of a surface of the carcass object on the first side is optically detectable and in which light intensity values of pixels and their area coordinates on the surface of the carcass object on the first side are detectable.
  • the image camera detection area is designed, for example, such that in the relevant section the entire surface of the carcass object on the first side can be detected.
  • the image camera detection area is designed, for example, such that in the relevant section the entire surface of the carcass object on the first side can be detected.
  • it is depending on the application It is also possible for only a partial area of the surface of the first side of the carcass object to be detected in the image camera detection area.
  • Carcass half acts.
  • a positioning of the carcass object according to the invention is carried out such that the relevant portion of the surface of the carcass object on the first side of the image camera is at least sufficiently facing.
  • the image camera is formed by a 2D camera according to the invention and makes it possible to detect light intensity values (g) of pixels within the image camera detection area and the area coordinates (x, y) of the pixels on the relevant portion of the surface of the carcass object on the first side.
  • the detection of the light intensity values can be provided, for example, in a known manner by determining grayscale values.
  • a light gray scale value and, in the case of the present meat tissue, a dark gray scale value can be output.
  • the image camera is preferably oriented such that its center axis, hereinafter also referred to as normal, is largely arranged at a right angle to the axis of movement of the carcass object.
  • the center axis represents the optical axis of the image camera
  • the axis of movement of the carcass object represents the axis of the image. Se, on which the carcass object is moved through the image camera detection area and the depth detection areas.
  • the light intensity values of the pixels and the surface coordinates associated therewith can be transmitted in a transferable manner as light intensity value data by the image camera according to the invention.
  • the positioning device fixes the position of the image camera relative to the first depth camera according to the development of the invention so that the image camera detection area and the first depth camera detection area overlap, at least partially, in a common detection area, that of the evaluation unit on the relevant one Section of the surface to be evaluated pixels in the common detection area lie.
  • the first depth detection area and the image camera detection area can be either partially horizontally or vertically overlapping.
  • the detection ranges of the first depth camera and the image camera and their positioning relative to each other are determined so that the common detection range is as large as possible to exploit the resolution of the first depth camera and image camera as well as possible.
  • the detection of the pixels on the surface of the carcass object on the first page by the image camera and by the first depth camera according to the invention is carried out in real time and simultaneously.
  • the real-time capability of the depth camera requires a high image recording speed, ie, the first depth camera is capable of simultaneously detecting spatial coordinates in the first depth camera detection area, which can be ensured, for example, by TOF cameras.
  • the image camera according to the invention is likewise connected to the evaluation unit, wherein the evaluation unit detects and processes the light intensity value data provided by the image camera.
  • connection between the image camera and the evaluation unit can likewise be wired or wireless and enables the transmission of the light intensity value data to the evaluation unit.
  • the evaluation unit is able to associate the light intensity value data of pixels provided by the image camera with the spatial coordinate data provided by the first depth camera of pixels having matching surface coordinates (x, y).
  • the provided data of the image camera and the first depth camera pixels are present in the common detection area, for which according to the invention both the area coordinates (x, y) and the light intensity value (g) and the depth value (z) are detected and where the area coordinates are from the Light intensity value data with the area coordinates from the spatial coordinate data are identical according to the invention.
  • the associated light intensity value and space coordinate data are particularly advantageously provided as data tuples (x, y, z, g).
  • the evaluation unit is furthermore able to convert the light intensity value data provided by the image camera into the image point. to identify te defined measuring points on the surface of the carcass object on the first side, in which case the first side is preferably a split side of a carcass half.
  • the identification of measuring points means that characteristic structures on the preferably gap-side surface of the carcass object, for example muscles, fat tissue or bones, are recognized by the evaluation unit by means of image analysis and object recognition. For this purpose, computationally different tissue areas are detected and selected on the basis of the light intensity value differences in order to determine the contours of muscle, fat and bone by means of a contour tracking algorithm.
  • Allow carcass object The area coordinates of these points are determined by the evaluation unit as measuring points. They form the basis for further surveying and evaluation of the expected slaughter yield.
  • Ante basal body object can be determined, wherein the determination of the distances of the measuring points on the relevant portion of the preferably gap-side surface is carried out by integration of the spatial distances of sufficiently small partial distances of the total distance.
  • surfaces within the surface of the relevant sections are preferably gap-side surface via an integration of sufficiently small, spatially exactly calculated partial surfaces, determined.
  • the evaluation unit also combines the image data with different resolutions of the depth camera and the image camera in such a way that the light intensity value and the depth value are present for each pixel by means of the merged light intensity value data and spatial coordinate data in addition to the surface coordinates.
  • the identified measurement points are assigned to the generated surface model of the carcass object based on their spatial coordinate data.
  • partial volumes of the carcass object can be calculated, wherein the geometric coordinates are determined based on the spatial coordinates of the measuring points of the corresponding tissue area and wherein in the evaluation previously determined geometric models are deposited, which dependency of the tissue area dimensions relative to the volume of the part of the carcass object and optionally to the total volume of the carcass object.
  • the geometrical models are assigned to the respectively measured tissue area on the basis of the measured measuring points on the basis of points defined there and subsequently the expected partial volume for each relevant tissue area is determined from the assigned data.
  • the geometric models are created on the basis of the organic structures of the carcass object, wherein the organic structures, for example by Zerlege issued or computer tomography method, can be determined with high accuracy.
  • the geometric models are to be understood as virtual components of the carcass object, whereby these virtual components can be assembled like a subassembly.
  • the particular advantage of including the geometric models is that the data density and exactness, as achievable in particular by computer tomography methods, is aggregated in the geometric models and can thus be incorporated into a real-time capable system, without each being "in-line”.
  • Computer tomography which is expensive, slow, and associated with radiation emission, requires the spatial coordinate data obtained by the depth cameras to provide high reliability of assignment of the respective geometric models the basis of data tuples with light-ink sity value data and spatial coordinate data have been determined to form certain sections of the carcass, and for these sections with spatial coordinate data to form a surface model of this section and to take into account the volume of this section thus emitted.
  • an animal carcass half can be dissected into virtual slices transversely to the cleavage plane, whose thickness and position are defined by the length of a swirl which was optically detected.
  • the spatial dimensions of the surface sections belonging to the virtual disk are now determined.
  • the thus determined volume of the virtual disc allows an improvement of the accuracy, for example, the lean meat content, as different races and genetics primarily in their overall proportion, but less in local contexts differ.
  • a measurement of the carcass object with a volume determination of the relevant tissue areas can be carried out by a device according to the invention and a reliable prediction of the expected battle yield can be made on the basis of the determined results.
  • Another advantage of the device consists in a high accuracy of measurement, since any existing irregularities, for example due to the positioning of an ante-carcass object in distance and angle and in the case of a split side of a carcass half as the first side of a possibly non-planning gap side surface, by the detected depth values cor- can be rigged.
  • the provision and application costs of such a device can be kept low by the components used according to the invention and a high throughput of slaughtered body objects to be measured can be ensured.
  • the inclusion of the respective depth value according to the invention observing a precisely predetermined distance or a precisely predetermined angle between the carcass object and the device is not mandatory, since the distance information can already be provided by the depth value per se. This eliminates the need for additional equipment required for an exact positioning of the carcass object or to correct plano unevenness.
  • the provision and operating costs of a device according to the invention are characterized comparatively low.
  • the measurement can be carried out without contact, which also hygienic risks by known in the prior art additional devices for positioning of carcass objects, or additional provision in hygienic terms omitted.
  • the described advantages also apply to the measurement of other carcass objects, which can be transported, for example, on a conveyor belt.
  • a conveyor belt does not have the problem of uncontrolled movements.
  • the solution according to the invention also offers a particular advantage here, since the positioning of the carcass object relative to the conveyor belt, in particular transversely to the longitudinal extent of the conveyor belt, may be inaccurate because the distance information already exists due to the depth value. By the distance information, however, not only the position of the carcass object relative to the image camera, but also relative to the conveyor belt is known.
  • the device also comprises means for illuminating the carcass object, wherein the light color is expediently chosen so that a good pixel detection by the image camera and the depth cameras is possible.
  • the image camera is designed as a color camera.
  • the use of a color camera makes it possible to record the light intensity values separately according to individual color channels, in particular red, green and blue (RGB), and to store the light intensity values separately according to color channels in the light intensity value data and transmit them to the evaluation unit.
  • the light intensity values can then be used for color channels for image analysis, whereby outlines of structures on the nip surface of the carcass object can be better recognized.
  • the carcass object is a carcass half, which has a gap side and that the portion of the surface of the first side is the surface of the gap side and that with the image camera detection area and the first Depth camera detection area in each case the surface of the split side of the carcass half is optically detectable.
  • the device further comprises an image camera which optically detects the gap side because the exposed organic structures facilitate identification of defined measurement points by means of light intensity value data. In this case, coarse positioning ensures that the gap side is aligned sufficiently with the image camera, but that the advantage remains that exact positioning by distance and angle is not required.
  • marked structures on the second side ie the back of the carcass half can be determined by means of the second depth camera and the spatial coordinate data provided by this and transmitted in the common spatial coordinate system.
  • Such prominent structures may be, for example, forelimbs and / or hind legs of the slaughtered animal, which by their shape stand out correspondingly from the back of the slaughtered animal body object.
  • the depth value from the respectively determined spatial coordinates is used to identify measuring points on the relevant surface of an ante-mortem object. In this way, in particular in the case of an uneven gap-side surface of an animal carcass half, the measuring points can be better identified on the basis of inclusion of the depth value information. This is especially the case when a characteristic structure, for example at a transition of a cutting plane into the abdominal cavity, a characteristic structure can be better recognized by the depth value information than by the light intensity value data.
  • the detectable depth value assumes a double function, in which the spatial coordinates of the measuring points identified from the light intensity value data of the pixels are provided by the latter and, in addition, the previous identification of the measuring points, in particular on the gap-side surface of the carcass half, only enabled or at least supported.
  • the depth information can also be used to delimit the carcass object from the background and thus to define its contour. Depth values that lie outside of a defined range, namely depth values above a certain value, are then assigned to the background by an evaluation algorithm per se, without it being necessary to include the light intensity value data for this purpose. This method makes it possible to obviate the background walls customary in the prior art.
  • a further advantageous development is based on a frequently occurring problem that the real surface shape and a model ideal shape of the carcass object do not match.
  • the nip-side surface in the model ideal shape is an exact plane.
  • the model distances of measuring points are based on the model ideal form. The deviation from the real surface shape and the model ideal shape causes an inaccuracy of the validity of the distances of the measuring points in space on the basis of the real surface form.
  • the distance information already available by the depth camera that is to say the z value of the spatial coordinates, can be used.
  • the depth values of points in these areas can be ruled out from the outset or less weighted by the formation of the ideal model surface. If these are not known, the points are detected by a plurality of points, which a, exceeding a defined value distance of the ideal model defined by most of the other points and on that basis excluded or weighted less.
  • the model adaptation and outlier detection can use known methods, for example RANSAC.
  • the spatial coordinates of the determined measuring points are projected onto the ideal model surface in accordance with the model knowledge of the cause of the deviation.
  • the determination of the distance of the measuring points in space then takes place.
  • a particularly advantageous embodiment of the invention provides that the depth cameras are designed as TOF cameras (time of flight camera).
  • a TOF camera in a manner known per se, enables the determination of a distance between it and a detected object by means of a transit time method.
  • the detected object is illuminated by means of a light pulse, wherein the camera determines the time for each illuminated pixel, which requires the light to the object and back from this back to the camera.
  • TOF cameras Using a TOF camera is advantageous in many ways.
  • TOF cameras generally have a simple structure and can therefore be provided relatively inexpensively.
  • an advantageous variant of the device according to the invention provides that this at least one further depth camera with a further depth camera detection area in which a portion of a surface of the carcass object is optically detectable and in which further Jardinko ordinaten of pixels consisting of area coordinates and a depth value, wherein the further spatial coordinates can be transmitted in a transferable manner as spatial coordinate data, wherein the evaluation unit detects the space coordinate data provided by the further depth camera and wherein the spatial coordinate data of the further depth camera is in the common spatial coordinate system, together with the spatial coordinate data of the first and the second depth camera, are summarized as summarized spatial coordinate data.
  • the further depth camera can be arranged in particular so that additional areas on the slaughter animal body object can be detected by the depth camera detection area. In this case, an increase in the detectable ranges and / or an improvement in the resolution can be achieved with the development.
  • the arrangement of the further depth camera can take place in such a way that, in contrast to the first and second depth camera, the carcass object is detected in the same area, but at a different angle, and thus, for example, concave formations, in particular in FIG.
  • the depth camera detection range of the further depth camera and the depth camera detection range of the first or the second depth camera overlap at least in sections.
  • it is possible according to the invention to arrange the further depth camera in such a way that its depth camera detection area largely coincides with the depth. fenimageer conducteds Scheme the first or second depth camera coincides, the further depth camera, however, offers a higher resolution. In this way, for example, particularly relevant sections of the carcass object can be detected as cutouts with a correspondingly higher resolution.
  • the space coordinate data provided by the further depth camera or the further depth cameras are detected and combined in the common space coordinate system, together with the space coordinate data of the first and the second depth camera, as combined space coordinate data and further processed according to the invention.
  • a further advantageous embodiment of the device according to the invention further provides that it has at least one further image camera with a further image camera detection area in which a portion of a surface of the carcass object is optically detectable and in which light intensity values of pixels and their surface coordinates can be detected, wherein the light intensity values and the assigned area coordinates can be transmitted in a transferable manner as light intensity value data and wherein the position of the further image camera relative to one of the depth cameras is determined by the positioning device such that the further image camera detection area and the depth camera detection area of the depth camera overlap at least partially in a further common detection area and wherein the further Image camera is connected to the evaluation unit, wherein by the evaluation unit, by the further image camera b provided, light intensity value data can be detected and further processed.
  • the detection and further processing of the light intensity value data is carried out analogously to the features listed and described in claim 3.
  • the invention will be described as an embodiment with reference to
  • Fig. 1 schematic representation with two depth cameras
  • Fig. 2 illustrates a schematic diagram with additional image camera in more detail.
  • it is a device for measuring a carcass object 1 in the form of a carcass half.
  • An inventive device for volumetric measurement of a carcass half has in an embodiment of FIG. 1, a first depth camera 2 and a second depth camera 3.
  • the carcass half is presently centrally located between the depth cameras 2 and 3 and is guided by means of a transport device (not shown) along a movement axis gt to the depth cameras 2 and 3.
  • the carcass half further includes a first side and a second side, wherein the first side is a gap side and the second side is a rear side opposite the gap side.
  • the gap side is illustrated here by the plane axis gc.
  • the depth cameras 2 and 3 each have a depth camera detection range, the depth camera detection range of the first depth camera 2 being illustrated by the detection angle CCDI and the depth camera detection range of the second depth camera 3 by the detection angle CCD2.
  • the depth cameras 2 and 3 are positioned via a positioning device 4 in such a way that the depth camera detection areas oppose each other and that the depth cameras 2 and 3 form a common normal nDi, 2.
  • the depth cameras 2 and 3 are also particularly advantageously arranged so that the common normal nDi, 2 is oriented perpendicular to the axis of motion gt of the carcass half.
  • the depth cameras 2 and 3 in the present exemplary embodiments according to FIGS. 1 and 2 are designed as TOF cameras (Time Of Flight cameras).
  • the depth cameras 2 and 3 are connected according to the invention to an evaluation unit 5.
  • the depth cameras 2 and 3 according to the invention are capable of detecting, at least partially, the surface of the side of the slaughter animal body half facing them in the respectively assigned depth camera detection area.
  • the surface on the first side of the carcass half and thus the gap-side surface is detected by the first depth camera 2 in the present case, while in the present case the surface is detected by the second depth camera 3 the second side of the carcass half and thus the back surface are detectable.
  • spatial coordinates of pixels on the respective surface of the carcass half can also be detected by the depth cameras 2 and 3, wherein the space coordinates each consist of area coordinates (x, y) and a depth value (z).
  • the detected spatial coordinates are transmitted by the depth cameras 2 and 3 to the evaluation unit 5.
  • the space coordinates transmitted by the depth cameras 2 and 3 are detected by the evaluation unit 5 and further processed in such a way that the acquired space coordinates are combined in a common space coordinate system (not shown).
  • the common spatial coordinate system is in the present case formed by a three-dimensional Cartesian coordinate system with the directional axes X, Y, Z, wherein the respective position and orientation of the depth cameras 2 and 3 are known within the common spatial coordinate system.
  • a surface model (not shown) of the carcass half is created by the evaluation unit 5 within the common space coordinate system, wherein the space coordinates are meshed together to form a virtual network.
  • the device according to the invention additionally has an image camera 6 with an image camera detection area, illustrated here by the detection angle OCRGB.
  • the image camera 6 is in this case in particular positionable by means of the positioning device 4 such that the image camera detection area and the depth camera detection area of the first depth camera 2 at least partially overlap.
  • the image camera 6 and the carcass half are arranged relative to one another such that the slit-side surface of the slaughter animal half of the image camera 6 at least sufficiently faces, so that a successful detection of the slit-side surface of the slaughter animal half by the image camera 6 is provided.
  • the image camera 6 is preferably oriented such that its normal nRGB is aligned at a right angle to the axis of motion gt of the carcass half.
  • the image camera 6 is designed as an RGB camera and according to the invention is able to at least partially detect the slit-side surface of the slaughter animal body half within the image camera detection area. Moreover, by the image camera 6 in the image camera detection area, light intensity values (g) of pixels and their area coordinates (x, y) can be detected on the gap side surface of the carcass half.
  • the detected light intensity value data and area coordinates are further combined by the image camera 6 into light intensity value data (x, y, g) and provided transferably.
  • the image camera 6 is likewise connected to the evaluation unit 5, the evaluation unit 5 detecting and further processing the light intensity value data transmitted by the image camera 6.
  • the further processing of the light intensity value data by the evaluation unit 5 takes place according to the invention such that the evaluation unit 5 identifies measuring points Pi, P2 defined on the light-side value data of the detected pixels on the slit-side surface of the slaughter animal body half.
  • the identification of measuring points in this case means that characteristic structures are recognized by the evaluation unit 5, by means of image analysis and object recognition, on the gap-side surface of the carcass half, for example muscles, adipose tissue or bone. For this purpose, computationally different tissue areas are detected and selected on the basis of the light intensity value differences in order to determine the contours of meat, fat and bone by means of a suitable image processing algorithm.
  • points are determined by the evaluation unit whose positional relationship with each other makes statements about quantities and qualities of the carcass half possible. The area coordinates of these points are determined by the evaluation unit in the present case as measuring points Pi, P2.
  • the measuring points Pi, P2 are located here within the common detection range of the image camera 6 and the first depth camera 2.
  • the evaluation unit 5 is particularly advantageous to be able to assign the measurement points Pi, P2 both their light intensity value data and their spatial coordinates.
  • the identified measurement points Pi, P2 are particularly advantageously attributable to the generated surface model by the evaluation unit 5, so that additionally relevant tissue areas on the gap-side surface of the carcass half can be displayed within the surface model.
  • partial volumes of the carcass half can also be determined in a particularly advantageous manner.
  • geometric models are stored in the evaluation unit 5, which include a dependence of the tissue area dimensions relative to the total volume of the carcass half.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Food Science & Technology (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

The invention relates to an apparatus for volumetrically measuring an object in the body of an animal for slaughter, having a first depth camera with a first depth camera recording area and having a second depth camera with a second depth camera recording area and having a positioning apparatus for positioning the depth cameras relative to one another and having an evaluation unit, wherein the evaluation unit is connected to the depth cameras, and wherein the evaluation unit acquires the spatial coordinate data provided by the depth cameras, and wherein the spatial coordinate data from the depth cameras can be combined as combined spatial coordinate data in a common spatial coordinate system, and wherein a surface model of the object in the body of an animal for slaughter can be provided from the combined spatial coordinate data, and wherein a volume of the object in the body of an animal for slaughter can be calculated from the surface model.

Description

Vorrichtung zur volumetrischen Vermessung eines Schlachttierkörperobjekts  Apparatus for volumetric measurement of an ante-mortem object
Die Erfindung betrifft eine Vorrichtung zur Vermessung eines Schlachttierkörperobjekts, insbesondere zur Beurteilung einer Schlachtausbeute. The invention relates to a device for measuring a carcass object, in particular for assessing a slaughter yield.
Aus dem Stand der Technik sind generell Möglichkeiten zur Volumenbestimmung eines Schlachttierkörpers bekannt. From the state of the art, possibilities for determining the volume of a carcass are generally known.
Ein bekanntes Vorgehen besteht beispielsweise darin, den Schlachttierkörper an einer Wiegeeinrichtung aufzuhängen, deren Gewicht zu bestimmen und anhand des Gewichts und vorher festgelegter Modelldaten eine Aussage über das vorhandene Volumen des Schlachttierkörpers sowie hinsichtlich der zu erwartenden Ausbeute zu treffen. A known procedure is, for example, to hang the carcass on a weighing device, to determine its weight and to make a statement about the existing volume of the carcass and on the expected yield based on the weight and previously defined model data.
Dabei weist diese Methode jedoch insbesondere den Nachteil auf, dass anhand der hinterlegten Modelldaten nur eine ungefähre Abschätzung des Volumens und der zu erwartenden Schlachtausbeute getroffen werden kann. Es bleibt in diesem Fall weitestgehend unberücksichtigt, dass jeder Schlachttierkörper unterschiedliche Gewebebereichsausdehnungen, speziell Fleisch-, Knochen- und Fettgewebebereichsausdehnungen, aufweist und somit keine präzise Angabe, beispielsweise hinsichtlich der zu erwartenden Schlachtausbeute an Fleisch aus dem Schlachttierkörper gemacht werden kann.  However, this method has the particular disadvantage that based on the stored model data only an approximate estimate of the volume and the expected slaughter yield can be made. In this case, it remains largely unconsidered that each carcass has different tissue area expansions, especially meat, bone and fat tissue area expansions, and thus can not be precisely stated, for example, with regard to the expected slaughter yield of meat from the carcass.
Eine weitere Möglichkeit zur Beurteilung der Schlachtausbeute eines Schlachttierkörpers wird in Druckschrift DE 10 2004 047 773 A1 aufgeführt. Another possibility for assessing the slaughter yield of an abattled animal is given in document DE 10 2004 047 773 A1.
Hierbei wird der Schlachttierkörper mittels eines tomographischen Verfahrens erfasst und die so bereitstellbaren, scheibenförmigen Segmente des Schlachttierkörpers zu einem virtuellen Modell zusammengesetzt. In this case, the carcass body is detected by means of a tomographic method, and the disc-shaped segments of the carcass that can be provided in this way are assembled into a virtual model.
In diesem Modell lassen sich anschließend Kompartimente des Fleisch-, Fett- und Knochengewebes wiedergeben und so eine Bestimmung von Volumina je- des Gewebekompartiments durchführen. In this model, it is then possible to reproduce compartments of the meat, fat and bone tissue and thus to carry out a determination of volumes of each tissue compartment.
BESTÄTIGUNGSKOPIE Aus den gewonnenen Volumendaten können in einem weiteren Schritt unter anderem Rückschlüsse auf die zu erwartende Schlachtausbeute getroffen werden. Die offenbarte Lösung ermöglich dabei zwar ein sehr genaues Darstellen des Volumens und der zu erwartenden Ausbeute des Schlachttierkörpers, dies wird jedoch mit einem immensen technischen Aufwand realisiert und verursacht dadurch enorme Kosten bei der Vermessung. CONFIRMATION COPY Among other things, conclusions about the expected battle yield can be made in a further step from the volume data gained. Although the disclosed solution allows a very accurate representation of the volume and the expected yield of the carcass, this is realized with an immense technical effort and thereby causes enormous costs in the survey.
Darüber hinaus ist zum anderen wegen des Zeitaufwandes für das Tomographieverfahren nur ein geringer Durchsatz der zu vermessenden Schlachttier- körper bereitstellbar. Moreover, on the other hand, due to the time required for the tomography method, only a low throughput of the carcass to be measured can be provided.
Die Aufgabe der vorliegenden Erfindung ist es somit, eine Vorrichtung zur volu- metrischen Vermessung eines Schlachttierkörperobjekts bereitzustellen, welche mit geringem Aufwand und vergleichsweise geringen Kosten eine korrekte Er- mittlung von Volumina des Schlachttierkörperobjekts und eine zuverlässige Beurteilung einer zu erwartenden Schlachtausbeute ermöglicht. The object of the present invention is therefore to provide a device for the volumetric measurement of an ante-mortem object, which enables a correct determination of volumes of the carcass object and a reliable assessment of an expected slaughter yield with little effort and comparatively low costs.
Die Aufgabe wird durch die im Schutzanspruch 1 aufgeführten Merkmale gelöst. Bevorzugte Weiterbildungen ergeben sich aus den Unteransprüchen. The problem is solved by the features listed in the protection claim 1. Preferred developments emerge from the subclaims.
Schlachttierkörperobjekte im Sinne der erfindungsgegenständlichen Lösungen können insbesondere ganze Schlachttierkörper, Schlachttierkörperhälften oder Teile wie beispielsweise Schinken sein. Eine erfindungsgemäße Vorrichtung zur volumetrischen Vermessung einesAnte-carcass objects in the sense of the solutions according to the invention may in particular be whole carcasses, carcass halves or parts such as ham. An inventive device for volumetric measurement of a
Schlachttierkörperobjekts weist eine erste Tiefenkamera mit einem ersten Tiefen- kameraerfassungsbereich auf, in welchem ein Abschnitt einer Oberfläche des Schlachttierkörperobjekts auf einer ersten Seite optisch erfassbar ist und in welchem Raumkoordinaten von Bildpunkten auf der ersten Seite des Schlachttier- körperobjekts erfassbar sind. Erfindungsgemäß kann es sich bei dem Abschnitt der Oberfläche der ersten Seite sowohl um einen Teilbereich der Oberfläche als auch um die gesamte Oberfläche der ersten Seite handeln. Die Raumkoordinaten der erfassten Bildpunkte setzen sich erfindungsgemäß aus deren Flächenkoordinaten (x, y) und einem Tiefenwert (z) zusammen. The carcass object has a first depth camera with a first depth camera detection area, in which a portion of a surface of the carcass object can be optically detected on a first side and in which spatial coordinates of pixels on the first side of the carcass object can be detected. According to the invention, the portion of the surface of the first side may be both a partial area of the surface and the entire surface of the first side. According to the invention, the spatial coordinates of the detected pixels are composed of their surface coordinates (x, y) and a depth value (z).
Die erste Tiefenkamera ist ferner dazu in der Lage, die Raumkoordinaten der erfassten Bildpunkte in dem Abschnitt der Oberfläche der ersten Seite als Raum- koordinatendaten übertragbar bereitzustellen. The first depth camera is further capable of providing the spatial coordinates of the acquired pixels in the portion of the surface of the first page as space coordinate data transferable.
Des Weiteren weist die erfindungsgemäße Vorrichtung eine zweite Tiefenkamera mit einem zweiten Tiefenkameraerfassungsbereich auf, in welchem ein Abschnitt einer Oberfläche des Schlachttierkörperobjekts auf einer zweiten Seite optisch erfassbar ist und in welchem Raumkoordinaten von Bildpunkten auf der zweiten Seite des Schlachttierkörperobjekts erfassbar sind. Furthermore, the device according to the invention has a second depth camera with a second depth camera detection range, in which a portion of a surface of the carcass object can be optically detected on a second side and in which spatial coordinates of pixels on the second side of the carcass object can be detected.
Erfindungsgemäß kann es sich bei dem Abschnitt der Oberfläche der zweiten Seite sowohl um einen Teilbereich der Oberfläche als auch um die gesamte Oberfläche der zweiten Seite handeln.  According to the invention, the portion of the surface of the second side may be both a partial area of the surface and the entire surface of the second side.
Auch in diesem Fall setzen sich die Raumkoordinaten der erfassten Bildpunkte erfindungsgemäß aus deren Flächenkoordinaten (x, y) und einem Tiefenwert (z) zusammen. Also in this case, according to the invention, the spatial coordinates of the captured pixels are composed of their area coordinates (x, y) and a depth value (z).
Die zweite Tiefenkamera ist erfindungsgemäß ebenfalls dazu in der Lage, die Raumkoordinaten der erfassten Bildpunkte in dem Abschnitt der Oberfläche der zweiten Seite als Raumkoordinatendaten übertragbar bereitzustellen. According to the invention, the second depth camera is likewise capable of transferring the spatial coordinates of the detected pixels in the section of the surface of the second side as spatial coordinate data.
Ferner weist die erfindungsgemäße Vorrichtung eine Positioniervorrichtung zur Positionierung der ersten Tiefenkamera relativ zu der zweiten Tiefenkamera auf, wobei durch die Positionierung die Tiefenkameraerfassungsbereiche der ersten und zweiten Tiefenkamera zueinander festgelegt werden. Furthermore, the device according to the invention has a positioning device for positioning the first depth camera relative to the second depth camera, wherein positioning the depth camera detection areas of the first and second depth cameras relative to each other.
Vorzugsweise erfolgt die relative Positionierung der Tiefenkameras zueinander derart, dass deren optische Achsen antiparallel zueinander verlaufen und dass, bei einer entsprechenden Größe des Schlachttierkörperobjekts und dessen hinreichend zentraler Positionierung zwischen den Tiefenkameras, der Erfassungsbereich der ersten Tiefenkamera soweit durch das Schlachttierkörperobjekt verdeckt wird, dass die zweite Tiefenkamera die erste Tiefenkamera in deren Erfas- sungsbereich nicht beeinflusst. Dies gilt in gleicher Weise umgekehrt, also dass die erste Tiefenkamera die zweite Tiefenkamera in deren Erfassungsbereich nicht beeinflusst. Preferably, the relative positioning of the depth cameras relative to each other is such that their optical axes are anti-parallel to each other and that, with a corresponding size of the carcass object and its sufficiently central positioning between the depth cameras, the detection range of the first depth camera is covered so far by the carcass object that the second Depth camera does not affect the first depth camera within its detection range. This applies in the same way vice versa, ie that the first depth camera does not affect the second depth camera in its detection range.
Auf diese Weise können Messungenauigkeiten durch eine gegenseitige Beeinflussung der Tiefenkameras vermieden werden.  In this way measurement inaccuracies can be avoided by interacting with the depth cameras.
Das Schlachttierkörperobjekt wird vorzugsweise mittels eines Transportsystems derart an den Tiefenkameras vorbeigeführt, dass das Schlachttierkörperobjekt die Tiefenkameraerfassungsbereiche der Tiefenkameras kreuzt. The ante-mortem object is preferably guided past the depth cameras by means of a transport system in such a way that the ante-mortem object crosses the depth-camera detection areas of the depth cameras.
Als Transportsystem kommen bei derartigen Schlachttierkörpern insbesondere Rollenhaken oder Transportbänder in Betracht. In particular, roller hooks or conveyor belts come into consideration as a transport system in such slaughtered animal bodies.
Die Erfassung der Bildpunkte durch die erste und die zweite Tiefenkamera erfolgt erfindungsgemäß in Echtzeit und gleichzeitig. Gleichzeitig bedeutet in diesem Zusammenhang, dass zwischen dem Erfassen durch die erste und die zweite Tiefenkamera keine oder lediglich eine so hinreichend kleine Bewegung des Schlachttierkörperobjekts erfolgt ist, dass eine Zusammenfassung der Raumkoordinaten (x, y, z) der erfassten Bildpunkte beider Tiefenkameras in einem gemeinsamen Raumkoordinatensystem möglich bleibt. The capture of the pixels by the first and the second depth camera is carried out according to the invention in real time and simultaneously. At the same time means in this context that between the detection by the first and the second depth camera no or only such a sufficiently small movement of the carcass object is done that a summary of the spatial coordinates (x, y, z) of the captured pixels of both depth cameras in a common Room coordinate system remains possible.
Die Echtzeitfähigkeit der beiden Tiefenkameras bedingt dabei insbesondere eine hohe Bildaufnahmegeschwindigkeit, also dass die Tiefenkameras in der Lage sind, Raumkoordinaten in den Tiefenkameraerfassungsbereichen gleichzeitig zu erfassen. The real-time capability of the two depth cameras in particular requires a high image recording speed, ie, that the depth cameras are capable of are to simultaneously capture space coordinates in the depth camera detection areas.
Die erfindungsgemäße Vorrichtung weist darüber hinaus eine Auswertungsein- heit auf, welche mit der ersten und zweiten Tiefenkamera verbunden ist. The device according to the invention also has an evaluation unit, which is connected to the first and second depth camera.
Die Verbindung zwischen der Auswertungseinheit und den Tiefenkameras kann erfindungsgemäß sowohl drahtgebunden als auch drahtlos ausgebildet sein und ermöglicht die Übertragung der Raumkoordinatendaten an die Auswertungseinheit.  According to the invention, the connection between the evaluation unit and the depth cameras can be configured both wired and wireless and enables the transmission of the spatial coordinate data to the evaluation unit.
Die Auswertungseinheit ist erfindungsgemäß in der Lage, die durch die erste und zweite Tiefenkamera bereitgestellten Raumkoordinatendaten zu erfassen und die erfassten Raumkoordinatendaten in einem gemeinsamen Raumkoordinatensystem zu zusammengefassten Raumkoordinatendaten zusammenzufassen. According to the invention, the evaluation unit is able to detect the spatial coordinate data provided by the first and second depth cameras and to combine the acquired spatial coordinate data in a common spatial coordinate system to form combined spatial coordinate data.
Das gemeinsame Raumkoordinatensystem stellt vorliegend ein dreidimensionales Koordinatensystem, insbesondere ein kartesisches Koordinatensystem mit den Richtungsachsen x, y, z dar, in welchem zumindest die Lage der beiden Tiefenkameras und deren Ausrichtung zueinander bekannt ist. In the present case, the common spatial coordinate system represents a three-dimensional coordinate system, in particular a Cartesian coordinate system with the directional axes x, y, z, in which at least the position of the two depth cameras and their alignment with one another are known.
Darüber hinaus ist die Auswertungseinheit besonders vorteilhafte dazu in der Lage, aus den, in dem gemeinsamen Raumkoordinatensystem zusammengefassten, Raumkoordinatendaten ein Oberflächenmodell des Schlachttierkörperobjekts bereitzustellen. In addition, the evaluation unit is particularly advantageous in being able to provide a surface model of the carcass object from the spatial coordinate data combined in the common spatial coordinate system.
Zu diesem Zweck werden die zusammengefassten Raumkoordinatendaten der ersten und zweiten Seite des Schlachttierkörperobjekts miteinander vermascht um so ein netzartiges Oberflächenmodell des Schlachttierkörperobjekts zu generieren. Anhand des generierten Oberflächenmodells werden anschließend Volumina des Schlachttierkörperobjekts berechnet. Hinsichtlich des benötigten Auswertungsaufwandes wird die Menge der notwendigen Raumkoordinatendaten vorzugsweise so gewählt, dass eine hinreichend genaue Ermittlung der relevanten Volumina des Schlachttierkörperobjekts gewährleistet ist. For this purpose, the combined space coordinate data of the first and second sides of the carcass object are meshed with each other so as to generate a net-like surface model of the carcass object. On the basis of the generated surface model, volumes of the carcass object are then calculated. With regard to the required evaluation effort, the amount of space coordinate data required is preferably selected such that a sufficiently accurate determination of the relevant volumes of the slaughter animal body object is ensured.
Die erfindungsgemäße Vorrichtung ermöglicht somit auf besonders einfache Weise eine Ermittlung der Volumina eines Schlachttierkörperobjekts, wobei gegenüber herkömmlichen Methoden eine deutlich verbesserte Messgenauigkeit und ein höherer Durchsatz sowie geringere Kosten für das Vermessen erzielbar sind. The device according to the invention thus makes it possible to determine the volumes of an ante-mortem object in a particularly simple manner, whereby a significantly improved measuring accuracy and a higher throughput as well as lower costs for measuring can be achieved compared to conventional methods.
Als weiterer Vorteil ist bei einer Vermessung mit der erfindungsgemäßen Vorrichtung ein Einhalten eines korrekten Abstandes des Schlachttierkörperobjekts zu den Tiefenkameras nicht zwingend, da die Abstandsinformation bereits durch den Tiefenwert an sich bereitstellbar ist. Damit können sonst erforderliche Zusatzvorrichtungen für eine exakte Positionierung des Schlachttierkörperobjekts entfallen. As a further advantage, in the case of a measurement with the device according to the invention, maintaining a correct distance of the slaughter animal body object from the depth cameras is not mandatory, since the distance information can already be provided by the depth value per se. This eliminates the need for additional equipment required for an exact positioning of the carcass object.
In einer vorteilhaften Weiterbildung sind in der Auswerteeinheit geometrische Modelle hinterlegt. Hierbei handelt es sich um mathematische Abstraktionen von Teilen eines normativen Schlachttierkörperobjekts, beispielsweise eines Hinterlaufs einer Schweinehälfte. Ein solches Modell ist nicht notwendig skalar festgelegt und wurde aus Durchschnittswerten gebildet, die durch Zerlegeversuche bestimmt wurden. Das geometrische Modell ist daher nicht durch das zu vermes- sende Schlachttierkörperobjekt bestimmt. In an advantageous development, geometric models are stored in the evaluation unit. These are mathematical abstractions of parts of a normative carcass object, such as a hind leg of a pig's half. Such a model is not necessarily scalar fixed and was formed from averages determined by dissection experiments. The geometric model is therefore not determined by the carcass object to be measured.
Im Gegensatz dazu handelt es sich bei dem Oberflächenmodell um eine von dem konkreten zu vermessenden Schlachttierkörperobjekt gebildete Abstraktion. Werden durch die Vorrichtung definierte Punkte eines geometrischen Modells an dem Schlachttierkörperobjekt als Messpunkte erkannt, kann aus der Lagebe- Ziehung der Messpunkte unter Einbeziehung des geometrischen Modells ein Volumen des dem geometrischen Modell entsprechenden Teils des Schlachttierkörpers, beispielsweise eines Hinterlaufs einer Schweinehälfte bestimmt werden. Es handelt sich dabei dann um ein Teilvolumen des Schlachttierkörperobjekts. Optional kann auch das Oberflächenmodell einbezogen werden, zum einen, um Verhältnisse von Volumen und Teilvolumen zu berechnen und zum anderen, um die Erkennung der definierten Punkte eines geometrischen Modells zu stützen. In contrast, the surface model is an abstraction formed by the particular ante-mortem object to be measured. If points defined by the device of a geometric model on the carcass object are detected as measuring points, the location Draw the measurement points including the geometric model, a volume of the geometric model corresponding part of the carcass, for example, a hind leg of a pig half are determined. It is then a partial volume of the carcass object. Optionally, the surface model can also be included, on the one hand to calculate ratios of volume and part volume, and on the other to support the recognition of the defined points of a geometric model.
Diese vorteilhafte Weiterbildung beruht insbesondere darauf, dass es durch die erfindungsgemäße Vorrichtung darüber hinaus ermöglicht wird, dass mittels der ersten oder zweiten Tiefenkamera und der durch diese bereitgestellten und in das gemeinsame Raumkoordinatensystem übertragenen Raumkoordinatendaten markante Strukturen an der Oberfläche einer Seite des Schlachttierkörperobjekts ermittelbar sind. This advantageous refinement is based, in particular, on the fact that the apparatus according to the invention makes it possible for striking structures on the surface of one side of the slaughter animal body object to be ascertainable by means of the first or second depth camera and the spatial coordinate data provided by the latter and transmitted into the common spatial coordinate system.
Derart markante Strukturen können beispielsweise Vorder- und/oder Hinterläufe des Schlachttieres sein, welche sich durch deren Form entsprechend von der Oberfläche des Schlachttierkörperobjekts abheben. Anhand dieser markanten Strukturen werden die Messpunkte bestimmt und den definierten Punkten des betreffenden geometrischen Modells zugeordnet. Such distinctive structures may be, for example, forelimbs and / or hind legs of the slaughtered animal, which, by their shape, stand out accordingly from the surface of the slaughtered animal body object. On the basis of these striking structures, the measuring points are determined and assigned to the defined points of the relevant geometric model.
In einer bevorzugten Ausbildung der Erfindung weist die Vorrichtung zusätzlich mindestens eine Bildkamera auf. In a preferred embodiment of the invention, the device additionally has at least one image camera.
Die Bildkamera besitzt einen Bildkameraerfassungsbereich, in welchem ein relevanter Abschnitt einer Oberfläche des Schlachttierkörperobjekts auf der ersten Seite optisch erfassbar ist und in welchem Lichtintensitätswerte von Bildpunkten und deren Flächenkoordinaten auf der Oberfläche des Schlachttierkörperobjekts auf der ersten Seite erfassbar sind.  The image camera has an image camera detection area in which a relevant portion of a surface of the carcass object on the first side is optically detectable and in which light intensity values of pixels and their area coordinates on the surface of the carcass object on the first side are detectable.
Dabei ist der Bildkameraerfassungsbereich beispielsweise so ausgebildet, dass in dem relevanten Abschnitt die gesamte Oberfläche des Schlachttierkörperobjekts auf der ersten Seite erfassbar ist. Je nach Anwendungsfall ist es jedoch auch möglich, dass in dem Bildkameraerfassungsbereich nur ein Teilbereich der Oberfläche der ersten Seite des Schlachttierkörperobjekts erfasst wird. In this case, the image camera detection area is designed, for example, such that in the relevant section the entire surface of the carcass object on the first side can be detected. However, it is depending on the application It is also possible for only a partial area of the surface of the first side of the carcass object to be detected in the image camera detection area.
Besonders vorteilhaft ist die beschriebene bevorzugte Ausbildung, wenn es sich bei der Oberfläche der ersten Seite um eine spaltseitige Oberfläche einerParticularly advantageous is the described preferred embodiment, when it is at the surface of the first page to a nip-side surface of a
Schlachttierkörperhälfte handelt. Um eine erfolgreiche Erfassung des relevanten Abschnitts der Oberfläche des Schlachttierkörperobjekts auf der ersten Seite durch die Bildkamera bereitzustellen, erfolgt eine Positionierung des Schlachttierkörperobjekts erfindungsgemäß derart, dass der relvante Abschnitt der Oberfläche des Schlachttierkörperobjekts auf der ersten Seite der Bildkamera zumindest hinreichend zugewandt ist. Carcass half acts. In order to provide a successful detection of the relevant portion of the surface of the carcass object on the first page by the image camera, a positioning of the carcass object according to the invention is carried out such that the relevant portion of the surface of the carcass object on the first side of the image camera is at least sufficiently facing.
Die Bildkamera wird erfindungsgemäß durch eine 2D-Kamera gebildet und ermöglicht es, innerhalb des Bildkameraerfassungsbereichs Lichtintensitätswerte (g) von Bildpunkten sowie die Flächenkoordinaten (x, y) der Bildpunkte auf dem relevanten Abschnitt der Oberfläche des Schlachttierkörperobjekts auf der erste Seite zu erfassen. The image camera is formed by a 2D camera according to the invention and makes it possible to detect light intensity values (g) of pixels within the image camera detection area and the area coordinates (x, y) of the pixels on the relevant portion of the surface of the carcass object on the first side.
Die Erfassung der Lichtintensitätswerte kann beispielsweise auf bekannte Weise durch eine Ermittlung von Graustufenwerten bereitgestellt werden. The detection of the light intensity values can be provided, for example, in a known manner by determining grayscale values.
So kann, beispielsweise bei innerhalb des relevanten Abschnitts der Oberfläche des Schlachttierkörperobjekts vorliegendem Fettgewebe, ein heller Graustufenwert und bei vorliegendem Fleischgewebe ein dunkler Graustufenwert ausgegeben werden.  Thus, for example, in the case of adipose tissue present within the relevant section of the surface of the carcass object, a light gray scale value and, in the case of the present meat tissue, a dark gray scale value can be output.
Die Bildkamera ist vorzugsweise so ausgerichtet, dass deren Mittenachse, nachfolgend auch als Normale bezeichnet, weitestgehend in einem rechten Winkel zur Bewegungsachse des Schlachttierkörperobjekts angeordnet ist. The image camera is preferably oriented such that its center axis, hereinafter also referred to as normal, is largely arranged at a right angle to the axis of movement of the carcass object.
Die Mittenachse stellt in diesem Zusammenhang die optische Achse der Bildka- mera dar, während die Beweg ungsachse des Schlachttierkörperobjekts die Ach- se bezeichnet, auf welcher das Schlachttierkörperobjekt durch den Bildkameraerfassungsbereich und die Tiefenerfassungsbereiche hindurch bewegt wird. In this context, the center axis represents the optical axis of the image camera, while the axis of movement of the carcass object represents the axis of the image. Se, on which the carcass object is moved through the image camera detection area and the depth detection areas.
Als weiteres Merkmal sind durch die erfindungsgemäße Bildkamera die Lichtin- tensitätswerte der Bildpunkte und die diesen zugeordneten Flächenkoordinaten als Lichtintensitätswertdaten übertragbar bereitstellbar. As a further feature, the light intensity values of the pixels and the surface coordinates associated therewith can be transmitted in a transferable manner as light intensity value data by the image camera according to the invention.
Des Weiteren ist durch die Positioniervorrichtung die Lage der Bildkamera relativ zu der ersten Tiefenkamera gemäß der erfindungsgemäßen Weiterbildung so festgelegt, dass sich der Bildkameraerfassungsbereich und der erste Tiefenka- meraerfassungsbereich, zumindest teilweise, in einem gemeinsamen Erfassungsbereich überschneiden, wobei die von der Auswertungseinheit auf dem relevanten Abschnitt der Oberfläche auszuwertenden Bildpunkte in dem gemeinsamen Erfassungsbereich liegen. Furthermore, the positioning device fixes the position of the image camera relative to the first depth camera according to the development of the invention so that the image camera detection area and the first depth camera detection area overlap, at least partially, in a common detection area, that of the evaluation unit on the relevant one Section of the surface to be evaluated pixels in the common detection area lie.
Je nach Anordnung von Bild- und erster Tiefenkamera zueinander, beispielsweise horizontal oder vertikal, können sich der erste Tiefenerfassungsbereich und der Bildkameraerfassungsbereich entweder horizontal oder auch vertikal teilüberschneiden. Depending on the arrangement of image and first depth camera to each other, for example, horizontally or vertically, the first depth detection area and the image camera detection area can be either partially horizontally or vertically overlapping.
Vorzugsweise sind hierbei die Erfassungsbereiche der ersten Tiefenkamera und der Bildkamera und deren Positionierung zueinander so festgelegt, dass der gemeinsame Erfassungsbereich möglichst groß ist, um die Auflösung von erster Tiefenkamera und Bildkamera möglichst gut auszunutzen. Die Erfassung der Bildpunkte auf der Oberfläche des Schlachttierkörperobjekts auf der ersten Seite durch die Bildkamera und durch die erste Tiefenkamera erfolgt erfindungsgemäß in Echtzeit und gleichzeitig. Gleichzeitig bedeutet in diesem Zusammenhang, dass zwischen dem Erfassen durch die Bildkamera und dem Erfassen durch die erste Tiefenkamera keine oder lediglich eine so hinrei- chend kleine Bewegung des Schlachttierkörperobjekts erfolgt ist, dass eine Zu- Ordnung der Flächenkoordinaten (x, y) der erfassten Bildpunkte von Bildkamera und erster Tiefenkamera zueinander möglich bleibt. Preferably, in this case, the detection ranges of the first depth camera and the image camera and their positioning relative to each other are determined so that the common detection range is as large as possible to exploit the resolution of the first depth camera and image camera as well as possible. The detection of the pixels on the surface of the carcass object on the first page by the image camera and by the first depth camera according to the invention is carried out in real time and simultaneously. At the same time, in this context, there is no or only a sufficiently small movement of the carcass object between the detection by the image camera and the detection by the first depth camera that an access to Order of the surface coordinates (x, y) of the captured pixels of the image camera and the first depth camera to each other remains possible.
Die Echtzeitfähigkeit der Tiefenkamera bedingt dabei insbesondere eine hohe Bildaufnahmegeschwindigkeit, also dass die erste Tiefenkamera in der Lage ist, Raumkoordinaten in dem ersten Tiefenkameraerfassungsbereich gleichzeitig zu erfassen, was beispielsweise durch TOF-Kameras gewährleistet werden kann.  In particular, the real-time capability of the depth camera requires a high image recording speed, ie, the first depth camera is capable of simultaneously detecting spatial coordinates in the first depth camera detection area, which can be ensured, for example, by TOF cameras.
Die Bildkamera ist darüber hinaus erfindungsgemäß ebenfalls mit der Auswertungseinheit verbunden, wobei die Auswertungseinheit die durch die Bildkamera bereitgestellten Lichtintensitätswertdaten erfasst und verarbeitet. Moreover, the image camera according to the invention is likewise connected to the evaluation unit, wherein the evaluation unit detects and processes the light intensity value data provided by the image camera.
Die Verbindung zwischen der Bildkamera und der Auswertungseinheit kann erfindungsgemäß ebenfalls drahtgebunden oder drahtlos ausgebildet sein und ermöglicht die Übertragung der Lichtintensitätswertdaten an die Auswertungseinheit.  According to the invention, the connection between the image camera and the evaluation unit can likewise be wired or wireless and enables the transmission of the light intensity value data to the evaluation unit.
Die Auswertungseinheit ist erfindungsgemäß dazu in der Lage, die durch die Bildkamera bereitgestellten Lichtintensitätswertdaten von Bildpunkten den durch die erste Tiefenkamera bereitgestellten Raumkoordinatendaten von Bildpunkten zuzuordnen, die übereinstimmende Flächenkoordinaten (x, y) aufweisen. Mittels der bereitgestellten Daten der Bildkamera und der ersten Tiefenkamera liegen in dem gemeinsamen Erfassungsbereich Bildpunkte vor, für welche erfindungsgemäß sowohl die Flächenkoordinaten (x, y) und der Lichtintensitätswert (g) als auch der Tiefenwert (z) erfasst sind und wobei die Flächenkoordinaten aus den Lichtintensitätswertdaten mit den Flächenkoordinaten aus den Raumkoordina- tendaten erfindungsgemäß identisch sind. According to the invention, the evaluation unit is able to associate the light intensity value data of pixels provided by the image camera with the spatial coordinate data provided by the first depth camera of pixels having matching surface coordinates (x, y). By means of the provided data of the image camera and the first depth camera, pixels are present in the common detection area, for which according to the invention both the area coordinates (x, y) and the light intensity value (g) and the depth value (z) are detected and where the area coordinates are from the Light intensity value data with the area coordinates from the spatial coordinate data are identical according to the invention.
Die zugeordneten Lichtintensitätswert- und Raumkoordinatendaten werden besonders vorteilhaft als Datentupel (x, y, z, g) bereitgestellt. Die Auswertungseinheit ist erfindungsgemäß weiterhin dazu in der Lage, aus den durch die Bildkamera bereitgestellten Lichtintensitätswertdaten der Bildpunk- te definierte Messpunkte an der Oberfläche des Schlachttierkörperobjekts auf der ersten Seite zu identifizieren, wobei es sich in diesem Fall bei der ersten Seite vorzugsweise um eine Spaltseite einer Schlachttierkörperhälfte handelt. Das Identifizieren von Messpunkten bedeutet, dass durch die Auswertungseinheit mittels Bildanalyse und Objekterkennung charakteristische Strukturen an der vorzugsweise spaltseitigen Oberfläche des Schlachttierkörperobjekts, beispielsweise Muskeln, Fettgewebe oder Knochen erkannt werden. Hierzu werden auf Basis der Lichtintensitätswertunterschiede rechentechnisch unterschiedliche Gewebebereiche detektiert und selektiert, um mittels eines Konturenverfolgungsalgo- rithmus die Konturen von Muskeln, Fett und Knochen zu ermitteln. The associated light intensity value and space coordinate data are particularly advantageously provided as data tuples (x, y, z, g). According to the invention, the evaluation unit is furthermore able to convert the light intensity value data provided by the image camera into the image point. to identify te defined measuring points on the surface of the carcass object on the first side, in which case the first side is preferably a split side of a carcass half. The identification of measuring points means that characteristic structures on the preferably gap-side surface of the carcass object, for example muscles, fat tissue or bones, are recognized by the evaluation unit by means of image analysis and object recognition. For this purpose, computationally different tissue areas are detected and selected on the basis of the light intensity value differences in order to determine the contours of muscle, fat and bone by means of a contour tracking algorithm.
Anhand dieser charakteristischen Strukturen werden Punkte ermittelt, deren Lagebeziehung zueinander Aussagen über Quantitäten und Qualitäten des  On the basis of these characteristic structures, points are determined whose positional relation to each other makes statements about quantities and qualities of the
Schlachttierkörperobjekts ermöglichen. Die Flächenkoordinaten dieser Punkte werden durch die Auswertungseinheit als Messpunkte festgelegt. Sie bilden die Grundlage für die weitere Vermessung und für die Bewertung der zu erwartenden Schlachtausbeute. Allow carcass object. The area coordinates of these points are determined by the evaluation unit as measuring points. They form the basis for further surveying and evaluation of the expected slaughter yield.
Dabei ist anhand der Raumkoordinatendaten des Datentupels eines ersten Messpunktes und der Raumkoordinatendaten des Datentupels eines zweiten Messpunktes deren Abstand voneinander im Raum ermittelbar. In this case, based on the spatial coordinate data of the data tuple of a first measurement point and the spatial coordinate data of the data tuple of a second measurement point, their distance from one another in space can be determined.
Je nach Anforderung ist auf diese Weise der räumliche euklidische Abstand der Messpunkte voneinander oder deren Abstand voneinander auf der Oberfläche in dem relevanten Abschnitt der vorzugsweise spaltseitgen Oberfläche des  Depending on requirements, in this way the spatial Euclidean distance of the measuring points from each other or their distance from each other on the surface in the relevant portion of the preferably gap-side surface of the
Schlachttierkörperobjekts ermittelbar, wobei die Ermittlung der Abstände der Messpunkte auf dem relevanten Abschnitt der vorzugsweise spaltseitigen Oberfläche durch Integration der räumlichen Abstände von hinreichend kleinen Teilabständen des Gesamtabstands erfolgt. Ante basal body object can be determined, wherein the determination of the distances of the measuring points on the relevant portion of the preferably gap-side surface is carried out by integration of the spatial distances of sufficiently small partial distances of the total distance.
Des Weiteren sind bei ausreichender Anzahl von Messpunkten auf diese Weise Flächen innerhalb der Oberfläche der relevanten Abschnitte der vorzugsweise spaltseitigen Oberfläche über eine Integration hinreichend kleiner, räumlich exakt berechneter Teilflächen, ermittelbar. Furthermore, with a sufficient number of measuring points in this way, surfaces within the surface of the relevant sections are preferably gap-side surface via an integration of sufficiently small, spatially exactly calculated partial surfaces, determined.
In beiden Fällen können durch ein solches Vorgehen Messfehler, aufgrund unebener oder gekrümmter Oberflächenbereiche, wirksam vermieden werden. Je nach Komplexität der relevanten Oberfläche des Schlachttierkörperobjekts kann es weiterführend zur Erhöhung der Messgenauigkeit sinnvoll sein, eine lokale Glättung der optisch erfassten Oberfläche durchzuführen, insbesondere unter Einbeziehung der Tiefenwerte der Pixelnachbarschaft, und die Abstandswerte der Messpunkte auf der geglätteten Oberfläche im Sinne eines Modells mit einer ideal ebenen Oberfläche zu berechnen.  In both cases, such a procedure measurement errors due to uneven or curved surface areas can be effectively avoided. Depending on the complexity of the relevant surface of the slaughtered animal body object, it can further be useful to increase the measuring accuracy to perform a local smoothing of the optically detected surface, in particular taking into account the depth values of the pixel neighborhood, and the distance values of the measuring points on the smoothed surface in the sense of a model with a ideally to calculate flat surface.
Bei einer ausreichenden Anzahl von relevanten Messpunkten lassen sich neben Streckenmessungen auch Flächenmessungen ausführen und im Ergebnis Aussagen zur Beschaffenheit des Schlachttierkörperobjekts, wie beispielsweise zu Magerfleisch-, Fettgewebe- und Knochenanteilen, zur Lage organischer Strukturen und so weiter bestimmen. Hieraus lassen sich quantitative und qualitative Klassifikationsaussagen und Zerlegeentscheidungen ableiten. With a sufficient number of relevant measuring points, in addition to distance measurements, surface measurements can also be carried out and, as a result, statements on the condition of the carcass object, such as lean meat, fatty tissue and bone fractions, the position of organic structures and so on. From this, quantitative and qualitative classification statements and decomposition decisions can be derived.
Je nach Auflösung der Tiefen- und Bildkamera liegen die jeweils erfassten Bild- punkte der spaltseitigen Oberfläche der Schlachttierkörperhälfte in einer definierten Anzahl Pixel vor. Durch die Auswertungseinheit werden die Bilddaten auch bei unterschiedlichen Auflösungen der Tiefenkamera und der Bildkamera so zusammengeführt, dass für jedes Pixel mittels der zusammengeführten Lichtinten- sitätswertdaten und Raumkoordinatendaten neben den Flächenkoordinaten der Lichtintensitätswert und der Tiefenwert vorliegen. Depending on the resolution of the depth and image camera, the respectively detected image points of the slit-side surface of the slaughter animal body half are present in a defined number of pixels. The evaluation unit also combines the image data with different resolutions of the depth camera and the image camera in such a way that the light intensity value and the depth value are present for each pixel by means of the merged light intensity value data and spatial coordinate data in addition to the surface coordinates.
Darüber hinaus werden erfindungsgemäß die identifizierten Messpunkte anhand deren Raumkoordinatendaten dem generierten Oberflächenmodell des Schlachttierkörperobjekts zugeordnet. Anschließend sind auf besonders vorteilhafte Weise unter Einbeziehung der Raumkoordinaten der identifizierten Messpunkte, Teilvolumina des Schlachttierkörperobjekts berechenbar, wobei anhand der Raumkoordinaten der Messpunkte der entsprechende Gewebebereich vermessen wird und wobei in der Auswer- tungseinheit vorher ermittelte, geometrische Modelle hinterlegt werden, welche eine Abhängigkeit der Gewebebereichsabmessungen relativ zu dem Volumen des Teils des Schlachttierkörperobjekts und optional zu dem Gesamtvolumen des Schlachttierkörperobjekts beinhalten. Moreover, according to the invention, the identified measurement points are assigned to the generated surface model of the carcass object based on their spatial coordinate data. Subsequently, in a particularly advantageous manner, including the spatial coordinates of the identified measuring points, partial volumes of the carcass object can be calculated, wherein the geometric coordinates are determined based on the spatial coordinates of the measuring points of the corresponding tissue area and wherein in the evaluation previously determined geometric models are deposited, which dependency of the tissue area dimensions relative to the volume of the part of the carcass object and optionally to the total volume of the carcass object.
Die geometrischen Modelle werden anhand von dort definierten Punkten dem jeweils vermessenen Gewebebereich anhand der vermessenen Messpunkte zugeordnet und anschließend aus den zugeordneten Daten das zu erwartende Teilvolumen für jeden relevanten Gewebebereich ermittelt.  The geometrical models are assigned to the respectively measured tissue area on the basis of the measured measuring points on the basis of points defined there and subsequently the expected partial volume for each relevant tissue area is determined from the assigned data.
Die geometrischen Modelle werden anhand der organischen Strukturen des Schlachttierkörperobjekts erstellt, wobei die organischen Strukturen, beispielsweise durch Zerlegeversuche oder Computertomographieverfahren, mit hoher Genauigkeit ermittelbar sind. The geometric models are created on the basis of the organic structures of the carcass object, wherein the organic structures, for example by Zerlegeversuche or computer tomography method, can be determined with high accuracy.
Die geometrischen Modelle sind als virtuelle Komponenten des Schlachttierkörperobjekts zu verstehen, wobei sich diese virtuellen Komponenten baugruppen- artig zusammensetzen lassen. Der besondere Vorteil der Einbeziehung der geometrischen Modelle besteht dabei darin, dass die Datendichte und -exaktheit, wie sie insbesondere durch Computertomographieverfahren erreichbar ist, in den geometrischen Modellen aggregiert ist und so in ein echtzeitfähiges System inkorporiert werden kann, ohne jeweils„in-line" Computertomographien, welche teuer, langsam und mit einer Strahlungsemission verbunden sind, ausführen zu müssen. Die durch die Tiefenkameras ermittelten Raumkoordinatendaten ermöglichen dabei eine hohe Zuordnungssicherheit der jeweiligen geometrischen Modelle. Ein Weg zu einer weitereren Erhöhung der Genauigkeit besteht darin, ausgehend von Messpunkten, die auf der Grundlage von Datentupeln mit Lichtinten- sitätswertdaten und Raumkoordinatendaten bestimmt wurden, bestimmte Abschnitte das Schlachttierkörpers zu bilden, und für diese Abschnitte mit Raumkoordinatendaten ein Oberflächenmodell dieses Abschnittes zu bilden und das so emittelte Volumen dieses Abschnitts zu berücksichten. So kann beispielswei- se eine Schlachttierkörperhälfte in quer zur Spaltebene stehende virtuelle Scheiben zerlegt werden, deren Dicke und Position durch die Länge eines Wirbels, der optisch erkannt wurde, definiert ist. Mittels der Tiefenkameras werden nun die räumlichen Maße der zu der virtuellen Scheibe zugehörigen Oberflächenabschnitte ermittelt. Das damit ermittelte Volumen der virtuellen Scheibe lässt eine Verbesserung der Aussagegenauigkeit, beispielsweise zu dem Magerfleischanteil zu, da sich verschiedene Rassen und Genetiken vorrangig in deren Gesamtproportion, weniger jedoch in lokalen Zusammenhängen unterscheiden. The geometric models are to be understood as virtual components of the carcass object, whereby these virtual components can be assembled like a subassembly. The particular advantage of including the geometric models is that the data density and exactness, as achievable in particular by computer tomography methods, is aggregated in the geometric models and can thus be incorporated into a real-time capable system, without each being "in-line". Computer tomography, which is expensive, slow, and associated with radiation emission, requires the spatial coordinate data obtained by the depth cameras to provide high reliability of assignment of the respective geometric models the basis of data tuples with light-ink sity value data and spatial coordinate data have been determined to form certain sections of the carcass, and for these sections with spatial coordinate data to form a surface model of this section and to take into account the volume of this section thus emitted. Thus, for example, an animal carcass half can be dissected into virtual slices transversely to the cleavage plane, whose thickness and position are defined by the length of a swirl which was optically detected. By means of the depth cameras, the spatial dimensions of the surface sections belonging to the virtual disk are now determined. The thus determined volume of the virtual disc allows an improvement of the accuracy, for example, the lean meat content, as different races and genetics primarily in their overall proportion, but less in local contexts differ.
Auf diese Weise wird es besonders vorteilhaft ermöglicht, dass durch eine erfin- dungsgemäße Vorrichtung eine Vermessung des Schlachttierkörperobjekts mit einer Volumenermittlung der relevanten Gewebebereiche durchführbar ist und anhand der ermittelten Ergebnisse eine zuverlässige Vorhersage der zu erwartenden Schlachtausbeute getroffen werden kann. Ein weiterer Vorteil der Vorrichtung besteht dabei in einer hohen Messgenauigkeit, da eventuell vorhandene Ungleichmäßigkeiten, beispielsweise aufgrund der Positionierung eines Schlachttierkörperobjekts in Abstand und Winkel und im Falle einer Spaltseite einer Schlachttierkörperhälfte als erster Seite einer eventuell nicht planen spaltseitigen Oberfläche, durch die erfassten Tiefenwerte kor- rigierbar sind. In this way, it is possible with particular advantage that a measurement of the carcass object with a volume determination of the relevant tissue areas can be carried out by a device according to the invention and a reliable prediction of the expected battle yield can be made on the basis of the determined results. Another advantage of the device consists in a high accuracy of measurement, since any existing irregularities, for example due to the positioning of an ante-carcass object in distance and angle and in the case of a split side of a carcass half as the first side of a possibly non-planning gap side surface, by the detected depth values cor- can be rigged.
Gleichzeitig können durch die erfindungsgemäß angewendeten Komponenten die Bereitstellungs- und Anwendungskosten einer derartigen Vorrichtung niedrig gehalten und ein hoher Durchsatz von zu vermessenden Schlachttierkörperob- jekten gewährleistet werden. Durch die erfindungsgemäße Einbeziehung des jeweiligen Tiefenwerts ist darüber hinaus ein Einhalten eines exakt vorgegebenen Abstandes oder eines exakt vorgegebenen Winkels zwischen dem Schlachttierkörperobjekt und der Vorrichtung nicht zwingend, da die Abstandsinformation bereits durch den Tiefenwert an sich bereitstellbar ist. Damit können sonst erforderliche Zusatzvorrichtungen für eine exakte Positionierung des Schlachttierkörperobjekts oder zur Korrektur von Planunebenheiten entfallen. Die Bereitstellungs- und Betriebskosten einer erfindungsgemäßen Vorrichtung sind dadurch vergleichsweise niedrig. Zudem kann die Messung berührungslos durchgeführt werden, womit auch hygienischen Risiken durch nach dem Stand der Technik bekannte Zusatzvorrichtungen zur Positionierung von Schlachttierkörperobjekten, beziehungsweise zusätzliche Vorkehrung in hygienischer Hinsicht, entfallen. In entsprechender Weise gelten die beschriebenen Vorteile auch bei der Vermessung sonstiger Schlachttierkörperobjekte, welche beispielsweise auf einem Transportband transportiert werden können. Bei einem Transportband besteht zwar nicht das Problem unkontrollierter Bewegungen. Trotzdem bietet die erfindungsgemäße Lösung auch hier einen besonderen Vorteil, da die Positionierung des Schlachttierkörperobjekts relativ zu dem Transportband, insbesondere quer zur Längserstreckung des Transportbandes, ungenau sein kann, denn durch den Tiefenwert liegt bereits die Abstandsinformation vor. Durch die Abstandsinformation ist aber nicht lediglich die Position des Schlachttierkörperobjekts relativ zu der Bildkamera, sondern auch relativ zu dem Transportband bekannt. Da die Be- wegung und Positionierung des Transportbandes als solches exakt gesteuert werden kann, kann so bei einem Weitertransport zu einer nachfolgenden Station auch eine Position des Schlachttierkörperobjekts relativ zu Mitteln einer solchen nachfolgenden Station, wie beispielsweise zu einem Zerlegeroboter, exakt vorbestimmt werden und das andere Mittel gemäß der bekannten Position gesteuert werden, ohne dass eine nochmalige Erfassung erforderlich ist. Vorzugsweise weist die Vorrichtung auch Mittel zur Beleuchtung des Schlachttierkörperobjekts, wobei die Lichtfarbe zweckmäßigerweise so gewählt wird, dass eine gute Bildpunkterfassung durch die Bildkamera und die Tiefenkameras möglich wird. At the same time, the provision and application costs of such a device can be kept low by the components used according to the invention and a high throughput of slaughtered body objects to be measured can be ensured. Moreover, by the inclusion of the respective depth value according to the invention, observing a precisely predetermined distance or a precisely predetermined angle between the carcass object and the device is not mandatory, since the distance information can already be provided by the depth value per se. This eliminates the need for additional equipment required for an exact positioning of the carcass object or to correct plano unevenness. The provision and operating costs of a device according to the invention are characterized comparatively low. In addition, the measurement can be carried out without contact, which also hygienic risks by known in the prior art additional devices for positioning of carcass objects, or additional provision in hygienic terms omitted. In a corresponding manner, the described advantages also apply to the measurement of other carcass objects, which can be transported, for example, on a conveyor belt. A conveyor belt does not have the problem of uncontrolled movements. Nevertheless, the solution according to the invention also offers a particular advantage here, since the positioning of the carcass object relative to the conveyor belt, in particular transversely to the longitudinal extent of the conveyor belt, may be inaccurate because the distance information already exists due to the depth value. By the distance information, however, not only the position of the carcass object relative to the image camera, but also relative to the conveyor belt is known. Since the movement and positioning of the conveyor belt can be precisely controlled as such, a position of the carcass object relative to means of such a subsequent station, such as a burglar robot, can be exactly predetermined and the other when further transported to a subsequent station Controlled means according to the known position, without a repeated detection is required. Preferably, the device also comprises means for illuminating the carcass object, wherein the light color is expediently chosen so that a good pixel detection by the image camera and the depth cameras is possible.
In einer weiteren vorteilhaften Ausbildung der Erfindung ist die Bildkamera als Farbkamera ausgebildet. In a further advantageous embodiment of the invention, the image camera is designed as a color camera.
Die Verwendung einer Farbkamera ermöglicht es in diesem Zusammenhang, die Lichtintensitätswerte separat nach einzelnen Farbkanälen, insbesondere Rot, Grün und Blau (RGB) zu erfassen und die Lichtintensitätswerte nach Farbkanälen getrennt in den Lichtintensitätswertdaten zu hinterlegen und an die Auswertungseinheit zu übertragen. Die Lichtintensitätswerte können dann nach Farbkanälen zur Bildanalyse verwendet werden, wodurch Konturen von Strukturen an der spaltseitigen Oberfläche des Schlachttierkörperobjekts besser erkannt wer- den können.  In this connection, the use of a color camera makes it possible to record the light intensity values separately according to individual color channels, in particular red, green and blue (RGB), and to store the light intensity values separately according to color channels in the light intensity value data and transmit them to the evaluation unit. The light intensity values can then be used for color channels for image analysis, whereby outlines of structures on the nip surface of the carcass object can be better recognized.
Auf diese Weise ist eine zusätzliche Optimierung der durch die erfindungsgemäße Vorrichtung erzielbaren Vermessungsgenauigkeit bereitstellbar. Eine weitere vorteilhafte Weiterbildung der Erfindung sieht vor, dass es sich bei dem Schlachttierkörperobjekt um eine Schlachttierkörperhälfte handelt, welche eine Spaltseite aufweist und dass es sich bei dem Abschnitt der Oberfläche der ersten Seite um die Oberfläche der Spaltseite handelt und dass mit dem Bildkameraerfassungsbereich und dem ersten Tiefenkameraerfassungsbereich jeweils die Oberfläche der Spaltseite der Schlachttierkörperhälfte optisch erfassbar ist. Besonders vorteilhaft ist diese Weiterbildung dann, wenn die Vorrichtung gemäß einer bereits beschriebenen Weiterbildung ferner eine Bildkamera aufweist, welche die Spaltseite optisch erfasst, weil die offenliegenden organischen Strukturen eine Identifizierung von definierten Messpunkten mittels Lichtintensitätswert- daten erleichtern. In diesem Fall wird durch eine Grobpositionierung sichergestellt, dass die Spaltseite hinreichend nach der Bildkamera ausgerichtet wird, wobei jedoch auch dann der Vorteil verbleibt, dass eine exakte Positionierung nach Abstand und Winkel nicht erforderlich ist. In this way, an additional optimization of the measurement accuracy achievable by the device according to the invention can be provided. A further advantageous development of the invention provides that the carcass object is a carcass half, which has a gap side and that the portion of the surface of the first side is the surface of the gap side and that with the image camera detection area and the first Depth camera detection area in each case the surface of the split side of the carcass half is optically detectable. This development is particularly advantageous if, according to an already described development, the device further comprises an image camera which optically detects the gap side because the exposed organic structures facilitate identification of defined measurement points by means of light intensity value data. In this case, coarse positioning ensures that the gap side is aligned sufficiently with the image camera, but that the advantage remains that exact positioning by distance and angle is not required.
Es bleibt jedoch auch bei dieser vorteilhaften Weiterbildung darüber hinaus möglich, dass mittels der zweiten Tiefenkamera und der durch diese bereitgestellten und in das gemeinsame Raumkoordinatensystem übertragenen Raumkoordinatendaten markante Strukturen an der zweiten Seite, also der Rückseite der Schlachttierkörperhälfte ermittelbar sind. Derart markante Strukturen können beispielsweise Vorder- und/oder Hinterläufe des Schlachttieres sein, welche sich durch deren Form entsprechend von der Rückseite des Schlachttierkörperobjekts abheben. Darüber hinaus sieht eine weitere vorteilhafte Weiterbildung der Erfindung vor, dass der Tiefenwert aus den jeweils ermittelten Raumkoordinaten zur Identifizierung von Messpunkten an der relevanten Oberfläche eines Schlachttierkörperobjekts verwendet wird. Auf diese Weise können, insbesondere bei einer unebenen spaltseitigen Oberfläche einer Schlachttierkörperhälfte, die Messpunkte anhand einer Einbeziehung der Tiefenwertinformationen besser identifiziert werden. Dies ist vor allem dann der Fall, wenn eine charakteristische Struktur, beispielsweise an einem Übergang einer Schnittebene in den Bauchraum, eine charakteristische Struktur durch die Tiefenwertinformation besser erkannt werden kann als durch die Licht- intensitätswertdaten. However, it is also possible in this advantageous development beyond that marked structures on the second side, ie the back of the carcass half can be determined by means of the second depth camera and the spatial coordinate data provided by this and transmitted in the common spatial coordinate system. Such prominent structures may be, for example, forelimbs and / or hind legs of the slaughtered animal, which by their shape stand out correspondingly from the back of the slaughtered animal body object. In addition, a further advantageous development of the invention provides that the depth value from the respectively determined spatial coordinates is used to identify measuring points on the relevant surface of an ante-mortem object. In this way, in particular in the case of an uneven gap-side surface of an animal carcass half, the measuring points can be better identified on the basis of inclusion of the depth value information. This is especially the case when a characteristic structure, for example at a transition of a cutting plane into the abdominal cavity, a characteristic structure can be better recognized by the depth value information than by the light intensity value data.
In diesem Fall übernimmt der erfassbare Tiefenwert eine Doppelfunktion, in dem durch diesen zum einen die Raumkoordinaten der, aus den Lichtintensitätswert- daten der Bildpunkten identifizierten, Messpunkte bereitgestellt wird und indem darüber hinaus zum anderen die dem vorangehende Identifizierung der Mess- punkte, insbesondere auf der spaltseitigen Oberfläche der Schlachttierkörper- hälfte, erst ermöglicht oder zumindest unterstützt wird. In this case, the detectable depth value assumes a double function, in which the spatial coordinates of the measuring points identified from the light intensity value data of the pixels are provided by the latter and, in addition, the previous identification of the measuring points, in particular on the gap-side surface of the carcass half, only enabled or at least supported.
In besonderer weise kann die Tiefeninformation auch dazu herangezogen wer- den, das Schlachttierkörperobjekt von dem Hintergrund abzugrenzen und somit dessen Kontur festzulegen. Tiefenwerte, die außerhalb eines definierten Bereichs liegen, namentlich Tiefenwerte oberhalb eines bestimmten Wertes, werden dann durch einen Auswertungsalgorithmus per se dem Hintergrund zugeordnet, ohne dass es hierfür noch einer Einbeziehung der Lichtintensitätswert- daten bedürfte. Dieses Verfahren ermöglicht es, die nach dem Stand der Technik üblichen Hintergrundwände überflüssig zu machen. In particular, the depth information can also be used to delimit the carcass object from the background and thus to define its contour. Depth values that lie outside of a defined range, namely depth values above a certain value, are then assigned to the background by an evaluation algorithm per se, without it being necessary to include the light intensity value data for this purpose. This method makes it possible to obviate the background walls customary in the prior art.
Einer weiteren vorteilhaften Weiterbildung liegt ein häufig auftretendes Problem zu Grunde, dass die reale Oberflächenform und eine modellhafte Idealform des Schlachttierkörperobjekts nicht übereinstimmen. Bei Schlachttierkörperhälften ist beispielsweise die spaltseitige Oberfläche in der modellhaften Idealform eine exakte Ebene. Die modellhaften Abstände von Messpunkten basieren auf der modellhaften Idealform. Die Abweichung von realer Oberflächenform und modellhafter Idealform bedingt eine Ungenauigkeit der Aussagekraft der Abstände der Messpunkte im Raum auf der Grundlage der realen Oberflächenform. A further advantageous development is based on a frequently occurring problem that the real surface shape and a model ideal shape of the carcass object do not match. For carcass halves, for example, the nip-side surface in the model ideal shape is an exact plane. The model distances of measuring points are based on the model ideal form. The deviation from the real surface shape and the model ideal shape causes an inaccuracy of the validity of the distances of the measuring points in space on the basis of the real surface form.
Es gehört zu den Vorteilen der Erfindung, dass auch für die Lösung dieses Problems die ohnehin durch die Tiefenkamera bereitstehende Abstandinformation, also der z-Wert der Raumkoordinaten, verwandt werden kann. It is one of the advantages of the invention that even for the solution of this problem, the distance information already available by the depth camera, that is to say the z value of the spatial coordinates, can be used.
Sofern die Areale mit Abweichungen bekannt sind, insbesondere wenn sie anatomisch oder technisch bedingt immer an der gleichen Stelle auftreten, können die Tiefenwerte von Punkten in diesen Arealen von der Bildung der modellhaften Idealoberfläche von vornherein ausgeschlossen oder geringer gewichtet werden. Sofern diese nicht bekannt sind, werden von einer Mehrzahl von Punkten die Punkte detektiert, welche einen, einen definierten Wert übersteigenden Abstand von dem durch die meisten anderen Punkte definierten Idealmodell aufweisen und auf dieser Grundlage ausgeschlossen oder geringer gewichtet werden. Die Modellanpassung und Ausreißerdetektion kann sich dabei bekannter Verfahren bedienen, beispielsweise RANSAC. If the areas are known to have deviations, in particular if they always occur at the same site due to anatomical or technical reasons, the depth values of points in these areas can be ruled out from the outset or less weighted by the formation of the ideal model surface. If these are not known, the points are detected by a plurality of points, which a, exceeding a defined value distance of the ideal model defined by most of the other points and on that basis excluded or weighted less. The model adaptation and outlier detection can use known methods, for example RANSAC.
Ausgehend von der so gebildeten modellhaften Idealoberflächenform, im Falle einer Schlachttierkörperhälfte von der Ebene, werden die Raumkoordinaten der ermittelten Messpunkte gemäß dem modellhaften Vorwissen über die Ursache der Abweichung auf die ideale Modelloberfläche projiziert. Auf der Basis dieser so gebildeten Raumkoordinaten erfolgt dann die Bestimmung des Abstands der Messpunkte im Raum. Starting from the modeled ideal surface shape thus formed, in the case of a carcass half of the plane, the spatial coordinates of the determined measuring points are projected onto the ideal model surface in accordance with the model knowledge of the cause of the deviation. On the basis of these spatial coordinates thus formed, the determination of the distance of the measuring points in space then takes place.
Eine besonders vorteilhafte Weiterbildung der Erfindung sieht vor, dass die Tiefenkameras als TOF-Kameras (Time Of Flight-Kamera) ausgebildet sind. A particularly advantageous embodiment of the invention provides that the depth cameras are designed as TOF cameras (time of flight camera).
Eine TOF-Kamera ermöglicht auf an sich bekannte Art und Weise die Ermittlung einer Distanz zwischen ihr und einem erfassten Objekt mittels eines Laufzeitverfahrens. A TOF camera, in a manner known per se, enables the determination of a distance between it and a detected object by means of a transit time method.
Hierzu wird das erfasste Objekt mittels eines Lichtpulses angeleuchtet, wobei die Kamera für jeden angeleuchteten Bildpunkt die Zeit ermittelt, welche das Licht zum Objekt hin und von diesem wieder zurück zur Kamera benötigt. For this purpose, the detected object is illuminated by means of a light pulse, wherein the camera determines the time for each illuminated pixel, which requires the light to the object and back from this back to the camera.
Die Anwendung einer TOF-Kamera ist in mehrerfacher Hinsicht von Vorteil. Zum einen weisen TOF-Kameras in der Regel einen einfachen Aufbau auf und können somit verhältnismäßig kostengünstig bereitgestellt werden. Using a TOF camera is advantageous in many ways. On the one hand, TOF cameras generally have a simple structure and can therefore be provided relatively inexpensively.
Zum anderen können durch TOF-Kameras hohe Bildaufnahmegeschwindigkeiten realisiert werden, indem das gesamte Objekt in einer Aufnahme in sehr kurzer Zeit abgebildet wird.  On the other hand, high image acquisition speeds can be realized by TOF cameras by imaging the entire object in one shot in a very short time.
Somit können mittels der TOF-Kameras insbesondere Echtzeitanwendungen realisiert werden. Darüber hinaus sieht eine vorteilhafte Variante der erfindungsgemäßen Vorrichtung vor, dass diese mindestens eine weitere Tiefenkamera mit einem weiteren Tiefenkameraerfassungsbereich, in welchem ein Abschnitt einer Oberfläche des Schlachttierkörperobjekts optisch erfassbar ist und in welchem weitere Raumko- ordinaten von Bildpunkten, bestehend aus Flächenkoordinaten und einem Tiefenwert, erfassbar sind, wobei die weiteren Raumkoordinaten als Raumkoordinatendaten übertragbar bereitstellbar sind, aufweist, wobei die Auswertungseinheit mit der weiteren Tiefenkamera verbunden ist und wobei die Auswertungseinheit die durch die weitere Tiefenkamera bereitgestellten Raumkoordinatendaten er- fasst und wobei die Raumkoordinatendaten der weiteren Tiefenkamera in dem gemeinsamen Raumkoordinatensystem, zusammen mit den Raumkoordinatendaten der ersten und der zweiten Tiefenkamera, als zusammengefasste Raumkoordinatendaten zusammenfassbar sind. Die weitere Tiefenkamera kann erfindungsgemäß insbesondere so angeordnet werden, dass durch deren Tiefenkameraerfassungsbereich zusätzliche Flächen an dem Schlachttierkörperobjekt erfasst werden können. In diesem Fall wird mit der Weiterbildung eine Vergrößerung der erfassbaren Bereiche und/oder eine Verbesserung der Auflösung erreichbar. Thus, in particular real-time applications can be realized by means of the TOF cameras. In addition, an advantageous variant of the device according to the invention provides that this at least one further depth camera with a further depth camera detection area in which a portion of a surface of the carcass object is optically detectable and in which further Raumko ordinaten of pixels consisting of area coordinates and a depth value, wherein the further spatial coordinates can be transmitted in a transferable manner as spatial coordinate data, wherein the evaluation unit detects the space coordinate data provided by the further depth camera and wherein the spatial coordinate data of the further depth camera is in the common spatial coordinate system, together with the spatial coordinate data of the first and the second depth camera, are summarized as summarized spatial coordinate data. According to the invention, the further depth camera can be arranged in particular so that additional areas on the slaughter animal body object can be detected by the depth camera detection area. In this case, an increase in the detectable ranges and / or an improvement in the resolution can be achieved with the development.
Des Weiteren kann die Anordnung der weiteren Tiefenkamera derart erfolgen, dass diese, gegenüber der ersten und zweiten Tiefenkamera, das Schlachttierkörperobjekt zwar in dem gleichen Bereich, jedoch in einem anderen Winkel erfasst und somit beispielsweise konkave Ausbildungen, insbesondere bei Furthermore, the arrangement of the further depth camera can take place in such a way that, in contrast to the first and second depth camera, the carcass object is detected in the same area, but at a different angle, and thus, for example, concave formations, in particular in FIG
Schlachttierkörperhälften, erfasst oder besser erfasst werden können. Carcass halves, recorded or better recorded.
Dies bedeutet, dass sich der Tiefenkameraerfassungsbereich der weiteren Tiefenkamera und der Tiefenkameraerfassungsbereich der ersten oder der zweiten Tiefenkamera zumindest abschnittsweise überschneiden. Ebenso ist es erfindungsgemäß möglich, die weitere Tiefenkamera derart anzuordnen, dass deren Tiefenkameraerfassungsbereich weitestgehend mit dem Tie- fenkameraerfassungsbereich der ersten oder zweiten Tiefenkamera übereinstimmt, wobei die weitere Tiefenkamera jedoch eine höhere Auflösung bietet. Auf diese Weise können beispielsweise besonders relevante Abschnitte des Schlachttierkörperobjekts als Aussschnitte mit einer entsprechend höheren Auf- lösung erfasst werden. This means that the depth camera detection range of the further depth camera and the depth camera detection range of the first or the second depth camera overlap at least in sections. Likewise, it is possible according to the invention to arrange the further depth camera in such a way that its depth camera detection area largely coincides with the depth. fenkameraerfassungsbereich the first or second depth camera coincides, the further depth camera, however, offers a higher resolution. In this way, for example, particularly relevant sections of the carcass object can be detected as cutouts with a correspondingly higher resolution.
In diesem Zusammenhang ist es erfindungsgemäß ebenfalls möglich, eine Vielzahl weiterer Tiefenkameras vorzusehen, um so eine effektive Mehrfacherfas- sung, insbesondere komplex geformter Schlachttierkörperobjekte, bereitzustel- len. In this context, it is also possible according to the invention to provide a multiplicity of further depth cameras so as to provide an effective multiple detection, in particular of complexly shaped ante-mortem objects.
In jedem Fall werden die, durch die weitere Tiefenkamera oder die weiteren Tiefenkameras bereitgestellten, Raumkoordinatendaten erfasst und in dem gemeinsamen Raumkoordinatensystem, zusammen mit den Raumkoordinatendaten der ersten und der zweiten Tiefenkamera, als zusammengefasste Raumkoordinatendaten zusammengefasst und erfindungsgemäß weiterverarbeitet. In any case, the space coordinate data provided by the further depth camera or the further depth cameras are detected and combined in the common space coordinate system, together with the space coordinate data of the first and the second depth camera, as combined space coordinate data and further processed according to the invention.
Eine weitere vorteilhafte Ausbildung der erfindungsgemäßen Vorrichtung sieht darüber hinaus vor, dass diese mindestens eine weitere Bildkamera mit einem weiteren Bildkameraerfassungsbereich aufweist, in welchem ein Abschnitt einer Oberfläche des Schlachttierkörperobjekts optisch erfassbar ist und in welchem Lichtintensitätswerte von Bildpunkten und deren Flächenkoordinaten erfassbar sind, wobei die Lichtintensitätswerte und die zugeordneten Flächenkoordinaten als Lichtintensitätswertdaten übertragbar bereitstellbar sind und wobei durch die Positioniervorrichtung die Lage der weiteren Bildkamera relativ zu einer der Tiefenkameras so festgelegt ist, dass sich der weitere Bildkameraerfassungsbereich und der Tiefenkameraerfassungsbereich der Tiefenkamera zumindest teilweise in einem weiteren gemeinsamen Erfassungsbereich überschneiden und wobei die weitere Bildkamera mit der Auswertungseinheit verbunden ist, wobei durch die Auswertungseinheit die, durch die weitere Bildkamera bereitgestellten, Lichtintensitätswertdaten erfassbar und weiterverarbeitbar sind. Das Erfassen und Weiterverarbeiten der Lichtintensitätswertdaten erfolgt hierbei analog zu den im Anspruch 3 aufgeführten und beschriebenen Merkmalen. Erfindungsgemäß ist es hierbei ebenfalls möglich, eine Vielzahl weiterer Bildkameras innerhalb der Vorrichtung anzuordnen, um auf diese Weise als besonderen Vorteil alle, an einem Schlachttierkörperobjekt relevanten, Oberflächen durch Bildkameras zu erfassen. Die Erfindung wird als Ausführungsbeispiel anhand von A further advantageous embodiment of the device according to the invention further provides that it has at least one further image camera with a further image camera detection area in which a portion of a surface of the carcass object is optically detectable and in which light intensity values of pixels and their surface coordinates can be detected, wherein the light intensity values and the assigned area coordinates can be transmitted in a transferable manner as light intensity value data and wherein the position of the further image camera relative to one of the depth cameras is determined by the positioning device such that the further image camera detection area and the depth camera detection area of the depth camera overlap at least partially in a further common detection area and wherein the further Image camera is connected to the evaluation unit, wherein by the evaluation unit, by the further image camera b provided, light intensity value data can be detected and further processed. The detection and further processing of the light intensity value data is carried out analogously to the features listed and described in claim 3. According to the invention, it is also possible to arrange a multiplicity of further image cameras within the device in order in this way, as a particular advantage, to detect all surfaces relevant to an ante-carcass object by image cameras. The invention will be described as an embodiment with reference to
Fig. 1 schematische Darstellung mit zwei Tiefenkameras Fig. 1 schematic representation with two depth cameras
Fig. 2 schematische Darstellung mit zusätzlicher Bildkamera näher erläutert. Fig. 2 illustrates a schematic diagram with additional image camera in more detail.
Bei dem Ausführungsbeispiel handelt es sich um eine Vorrichtung zur Vermessung eines Schlachttierkörperobjekts 1 in Form einer Schlachttierkörperhälfte. In the embodiment, it is a device for measuring a carcass object 1 in the form of a carcass half.
Eine erfindungsgemäße Vorrichtung zur volu metrischen Vermessung einer Schlachttierkörperhälfte weist in einem Ausführungsbeispiel gemäß Fig. 1 eine erste Tiefenkamera 2 und eine zweite Tiefenkamera 3 auf. Die Schlachttierkörperhälfte ist vorliegend zentral zwischen den Tiefenkameras 2 und 3 angeordnet und wird mittels einer Transportvorrichtung (nicht dargestellt) entlang einer Beweg ungsachse gt an den Tiefenkameras 2 und 3 vorbeigeführt. Die Schlachttierkörperhälfte weist ferner eine erste Seite und eine zweite Seite auf, wobei es sich bei der ersten Seite vorliegend um eine Spaltseite und bei der zweiten Seite um eine, der Spaltseite gegenüberliegende, Rückseite handelt. Die Spaltseite wird vorliegend durch die Ebenenachse gc veranschaulicht. Die Tiefenkameras 2 und 3 weisen jeweils einen Tiefenkameraerfassungsbe- reich auf, wobei der Tiefenkameraerfassungsbereich der ersten Tiefenkamera 2 durch den Erfassungswinkel CCDI und der Tiefenkameraerfassungsbereich der zweiten Tiefenkamera 3 durch den Erfassungswinkel CCD2 veranschaulicht werden. An inventive device for volumetric measurement of a carcass half has in an embodiment of FIG. 1, a first depth camera 2 and a second depth camera 3. The carcass half is presently centrally located between the depth cameras 2 and 3 and is guided by means of a transport device (not shown) along a movement axis gt to the depth cameras 2 and 3. The carcass half further includes a first side and a second side, wherein the first side is a gap side and the second side is a rear side opposite the gap side. The gap side is illustrated here by the plane axis gc. The depth cameras 2 and 3 each have a depth camera detection range, the depth camera detection range of the first depth camera 2 being illustrated by the detection angle CCDI and the depth camera detection range of the second depth camera 3 by the detection angle CCD2.
Erfindungsgemäß sind die Tiefenkameras 2 und 3 über eine Positioniervorrichtung 4 derart positioniert, dass sich die Tiefenkameraerfassungsbereiche gegen- überliegen und dass die Tiefenkameras 2 und 3 eine gemeinsame Normale nDi ,2 ausbilden. According to the invention, the depth cameras 2 and 3 are positioned via a positioning device 4 in such a way that the depth camera detection areas oppose each other and that the depth cameras 2 and 3 form a common normal nDi, 2.
Vorliegend sind die Tiefenkameras 2 und 3 ferner besonders vorteilhaft so angeordnet, dass die gemeinsame Normale nDi,2 senkrecht zur Bewegungsachse gt der Schlachttierkörperhälfte ausgerichtet ist. In the present case, the depth cameras 2 and 3 are also particularly advantageously arranged so that the common normal nDi, 2 is oriented perpendicular to the axis of motion gt of the carcass half.
Des Weiteren sind die Tiefenkameras 2 und 3 in den vorliegenden Ausführungsbeispielen gemäß Fig. 1 und Fig. 2 als TOF-Kameras (Time Of Flight-Kameras) ausgebildet. Furthermore, the depth cameras 2 and 3 in the present exemplary embodiments according to FIGS. 1 and 2 are designed as TOF cameras (Time Of Flight cameras).
Die Tiefenkameras 2 und 3 sind erfindungsgemäß mit einer Auswertungseinheit 5 verbunden. The depth cameras 2 and 3 are connected according to the invention to an evaluation unit 5.
In den Ausführungsbeispielen nach Fig. 1 und Fig. 2 sind die Tiefenkameras 2 und 3 erfindungsgemäß dazu in der Lage, in dem jeweils zugeordneten Tiefenkameraerfassungsbereich die Oberfläche der ihnen jeweils zugewandten Seite der Schlachttierkörperhälfte, zumindest teilweise, zu erfassen. In the exemplary embodiments according to FIGS. 1 and 2, the depth cameras 2 and 3 according to the invention are capable of detecting, at least partially, the surface of the side of the slaughter animal body half facing them in the respectively assigned depth camera detection area.
Dabei wird durch die erste Tiefenkamera 2 vorliegend die Oberfläche auf der ersten Seite der Schlachttierkörperhälfte und somit die spaltseitige Oberfläche er- fasst, während durch die zweite Tiefenkamera 3 vorliegend die Oberfläche auf der zweiten Seite der Schlachttierkörperhälfte und somit die rückseitige Oberfläche erfassbar sind. In this case, the surface on the first side of the carcass half and thus the gap-side surface is detected by the first depth camera 2 in the present case, while in the present case the surface is detected by the second depth camera 3 the second side of the carcass half and thus the back surface are detectable.
Innerhalb des jeweiligen Tiefenkameraerfassungsbereichs sind durch die Tiefen- kameras 2 und 3 weiterhin Raumkoordinaten von Bildpunkten an der jeweiligen Oberfläche der Schlachttierkörperhälfte erfassbar, wobei sich die Raumkoordinaten jeweils aus Flächenkoordinaten (x, y) und einem Tiefenwert (z) zusammensetzen. Die erfassten Raumkoordinaten werden durch die Tiefenkameras 2 und 3 an die Auswertungseinheit 5 übertragen. Within the respective depth camera detection area, spatial coordinates of pixels on the respective surface of the carcass half can also be detected by the depth cameras 2 and 3, wherein the space coordinates each consist of area coordinates (x, y) and a depth value (z). The detected spatial coordinates are transmitted by the depth cameras 2 and 3 to the evaluation unit 5.
Die durch die Tiefenkameras 2 und 3 übertragenen Raumkoordinaten werden durch die Auswertungseinheit 5 erfasst und in der Weise weiterverarbeitet, dass die erfassten Raumkoordinaten in einem gemeinsamen Raumkoordinatensystem (nicht dargestellt) zusammengefasst werden. The space coordinates transmitted by the depth cameras 2 and 3 are detected by the evaluation unit 5 and further processed in such a way that the acquired space coordinates are combined in a common space coordinate system (not shown).
Das gemeinsame Raumkoordinatensystem wird vorliegend durch ein dreidimensionales kartesisches Koordinatensystem mit den Richtungsachsen X, Y, Z gebildet, wobei innerhalb des gemeinsamen Raumkoordinatensystems die jewei- lige Lage und Ausrichtung der Tiefenkameras 2 und 3 bekannt sind.  The common spatial coordinate system is in the present case formed by a three-dimensional Cartesian coordinate system with the directional axes X, Y, Z, wherein the respective position and orientation of the depth cameras 2 and 3 are known within the common spatial coordinate system.
Anhand der von den Tiefenkameras 2 und 3 übertragenen Raumkoordinaten wird durch die Auswertungseinheit 5 innerhalb des gemeinsamen Raumkoordinatensystems ein Oberflächenmodell (nicht dargestellt) der Schlachttierkörper- hälfte erstellt, wobei die Raumkoordinaten miteinander zu einem virtuellen Netz vermascht werden. Based on the space coordinates transmitted by the depth cameras 2 and 3, a surface model (not shown) of the carcass half is created by the evaluation unit 5 within the common space coordinate system, wherein the space coordinates are meshed together to form a virtual network.
Ausgehend von dem bereitgestellten Oberflächenmodell der Schlachttierkörperhälfte können ferner auf besonders vorteilhafte Art und Weise Volumina der Schlachttierkörperhälfte ermittelt werden. In einem weiteren Ausführungsbeispiel gemäß Fig. 2 weist die erfindungsgemäße Vorrichtung zusätzlich eine Bildkamera 6 mit einem Bildkameraerfassungsbereich, vorliegend durch den Erfassungswinkel OCRGB veranschaulicht, auf. On the basis of the provided surface model of the carcass half, volumes of the carcass half can also be determined in a particularly advantageous manner. In a further exemplary embodiment according to FIG. 2, the device according to the invention additionally has an image camera 6 with an image camera detection area, illustrated here by the detection angle OCRGB.
Die Bildkamera 6 ist dabei mittels der Positioniervorrichtung 4 insbesondere so positionierbar, dass sich der Bildkameraerfassungsbereich und der Tiefenka- meraerfassungsbereich der ersten Tiefenkamera 2 zumindest teilweise überschneiden. The image camera 6 is in this case in particular positionable by means of the positioning device 4 such that the image camera detection area and the depth camera detection area of the first depth camera 2 at least partially overlap.
Des Weiteren sind die Bildkamera 6 und die Schlachttierkörperhälfte derart rela- tiv zueinander angeordnet, dass die spaltseitige Oberfläche der Schlachttierkör- perhälfte der Bildkamera 6 zumindest hinreichend zugewandt ist, sodass eine erfolgreiche Erfassung der spaltseitigen Oberfläche der Schlachttierkörperhälfte durch die Bildkamera 6 bereitstellbar ist. Furthermore, the image camera 6 and the carcass half are arranged relative to one another such that the slit-side surface of the slaughter animal half of the image camera 6 at least sufficiently faces, so that a successful detection of the slit-side surface of the slaughter animal half by the image camera 6 is provided.
Dabei ist die Bildkamera 6 vorzugsweise so ausgerichtet, dass deren Normale nRGB in einem rechten Winkel zur Bewegungsachse gt der Schlachttierkörper- hälfte ausgerichtet ist.  In this case, the image camera 6 is preferably oriented such that its normal nRGB is aligned at a right angle to the axis of motion gt of the carcass half.
Vorliegend ist die Bildkamera 6 als RGB-Kamera ausgebildet und erfindungsgemäß dazu in der Lage, innerhalb des Bildkameraerfassungsbereichs die spalt- seitige Oberfläche der Schlachttierkörperhälfte zumindest teilweise zu erfassen. Darüber hinaus sind durch die Bildkamera 6 in dem Bildkameraerfassungsbereich Lichtintensitätswerte (g) von Bildpunkten und deren Flächenkoordinaten (x, y) an der spaltseitigen Oberfläche der Schlachttierkörperhälfte erfassbar. In the present case, the image camera 6 is designed as an RGB camera and according to the invention is able to at least partially detect the slit-side surface of the slaughter animal body half within the image camera detection area. Moreover, by the image camera 6 in the image camera detection area, light intensity values (g) of pixels and their area coordinates (x, y) can be detected on the gap side surface of the carcass half.
Die erfassten Lichtintensitätswertdaten und Flächenkoordinaten werden ferner durch die Bildkamera 6 zu Lichtintensitätswertdaten (x, y, g) zusammengefasst und übertragbar bereitgestellt. The detected light intensity value data and area coordinates are further combined by the image camera 6 into light intensity value data (x, y, g) and provided transferably.
Die Bildkamera 6 ist erfindungsgemäß ebenfalls mit der Auswertungseinheit 5 verbunden, wobei die Auswertungseinheit 5 die von der Bildkamera 6 übertrage- nen Lichtintensitätswertdaten erfasst und weiterverarbeitet. Die Weiterverarbeitung der Lichtintensitätswertdaten durch die Auswertungseinheit 5 erfolgt dabei erfindungsgemäß derart, dass die Auswertungseinheit 5 aus den Lichtintensitätswertdaten der erfassten Bildpunkte definierte Messpunkte Pi, P2 an der spaltseitigen Oberfläche der Schlachttierkörperhälfte identifiziert. According to the invention, the image camera 6 is likewise connected to the evaluation unit 5, the evaluation unit 5 detecting and further processing the light intensity value data transmitted by the image camera 6. The further processing of the light intensity value data by the evaluation unit 5 takes place according to the invention such that the evaluation unit 5 identifies measuring points Pi, P2 defined on the light-side value data of the detected pixels on the slit-side surface of the slaughter animal body half.
Das Identifizieren von Messpunkten bedeutet in diesem Fall, dass durch die Auswertungseinheit 5, mittels Bildanalyse und Objekterkennung, charakteristische Strukturen an der spaltseitigen Oberfläche der Schlachttierkörperhälfte, beispielsweise Muskeln, Fettgewebe oder Knochen erkannt werden. Hierzu werden auf Basis der Lichtintensitätswertunterschiede rechentechnisch unterschiedliche Gewebebereiche detektiert und selektiert, um mittels eines geeigneten Bildverarbeitungsalgorithmus die Konturen von Fleisch, Fett und Knochen zu ermitteln. Anhand dieser charakteristischen Strukturen werden durch die Auswertungseinheit Punkte ermittelt, deren Lagebeziehung zueinander Aussagen über Quantitäten und Qualitäten der Schlachttierkörperhälfte ermöglichen. Die Flächenkoor- dinaten dieser Punkte werden durch die Auswertungseinheit vorliegend als Messpunkte Pi, P2 festgelegt. The identification of measuring points in this case means that characteristic structures are recognized by the evaluation unit 5, by means of image analysis and object recognition, on the gap-side surface of the carcass half, for example muscles, adipose tissue or bone. For this purpose, computationally different tissue areas are detected and selected on the basis of the light intensity value differences in order to determine the contours of meat, fat and bone by means of a suitable image processing algorithm. On the basis of these characteristic structures, points are determined by the evaluation unit whose positional relationship with each other makes statements about quantities and qualities of the carcass half possible. The area coordinates of these points are determined by the evaluation unit in the present case as measuring points Pi, P2.
Die Messpunkte Pi, P2 befinden sich vorliegend innerhalb des gemeinsamen Erfassungsbereichs der Bildkamera 6 und der ersten Tiefenkamera 2. The measuring points Pi, P2 are located here within the common detection range of the image camera 6 and the first depth camera 2.
Somit ist die Auswertungseinheit 5 besonders vorteilhaft dazu in der Lage, den Messpunkten Pi, P2 sowohl deren Lichtintensitätswertdaten als auch deren Raumkoordinaten zuzuordnen. Thus, the evaluation unit 5 is particularly advantageous to be able to assign the measurement points Pi, P2 both their light intensity value data and their spatial coordinates.
Die identifizierten Messpunkte Pi, P2 sind durch die Auswertungseinheit 5 be- sonders vorteilhaft dem generierten Oberflächenmodell zuordenbar, sodass innerhalb des Oberflächenmodells zusätzlich relevante Gewebebereiche auf der spaltseitigen Oberfläche der Schlachttierkörperhälfte dargestellt werden können. The identified measurement points Pi, P2 are particularly advantageously attributable to the generated surface model by the evaluation unit 5, so that additionally relevant tissue areas on the gap-side surface of the carcass half can be displayed within the surface model.
Anhand der zusätzlich darstellbaren Gewebebereiche auf der spaltseitigen Ober- fläche der Schlachttierkörperhälfte können ferner auf besonders vorteilhafte Art und Weise Teilvolumina der Schlachttierkörperhälfte ermittelt werden. Hierzu werden in der Auswertungseinheit 5 geometrische Modelle hinterlegt, welche eine Abhängigkeit der Gewebebereichsabmessungen relativ zu dem Gesamtvolumen der Schlachttierkörperhälfte beinhalten. On the basis of the additionally representable tissue areas on the gap-side surface of the carcass half, partial volumes of the carcass half can also be determined in a particularly advantageous manner. For this purpose, geometric models are stored in the evaluation unit 5, which include a dependence of the tissue area dimensions relative to the total volume of the carcass half.
Diese geometrischen Modelle werden dem jeweils vermessenen Gewebebereich zugeordnet und anschließend aus den zugeordneten Daten das zu erwartende Teilvolumen des jeweils relevanten Gewebebereichs ermittelt.  These geometric models are assigned to the respectively measured tissue area and subsequently the expected partial volume of the respectively relevant tissue area is determined from the assigned data.
Auf diesem Weg kann auf besonders einfache und darüber hinaus kostengünstige Art und Weise eine genauere Vorhersage über das zu erwartende Schlacht- volumen der vermessenen Schlachttierkörperhälfte getroffen werden, als dies bei bekannten Vorrichtungen der Fall ist. In this way, a more accurate prediction of the expected slaughter volume of the measured carcass half can be made in a particularly simple and, moreover, cost-effective manner, as is the case with known devices.
Verwendete Bezugszeichen Used reference signs
1 Schlachttierkörperobjekt 1 carcass object
2 erste Tiefenkamera  2 first depth camera
3 zweite Tiefen kamera 3 second depth camera
4 Positioniervorrichtung  4 positioning device
5 Auswertungseinheit  5 evaluation unit
6 Bildkamera nDi ,2 gemeinsame Normale der ersten und zweiten Tiefenkamera nc Normale Schlachttierkörperhälfte  6 Image camera nDi, 2 common normals of the first and second depth camera nc Normal carcass half
gc Ebenenachse Schlachttierkörperhälfte gc level axis carcass half
gt Bewegungsachse Schlachttierkörperhälfte gt motion axis carcass half
nRGB Normale Bildkamera nRGB normal picture camera
O RGB Erfassungswinkel Bildkamera O RGB capture angle image camera
ccDi Erfassungswinkel erste Tiefenkamera ccDi detection angle first depth camera
ccD2 Erfassungswinkel zweite Tiefenkamera Pi erster Messpunkt ccD2 detection angle second depth camera Pi first measuring point
p2 zweiter Messpunkt p 2 second measuring point

Claims

Vorrichtung zur volumetrischen Vermessung eines Schlachttierkörperobjekts (1 ), Device for the volumetric measurement of a carcass object (1),
aufweisend eine erste Tiefenkamera (2) mit einem ersten Tiefenkamera- erfassungsbereich, in welchem ein Abschnitt einer Oberfläche des comprising a first depth camera (2) with a first depth camera detection area, in which a section of a surface of the
Schlachttierkörperobjekts (1 ) auf einer ersten Seite optisch erfassbar ist und in welchem Raumkoordinaten von Bildpunkten auf der ersten Seite des Schlachttierkörperobjekts (1 ), bestehend aus Flächenkoordinaten und einem Tiefenwert, erfassbar sind, wobei die Raumkoordinaten als Raumkoordinatendaten übertragbar bereitstellbar sind, Carcass object (1) can be optically detected on a first side and in which spatial coordinates of image points on the first side of the carcass object (1), consisting of area coordinates and a depth value, can be detected, the spatial coordinates being transferable as spatial coordinate data can be provided,
und aufweisend eine zweite Tiefenkamera (3) mit einem zweiten Tiefen- kameraerfassungsbereich, in welchem ein Abschnitt einer Oberfläche des Schlachttierkörperobjekts (1 ) auf einer zweiten Seite optisch erfassbar ist und in welchem Raumkoordinaten von Bildpunkten auf der zweiten Seite des Schlachttierkörperobjekts (1 ), bestehend aus Flächenkoordinaten und einem Tiefenwert, erfassbar sind, wobei die Raumkoordinaten als Raumkoordinatendaten übertragbar bereitstellbar sind, and having a second depth camera (3) with a second depth camera detection area, in which a section of a surface of the carcass object (1) on a second side can be optically detected and in which spatial coordinates of image points on the second side of the carcass object (1) consist consisting of area coordinates and a depth value, can be recorded, the spatial coordinates being transferable as spatial coordinate data,
und aufweisend eine Positioniervorrichtung (4) zur Positionierung der ersten Tiefenkamera (2) relativ zu der zweiten Tiefenkamera (3), wobei durch die Positionierung die Tiefenkameraerfassungsbereiche zueinander festgelegt sind, and having a positioning device (4) for positioning the first depth camera (2) relative to the second depth camera (3), the depth camera detection areas being fixed to one another by the positioning,
und aufweisend eine Auswertungseinheit (5), wobei die Auswertungseinheit (5) mit der ersten Tiefenkamera (2) und der zweiten Tiefenkamera (3) verbunden ist und wobei die Auswertungseinheit (5) die durch die erste Tiefenkamera (2) und die zweite Tiefenkamera (3) bereitgestellten Raumkoordinatendaten erfasst und wobei die Raumkoordinatendaten der ersten Tiefenkamera (2) und die Raumkoordinatendaten der zweiten Tiefenkamera (3) in einem gemeinsamen Raumkoordinatensystem als zusammen- gefasste Raumkoordinatendaten zusammenfassbar sind und wobei aus den zusammengefassten Raumkoordinatendaten ein Oberflächenmodell des Schlachttierkörperobjekts (1 ) bereitstellbar ist und wobei aus dem Oberflächenmodell ein Volumen des Schlachttierkörperobjekts (1 ) berechenbar ist. and having an evaluation unit (5), wherein the evaluation unit (5) is connected to the first depth camera (2) and the second depth camera (3) and wherein the evaluation unit (5) is connected by the first depth camera (2) and the second depth camera ( 3) provided spatial coordinate data is recorded and wherein the spatial coordinate data of the first depth camera (2) and the spatial coordinate data of the second depth camera (3) can be combined in a common spatial coordinate system as summarized spatial coordinate data and wherein a surface model is formed from the summarized spatial coordinate data of the carcass object (1) can be provided and wherein a volume of the carcass object (1) can be calculated from the surface model.
2. Vorrichtung nach Anspruch 1 , 2. Device according to claim 1,
dadurch gekennzeichnet, characterized,
das in der Auswerteeinheit (5) ein geometrisches Modell hinterlegt ist und wobei aus den Raumkoordinatendaten Messpunkte an dem Abschnitt der Oberfläche der ersten oder zweiten Seite des Schlachttierkörperobjekts (1 ) identifizierbar sind und wobei die identifizierten Messpunkte definierten that a geometric model is stored in the evaluation unit (5) and wherein measuring points on the section of the surface of the first or second side of the carcass object (1) can be identified from the spatial coordinate data and wherein the identified measuring points are defined
Punkten des geometrischen Modells zuordenbar sind und wobei unter Einbeziehung der Raumkoodinaten der identifizierten Messpunkte, ein Teilvolumen des Schlachttierkörperobjekts (1 ) berechenbar ist. Points of the geometric model can be assigned and a partial volume of the carcass object (1) can be calculated taking into account the spatial coordinates of the identified measuring points.
3. Vorrichtung nach Anspruch 1 , 3. Device according to claim 1,
dadurch gekennzeichnet, characterized,
dass die Vorrichtung mindestens eine Bildkamera (6) mit einem Bildkameraerfassungsbereich aufweist, in welchem ein Abschnitt einer Oberfläche des Schlachttierkörperobjekts (1 ) optisch erfassbar ist und in welchem Lichtintensitätswerte von Bildpunkten und deren Flächenkoordinaten erfassbar sind, wobei die Lichtintensitätswerte und die zugeordneten Flächenkoordinaten als Lichtintensitätswertdaten übertragbar bereitstellbar sind und wobei durch die Positioniervorrichtung in that the device has at least one image camera (6) with an image camera detection area in which a section of a surface of the carcass object (1) can be optically detected and in which light intensity values of image points and their area coordinates can be detected, the light intensity values and the associated area coordinates being transferable as light intensity value data can be provided and by the positioning device
(4) die Lage der Bildkamera (6) relativ zu der ersten Tiefenkamera (2) so festgelegt ist, dass sich der Bildkameraerfassungsbereich und der Tiefenkameraerfassungsbe- reich der ersten Tiefenkamera (2) zumindest teilweise in einem gemeinsamen Erfassungsbereich überschneiden und wobei die Bildkamera (6) mit der Auswertungseinheit (5) verbunden ist, wobei die Auswertungseinheit (4) the position of the image camera (6) relative to the first depth camera (2) is determined such that the image camera detection area and the depth camera detection area of the first depth camera (2) at least partially overlap in a common detection area and the image camera (6 ) is connected to the evaluation unit (5), the evaluation unit
(5) die durch die Bildkamera (6) bereitgestellten Lichtintensitätswertdaten erfasst und wobei aus den Lichtintensitätswertdaten Messpunkte (Pi, P2) an dem Abschnitt der Oberfläche der ersten Seite des Schlachttierkörper- Objekts (1) identifizierbar sind und wobei die Lichtintensitätswertdaten und die Raumkoordinatendaten der ersten Tiefenkamera (2) anhand übereinstimmender Flächenkoordinaten zuordenbar sind und wobei die zugeordneten Lichtintensitätswertdaten und Raumkoordinatendaten als Datentu- pel bereitgestellt werden und wobei die identifizierten Messpunkte (Ρι, P2) dem Oberflächenmodell des Schlachttierkörperobjekts (1 ) zuordenbar sind und wobei aus dem Oberflächenmodell, unter Einbeziehung der Raumkoordinaten der identifizierten Messpunkte (Ρι, P2), ein Teilvolumen des Schlachttierkörperobjekts (1) berechenbar ist. (5) captures the light intensity value data provided by the image camera (6) and from the light intensity value data measuring points (Pi, P2) on the section of the surface of the first side of the carcass Object (1) can be identified and wherein the light intensity value data and the spatial coordinate data of the first depth camera (2) can be assigned based on matching surface coordinates and wherein the assigned light intensity value data and spatial coordinate data are provided as data tuples and wherein the identified measuring points (Ρι, P2) correspond to the surface model of the Carcass object (1) can be assigned and a partial volume of the carcass object (1) can be calculated from the surface model, taking into account the spatial coordinates of the identified measuring points (Ρι, P2).
Vorrichtung nach Anspruch 2, Device according to claim 2,
dadurch gekennzeichnet, characterized,
dass die Bildkamera (6) als Farbwertkamera ausgebildet ist und dass die Lichtintensitätswerte separat nach Farbkanälen erfassbar sind, wobei die Lichtintensitätswerte separat nach Farbkanälen in den Lichtintensitätswertdaten vorliegen. that the image camera (6) is designed as a color value camera and that the light intensity values can be recorded separately according to color channels, the light intensity values being present separately according to color channels in the light intensity value data.
Vorrichtung nach einem der Ansprüche 1 bis 3, Device according to one of claims 1 to 3,
dadurch gekennzeichnet, characterized,
dass es sich bei dem Schlachttierkörperobjekt um eine Schlachttierkörperhälfte handelt, welche eine Spaltseite aufweist, dass es sich bei dem Abschnitt der Oberfläche der ersten Seite um die Oberfläche der Spaltseite handelt und dass mit dem Bildkameraerfassungsbereich und dem ersten Tiefenkameraerfassungsbereich jeweils die Oberfläche der Spaltseite der Schlachttierkörperhälfte optisch erfassbar ist. that the carcass object is a carcass half which has a gap side, that the section of the surface of the first side is the surface of the gap side and that the surface of the gap side of the carcass half is optically visualized with the image camera detection area and the first depth camera detection area is detectable.
6. Vorrichtung nach einem der Ansprüche 2 bis 4, 6. Device according to one of claims 2 to 4,
dadurch gekennzeichnet, characterized,
dass der Tiefenwert aus den jeweils ermittelten Raumkoordinaten zur Identifizierung eines Messpunktes (Pi, P2) an dem Abschnitt der Oberfläche der ersten Seite des Schlachttierkörperobjekts (1) verwendbar ist. that the depth value from the spatial coordinates determined in each case Identification of a measuring point (Pi, P2) on the section of the surface of the first side of the carcass object (1) can be used.
Vorrichtung nach einem der vorhergehenden Ansprüche, Device according to one of the preceding claims,
dadurch gekennzeichnet, characterized,
dass der Tiefenwert aus den jeweils ermittelten Raumkoordinaten einer Mehrzahl von Punkten auf einem der Abschnitte der Oberfläche eines Schlachttierkörperobjekts für die Ermittlung einer modellhaften Idealoberflächenform verwendbar ist und dass der Abstand identifizierter Messpunkte (Pi, P2) im Raum auf der Grundlage eines Tiefenwertes, der der modellhaften Idealoberflächenform entspricht, ermittelbar ist. that the depth value from the respectively determined spatial coordinates of a plurality of points on one of the sections of the surface of a carcass object can be used to determine a model ideal surface shape and that the distance between identified measuring points (Pi, P2) in space is based on a depth value that is the model Ideal surface shape corresponds can be determined.
Vorrichtung nach Anspruch 1 , Device according to claim 1,
dadurch gekennzeichnet, characterized,
dass die Tiefenkameras (2, 3) als TOF-Kameras ausgebildet sind. that the depth cameras (2, 3) are designed as TOF cameras.
Vorrichtung nach einem der vorhergehenden Ansprüche, Device according to one of the preceding claims,
dadurch gekennzeichnet, characterized,
dass diese mindestens eine weitere Tiefenkamera mit einem weiteren Tie- fenkameraerfassungsbereich, in welchem ein Abschnitt einer Oberfläche des Schlachttierkörperobjekts (1) optisch erfassbar ist und in welchem weitere Raumkoordinaten von Bildpunkten, bestehend aus Flächenkoordinaten und einem Tiefenwert, erfassbar sind, wobei die weiteren Raumkoordinaten als Raumkoordinatendaten übertragbar bereitstellbar sind, aufweist, wobei die Auswertungseinheit (5) mit der weiteren Tiefenkamera verbunden ist und wobei die Auswertungseinheit (5) die durch die weitere Tiefenkamera bereitgestellten Raumkoordinatendaten erfasst und wobei die Raumkoordinatendaten der weiteren Tiefenkamera in dem gemeinsamen Raumkoordinatensystem, zusammen mit den Raumkoordinatendaten der ersten und der zweiten Tiefenkamera (2,3), als zusammengefass- te Raumkoordinatendaten zusammenfassbar sind. Vorrichtung nach einem der Ansprüche 3 bis 9, that this at least one further depth camera with a further depth camera detection area, in which a section of a surface of the carcass object (1) can be optically detected and in which further spatial coordinates of image points, consisting of area coordinates and a depth value, can be detected, the further spatial coordinates being Spatial coordinate data can be made available in a transferable manner, wherein the evaluation unit (5) is connected to the further depth camera and wherein the evaluation unit (5) detects the spatial coordinate data provided by the further depth camera and wherein the spatial coordinate data of the further depth camera in the common spatial coordinate system, together with the spatial coordinate data the first and second depth cameras (2,3), can be summarized as summarized spatial coordinate data. Device according to one of claims 3 to 9,
dadurch gekennzeichnet, characterized,
dass die Vorrichtung mindestens eine weitere Bildkamera mit einem weiteren Bildkameraerfassungsbereich aufweist, in welchem ein Abschnitt einer Oberfläche des Schlachttierkörperobjekts (1) optisch erfassbar ist und in welchem Lichtintensitätswerte von Bildpunkten und deren Flächenkoordinaten erfassbar sind, wobei die Lichtintensitätswerte und die zugeordneten Flächenkoordinaten als Lichtintensitätswertdaten übertragbar bereitstellbar sind und wobei durch die Positioniervorrichtung (4) die Lage der weiteren Bildkamera relativ zu einer der Tiefenkameras so festgelegt ist, dass sich der weitere Bildkameraerfassungsbereich und der Tiefenka- meraerfassungsbereich der Tiefenkamera zumindest teilweise in einem weiteren gemeinsamen Erfassungsbereich überschneiden und wobei die weitere Bildkamera mit der Auswertungseinheit (5) verbunden ist, wobei durch die Auswertungseinheit (5) die, durch die weitere Bildkamera bereitgestellten, Lichtintensitätswertdaten erfassbar und weiterverarbeitbar sind. in that the device has at least one further image camera with a further image camera detection area, in which a section of a surface of the carcass object (1) can be optically detected and in which light intensity values of image points and their area coordinates can be detected, the light intensity values and the associated area coordinates being transferable as light intensity value data are and wherein the position of the further image camera relative to one of the depth cameras is determined by the positioning device (4) in such a way that the further image camera detection area and the depth camera detection area of the depth camera at least partially overlap in a further common detection area and the further image camera with the Evaluation unit (5) is connected, wherein the light intensity value data provided by the further image camera can be recorded and further processed by the evaluation unit (5).
EP14723314.2A 2013-03-15 2014-03-14 Apparatus for volumetrically measuring an object in the body of an animal for slaughter Withdrawn EP2972073A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE202013002484.4U DE202013002484U1 (en) 2013-03-15 2013-03-15 Apparatus for volumetric measurement of an ante-mortem object
PCT/DE2014/000123 WO2014139504A1 (en) 2013-03-15 2014-03-14 Apparatus for volumetrically measuring an object in the body of an animal for slaughter

Publications (1)

Publication Number Publication Date
EP2972073A1 true EP2972073A1 (en) 2016-01-20

Family

ID=50693408

Family Applications (1)

Application Number Title Priority Date Filing Date
EP14723314.2A Withdrawn EP2972073A1 (en) 2013-03-15 2014-03-14 Apparatus for volumetrically measuring an object in the body of an animal for slaughter

Country Status (6)

Country Link
US (1) US20160029648A1 (en)
EP (1) EP2972073A1 (en)
BR (1) BR112015023420A2 (en)
CA (1) CA2905538A1 (en)
DE (2) DE202013002484U1 (en)
WO (1) WO2014139504A1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014011821A1 (en) 2014-08-08 2016-02-11 Cargometer Gmbh Device and method for determining the volume of an object moved by an industrial truck
DE202014006472U1 (en) * 2014-08-13 2015-11-16 Csb-System Ag Device for stun control of a slaughtered animal
US9872011B2 (en) * 2015-11-24 2018-01-16 Nokia Technologies Oy High-speed depth sensing with a hybrid camera setup
GB201620638D0 (en) * 2016-12-05 2017-01-18 Equi+Poise Ltd A gait analysis system
US20200077667A1 (en) * 2017-03-13 2020-03-12 Frontmatec Smørum A/S 3d imaging system and method of imaging carcasses
CN110189347B (en) * 2019-05-15 2021-09-24 深圳市优博讯科技股份有限公司 Method and terminal for measuring volume of object
CN114295053B (en) * 2021-12-31 2023-11-28 北京百度网讯科技有限公司 Method and device for determining volume of material, equipment, medium and product
KR102560534B1 (en) * 2022-04-19 2023-07-26 건설기계부품연구원 Automatic Molding Sand Feeding System
NL2032013B1 (en) * 2022-05-30 2023-12-12 Marel Poultry B V Method, device and system for measuring a poultry slaughter product.

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5412420A (en) * 1992-10-26 1995-05-02 Pheno Imaging, Inc. Three-dimensional phenotypic measuring system for animals
US5349378A (en) * 1992-12-21 1994-09-20 Robotic Vision Systems, Inc. Context independent fusion of range and intensity imagery
DE4408604C2 (en) * 1994-03-08 1996-05-02 Horst Dipl Ing Eger Procedure for assessing carcasses
DE10050836B4 (en) * 1999-10-21 2005-06-30 Axel Hinz Method for determining commercial value of cuts of pig carcasses
CA2369710C (en) * 2002-01-30 2006-09-19 Anup Basu Method and apparatus for high resolution 3d scanning of objects having voids
US7399220B2 (en) * 2002-08-02 2008-07-15 Kriesel Marshall S Apparatus and methods for the volumetric and dimensional measurement of livestock
DE102004047773A1 (en) 2004-09-27 2006-04-06 Horst Eger Method for determining physiological quantities of an animal carcass
US20080273760A1 (en) * 2007-05-04 2008-11-06 Leonard Metcalfe Method and apparatus for livestock assessment
DE102007036294A1 (en) * 2007-07-31 2009-02-05 Gea Westfaliasurge Gmbh Apparatus and method for providing information about animals when passing through an animal passage
CA2711388C (en) * 2008-01-22 2016-08-30 Delaval Holding Ab Arrangement and method for determining the position of an animal
WO2010063527A1 (en) * 2008-12-03 2010-06-10 Delaval Holding Ab Arrangement and method for determining a body condition score of an animal
KR101665567B1 (en) * 2010-05-20 2016-10-12 삼성전자주식회사 Temporal interpolation of three dimension depth image method and apparatus
AU2012319199B2 (en) * 2011-10-06 2017-06-01 Delaval Holding Ab Method and apparatus for detecting lameness in livestock
US8787621B2 (en) * 2012-06-04 2014-07-22 Clicrweight, LLC Methods and systems for determining and displaying animal metrics
US9167800B2 (en) * 2012-06-04 2015-10-27 Clicrweight, LLC Systems for determining animal metrics and related devices and methods

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
None *
See also references of WO2014139504A1 *

Also Published As

Publication number Publication date
DE112014001369A5 (en) 2015-11-26
DE202013002484U1 (en) 2014-06-17
BR112015023420A2 (en) 2017-07-18
WO2014139504A1 (en) 2014-09-18
CA2905538A1 (en) 2014-09-18
US20160029648A1 (en) 2016-02-04

Similar Documents

Publication Publication Date Title
EP2972073A1 (en) Apparatus for volumetrically measuring an object in the body of an animal for slaughter
DE102012112322B4 (en) Method for optically scanning and measuring an environment
DE60312869T2 (en) IMAGE RECORDING SYSTEM AND METHOD FOR EVALUATING THE PHYSICAL CONSTITUTION
DE102012112321B4 (en) Device for optically scanning and measuring an environment
DE102014104712B4 (en) Registration of a scene disintegrating into clusters with visualized clusters
DE112010002174B4 (en) Method and device for a practical 3D vision system
DE102013017500B3 (en) Method and apparatus for optically scanning and measuring a scene
DE202012104890U1 (en) Device for optically scanning and measuring an environment
EP1190211A1 (en) Method for optically detecting the shape of objects
DE102009051826A1 (en) Method for comparing the similarity of 3D pictorial objects
DE102007054906A1 (en) Method for optical measurement of the three-dimensional geometry of objects
DE102013225283B4 (en) Method and device for capturing an all-round view
DE102014101587A1 (en) Registration of a scene with consistency check
DE102013200329A1 (en) Method and device for misalignment correction for imaging methods
EP2972071B1 (en) Device for measuring a slaughter animal body object
EP2997543B1 (en) Device and method for the parameterisation of a plant
DE10050836B4 (en) Method for determining commercial value of cuts of pig carcasses
DD292976A5 (en) METHOD FOR THE ANALYSIS OF SLAUGHTER BODY AGENTS BY IMAGE PROCESSING
DE102014108924B4 (en) A semi-supervised method for training an auxiliary model for multi-pattern recognition and detection
DE112016004401T5 (en) Project an image onto an irregularly shaped display surface
DE102013218047B3 (en) Method for the automatic display and / or measurement of bone changes in medical image data, as well as medical imaging device and electronically readable data carrier
DE102017203048B3 (en) A method of determining a projection data set, projection determining system, computer program product and computer readable storage medium
EP2636019A1 (en) Method and evaluation device for determining the position of a structure located in an object to be examined by means of x-ray computer tomography
DE102012004064B4 (en) Method and device for the non-destructive determination of the internal dimensions of shoes
DE102010042733A1 (en) Capture and display of textured three-dimensional geometries

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20151015

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20190328

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN WITHDRAWN

18W Application withdrawn

Effective date: 20210423