WO2022180179A1 - Material flow control using virtual sensors - Google Patents

Material flow control using virtual sensors Download PDF

Info

Publication number
WO2022180179A1
WO2022180179A1 PCT/EP2022/054703 EP2022054703W WO2022180179A1 WO 2022180179 A1 WO2022180179 A1 WO 2022180179A1 EP 2022054703 W EP2022054703 W EP 2022054703W WO 2022180179 A1 WO2022180179 A1 WO 2022180179A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
conveyor
sensor
reference points
positions
Prior art date
Application number
PCT/EP2022/054703
Other languages
German (de)
French (fr)
Inventor
Andreas Hintz
Original Assignee
Ssi Schäfer Automation Gmbh (At)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ssi Schäfer Automation Gmbh (At) filed Critical Ssi Schäfer Automation Gmbh (At)
Priority to EP22712534.1A priority Critical patent/EP4154219A1/en
Publication of WO2022180179A1 publication Critical patent/WO2022180179A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G43/00Control devices, e.g. for safety, warning or fault-correcting
    • B65G43/08Control devices operated by article or material being fed, conveyed or discharged
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Definitions

  • the present disclosure relates generally to the field of intralogistics, and more particularly to an intralogistics system that includes a camera and a virtual sensor to control a material flow in the intralogistics system using the virtual sensor, and a method of using the virtual sensor in the intralo - gistics system.
  • sensors In order to guide objects in a material flow, ie conveyed goods, through an intralogistics system, a very large number of (technically as simple and cheap as possible conditions) sensors, in particular photoelectric sensors, light barriers and scanners, have been used to date. These sensors are used everywhere within the system, especially at nodes (intersections, branches, junctions, etc.) of the material flow.
  • Tracing and tracking is the (internal) tracking of the conveyed goods.
  • Tracking means following the object from a source to a destination. Tracing means backtracking from the end customer to the point of original production.
  • the document WO 2018/211072 A1 relates to a device and a method for controlling a material flow at a material flow node.
  • a single camera is positioned at the node to identify the conveyed goods.
  • the camera data is merged with additional data that was obtained away from the node.
  • the camera data is also used to determine a current position and speed of items being transported on a continuous conveyor within the camera's field of view.
  • a material flow control using a video camera is also disclosed in DE 102006 015 689 A1.
  • Status images from the camera are evaluated in order to determine an actual position of the object to be transported in a previously defined area of the system.
  • the video camera is arranged vertically above a conveyor system.
  • the status images are evaluated in order to determine an actual position of the goods to be conveyed, which is then compared with a target position in order to generate corresponding conveyor technology control signals based on the target/actual comparison.
  • a video camera is used to determine the positions of objects within a transport container, the transport containers being transported on a conveyor system.
  • DE 102011 053 547 A1 discloses the use of video cameras in order to monitor a transfer process of a conveyed item by a robot that is positioned between two conveyor systems arranged in parallel.
  • identification marks and dimensions of the goods to be conveyed are determined using the camera data.
  • DE 102007 035 272 A10 discloses a method for identifying goods to be transported, in particular pieces of luggage, with a large number of sensors.
  • material flow control generally requires a large number of sensors for monitoring the states of a conveyor system in order to actuate actuators arranged downstream and to follow the conveyed goods sufficiently reliably (tracking). Every sensor costs money. Every sensor needs maintenance.
  • the wiring of the sensors is complex. Wiring takes a lot of time and is often difficult to do, especially when the sensors are subsequently integrated into an existing conveyor system. Installation locations can be difficult to access. Cable routing from the installation site to a control computer can be difficult because the wiring locations can be difficult to access.
  • a method for defining a virtual sensor in a conveyor system comprising the steps of: providing a model of the conveyor system, the model having at least one position and preferably an orientation and/or a dimension , for each of the conveyor sections in a reference frame of reference, in particular in the frame of reference of the conveyor system; Defining at least one reference point, in particular by positioning of, preferably identical, additional markings and determining a position for each defined reference point in the reference system; Positioning an image sensor within the conveyor system, preferably at any location, so that at least one of the conveyor sections and at least one of the reference points are in a field of view of the image sensor; generating an image with the image sensor after the image sensor is positioned; identifying reference points in the image and determining positions of the identified reference points in a frame of reference of the generated image; Determination of a coordinate transformation, preferably by means of image processing, based on the positions of the reference points in both reference systems, so that each pixel of
  • a major advantage of the present development can be seen in the fact that many physical sensors that are required to control a material flow can be replaced by one, in particular a single, image sensor. Based on the data from the image sensor, information can be obtained that simulates the signals from the physical sensors. This reduces cabling effort because the virtual sensor no longer has to be physically connected to the controller.
  • a route of the conveyor system can be changed later without any problems.
  • the conveyor system can be retrofitted with a variety of sensors, especially in places that are inaccessible to an installer.
  • the reference points can be set at locations that are easily accessible.
  • the number of sensors required for material flow control is significantly reduced. This reduces costs.
  • the development can be retrofitted in existing systems by marking elements of the existing system with the markings, which can then be identified in the image sensor image in order to reference the image sensor image to reality.
  • the virtual sensors can be defined, for example, by a technician who positioned the camera in the image displayed to the technician, for example on a mobile touch-sensitive screen that the technician carries with him. For example, the technician draws a line on his screen to define a light barrier at a location in relation to a conveyor line, which can also be seen in the picture.
  • the line drawn on the screen is automatically assigned coordinates in the reference reference system, so that a location-dependent material flow controller can be informed about changes in the flow rate, which can be recorded by the camera and evaluated using image processing.
  • the material flow control can then act accordingly on the conveyor system, although there is no real sensor at the place where the line was drawn.
  • the area defined for the virtual sensor is preferably monitored in a currently generated image for a change in status based on a comparison with an image generated earlier.
  • the chronologically earlier image is recorded in a state that is free of conveyed goods. This means that at the time of recording there was no material to be conveyed in the field of view of the
  • the other images in particular the currently generated image, can have conveyed goods. If these images are compared with the original image, a conveyed item can be automatically recognized using image recognition. If the detected item to be conveyed enters the area that is defined for the virtual sensor, information is available that the item to be conveyed is in the area of the virtual sensor. This information can be converted into a corresponding status signal, on the basis of which the controller can then in turn control actuators that are arranged downstream of the monitoring area. In this way, for example, a discharge device can be actuated, which is arranged immediately after the virtual sensor. The conveyed goods can also only be counted depending on the position, to give another example.
  • a control signal is therefore generated for an actuator which is arranged downstream of the monitored area when the change of state has occurred.
  • the change in status is caused in particular by a conveyed item that moves through the area defined for the virtual sensor along the at least one conveying path that lies in the field of view of the image sensor.
  • the reference points may be implemented by inherent features of components of the conveyor system.
  • the conveyor devices can be provided with a serial number by the manufacturer, which can be used as a "reference point" if it can be resolved and recognized in the image of the image sensor. In this case it is not necessary to subsequently provide the system to be monitored with markings.
  • Such reference points can be defined by selecting an area in the generated image where an identifier, such as a barcode label, is located. This area is assigned to the conveyor line and characteristic of this conveyor line.
  • a sensor type is also assigned to the monitored area, which is preferably a light barrier, a light sensor or a scanner.
  • the selection of a sensor type determines which state changes are to be monitored. If a light barrier or a light scanner is selected as the sensor type, it is sufficient to detect a change in status at a point or along a line. If a scanner is selected, the area to be monitored must be monitored for previously defined identification features such as barcodes. This type of monitoring can be automated using image processing.
  • a system for defining a virtual sensor for a conveyor system which comprises at least one conveyor section, the system having: an image sensor which can be positioned in the conveyor system which defines a reference reference system and which has a field of view , so that an image of at least one of the conveyor sections of the conveyor system and of at least one reference point can be generated; a plurality of markers fixed and invariably positionable as the reference points within the conveyor system at positions known in the reference frame; a device that is set up to store the positions of the reference points that are known in the reference reference system; an image processing device that is set up to determine positions of reference points that can be identified in the image, preferably by means of pattern recognition, in a reference system of the generated image; a device that is set up to determine a coordinate transformation based on the positions of the reference points in both reference systems, so that each pixel of the generated image can be assigned a coordinate in the reference reference system; and a device that is set up to define a monitoring area, preferably in the image, which is to
  • FIG. 1 shows a block diagram of an exemplary intralogistics system
  • FIG. 2 is an illustration of a conveyor system in reality and an illustration of a field of view and image captured by an image sensor of the reality;
  • FIG. 3 is an illustration of a captured image that is displayed on a screen of a tablet computer and that is manually editable;
  • FIG. 4 shows a prior art controller (FIG. 4A), a controller according to the present disclosure (FIG. 4B), and a retrofit of a conventional controller (FIG. 4C);
  • FIG. 6 shows an application in the context of discontinuous conveyors in an internal environment (Fig. 6A) and in the outside world (Fig. 6B); and
  • FIG. 7 is a block diagram of a system for defining a virtual sensor.
  • the present disclosure relates generally to the field of intralogistics, and in particular the control of a material flow in an intralogistics system (storage and/or picking system) by means of real image sensors and virtual (monitoring censors.
  • the present development relates to the idea that a technician positions a camera at a freely selectable point within the intralogistics system.
  • the camera generates an image of a section of the intralogistics system that is of interest.
  • the image shows markers that the technician previously attached to e.g has attached storage and/or conveying equipment.
  • the placement positions of the markers are determined by the technician in the layout of the intralogistics system, so the camera position can be determined using image processing based on the markers.
  • the technician can then draw monitoring areas in the image, which defines virtual sensors.
  • Status changes in the camera image that correspond to the monitoring area can be processed and used to control the material flow without real monitoring sensors being positioned in the real world (intralogistics system).
  • Intralogistics system 1 shows a block diagram of a block diagram of a storage and/or picking system 10, which represents an exemplary intralogistics system.
  • the system 10 comprises a conveyor system 12, an image sensor 14 (a camera 16 is treated below as an example), a virtual sensor 18, an image processing unit 20 (computer that is set up for editing and processing images) and a controller 22 (e.g. a material flow computer , MFR, 24).
  • the system 10 is usually housed in a building (eg in a hall).
  • the term "intralogistics” includes the organisation, control, implementation and optimization of the internal flow of materials, the flow of information and the handling of goods in industry, trade and public institutions.
  • the term “material flow” refers to all processes and their linkages in the manufacture, treatment and processing as well as the distribution of (conveyed) goods and objects within certain defined areas (e.g. goods receipt, storage, order picking and goods issue) .
  • the material flow is controlled by the material flow computer (MFR) 24, which controls source-destination relationships and coordinates the sequence in which individual orders (e.g. transport orders) are processed.
  • MFR material flow computer
  • conveyor system 12 generally refers to the technical systems of the material flow, ie conveyor device(s) 26, which are essentially internal Changes of location, ie a transport that causes (conveyance) goods.
  • the conveying devices 26 comprise two groups (not shown): continuous conveyors and discontinuous conveyors.
  • Continuous conveyors e.g. roller conveyors, belt conveyors, chain conveyors, overhead conveyors, etc.
  • Discontinuous conveyors are vehicles (moving robots, flying drones, etc.) that promote and transport the conveyed material either freely, ie autonomously or independently, or track-guided or forced-guided along a conveyor route 28 (path between source and destination).
  • Conveyor routes 28 represent the paths along which the conveyed goods are transported from their source to a destination. If, for example, a roller conveyor is used as the conveyor device 26, then the conveyor section 28 essentially corresponds to one
  • the associated conveying section 28 Longitudinal extension of the roller conveyor. If a vehicle driving on the ground is used as the conveying device 26, then the associated conveying section 28 essentially corresponds to a route of the vehicle. If a flying drone is used as the conveying device 26, then the associated conveying section 28 essentially corresponds to a trajectory of the drone. In general, this means that the path covered by the conveyed goods coupled to the conveying device 26 during transport corresponds to the conveying section 28 .
  • the movement of the conveyed goods is conventionally recorded with one or more sensors.
  • Exemplary sensors that are conventionally used in the conveyor system 12 are: light barriers, light sensors, cameras 16 and (barcode) scanners.
  • Light barriers and light sensors can be used to detect whether or not the conveyed goods are at a predetermined location.
  • Light barriers and light scanners work linearly, ie monitor a point or a line.
  • Cameras 16 work two-dimensionally, ie capture areas (images). Cameras can be used to record positions and movements, even from several conveyed goods at the same time. Cameras 16 and scanners can be used to identify the conveyed goods.
  • sensor is therefore to be understood as a technical component that actively measures physical or chemical variables and converts the measured variables into corresponding electrical signals for further processing.
  • Sensors are also referred to as detectors, (measuring variable or measuring) sensors or (measuring) probes (source: Wikipedia on “sensor”).
  • a “virtual sensor 18” is to be understood as a sensor that is not physically present in the system 10, but nevertheless provides desired information, such as about a system status (e.g., whether or not conveyed goods are present at a specific location?). of a size that is recorded by one or more sensors that are actually present, such as a camera 16, and converted into the desired information by means of data processing.
  • the image sensor 14 represents the real sensor.
  • the image data generated by the image sensor 14 are processed by the image processing device 10 .
  • the image data is analyzed using image recognition.
  • Image recognition is a branch of pattern recognition and image processing.
  • Image recognition in the context of image processing is the ability of software to identify objects, places, people, writing and actions in images.
  • Virtual sensors 18 therefore supply equivalent information to real sensors, except that the information has to be generated by processing data from other, real sensors.
  • actuators 32 such as motors, accumulation conveyors, infeed devices, ejection devices and the like. control at the right time.
  • real sensors are installed at fixed locations, such as a light barrier immediately in front of a material flow node. point where, for example, two conveyor sections 26 unite to form a single conveyor section 26 . If this light barrier sends a signal, the information is available that a conveyed item has interrupted the light beam at this moment. There is therefore time- and location-dependent information that can be used to control the flow of material, e.g. to activate an ejection device located immediately downstream, which causes the conveyed goods that the light barrier is currently interrupting or has interrupted to be ejected.
  • the installation location of the light barrier in a reference system 30, for example in the reference system 30 of the storage and/or picking system 10 or the conveyor system 12, is predetermined and stored in corresponding model data.
  • model is generally understood to mean a detailed description of a system (existing or to be manufactured), such as conveyor system 12.
  • This description illustrates one or more characteristics of the system, such as a shape, a texture, a structure, an arrangement of Components (conveyor devices 26 and/or conveyor lines 28), (relative) positions and orientations of the components, dimensions of the components, dimensional ratios and the like.
  • the description in paper is in the form of a layout or a map. An installer uses this data to install the light barrier in the right place when setting up (installing) the system.
  • the electronic description is in the form of model data stored in a memory of a data processing device.
  • the installation locations and model data are related to a coordinate reference system (e.g. coordinate system of the conveyor system).
  • coordinate reference system which is also referred to as “coordinate reference system”, is understood to mean a coordinate system or reference system 30 which is related to the real world by being linked to a datum (eg a point of origin). Coordinate systems are used to clearly identify the positions (coordinate 34, cf. Fig. 1) of points and objects (e.g. conveyors 26) in a geometric space, such as in the conveyor system 12.
  • a coordinate 34 is one of several numbers with which one uniquely indicates the location of the point in a plane or in a space. Each of the dimensions required for this description is expressed by a 34 coordinate.
  • two-dimensional onal coordinate and reference systems 30 considered. It goes without saying that these systems can be expanded to any dimensions, for example to four dimensions (height, width, length and time). Also, the terms "place” and "position” mean the same thing.
  • Reference systems 30 are therefore required in order to describe the behavior of location-dependent variables clearly and completely.
  • the positions and movements of objects can only be specified relative to the respective reference system 30.
  • references generally expresses that things are related to one another, i.e. brought into a relationship with one another.
  • the conveyor system 12 of FIG. 2 has a reference system 30 which can be identical to the reference system 30 of the overall system 10 .
  • the camera 16 has a reference system 30'.
  • the reference systems 30 and 30' can be referenced to one another, so that the coordinates 34 of any point in one of the reference systems 30', 30 can also be expressed in terms of coordinates 34 of the same point in the other frame of reference 30, 30'.
  • a transformation function coordinate transformation
  • FIG. 2 shows a schematic partial view of a conveyor system 12 in a plan view.
  • the conveyor system 12 is shown in reality, ie in the reference system 30, of an exemplary storage and picking system 10 that includes the conveyor system 12.
  • FIG. The upper part of FIG. 2 shows an image 36 that a camera 16 recorded.
  • Figure 36 shows an image of part of the real conveyor system 12, which is in the field of view 37 of the camera 16.
  • the (two-dimensional) image 36 is formed from pixels (not designated in more detail), which are built up in rows and columns.
  • the image 36 has its own frame of reference 30'.
  • the reference system 30 can be the same for the storage and picking system 10 and the conveyor system 12 . This means that the systems 10 and 12 can be described in the same frame of reference 30 .
  • the reference system 30 can be, for example, a (two- or three-dimensional) Cartesian coordinate system that has its origin (0/0/0) in, for example, the bottom left corner of a building (not illustrated here) in which the systems 10 and 12 are installed are.
  • the reference system 30' of the image 36 can also be a (two-dimensional) Cartesian coordinate system.
  • the coordinate system of the conveyor system 12 could be made up of coordinates 34 associated, for example, with a location of a conveyor 26 within the system 12, such as "1. Conveyor of the main line”, “2. conveyor of the main line”, .... , nth conveyor of the main line", "1. 1st Branch Conveyor”, etc.. Furthermore, these conveyors could be further subdivided into “Input”, “Middle” and “Output” so that a location where a sensor can be placed can be described in more detail , such as "1. Main Line Conveyor, Exit”.
  • the conveyor lines 28-1 and 28-2 there are two conveyor lines 28-1 and 28-2, which are illustrated with dot-dash lines.
  • the conveyor sections 28-1 and 28-2 each extend in a straight line as an example.
  • the conveyor section 28-1 runs horizontally in FIG. 2 and the conveyor section 28-2 runs at an angle to it.
  • the conveyor sections 28-1 and 28-2 are implemented as examples by continuous conveyors. It goes without saying that discontinuous conveyors can also be used as an alternative or in addition to conveying goods (not shown) along the conveying routes 28 .
  • the conveying sections 28-1 and 28-2 are of modular design, ie they comprise a plurality of conveying devices 26 which are arranged in such a way that they adjoin one another.
  • the routes 28 could also each be implemented by only a single conveyor.
  • the conveyor 26-1 is a linear roller conveyor and the conveyor 26-2 is a linear belt conveyor.
  • non-linear conveyors such as curved conveyors, can also be used further and alternatively.
  • the conveyor devices 26 can also overcome height differences, for example by using vertical conveyors or ramps for vehicles. However, all of this is not shown in FIG. 2 to simplify the explanation, but is nevertheless possible.
  • Fig. 2 three reference points M1 to M3 are shown as an example, which can be used for the desired te coordinate transformation. It goes without saying that the entire system 10 or 12 is usually provided with many more reference points than are shown in FIG. 2 . This aspect will be discussed in more detail below.
  • the three reference points are denoted by M1 to M3 in FIG. 2, because in this case the reference points are implemented by way of example markings M, which were subsequently and additionally attached to at least some of the conveyor devices 26.
  • the marks M1 and M3 are fixed and unchangeable on the conveyor 26-2.
  • the mark M2 is attached to the conveyor 26-4.
  • the markings M are components of the system 10 (cf. FIG. 1) or of the conveyor system 12. It is understood that the markings M can also be attached to other components of the system 10, such as shelves, the (building) floor, walls, ceiling, posts or the like.
  • the locations and positions at which the markers M1 through M3 in the frame of reference 30 of the conveyor system 12 are attached to the conveyors 26-2 and 26-4 are to be determined.
  • the coordinates 34 of the markings M1 to M3, i.e. the reference points, in the reference system 30 are thus determined.
  • the markings M1 to M3 can also be attached to the corresponding conveyor devices 26 at predefined locations before the installation of the conveyor devices 26 within the system 10 or 12, i.e. by the manufacturer (e.g. markings are always placed at the entrance of a conveyor on the placed on the left when looking in the conveying direction).
  • the operator of the system 10 only specifies the installation locations of the conveyor devices 26 in the overall system 10 .
  • the locations of the markings M within the reference system 30 of the conveyor system 12 are obtained automatically, and in particular independently of whether the conveyor system 12 is positioned exactly in the overall system 10 or not.
  • the camera 16 can be positioned anywhere. It is only necessary to ensure that a sufficient number of reference points are contained in the image 36 so that the reference points of the image 36 can be identified by means of image recognition, i.e. can be transformed to the reference system 30. As soon as it is clear which reference points can be seen in image 36, the coordinate transformation can be determined in order to be able to clearly assign locations in the reference system 30 of the conveyor system 12 to the reference points contained in image 36. In this way it is possible to assign a location in the reference system 30 to each pixel. The image 36 is then referenced to the reference system 30 of the conveyor system 12 .
  • the referencing makes it possible to define one or more virtual sensors 18 in image 36 .
  • the virtual sensors 18-1 to 18-8 are defined, for example, as light barriers (cf. lines) and the virtual sensor 18-9 is defined as a barcode scanner (cf. rectangle).
  • the light barriers 18-1 to 18-3 are used by the conveyor 26-1 (roller conveyor with several storage locations, segmentation not shown) for implementing storage locations, so that the MFC 24 can stop and store conveyed goods there.
  • the light barriers 18-4 and 18-5 are activated by the conveyor (continuous belt conveyor) used to influence the speed of conveyed goods immediately before the union point with the conveyor 26-5.
  • the light barriers 18-6 and 18-8 are also used to influence the speed before the junction point.
  • the light barrier 18-7 is oblique - and thus not perpendicular barriers like the other light - oriented to the conveying direction in order to be able to carry out a length measurement.
  • the scanner 18-9 scans an area and is used for identity determination.
  • areas to the side of the conveyor sections and/or conveyor devices 26 could also be monitored, e.g. to detect falling conveyed goods. These areas are preferably directly adjacent to the conveying devices 26, as indicated by hatched areas in FIG.
  • an image 36 free of conveyed goods is generated, which serves as a basis for images 36 that are later recorded while conveyed goods are conveyed through the field of view 37 of the image sensor 14 .
  • the MFC 24 can use to control actuators that are required for material flow control.
  • the signal from a virtual light barrier can be used to turn off a drive that drives a conveyor 26 that is assigned to the same location as the virtual light barrier ke in order to stop the conveyed goods (congestion function).
  • the virtual light barrier supplies a corresponding signal as soon as the conveyed goods enter the area assigned to the virtual light barrier.
  • FIG. 3 illustrates the (subsequent) definition of a virtual sensor 18 at any location within the image 36.
  • the virtual sensor 18 is given a (Monitored) area of the image 36 assigned within the conveyor system 12, whose location coordinates are known in the reference system 30.
  • FIG. 3 shows an exemplary tablet computer 40 with a touch-sensitive screen 42 on which the image 36 of the camera 16 of FIG. 2 is displayed to a user 44 .
  • the virtual sensor 18-5 is already illustrated in the displayed image 36.
  • the (camera) image 36 is already referenced to reality, i.e. the coordinate transformation between the reference system 30' of the image 36 and the reference system 30 of the real world has already been determined using the identified reference points (M1 to M3).
  • the user 44 has drawn the virtual sensor 18-5 on the screen 42 manually, e.g.
  • the screen 42 records the position, orientation and/or size of the drawn sensor 18 in its frame of reference 30'.
  • the drawn position, orientation and/or size of the virtual sensor 18-5 can now be converted into corresponding data, in particular location data, in the real world in order to simulate the desired sensor data.
  • the user 44 also defines a sensor type (e.g. light barrier) and integrates the sensor defined in this way into the material flow control 22 (cf. FIG. 1).
  • a sensor type e.g. light barrier
  • the virtual sensors 18 can also only be defined in the model data of the system 10 and/or 12, in which case the image sensor 14 must then be positioned in such a way that the field of view 37 captures the areas defined in this way (and sufficient reference points).
  • FIG. 4A shows an old prior art material flow controller with real sensors
  • FIG. 4B showing a new controller with a virtual sensor 18 (not shown)
  • virtual sensor 18 (not shown) in an old controller.
  • Figure 4A shows that conventional controllers are physically connected to each real world sensor. In other words, this means that a large number of signal lines or a bus system is used to physically connect the real sensors to the controller.
  • FIG. 4B illustrates the same scenario as FIG. 4A, but the real sensors have been replaced by the (preferably single) image sensor 14, which in turn simulates a plurality of virtual sensors 18.
  • FIG. 4C also illustrates the same scenario as FIGS. 4A and 4B, in which the image sensor 14 or the virtual sensors 18 are coupled to an old controller via an intermediate controller 48 .
  • the intermediate controller 48 converts the signal from the image sensor 14 into a corresponding number of signals from virtual sensors 18, which are supplied to corresponding terminals of the old controller.
  • FIG. 4C shows the possibility of retrofitting, so that inventory controls can also be expanded to include virtual sensors 18 .
  • FIG. 5 shows a flow chart of a method for defining a virtual sensor 18 in a conveyor system 12 whose model is known in the reference system 30 of the conveyor system 12 . That is, the model of the conveyor system 12 is provided, the model including at least a position, and preferably an orientation and dimension, of each of the conveyor runs 28 in the frame of reference 30 of the conveyor system 12 (or the overall system 10).
  • the conveyor devices 26 shown in FIG. 2 can form a (first modular) conveyor system 12, to which further (not illustrated modular systems) connect, which are constructed similarly to the conveyor system 12 of FIG.
  • a reference point in the reference system 30 of the conveyor system 12 is defined.
  • Framework 30 is the reference framework to which everything is intended to relate.
  • the definition can take place, for example, by positioning additional markings within the conveyor system 12 .
  • One, several or all conveyor devices can be provided with the markings M (cf. M1 to M3) (see optional steps S 12) by sticking the markings M to the conveyor devices 26, for example.
  • the markers M can also be provided separately from the conveyors 26, but in this case at fixed and unchanging positions relative to the conveyors 26.
  • the markers M could be attached to stands (not shown), for example, which are separate and spaced from the conveyors 26 can be positioned.
  • the markings M can be attached to other elements in the environment (e.g. on shelves, doors, walls, ceiling, floor, etc.) which are in an unchangeable spatial relationship to the conveyor devices 26 or the conveyor sections 28. This is particularly advantageous when discontinuous conveyors are used.
  • the markings could be glued to the floor, for example, similar to guide tracks for mobile robots.
  • the markings M can, for example, be barcodes or other optically recognizable markings. In particular, it can be characteristic markings that are used only once in the conveyor system 12 in order to facilitate a clear assignment (identification) of the marking M to the desired conveyor route 28 .
  • identical markings M could also be used, e.g. reflecting points, which are detected particularly well by the image sensor 14 and are easily recognizable in the image 36 - but cannot be clearly identified.
  • the markings are not individually identifiable, but can only be clearly identified in groups, e.g. using pattern recognition.
  • the definition of the reference points of step S10 also includes that the positions for each defined reference point in the (reference) frame of reference 30 of the conveyor system 12 are determined. These positions are required to determine the coordinate transformation.
  • the image sensor 14 is positioned within the conveyor system 12 such that at least one of the conveyor sections 28 and at least one of the previously defined reference points are in the field of view 37 of the image sensor 14.
  • several reference points are required within the field of view 37 in order to reliably carry out the (in particular automated) identification of the reference points present there. This is particularly difficult if the reference points are realized by markings M that are difficult or impossible to distinguish, or if the differences in the Markings are not visually recognizable (e.g. due to insufficient resolution). In these cases it is helpful to be able to access additional information, such as distances between the markings, attachment locations in relation to the conveying devices 26 or the like.
  • the image 36 is generated with the image sensor 14, preferably periodically, after the image sensor 14 has been positioned accordingly.
  • the correct positioning can be checked by the user 44 by the user 44 moving the camera 16 back and forth until he (live) sees a sufficient number of reference points on his tablet computer 40 (cf. FIG. 3).
  • the reference points in the generated image 36 are identified, preferably by means of image recognition, and the positions of the identified reference points are determined in the reference system 30' of the image 36.
  • identification means that the reference point in the image 36 must be recognized in order to decide which pixel of the image 36 represents a reference point and which does not.
  • the reference points can be recognized and identified by the user 44 in the image 36, for example.
  • the user 44 can use the stylus 46 to select the reference points he has visually recognized in the image 36 on the screen 42 and assign them the corresponding reference point in the real world, i.e. their position in the reference reference system 30.
  • the identification can also take place automatically by the image recognition unit 40 by means of image recognition.
  • the reference points in image 36 are first recognized as reference points, ie identified, and then based on further information, such as the distance between the recognized reference points, distances to other significant, also easily recognizable features in image 36 or similar chem, automatically identified. This means that it is automatically determined which of the reference points are actually contained in image 36.
  • a coordinate transformation is determined based on the positions of the mutually assigned reference points in both reference systems 30 and 30', so that each point of the generated image 36 can be assigned a coordinate 34 in the reference system 30 of the conveyor system 12.
  • a monitoring area 50 (in the image 36 or in the model) is defined, which is to be monitored by the virtual sensor 18 and which at least partially overlaps with one of the conveyor sections 28 that is in the field of view 37 of the image sensor 14.
  • Fig. 6 illustrates the possible uses of the virtual sensor 18 when discontinuous conveyors are used.
  • FIG. 6A shows a driverless transport vehicle, AGV 52 and several drones 54 in the vicinity of a rack warehouse.
  • Two two-dimensional monitoring areas 50 - 1 and 50 - 2 are illustrated, which overlap the routes 28 (dash-dotted lines) or are penetrated by the routes 28 .
  • four markers M are shown by way of example, with markers M1 and M2 attached to a shelf and markers M3 and M4 attached to the top of a passageway.
  • the area 50-1 surrounds a front of the shelf and is monitored for whether the AGV 52 or one of the drones 54 is moving through the area 50-1.
  • the area 50-3 is defined three-dimensionally and can represent, for example, a safety zone into which the vehicles 52 and 54 are not allowed to enter because people could be there.
  • FIG. 6B also shows vehicles 52 and 54 in an outdoor environment.
  • Vehicles 52 and 54 can be used to deliver parcels (goods).
  • the areas 50 represent waypoints, destinations or safety zones.
  • the monitoring of the areas 50 is illustrated in a step S22 in FIG. Monitoring takes place, for example, by comparing images 36 that were recorded at different times.
  • a first basic image can show a state that is free of conveyed goods, so that a transport of conveyed goods can be automatically recognized at any time as a difference to this original image.
  • the controller 22 can act accordingly on the material flow in an optional step S24.
  • the vehicles 52 and 54 of Figure 6 may be stopped or alerting and warning signals may be generated to persons, such as residents.
  • the conveyors 26 of Figure 3 could be stopped or accelerated.
  • the item to be conveyed could be identified in FIG. 3, just to give a few examples.
  • FIG. 7 shows a block diagram of a system 60 for defining virtual sensors 18 for a conveyor system 12 that includes at least one conveyor line.
  • the system 60 comprises the image sensor 14, the markings M, a (data) memory 62, the image processing device 20, a coordinate transformation device 64 and a device 66 for defining virtual sensors. With the exception of the marks M, these components are connected to exchange data with each other.
  • the system 60 can be coupled to the controller 22 of FIG. 1 and generates control signals for the actuators 32 of FIG. 1.
  • the image sensor 14 can in turn be implemented by a camera 16 .
  • the positions of the reference points which are known in the reference reference system 30 are stored in the data memory 62 .
  • the image processing device 20 is set up to determine positions of reference points, which can be identified in the image 36, preferably by means of pattern recognition, in the reference system 30' of the image 36 generated.
  • the coordinate transformation device 64 is set up to determine a coordinate transformation based on the positions of the reference points in the two reference systems 30 and 30', so that each pixel of the generated image 36 can be assigned a coordinate 34 in the reference reference system 30.
  • Device 66 is set up to define a monitoring area 50, preferably in image 36, which is to be monitored by virtual sensor 18 and which at least partially overlaps with one of conveyor sections 28 or is adjacent thereto, in field of view 37 of image sensor 14 .
  • image sensors/cameras can also be used simultaneously.
  • the fields of view of the cameras may overlap. If multiple cameras are used, 3D positions of moving objects can also be determined.

Abstract

A method for defining a virtual sensor (18) in a conveying system (12) having at least one conveying section (28) is disclosed, the method comprising the following steps: a) providing a model of the conveying system (12), the model comprising at least one position, and also preferably an orientation and/or a dimension, of each of the conveying sections (28) in a reference system (30), in particular in the reference system (30) of the conveying system (12); b) defining (S10) at least one reference point, in particular by positioning of, preferably identical, additional markings (M1, M2, M3), and determining a position for each defined reference point in the reference system (30); c) positioning an image sensor (14) within the conveying system (12), preferably at any desired location, such that at least one of the conveying sections (28) and at least one of the reference points lie in a field of view (37) of the image sensor (14); d) generating an image (36) by means of the image sensor (14) after the image sensor (14) has been positioned; e) identifying reference points in the image (36) and determining positions of the identified reference points in a reference system (30') of the generated image (36); f) determining a coordinate transformation, preferably by means of image processing, on the basis of the positions of the reference points in both reference systems (30, 30'), such that a coordinate (34) in the reference system (30) is assignable to each pixel of the generated image (36); and g) defining a monitoring region (50), preferably in the image (36), which is to be monitored by the virtual sensor (18) and which at least partly overlaps one of the conveying sections (28) which lies in the field of view (37) of the image sensor (14), or adjoins the latter.

Description

Materialflusssteuerung mit virtuellen Sensoren Material flow control with virtual sensors
Die vorliegende Offenbarung betrifft allgemein das Gebiet der Intralogistik, und insbeson dere ein Intralogistiksystem, das eine Kamera und einen virtuellen Sensor umfasst, um einen Materialfluss in dem Intralogistiksystem unter Verwendung des virtuellen Sensors zu steuern, sowie ein Verfahren zum Verwenden des virtuellen Sensors in dem Intralo- gistiksystem. The present disclosure relates generally to the field of intralogistics, and more particularly to an intralogistics system that includes a camera and a virtual sensor to control a material flow in the intralogistics system using the virtual sensor, and a method of using the virtual sensor in the intralo - gistics system.
Um Objekte eines Materialflusses, also Fördergüter, durch ein intralogistisches System zu leiten, wird bisher eine sehr große Anzahl von (technisch möglichst einfachen und günsti gen) Sensoren, insbesondere Lichttaster, Lichtschranken und Scanner, eingesetzt. Diese Sensoren werden überall innerhalb des Systems eingesetzt, insbesondere an Knoten punkten (Kreuzungen, Verzweigungen, Vereinigungspunkten, etc.) des Materialflusses.In order to guide objects in a material flow, ie conveyed goods, through an intralogistics system, a very large number of (technically as simple and cheap as possible conditions) sensors, in particular photoelectric sensors, light barriers and scanners, have been used to date. These sensors are used everywhere within the system, especially at nodes (intersections, branches, junctions, etc.) of the material flow.
An den Knotenpunkten werden oft mehrere Sensoren simultan eingesetzt. Ein generelles Ziel ist es, ein "Tracking" und "Tracing" durchführen zu können. Unter Tracing und Tra cking versteht man eine (innerbetriebliche) Verfolgung der Fördergüter. Several sensors are often used simultaneously at the nodes. A general goal is to be able to carry out "tracking" and "tracing". Tracing and tracking is the (internal) tracking of the conveyed goods.
Ein Ziel des Tracking ist es, jederzeit den genauen Ort des Objekts innerhalb des Ge samtsystems feststellen und abrufen zu können. Auf Grundlage dieser Information können Prozesse optimiert und ungenutzte Kapazitäten reduziert werden, zum Beispiel durch eine exakte Planung des Materialflusses, einer Lagerbelegung, eines Warenein gangs oder von Ähnlichem. Tracking bezeichnet die Verfolgung des Objekts von einer Quelle bis zu einem Ziel. Tracing bezeichnet eine Rückverfolgung vom Endkunden bis zum Punkt der Urerzeugung. One goal of tracking is to be able to determine and call up the exact location of the object within the overall system at any time. Based on this information, processes can be optimized and unused capacities reduced, for example through precise planning of the material flow, warehouse occupancy, goods receipt or similar. Tracking means following the object from a source to a destination. Tracing means backtracking from the end customer to the point of original production.
Neben den einfachen und günstigen Sensoren, wie den oben genannten Lichttastern, Lichtschranken und Scannern, werden heute verstärkt auch Kameras für intralogistische Zwecke eingesetzt. Das Dokument WO 2018/211072 A1 betrifft eine Vorrichtung und ein Verfahren zum Steuern eines Materialflusses an einem Materialflusskontenpunkt. Am Knotenpunkt ist eine einzige Kamera positioniert, um die Fördergüter zu identifizieren. Für die Identifikati on werden die Kameradaten mit zusätzlichen Daten fusioniert, die entfernt vom Knoten punkt gewonnen wurden. Die Kameradaten werden auch benutzt, um eine aktuelle Position und Geschwindigkeit der Fördergüter zu bestimmen, die auf einem Stetigförderer innerhalb des Blickfelds der Kamera transportiert werden. In addition to the simple and inexpensive sensors, such as the light sensors, light barriers and scanners mentioned above, cameras are increasingly being used for intralogistic purposes. The document WO 2018/211072 A1 relates to a device and a method for controlling a material flow at a material flow node. A single camera is positioned at the node to identify the conveyed goods. For identification, the camera data is merged with additional data that was obtained away from the node. The camera data is also used to determine a current position and speed of items being transported on a continuous conveyor within the camera's field of view.
Eine Materialflusssteuerung mittels einer Videokamera ist auch in der DE 102006 015 689 A1 offenbart. Zustandsbilder der Kamera werden ausgewertet, um eine tatsächliche Position des zu befördernden Objekts in einem vorab festgelegten Bereich des Systems zu bestimmen. Die Videokamera ist z.B. senkrecht über einer Fördertechnik angeordnet. Die Zustandsbilder werden ausgewertet, um eine Ist-Position der Fördergüter zu bestim men, die dann mit einer Soll-Position verglichen wird, um entsprechende Fördertechnik- Steuersignale basierend auf dem Soll-Ist-Vergleich zu erzeugen. A material flow control using a video camera is also disclosed in DE 102006 015 689 A1. Status images from the camera are evaluated in order to determine an actual position of the object to be transported in a previously defined area of the system. For example, the video camera is arranged vertically above a conveyor system. The status images are evaluated in order to determine an actual position of the goods to be conveyed, which is then compared with a target position in order to generate corresponding conveyor technology control signals based on the target/actual comparison.
In der DE 102011 055455 A1 wird eine Videokamera eingesetzt, um die Positionen von Objekten innerhalb eines Transportbehälters zu bestimmen, wobei die Transportbehälter auf einer Fördertechnik transportiert werden. In DE 102011 055455 A1, a video camera is used to determine the positions of objects within a transport container, the transport containers being transported on a conveyor system.
Die DE 102011 053 547 A1 offenbart den Einsatz von Videokameras, um einen Umsetz vorgang eines Förderguts durch einen Roboter zu überwachen, der zwischen zwei parallel angeordneten Fördertechniken positioniert ist. Insbesondere werden Identifizie rungskennzeichen und Abmessungen der Fördergüter mittels der Kameradaten bestimmt. DE 102011 053 547 A1 discloses the use of video cameras in order to monitor a transfer process of a conveyed item by a robot that is positioned between two conveyor systems arranged in parallel. In particular, identification marks and dimensions of the goods to be conveyed are determined using the camera data.
Die DE 102007 035 272 A10 offenbart ein Verfahren zum Identifizieren von Transportgü tern, insbesondere Gepäckstücken mit einer Vielzahl von Sensoren. DE 102007 035 272 A10 discloses a method for identifying goods to be transported, in particular pieces of luggage, with a large number of sensors.
Das Dokument US 9 365 357 B2 beschreibt gemäß seiner Zusammenfassung ein Förder system mit einem Förderer, der zum Bewegen von Gegenständen entlang eines bestimm ten Förderweges geeignet ist, und mit zumindest einem Durchgangssensor, der dazu ausgebildet ist, einen sich bewegenden Gegenstand, der einen bestimmten Punkt des Förderweges durchläuft, auf dem Förderer zu erkennen sowie auf eine Erkennung des durchlaufenden Gegenstandes zu reagieren, indem ein Durchlauferkennungssignal über einen Feldbus an eine Überwachungs- und Steuereinheit geliefert wird, wobei die Über- wachungs- und Steuereinheit auf das Durchlauferkennungssignal reagiert, indem sie ein Steuersignal für einen elektromechanischen Aktuator des Förderers über den Feldbus liefert, bei dem es sich zum Beispiel um einen Echtzeit-Feldbus wie einen Factory Instru mentation Protocol (FIP)-Feldbus oder einen "EtherCAT'-Feldbus handelt. According to its abstract, the document US Pat. No. 9,365,357 B2 describes a conveyor system with a conveyor that is suitable for moving objects along a certain conveying path, and with at least one passage sensor that is designed to detect a moving object that has a certain point of conveying path through, to be recognized on the conveyor and to react to a detection of the object passing through by a passage detection signal being supplied via a field bus to a monitoring and control unit, with the monitoring and control unit responding to the passage detection signal by sending a control signal for an electromechanical actuator of the conveyor via the fieldbus, which is, for example, a real-time fieldbus such as a Factory Instrumentation Protocol (FIP) fieldbus or an 'EtherCAT' fieldbus.
Zusammenfassend lässt sich also sagen, dass die Materialflusssteuerung generell eine hohe Anzahl von Sensoren zum Überwachen von Zuständen eines Fördersystems erfordert, um stromabwärts angeordnete Aktuatoren zu betätigen und die Fördergüter ausreichend sicher zu verfolgen (Tracking). Jeder Sensor kostet Geld. Jeder Sensor muss gewartet werden. In summary, it can be said that material flow control generally requires a large number of sensors for monitoring the states of a conveyor system in order to actuate actuators arranged downstream and to follow the conveyed goods sufficiently reliably (tracking). Every sensor costs money. Every sensor needs maintenance.
Die Verkabelung der Sensoren ist aufwendig. Die Verkabelung erfordert viel Zeit und ist oft nur schwer durchführbar, insbesondere wenn die Sensoren nachträglich in ein beste hendes Fördersystem integriert werden. Die Installationsorte können schwer zugänglich sein. Eine Kabelführung vom Installationsort zu einem Steuerungsrechner kann schwierig sein, weil die Verkabelungsorte schwer zugänglich sein können. The wiring of the sensors is complex. Wiring takes a lot of time and is often difficult to do, especially when the sensors are subsequently integrated into an existing conveyor system. Installation locations can be difficult to access. Cable routing from the installation site to a control computer can be difficult because the wiring locations can be difficult to access.
Ferner kommt es häufig vor, dass ein Streckenverlauf des Fördersystems nachträglich geändert werden muss, z.B. wenn eine Lager- oder Kommissionieranlage nachträglich erweitert wird. Auch hier ist die Zugänglichkeit problematisch. Ähnliche Gesichtspunkte sind aber auch bei einer Neuinstallation relevant. Furthermore, it often happens that a route of the conveyor system has to be changed later, e.g. if a storage or picking system is subsequently expanded. Accessibility is also a problem here. Similar aspects are also relevant for a new installation.
Häufig kann erst während einer Inbetriebnahme der Anlagen festgestellt werden, dass Sensoren ungünstig oder falsch platziert wurden oder gar zusätzliche Sensoren benötigt werden. Ähnliches kann bei der Nutzungsänderung einer Förderanlage auftreten, z.B. bei wechselndem Fördergut. Es ist daher eine Aufgabe der vorliegenden Erfindung, ein Verfahren und System zum Definieren eines virtuellen Sensors für ein Fördersystem bereitzustellen, das die oben erwähnten Nachteile überwindet. Frequently, it can only be determined during commissioning of the systems that sensors have been placed unfavorably or incorrectly, or that additional sensors are even required. Something similar can occur when the use of a conveyor system changes, for example when the goods to be conveyed change. It is therefore an object of the present invention to provide a method and system for defining a virtual sensor for a conveyor system which overcomes the disadvantages mentioned above.
Diese Aufgabe wird durch ein Verfahren zum Definieren eines virtuellen Sensors in einem Fördersystem gelöst, das mindestens eine Förderstrecke aufweist, wobei das Verfahren die Schritte umfasst: Bereitstellen eines Modells des Fördersystems, wobei das Modell zumindest eine Position sowie vorzugsweise eine Ausrichtung und/oder eine Abmessung, für jede der Förderstrecken in einem Referenzbezugssystem, insbesondere im Bezugs system des Fördersystems, umfasst; Definieren von zumindest einem Referenzpunkt, insbesondere durch Positionieren von, vorzugsweise identischen, zusätzlichen Markie rungen und Bestimmen einer Position für jeden definierten Referenzpunkt im Referenzbe zugssystem; Positionieren eines Bildsensors innerhalb des Fördersystems, vorzugsweise an einem beliebigen Ort, so dass zumindest eine der Förderstrecken und zumindest eine der Referenzpunkte in einem Sichtfeld des Bildsensors liegen; Erzeugen eines Bilds mit dem Bildsensor, nachdem der Bildsensor positioniert ist; Identifizieren von Referenzpunk ten im Bild und Bestimmen von Positionen der identifizierten Referenzpunkte in einem Bezugssystem des erzeugten Bildes; Bestimmen einer Koordinatentransformation, vorzugsweise mittels Bildverarbeitung, basierend auf den Positionen der Referenzpunkte in beiden Bezugssystemen, so dass jedem Bildpunkt des erzeugten Bilds eine Koordinate im Referenzbezugssystems zugeordnet werden kann; und Definieren eines Überwa chungsbereichs, vorzugsweise im Bild, der durch den virtuellen Sensor zu überwachen ist und der sich zumindest teilweise mit einer der Förderstrecken überlappt oder daran angrenzt, die im Sichtfeld des Bildsensors liegt. This object is achieved by a method for defining a virtual sensor in a conveyor system that has at least one conveyor section, the method comprising the steps of: providing a model of the conveyor system, the model having at least one position and preferably an orientation and/or a dimension , for each of the conveyor sections in a reference frame of reference, in particular in the frame of reference of the conveyor system; Defining at least one reference point, in particular by positioning of, preferably identical, additional markings and determining a position for each defined reference point in the reference system; Positioning an image sensor within the conveyor system, preferably at any location, so that at least one of the conveyor sections and at least one of the reference points are in a field of view of the image sensor; generating an image with the image sensor after the image sensor is positioned; identifying reference points in the image and determining positions of the identified reference points in a frame of reference of the generated image; Determination of a coordinate transformation, preferably by means of image processing, based on the positions of the reference points in both reference systems, so that each pixel of the generated image can be assigned a coordinate in the reference reference system; and defining a monitoring area, preferably in the image, which is to be monitored by the virtual sensor and which at least partially overlaps or is adjacent to one of the conveyor lines which is in the field of view of the image sensor.
Ein großer Vorteil der vorliegenden Entwicklung ist darin zu sehen, dass viele physische Sensoren, die zur Steuerung eines Materialflusses benötigt werden, durch einen, insbe sondere einzigen, Bildsensor ersetzt werden können. Auf Basis der Daten des Bildsensors können Informationen gewonnen werden, die die Signale der physischen Sensoren simulieren. Dadurch verringert sich ein Verkabelungsaufwand, weil der virtuelle Sensor nicht mehr physisch mit der Steuerung verbunden werden muss. Eine Änderung eines Streckenverlaufs des Fördersystems ist nachträglich ohne Probleme möglich. Das Fördersystem kann nachträglich um eine Vielzahl von Sensoren ergänzt werden, insbesondere an Orten, die für einen Installationstechniker unzugänglich sind. A major advantage of the present development can be seen in the fact that many physical sensors that are required to control a material flow can be replaced by one, in particular a single, image sensor. Based on the data from the image sensor, information can be obtained that simulates the signals from the physical sensors. This reduces cabling effort because the virtual sensor no longer has to be physically connected to the controller. A route of the conveyor system can be changed later without any problems. The conveyor system can be retrofitted with a variety of sensors, especially in places that are inaccessible to an installer.
Die Referenzpunkte können an Orten festgelegt werden, die gut zugänglich sind. Die Anzahl der für die Materialflusssteuerung erforderlichen Sensoren wird erheblich verringert. Damit verringern sich die Kosten. The reference points can be set at locations that are easily accessible. The number of sensors required for material flow control is significantly reduced. This reduces costs.
Die Entwicklung ist in Bestandsanlagen nachrüstbar, indem Elemente der Bestandsanla ge mit den Markierungen gekennzeichnet werden, die dann im Bild des Bildsensors identifizierbar sind, um das Bild des Bildsensors auf die Realität zu referenzieren. Die virtuellen Sensoren können z.B. von einem Techniker, der die Kamera positioniert hat, im Bild definiert werden, das dem Techniker z.B. auf einem mobilen berührungsempfindli chen Bildschirm angezeigt wird, den der Techniker mit sich führt. Der Techniker zeichnet z.B. einen Strich auf seinen Bildschirm, um eine Lichtschranke an einem Ort in Bezug auf eine Förderstrecke zu definieren, die ebenfalls im Bild zu sehen ist. Der auf dem Bild- schirm gezeichnete Strich bekommt automatisch Koordinaten im Referenzbezugssystem zugewiesen, so dass eine Materialflusssteuerung ortsabhängig über Förderstromände rungen informiert werden kann, die von der Kamera erfasst und über Bildverarbeitung ausgewertet werden können. Die Materialflusssteuerung kann dann entsprechend auf das Fördersystem einwirken, obwohl kein echter Sensor an dem Ort vorhanden ist, wo der Strich gezeichnet wurde. The development can be retrofitted in existing systems by marking elements of the existing system with the markings, which can then be identified in the image sensor image in order to reference the image sensor image to reality. The virtual sensors can be defined, for example, by a technician who positioned the camera in the image displayed to the technician, for example on a mobile touch-sensitive screen that the technician carries with him. For example, the technician draws a line on his screen to define a light barrier at a location in relation to a conveyor line, which can also be seen in the picture. The line drawn on the screen is automatically assigned coordinates in the reference reference system, so that a location-dependent material flow controller can be informed about changes in the flow rate, which can be recorded by the camera and evaluated using image processing. The material flow control can then act accordingly on the conveyor system, although there is no real sensor at the place where the line was drawn.
Vorzugsweise wird der für den virtuellen Sensor definierte Bereich in einem aktuell erzeugten Bild auf eine Zustandsänderung basierend auf einem Vergleich mit einem zeitlich früher erzeugten Bild überwacht. The area defined for the virtual sensor is preferably monitored in a currently generated image for a change in status based on a comparison with an image generated earlier.
Das zeitlich frühere Bild wird in einem fördergutfreien Zustand aufgenommen. Dies bedeutet, dass sich zum Zeitpunkt der Aufnahme kein Fördergut im Sichtfeld desThe chronologically earlier image is recorded in a state that is free of conveyed goods. This means that at the time of recording there was no material to be conveyed in the field of view of the
Bildsensors befindet. Die anderen Bilder, insbesondere das aktuell erzeugte Bild, können Fördergüter aufweisen. Vergleicht man diese Bilder mit dem Ursprungsbild, so kann ein Fördergut mittels Bilderkennung automatisiert erkannt werden. Tritt das erkannte Förder gut in den Bereich ein, der für den virtuellen Sensor definiert ist, liegt also eine Information darüber vor, dass das Fördergut sich im Bereich des virtuellen Sensors befindet. Diese Information kann in ein entsprechendes Zustandssignal umgewandelt werden, auf dessen Basis die Steuerung dann wiederum Aktoren ansteuern kann, die stromabwärts zum Überwachungsbereich angeordnet sind. Auf diese Weise kann z.B. eine Ausschleusein richtung betätigt werden, die unmittelbar nach dem virtuellen Sensor angeordnet ist. Die Fördergüter kann aber auch nur positionsabhängig gezählt werden, um ein weiteres Beispiel zu nennen. image sensor is located. The other images, in particular the currently generated image, can have conveyed goods. If these images are compared with the original image, a conveyed item can be automatically recognized using image recognition. If the detected item to be conveyed enters the area that is defined for the virtual sensor, information is available that the item to be conveyed is in the area of the virtual sensor. This information can be converted into a corresponding status signal, on the basis of which the controller can then in turn control actuators that are arranged downstream of the monitoring area. In this way, for example, a discharge device can be actuated, which is arranged immediately after the virtual sensor. The conveyed goods can also only be counted depending on the position, to give another example.
Insbesondere wird also ein Steuersignal für einen Aktuator erzeugt, der stromabwärts zum überwachten Bereich angeordnet ist, wenn die Zustandsänderung aufgetreten ist. In particular, a control signal is therefore generated for an actuator which is arranged downstream of the monitored area when the change of state has occurred.
Wie bereits erwähnt, wird die Zustandsänderung insbesondere durch ein Fördergut verursacht, das sich entlang der zumindest einen Förderstrecke, die im Sichtfeld des Bildsensors liegt, durch den für den virtuellen Sensor definierten Bereich bewegt. As already mentioned, the change in status is caused in particular by a conveyed item that moves through the area defined for the virtual sensor along the at least one conveying path that lies in the field of view of the image sensor.
Die Referenzpunkte können durch inhärente Merkmale von Komponenten des Fördersys tems implementiert sein. So können z.B. die Fördereinrichtungen herstellerseitig mit einer Seriennummer versehen sein, die als "Referenzpunkt" benutzt werden kann, sofern im Bild des Bildsensors auflösbar und erkennbar ist. In diesem Fall ist es nicht erforderlich, das zu überwachende System nachträglich mit Markierungen zu versehen. The reference points may be implemented by inherent features of components of the conveyor system. For example, the conveyor devices can be provided with a serial number by the manufacturer, which can be used as a "reference point" if it can be resolved and recognized in the image of the image sensor. In this case it is not necessary to subsequently provide the system to be monitored with markings.
Derartige Referenzpunkte können definiert werden, indem ein Bereich, wo ein Identifikati onsmerkmal, wie z.B. eine Barcode-Kennzeichnung, angeordnet ist, im erzeugten Bild ausgewählt wird. Dieser Bereich ist der Förderstrecke zugeordnet und für diese Förder strecke kennzeichnend. Such reference points can be defined by selecting an area in the generated image where an identifier, such as a barcode label, is located. This area is assigned to the conveyor line and characteristic of this conveyor line.
Weiter ist es von Vorteil, wenn dem Überwachungsbereich ferner ein Sensortyp zuge wiesen wird, der vorzugsweise eine Lichtschranke, ein Lichttaster oder ein Scanner ist. Die Auswahl eines Sensortyps legt fest, welche Zustandsänderungen überwacht werden sollen. Wenn eine Lichtschranke oder ein Lichttaster als Sensortyp ausgewählt wird, reicht es aus, eine Zustandsänderung an einem Punkt oder entlang einer Linie zu detek- tieren. Wenn ein Scanner ausgewählt wird, ist der zu überwachende Bereich auf zuvor definierte Identifikationsmerkmale, wie z.B. Barcodes, zu überwachen. Diese Art der Überwachung kann automatisiert werden, indem Bildverarbeitung eingesetzt wird. It is also advantageous if a sensor type is also assigned to the monitored area, which is preferably a light barrier, a light sensor or a scanner. The selection of a sensor type determines which state changes are to be monitored. If a light barrier or a light scanner is selected as the sensor type, it is sufficient to detect a change in status at a point or along a line. If a scanner is selected, the area to be monitored must be monitored for previously defined identification features such as barcodes. This type of monitoring can be automated using image processing.
Des Weiteren wird die Aufgabe durch ein System zum Definieren eines virtuellen Sensors für ein Fördersystem gelöst, das mindestens eine Förderstrecke umfasst, wobei das System aufweist: einen Bildsensor, der in dem Fördersystem, das ein Referenzbezugs system definiert, positionierbar ist und der ein Sichtfeld aufweist, so dass ein Bild von zumindest einer der Förderstrecken des Fördersystems und von zumindest einem Refe renzpunkt erzeugbar ist; eine Vielzahl von Markierungen, die als die Referenzpunkte innerhalb des Fördersystems fest und unveränderlich an Positionen positionierbar sind, die im Referenzbezugssystem bekannt sind; eine Einrichtung, die eingerichtet ist, die im Referenzbezugssystem bekannten Positionen der Referenzpunkte zu speichern; eine Bildverarbeitungseinrichtung, die eingerichtet ist, Positionen von Referenzpunkten, die im Bild identifizierbar sind, vorzugsweise mittels Mustererkennung, in einem Bezugssystem des erzeugten Bilds zu bestimmen; eine Einrichtung, die eingerichtet ist, eine Koordina tentransformation basierend auf den Positionen der Referenzpunkte in beiden Bezugssys temen zu bestimmen, so dass jedem Bildpunkt des erzeugten Bilds eine Koordinate im Referenzbezugssystem zuordenbar ist; und eine Einrichtung, die eingerichtet ist, einen Überwachungsbereich, vorzugsweise im Bild, zu definieren, der durch den virtuellen Sensor zu überwachen ist und der sich zumindest teilweise mit einer der Förderstrecken überlappt, die im Sichtfeld des Bildsensors liegt. Furthermore, the object is achieved by a system for defining a virtual sensor for a conveyor system which comprises at least one conveyor section, the system having: an image sensor which can be positioned in the conveyor system which defines a reference reference system and which has a field of view , so that an image of at least one of the conveyor sections of the conveyor system and of at least one reference point can be generated; a plurality of markers fixed and invariably positionable as the reference points within the conveyor system at positions known in the reference frame; a device that is set up to store the positions of the reference points that are known in the reference reference system; an image processing device that is set up to determine positions of reference points that can be identified in the image, preferably by means of pattern recognition, in a reference system of the generated image; a device that is set up to determine a coordinate transformation based on the positions of the reference points in both reference systems, so that each pixel of the generated image can be assigned a coordinate in the reference reference system; and a device that is set up to define a monitoring area, preferably in the image, which is to be monitored by the virtual sensor and which at least partially overlaps with one of the conveyor sections that is in the field of view of the image sensor.
Die oben für das Verfahren genannten Vorteile gelten analog für das System. The advantages mentioned above for the method apply analogously to the system.
Es versteht sich, dass die vorstehend genannten und die nachstehend noch zu erläutern den Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen. Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden in der nachfolgenden Beschreibung näher erläutert. Es zeigen: It goes without saying that the features mentioned above and those still to be explained below can be used not only in the combination specified in each case, but also in other combinations or on their own, without departing from the scope of the present invention. Embodiments of the invention are shown in the drawing and are explained in more detail in the following description. Show it:
Fig. 1 ein Blockdiagramm eines exemplarischen Intralogistiksystems; 1 shows a block diagram of an exemplary intralogistics system;
Fig. 2 eine Veranschaulichung eines Fördersystems in der Realität und eine Veran schaulichung eines Sichtfelds und Bilds, das ein Bildsensor von der Realität auf nimmt; 2 is an illustration of a conveyor system in reality and an illustration of a field of view and image captured by an image sensor of the reality;
Fig. 3 eine Veranschaulichung eines aufgenommenen Bilds, das auf einen Bildschirm eines Tabletcomputers wiedergegeben wird und das manuell bearbeitbar ist; 3 is an illustration of a captured image that is displayed on a screen of a tablet computer and that is manually editable;
Fig. 4 eine Steuerung gemäß dem Stand der Technik (Fig. 4A), eine Steuerung gemäß der vorliegenden Offenbarung (Fig. 4B) und eine Nachrüstung einer herkömmli chen Steuerung (Fig. 4C); FIG. 4 shows a prior art controller (FIG. 4A), a controller according to the present disclosure (FIG. 4B), and a retrofit of a conventional controller (FIG. 4C);
Fig. 5 ein Flussdiagramm zum Definieren eines virtuellen Sensors; 5 shows a flowchart for defining a virtual sensor;
Fig. 6 eine Anwendung im Kontext von Unstetigförderern in einer innerbetrieblichen Umgebung (Fig. 6A) und in der Außenwelt (Fig. 6B); und Fig. 7 ein Blockdiagramm eines Systems zum Definieren eines virtuellen Sensors. Fig. 6 shows an application in the context of discontinuous conveyors in an internal environment (Fig. 6A) and in the outside world (Fig. 6B); and FIG. 7 is a block diagram of a system for defining a virtual sensor.
Die vorliegende Offenbarung betrifft allgemein das Gebiet der Intralogistik, und insbeson dere die Steuerung eines Materialflusses in einem Intralogistiksystem (Lager- und/oder Kommissioniersystem) mittels realer Bildsensoren und virtueller (Überwachungs- Zensoren. Allgemein und exemplarisch gesprochen betrifft die vorliegende Entwicklung die Idee, dass ein Techniker eine Kamera an einem frei wählbaren Punkt innerhalb des Intralo gistiksystems positioniert. Die Kamera erzeugt ein Bild eines interessierenden Ausschnitts des Intralogistiksystems. Im Bild sind Marker zu sehen, die der Techniker zuvor an z.B. Lager- und/oder Fördereinrichtungen angebracht hat. Die Anbringungspositionen der Marker werden vom Techniker im Layout des Intralogistiksystems bestimmt, so dass die Kameraposition mittels Bildverarbeitung basierend auf den Markern bestimmt werden kann. Anschließend kann der Techniker im Bild Überwachungsbereiche einzeichnen, womit virtuelle Sensoren definiert werden. Zustandänderungen im Kamerabild, die mit den Überwachungsbereich übereinstimmen, die in Echtzeit überwacht werden und die z.B. durch bewegte Fördergüter hervorgerufen werden, können verarbeitet und zum Steuern des Materialflusses eingesetzt werden, ohne dass echte Überwachungssensoren in der realen Welt (Intralogistiksystem) positioniert sind. Die Fig. 1 zeigt ein Blockdiagramm eines Blockdiagramm eines Lager- und/oder Kommis sioniersystems 10, das ein exemplarisches Intralogistiksystem repräsentiert. Das System 10 umfasst ein Fördersystem 12, einen Bildsensor 14 (nachfolgend wird exemplarisch eine Kamera 16 behandelt), einen virtuellen Sensor 18, eine Bildverarbeitungseinheit 20 (Computer, der zur Bearbeitung und Verarbeitung von Bildern eingerichtet ist) und eine Steuerung 22 (z.B. einen Materialflussrechner, MFR, 24). Das System 10 ist üblicher weise in einem Gebäude (z.B. in einer Halle) untergebracht. The present disclosure relates generally to the field of intralogistics, and in particular the control of a material flow in an intralogistics system (storage and/or picking system) by means of real image sensors and virtual (monitoring censors. In general and by way of example, the present development relates to the idea that a technician positions a camera at a freely selectable point within the intralogistics system.The camera generates an image of a section of the intralogistics system that is of interest.The image shows markers that the technician previously attached to e.g has attached storage and/or conveying equipment. The placement positions of the markers are determined by the technician in the layout of the intralogistics system, so the camera position can be determined using image processing based on the markers. The technician can then draw monitoring areas in the image, which defines virtual sensors. Status changes in the camera image that correspond to the monitoring area, which are monitored in real time and which are caused, for example, by moving conveyed goods, can be processed and used to control the material flow without real monitoring sensors being positioned in the real world (intralogistics system). 1 shows a block diagram of a block diagram of a storage and/or picking system 10, which represents an exemplary intralogistics system. The system 10 comprises a conveyor system 12, an image sensor 14 (a camera 16 is treated below as an example), a virtual sensor 18, an image processing unit 20 (computer that is set up for editing and processing images) and a controller 22 (e.g. a material flow computer , MFR, 24). The system 10 is usually housed in a building (eg in a hall).
Der Begriff „Intralogistik“ umfasst die Organisation, Steuerung, Durchführung und Optimie rung des innerbetrieblichen Materialflusses, der Informationsströme sowie des Warenum schlags in Industrie, Handel und öffentlichen Einrichtungen. Unter dem Begriff „Materialfluss“ versteht man alle Vorgänge und deren Verkettung bei der Herstellung, bei der Be- und Verarbeitung sowie bei der Verteilung von (Förder-) Gütern und Gegenständen innerhalb bestimmter festgelegter Bereiche (z.B. Warenein gang, Lager, Kommissionierung und Warenausgang). Der Materialfluss wird vom Materi alflussrechner (MFR) 24 gesteuert, der Quelle-Ziel-Beziehungen kontrolliert und eine Reihenfolge koordiniert, in welcher einzelne Aufträge (z.B. Transportaufträge) abgearbei tet werden. The term "intralogistics" includes the organisation, control, implementation and optimization of the internal flow of materials, the flow of information and the handling of goods in industry, trade and public institutions. The term "material flow" refers to all processes and their linkages in the manufacture, treatment and processing as well as the distribution of (conveyed) goods and objects within certain defined areas (e.g. goods receipt, storage, order picking and goods issue) . The material flow is controlled by the material flow computer (MFR) 24, which controls source-destination relationships and coordinates the sequence in which individual orders (e.g. transport orders) are processed.
Unter dem „Fördersystem 12“ sind allgemein die technischen Systeme des Materialflus ses, d.h. Fördereinrichtung(en) 26, zu verstehen, die im Wesentlichen innerbetriebliche Ortsveränderungen, d.h. einen Transport, der (Förder-) Güter bewirken. Die Förderein richtungen 26 umfassen zwei Gruppen (nicht dargestellt): Stetigförderer und Unstetigför derer. Stetigförderer (z.B. Rollenförderer, Bandförderer, Kettenförderer, Hängeförderer, etc.) arbeiten kontinuierlich und sind zumeist ortsfest installiert. Unstetigförderer sind Fahrzeuge (fahrende Roboter, fliegende Drohnen, etc.), die das Fördergut entweder frei, d.h. autonom bzw. selbstständig, oder spur- bzw. zwangsgeführt entlang einer Förder strecke 28 (Weg zwischen Quelle und Ziel) fördern und transportieren. The term “conveyor system 12” generally refers to the technical systems of the material flow, ie conveyor device(s) 26, which are essentially internal Changes of location, ie a transport that causes (conveyance) goods. The conveying devices 26 comprise two groups (not shown): continuous conveyors and discontinuous conveyors. Continuous conveyors (e.g. roller conveyors, belt conveyors, chain conveyors, overhead conveyors, etc.) work continuously and are usually installed in a fixed location. Discontinuous conveyors are vehicles (moving robots, flying drones, etc.) that promote and transport the conveyed material either freely, ie autonomously or independently, or track-guided or forced-guided along a conveyor route 28 (path between source and destination).
Die Förderstrecken 28 stellen die Wege dar, entlang denen die Fördergüter von ihrer Quelle zu einem Ziel transportiert werden. Wenn z.B. ein Rollenförderer als Fördereinrich- tung 26 verwendet wird, dann entspricht die Förderstrecke 28 im Wesentlichen einerConveyor routes 28 represent the paths along which the conveyed goods are transported from their source to a destination. If, for example, a roller conveyor is used as the conveyor device 26, then the conveyor section 28 essentially corresponds to one
Längserstreckung des Rollenförderers. Wenn ein auf dem Boden fahrendes Fahrzeug als Fördereinrichtung 26 verwendet wird, dann entspricht die zugehörige Förderstrecke 28 im Wesentlichen einem Fahrweg des Fahrzeugs. Wenn eine fliegende Drohne als Förderein richtung 26 eingesetzt wird, dann entspricht die zugehörige Förderstrecke 28 im Wesentli- chen einer Flugbahn der Drohne. Dies bedeutet allgemein, dass der Weg, den das an die Fördereinrichtung 26 gekoppelte Fördergut während eines Transports zurücklegt, der Förderstrecke 28 entspricht. Longitudinal extension of the roller conveyor. If a vehicle driving on the ground is used as the conveying device 26, then the associated conveying section 28 essentially corresponds to a route of the vehicle. If a flying drone is used as the conveying device 26, then the associated conveying section 28 essentially corresponds to a trajectory of the drone. In general, this means that the path covered by the conveyed goods coupled to the conveying device 26 during transport corresponds to the conveying section 28 .
Die Bewegung des Förderguts wird herkömmlicherweise mit einem oder mehreren Sensoren erfasst. Exemplarische Sensoren, die herkömmlicherweise im Fördersystem 12 eingesetzt werden sind: Lichtschranken, Lichttaster, Kameras 16 und (Barcode-)Scanner. Mit Lichtschranken und Lichttastern kann erfasst werden, ob sich das Fördergut an einem vorab festgelegten Ort befindet oder nicht. Lichtschranken und Lichttaster arbeiten linear, d.h. überwachen einen Punkt oder eine Linie. Kameras 16 arbeiten zweidimensional, d.h. erfassen Flächen (Bilder). Mit Kameras können Positionen und Bewegungen erfasst werden, auch von mehreren Fördergütern gleichzeitig. Kameras 16 und Scanner können zum Identifizieren der Fördergüter eingesetzt werden. Unter dem allgemeinen Begriff „Sensor“ ist also ein technisches Bauteil zu verstehen, das physikalische oder chemische Größen aktiv misst und die gemessenen Größen in ent sprechende elektrische Signal zur weiteren Verarbeitung umwandelt. Sensoren werden auch als Detektor, (Messgrößen- oder Mess-)Aufnehmer oder (Mess-)Fühler bezeichnet (Quelle: Wikipedia zu „Sensor“). The movement of the conveyed goods is conventionally recorded with one or more sensors. Exemplary sensors that are conventionally used in the conveyor system 12 are: light barriers, light sensors, cameras 16 and (barcode) scanners. Light barriers and light sensors can be used to detect whether or not the conveyed goods are at a predetermined location. Light barriers and light scanners work linearly, ie monitor a point or a line. Cameras 16 work two-dimensionally, ie capture areas (images). Cameras can be used to record positions and movements, even from several conveyed goods at the same time. Cameras 16 and scanners can be used to identify the conveyed goods. The general term "sensor" is therefore to be understood as a technical component that actively measures physical or chemical variables and converts the measured variables into corresponding electrical signals for further processing. Sensors are also referred to as detectors, (measuring variable or measuring) sensors or (measuring) probes (source: Wikipedia on "sensor").
Unter einem „virtuellen Sensor 18“ ist ein Sensor zu verstehen, der im System 10 phy sisch nicht vorhanden ist, aber dennoch eine gewünschte Information, wie z.B. über einen Systemzustand (z.B. Fördergut an einem bestimmten Ort vorhanden oder nicht?), basie rend auf einer Größe liefert, die von einem oder mehreren real vorhandenen Sensoren wie z.B. einer Kamera 16 aufgenommen und mittels Datenverarbeitung in die gewünschte Information umgewandelt wird. Der Bildsensor 14 stellt in diesem Fall den realen Sensor dar. A “virtual sensor 18” is to be understood as a sensor that is not physically present in the system 10, but nevertheless provides desired information, such as about a system status (e.g., whether or not conveyed goods are present at a specific location?). of a size that is recorded by one or more sensors that are actually present, such as a camera 16, and converted into the desired information by means of data processing. In this case, the image sensor 14 represents the real sensor.
Die vom Bildsensor 14 erzeugten Bilddaten werden von der Bildverarbeitungseinrichtung 10 bearbeitet. Die Bilddaten werden mittels Bilderkennung analysiert. Die Bilderkennung ist ein Teilgebiet der Mustererkennung und der Bildverarbeitung. Die Bilderkennung im Kontext der Bildverarbeitung ist die Fähigkeit von Software, Objekte, Orte, Personen, Schriften und Aktionen in Bildern zu identifizieren. The image data generated by the image sensor 14 are processed by the image processing device 10 . The image data is analyzed using image recognition. Image recognition is a branch of pattern recognition and image processing. Image recognition in the context of image processing is the ability of software to identify objects, places, people, writing and actions in images.
Virtuelle Sensoren 18 liefern also äquivalente Informationen wie reale Sensoren, nur dass die Informationen durch Verarbeitungen von Daten anderer, realer Sensoren erzeugt werden muss. Virtual sensors 18 therefore supply equivalent information to real sensors, except that the information has to be generated by processing data from other, real sensors.
Insbesondere für die Materialflusssteuerung ist es wichtig zu wissen, wo sich die Förder güter zu einem bestimmten Zeitpunkt innerhalb des Systems 10, und insbesondere innerhalb des Fördersystems 12, befinden, um Aktuatoren 32, wie z.B. Motoren, Stauför derer, Einschleuseinrichtungen, Ausschleuseinrichtungen und Ähnliches, zur richtigen Zeit zu steuern. In particular for material flow control, it is important to know where the conveyed goods are located within the system 10, and in particular within the conveyor system 12, at a specific point in time in order to activate actuators 32, such as motors, accumulation conveyors, infeed devices, ejection devices and the like. control at the right time.
Zum Beispiel werden in herkömmlichen Systemen reale Sensoren an fest vorgegebenen Orten verbaut, wie z.B. eine Lichtschranke unmittelbar vor einem Materialflussknoten- punkt, wo sich z.B. zwei Förderstrecken 26 zu einer einzigen Förderstrecke 26 vereinen. Wenn diese Lichtschranke ein Signal sendet, liegt die Information vor, dass in diesem Augenblick ein Fördergut den Lichtstrahl unterbrochen hat. Es liegt also eine zeit- und ortsabhängige Information vor, die zum Steuern des Materialflusses nutzbar ist, z.B. um eine unmittelbar stromabwärts gelegene Ausschleuseinrichtung zu aktivieren, die veran lasst, dass das Fördergut, das die Lichtschranke gerade unterbricht oder unterbrochen hat, ausgeschleust wird. Zu diesem Zweck wird der Installationsort der Lichtschranke in einem Bezugssystem 30, z.B. im Bezugssystem 30 des Lager- und/oder Kommissionier systems 10 oder des Fördersystems 12, vorab festgelegt und in entsprechenden Modell daten hinterlegt sein. For example, in conventional systems, real sensors are installed at fixed locations, such as a light barrier immediately in front of a material flow node. point where, for example, two conveyor sections 26 unite to form a single conveyor section 26 . If this light barrier sends a signal, the information is available that a conveyed item has interrupted the light beam at this moment. There is therefore time- and location-dependent information that can be used to control the flow of material, e.g. to activate an ejection device located immediately downstream, which causes the conveyed goods that the light barrier is currently interrupting or has interrupted to be ejected. For this purpose, the installation location of the light barrier in a reference system 30, for example in the reference system 30 of the storage and/or picking system 10 or the conveyor system 12, is predetermined and stored in corresponding model data.
Unter dem Begriff „Modell“ versteht man allgemein eine detailgetreue Beschreibung eines (vorhandenen oder noch herzustellenden) Systems, z.B. des Fördersystems 12. Diese Beschreibung veranschaulicht eine oder mehrere Eigenschaften des Systems, wie z.B. eine Form, eine Beschaffenheit, einen Aufbau, eine Anordnung von Komponenten (För dereinrichtungen 26 und/oder Förderstrecken 28), (Relativ-)Positionen und Ausrichtungen der Komponenten, Abmessungen der Komponenten, Maßverhältnisse und Ähnliches. Die Beschreibung in Papier erfolgt in Form eines Layouts oder einer Karte. Ein Installateur nutzt diese Daten, um die Lichtschranke beim Aufbau (Installation) des Systems am richtigen Ort zu installieren. Die elektronische Beschreibung erfolgt in Form von Modellda ten, die einem Speicher einer Datenverarbeitungseinrichtung hinterlegt sind. Die Installa tionsorte und Modelldaten sind auf ein Koordinatenreferenzsystem (z.B. Koordinatensys tem des Fördersystems) bezogen. The term "model" is generally understood to mean a detailed description of a system (existing or to be manufactured), such as conveyor system 12. This description illustrates one or more characteristics of the system, such as a shape, a texture, a structure, an arrangement of Components (conveyor devices 26 and/or conveyor lines 28), (relative) positions and orientations of the components, dimensions of the components, dimensional ratios and the like. The description in paper is in the form of a layout or a map. An installer uses this data to install the light barrier in the right place when setting up (installing) the system. The electronic description is in the form of model data stored in a memory of a data processing device. The installation locations and model data are related to a coordinate reference system (e.g. coordinate system of the conveyor system).
Unter dem Begriff „Koordinatenreferenzsystem“, das auch als „Koordinatenbezugssystem“ bezeichnet wird, versteht man ein Koordinatensystem bzw. Bezugssystem 30, das durch Verknüpfung mit einem Datum (z.B. einem Ursprungspunkt) auf die reale Welt bezogen ist. Koordinatensysteme dienen zur eindeutigen Bezeichnung der Positionen (Koordinate 34, vgl. Fig. 1) von Punkten und Gegenständen (z.B. Fördereinrichtungen 26) in einem geometrischen Raum, wie z.B. in dem Fördersystem 12. Eine Koordinate 34 ist eine von mehreren Zahlen, mit denen man den Ort des Punktes in einer Ebene oder in einem Raum eindeutig angibt. Jede der zu dieser Beschreibung erforderlichen Dimensionen wird durch eine Koordinate 34 ausgedrückt. Nachfolgend werden vereinfachend zweidimensi- onale Koordinaten- und Bezugssysteme 30 betrachtet. Es versteht sich das diese Syste me auf beliebige Dimensionen erweiterbar sind, z.B. auf vier Dimensionen (Höhe, Breite, Länge und Zeit). Außerdem drücken die Begriffe „Ort“ und „Position“ das Gleiche aus. The term “coordinate reference system”, which is also referred to as “coordinate reference system”, is understood to mean a coordinate system or reference system 30 which is related to the real world by being linked to a datum (eg a point of origin). Coordinate systems are used to clearly identify the positions (coordinate 34, cf. Fig. 1) of points and objects (e.g. conveyors 26) in a geometric space, such as in the conveyor system 12. A coordinate 34 is one of several numbers with which one uniquely indicates the location of the point in a plane or in a space. Each of the dimensions required for this description is expressed by a 34 coordinate. In the following, two-dimensional onal coordinate and reference systems 30 considered. It goes without saying that these systems can be expanded to any dimensions, for example to four dimensions (height, width, length and time). Also, the terms "place" and "position" mean the same thing.
Bezugssysteme 30 sind also erforderlich, um das Verhalten von ortsabhängigen Größen eindeutig und vollständig zu beschreiben. Die Positionen und Bewegungen von Gegen ständen können nur relativ zum jeweiligen Bezugssystem 30 angeben werden. Reference systems 30 are therefore required in order to describe the behavior of location-dependent variables clearly and completely. The positions and movements of objects can only be specified relative to the respective reference system 30.
Verschiedene Bezugsysteme 30 können aufeinander referenziert werden. Der Begriff „referenzieren“ drückt allgemein aus, dass Dinge aufeinander bezogen werden, also zueinander in eine Beziehung gebracht werden. Different reference systems 30 can be referenced to one another. The term "referencing" generally expresses that things are related to one another, i.e. brought into a relationship with one another.
Das Fördersystem 12 der Fig. 2 weist ein Bezugssystem 30 auf, das identisch zum Bezugssystem 30 des Gesamtsystems 10 sein kann. Die Kamera 16 weist ein Bezugs system 30‘ auf. The conveyor system 12 of FIG. 2 has a reference system 30 which can be identical to the reference system 30 of the overall system 10 . The camera 16 has a reference system 30'.
Sind mehrere charakteristische Punkte (z.B. Markierungen), die in beiden Bezugssyste men 30 und 30‘ vorhanden sind, hinsichtlich ihres Orts bekannt, können die Bezugssys teme 30 und 30‘ aufeinander referenziert werden, so dass die Koordinaten 34 eines beliebigen Punkts in einem der Bezugssysteme 30‘, 30 auch in Form von Koordinaten 34 des gleichen Punkts in dem anderen Bezugssystem 30, 30‘ ausgedrückt werden können. Beim Referenzieren wird eine Transformationsfunktion (Koordinatentransformation) bestimmt, die den Punkt aus dem einen Bezugsystem 30‘ in den entsprechenden Punkt in dem anderen Bezugssystem 30 wandelt. If several characteristic points (e.g. markings), which are present in both reference systems 30 and 30', are known with regard to their location, the reference systems 30 and 30' can be referenced to one another, so that the coordinates 34 of any point in one of the reference systems 30', 30 can also be expressed in terms of coordinates 34 of the same point in the other frame of reference 30, 30'. When referencing, a transformation function (coordinate transformation) is determined, which converts the point from one reference system 30' to the corresponding point in the other reference system 30.
Dies soll nachfolgend unter Bezugnahme auf Fig. 2 näher veranschaulicht werden. This is to be illustrated in more detail below with reference to FIG. 2 .
Fig. 2 zeigt eine schematische Teilansicht eines Fördersystems 12 in einer Draufsicht. Im unteren Teil der Fig. 2 ist das Fördersystem 12 in der Realität, d.h. im Bezugsystem 30, einer exemplarischen Lager- und Kommissionieranlage 10 gezeigt, die das Fördersystem 12 umfasst. Im oberen Teil der Fig. 2 ist ein Bild 36 veranschaulicht, das eine Kamera 16 aufgenommen hat. Das Bild 36 zeigt ein Abbild eines Teils des realen Fördersystems 12, der im Sichtfeld 37 der Kamera 16 liegt. Das (zweidimensionale) Bild 36 wird aus (nicht näher bezeichneten) Bildpunkten gebildet, die in Zeilen und Spalten aufgebaut sind. Das Bild 36 hat das eigenes Bezugsystem 30‘. FIG. 2 shows a schematic partial view of a conveyor system 12 in a plan view. In the lower part of FIG. 2, the conveyor system 12 is shown in reality, ie in the reference system 30, of an exemplary storage and picking system 10 that includes the conveyor system 12. FIG. The upper part of FIG. 2 shows an image 36 that a camera 16 recorded. Figure 36 shows an image of part of the real conveyor system 12, which is in the field of view 37 of the camera 16. The (two-dimensional) image 36 is formed from pixels (not designated in more detail), which are built up in rows and columns. The image 36 has its own frame of reference 30'.
Das Bezugsystem 30 kann für das Lager- und Kommissioniersystem 10 und das Förder system 12 das gleiche sein. Dies bedeutet, dass die Systeme 10 und 12 im gleichen Bezugssystem 30 beschrieben werden können. Das Bezugssystem 30 kann z.B. ein (zwei- oder dreidimensionales) kartesisches Koordinatensystem sein, dass seinen Ur sprung (0/0/0) z.B. in der linken unter Ecke eines (hier nicht veranschaulichten) Gebäudes hat, in dem die Systeme 10 und 12 installiert sind. The reference system 30 can be the same for the storage and picking system 10 and the conveyor system 12 . This means that the systems 10 and 12 can be described in the same frame of reference 30 . The reference system 30 can be, for example, a (two- or three-dimensional) Cartesian coordinate system that has its origin (0/0/0) in, for example, the bottom left corner of a building (not illustrated here) in which the systems 10 and 12 are installed are.
Das Bezugssystem 30‘ des Bildes 36 kann ebenfalls ein (zweidimensionales) kartesi sches Koordinatensystem sein. The reference system 30' of the image 36 can also be a (two-dimensional) Cartesian coordinate system.
Es versteht sich, dass auch andere Koordinatensysteme verwendet werden können. Das Koordinatensystem des Fördersystems 12 könnte sich aus Koordinaten 34 aufbauen, die z.B. an eine Position einer Fördereinrichtung 26 innerhalb des Systems 12 geknüpft sind, wie z.B. „1. Förderer der Hauptstrecke“, „2. Förderer der Hauptstrecke“, .... , n-ter Förde rer der Hauptstrecke“, „1. Förderer der 1. Nebenstrecke“, usw.. Des Weiteren könnten diese Förderer noch weiter unterteilt werden in „Eingang“, „Mitte“ und „Ausgang“, so dass sich ein Ort, an dem ein Sensor platziert werden kann, noch detaillierter beschreiben lässt, wie z.B. „1. Förderer der Hauptstrecke, Ausgang“. It goes without saying that other coordinate systems can also be used. The coordinate system of the conveyor system 12 could be made up of coordinates 34 associated, for example, with a location of a conveyor 26 within the system 12, such as "1. Conveyor of the main line", "2. conveyor of the main line", .... , nth conveyor of the main line", "1. 1st Branch Conveyor”, etc.. Furthermore, these conveyors could be further subdivided into “Input”, “Middle” and “Output” so that a location where a sensor can be placed can be described in more detail , such as "1. Main Line Conveyor, Exit”.
Sowohl in der Realität als auch im Bild 36 ist das folgende zu sehen. The following can be seen both in reality and in Figure 36.
Es gibt zwei Förderstrecken 28-1 und 28-2, die mit strichpunktierten Linien veranschau licht sind. Die Förderstrecken 28-1 und 28-2 erstrecken sich exemplarisch jeweils geradli nig. Die Förderstrecke 28-1 verläuft in der Fig. 2 horizontal und die Förderstrecke 28-2 verläuft schräg dazu. Die Förderstrecken 28-1 und 28-2 sind exemplarisch durch Stetig förderer implementiert. Es versteht sich, dass alternativ oder ergänzend auch Unstetigför derer eingesetzt werden können, um (nicht dargestellte) Fördergüter entlang den Förder strecken 28 zu transportieren. Ferner sind die Förderstrecken 28-1 und 28-2 exemplarisch modular aufgebaut, d.h. sie umfassen mehrere Fördereinrichtungen 26, die so angeordnet sind, dass sie aneinander grenzen. Die Strecken 28 könnten aber auch jeweils durch nur einen einzigen Förderer implementiert werden. There are two conveyor lines 28-1 and 28-2, which are illustrated with dot-dash lines. The conveyor sections 28-1 and 28-2 each extend in a straight line as an example. The conveyor section 28-1 runs horizontally in FIG. 2 and the conveyor section 28-2 runs at an angle to it. The conveyor sections 28-1 and 28-2 are implemented as examples by continuous conveyors. It goes without saying that discontinuous conveyors can also be used as an alternative or in addition to conveying goods (not shown) along the conveying routes 28 . Furthermore, the conveying sections 28-1 and 28-2 are of modular design, ie they comprise a plurality of conveying devices 26 which are arranged in such a way that they adjoin one another. However, the routes 28 could also each be implemented by only a single conveyor.
Generell können unterschiedliche Typen von Fördereinrichtungen 26 verwendet werden, auch gemischt. Die Fördereinrichtung 26-1 ist z.B. eine lineare Rollenbahn und die Fördereinrichtung 26-2 ist ein linearer Gurtförderer. In general, different types of conveying devices 26 can be used, also mixed. For example, the conveyor 26-1 is a linear roller conveyor and the conveyor 26-2 is a linear belt conveyor.
Es versteht sich, dass ferner und alternativ auch nicht lineare Förderer, wie z.B. Kurven förderer, eingesetzt werden können. It is understood that non-linear conveyors, such as curved conveyors, can also be used further and alternatively.
Ferner versteht es sich, dass die Fördereinrichtungen 26 auch Höhendifferenzen über winden können, indem z.B. Vertikalförderer oder Rampen für Fahrzeuge eingesetzt werden. All dies ist in der Fig. 2 zur Vereinfachung der Erklärung jedoch nicht gezeigt, aber dennoch möglich. Furthermore, it goes without saying that the conveyor devices 26 can also overcome height differences, for example by using vertical conveyors or ramps for vehicles. However, all of this is not shown in FIG. 2 to simplify the explanation, but is nevertheless possible.
In Fig. 2 sind exemplarisch drei Referenzpunkte M1 bis M3 gezeigt, die für die angestreb te Koordinatentransformation verwendet werden können. Es versteht sich, dass das gesamte System 10 bzw. 12 üblicherweise mit viel mehr Referenzpunkten versehen ist, als in Fig. 2 gezeigt sind. Auf diesen Aspekt wird nachfolgend noch näher eingegangen werden. In Fig. 2 three reference points M1 to M3 are shown as an example, which can be used for the desired te coordinate transformation. It goes without saying that the entire system 10 or 12 is usually provided with many more reference points than are shown in FIG. 2 . This aspect will be discussed in more detail below.
Die drei Referenzpunkte sind in der Fig. 2 mit M1 bis M3 bezeichnet, weil die Referenz punkte in diesem Fall exemplarisch durch Markierungen M implementiert sind, die nach träglich und zusätzlich an zumindest einigen der Fördereinrichtungen 26 angebracht wurden. Die Markierungen M1 und M3 sind fest und unveränderlich an der Fördereinrich tung 26-2 angebracht. Die Markierung M2 ist an der Fördereinrichtung 26-4 angebracht. Die Markierungen M sind in diesem Fall Komponenten des Systems 10 (vgl. Fig. 1) oder auch des Fördersystems 12. Es versteht sich, dass die Markierungen M auch an anderen Komponenten des Systems 10 angebracht werden können, wie z.B. an Regalen, am (Gebäude-) Boden, Wänden, an der Decke, an Ständern oder Ähnlichem. The three reference points are denoted by M1 to M3 in FIG. 2, because in this case the reference points are implemented by way of example markings M, which were subsequently and additionally attached to at least some of the conveyor devices 26. The marks M1 and M3 are fixed and unchangeable on the conveyor 26-2. The mark M2 is attached to the conveyor 26-4. In this case, the markings M are components of the system 10 (cf. FIG. 1) or of the conveyor system 12. It is understood that the markings M can also be attached to other components of the system 10, such as shelves, the (building) floor, walls, ceiling, posts or the like.
Die Orte und Positionen, an denen die Markierungen M1 bis M3 im Bezugssystem 30 des Fördersystems 12 an den Fördereinrichtungen 26-2 und 26-4 angebracht sind, sind zu bestimmen. Es werden also die Koordinaten 34 der Markierungen M1 bis M3, d.h. der Referenzpunkte, im Bezugssystem 30 bestimmt. The locations and positions at which the markers M1 through M3 in the frame of reference 30 of the conveyor system 12 are attached to the conveyors 26-2 and 26-4 are to be determined. The coordinates 34 of the markings M1 to M3, i.e. the reference points, in the reference system 30 are thus determined.
Diese Bestimmung (Zuordnung einer Markierung zu einem spezifischen Ort) kann von einem Planer des System 12 vorab durchgeführt werden. Alternativ kann die Bestimmung von einem Betreiber oder Installateur des Systems 12 durchgeführt werden, nachdem die Fördereinrichtungen 26 aufgebaut und die Markierungen M1 bis M3 angebracht wurden. Zu diesem Zweck wird entweder die jeweilige Position der Fördereinrichtung 26 im System 12 und zusätzlich die relative Position der jeweiligen Markierung M in Bezug auf die zugehörige Fördereinrichtung 26 bestimmt (z.B. „M1 am Eingang des 2. Förderers der Hauptstrecke“) oder die Position der Markierung M wird direkt im System 10 bestimmt (z.B. M1 = (3000/550/600) in XYZ-Koordinaten, jeweils in mm). Die Bestimmung kann z.B. durch Messen erfolgen. This determination (associating a marker with a specific location) can be performed by a planner of the system 12 in advance. Alternatively, the determination may be made by an operator or installer of the system 12 after the conveyors 26 have been constructed and the markings M1 through M3 have been applied. For this purpose, either the respective position of the conveyor 26 in the system 12 and also the relative position of the respective marking M in relation to the associated conveyor 26 is determined (e.g. "M1 at the entrance of the 2nd conveyor of the main line") or the position of the marking M is determined directly in system 10 (e.g. M1 = (3000/550/600) in XYZ coordinates, each in mm). The determination can be made, for example, by measuring.
Es versteht sich, dass die Markierungen M1 bis M3 auch schon vor der Installation der Fördereinrichtungen 26 innerhalb des Systems 10 oder 12, d.h. herstellerseitig, an den entsprechenden Fördereinrichtungen 26 an vordefinierten Orten angebracht werden können (z.B. Markierungen werden immer am Eingang eines Förderers auf der linken Seite platziert, wenn man in der Förderrichtung schaut). In diesem Fall legt der Betreiber des Systems 10 lediglich die Installationsorte der Fördereinrichtungen 26 im Gesamtsys tem 10 fest. Die Orte der Markierungen M innerhalb des Bezugssystems 30 des Förder systems 12 erhält man in diesem Fall automatisch, und insbesondere unabhängig davon, ob das Fördersystem 12 exakt im Gesamtsystem 10 positioniert ist oder nicht. It is understood that the markings M1 to M3 can also be attached to the corresponding conveyor devices 26 at predefined locations before the installation of the conveyor devices 26 within the system 10 or 12, i.e. by the manufacturer (e.g. markings are always placed at the entrance of a conveyor on the placed on the left when looking in the conveying direction). In this case, the operator of the system 10 only specifies the installation locations of the conveyor devices 26 in the overall system 10 . In this case, the locations of the markings M within the reference system 30 of the conveyor system 12 are obtained automatically, and in particular independently of whether the conveyor system 12 is positioned exactly in the overall system 10 or not.
Ferner versteht es sich, dass neben oder anstatt den Orten der Referenzpunkte weitere Ortsinformationen festgestellt werden können, die eine Bestimmung der Transformation vereinfachen. So ist es zum Beispiel von Vorteil, wenn auch die Abstände der Referenz punkte relativ zueinander und/oder zu den Fördereinrichtungen 26 vorab bestimmt bzw. festgelegt werden. Die Abstände können als Verbindungslinien ausgedrückt werden, die in ihrer Gesamtheit wiederum ein spezifisches Abstandsmusters ergeben. Je mehr Informationen dieser Art vorliegen, desto einfacher können die Referenzpunkte im Bild 36 mittels Bilderkennung, insbesondere Mustererkennung, identifiziert werden. Furthermore, it goes without saying that, in addition to or instead of the locations of the reference points, further location information can be determined which determines the transformation simplify. For example, it is advantageous if the distances between the reference points relative to one another and/or to the conveyor devices 26 are also determined or fixed in advance. The distances can be expressed as connecting lines which, taken together, result in a specific distance pattern. The more information of this type is available, the easier it is for the reference points in the image 36 to be identified using image recognition, in particular pattern recognition.
Zurückkehrend zur Fig. 2 bedeutet dies das Folgende. Die Kamera 16 kann einem beliebigen Ort positioniert werden. Es ist lediglich darauf zu achten, dass ausreichend viele Referenzpunkte im Bild 36 enthalten sind, so dass die Referenzpunkte des Bildes 36 mittels Bilderkennung identifiziert, d.h. auf das Bezugssystem 30 transformiert, werden können. Sobald klar ist, welche Referenzpunkte im Bild 36 zu sehen sind, kann die Koordinatentransformation bestimmt werden, um den im Bild 36 enthaltenen Referenz punkten eindeutig Orte im Bezugssystem 30 des Fördersystem 12 zuordnen zu können. Auf diese Weise ist möglich, jedem Bildpunkt einen Ort im Bezugssystem 30 zuzuordnen. Das Bild 36 ist dann auf das Bezugsystem 30 des Fördersystems 12 referenziert. Returning to Fig. 2, this means the following. The camera 16 can be positioned anywhere. It is only necessary to ensure that a sufficient number of reference points are contained in the image 36 so that the reference points of the image 36 can be identified by means of image recognition, i.e. can be transformed to the reference system 30. As soon as it is clear which reference points can be seen in image 36, the coordinate transformation can be determined in order to be able to clearly assign locations in the reference system 30 of the conveyor system 12 to the reference points contained in image 36. In this way it is possible to assign a location in the reference system 30 to each pixel. The image 36 is then referenced to the reference system 30 of the conveyor system 12 .
Es versteht sich, dass es nicht erforderlich ist, dass die Kamera 16 senkrecht über den Förderstrecken 28 positioniert ist. Perspektivische Ansichten können auf die gleiche Weise ausgewertet werden, wobei in diesem Fall mindestens drei Referenzpunkte im Bild 36 enthalten sein sollten. It goes without saying that it is not necessary for the camera 16 to be positioned vertically above the conveyor lines 28 . Perspective views can be evaluated in the same way, in which case at least three reference points should be included in image 36.
Die Referenzierung ermöglicht es, einen oder mehrere virtuelle Sensoren 18 im Bild 36 zu definieren. The referencing makes it possible to define one or more virtual sensors 18 in image 36 .
Im Bild 36 der Fig. 2 sind exemplarisch neun virtuelle Sensoren 18-1 bis 18-9 gezeigt. Die virtuellen Sensoren 18-1 bis 18-8 sind z.B. als Lichtschranken (vgl. Linien) definiert und der virtuelle Sensor 18-9 ist als Barcode-Scanner (vgl. Rechteck) definiert. Die Licht schranken 18-1 bis 18-3 werden von der Fördereinrichtung 26-1 (Rollenförderer mit mehreren Stauplätzen, Segmentierung nicht dargestellt) zur Implementierung von Stau plätzen benutzt, so dass der MFR 24 dort Fördergüter anhalten und stauen kann. Die Lichtschranken 18-4 und 18-5 werden von der Fördereinrichtung (durchgehender Band- förderer) benutzt, um die Geschwindigkeit von Fördergütern unmittelbar vor dem Vereini gungspunkt mit der Fördereinrichtung 26-5 zu beeinflussen. Die Lichtschranken 18-6 und 18-8 dienen ebenfalls der Geschwindigkeitsbeeinflussung vor dem Vereinigungspunkt.In image 36 of FIG. 2, nine virtual sensors 18-1 to 18-9 are shown as an example. The virtual sensors 18-1 to 18-8 are defined, for example, as light barriers (cf. lines) and the virtual sensor 18-9 is defined as a barcode scanner (cf. rectangle). The light barriers 18-1 to 18-3 are used by the conveyor 26-1 (roller conveyor with several storage locations, segmentation not shown) for implementing storage locations, so that the MFC 24 can stop and store conveyed goods there. The light barriers 18-4 and 18-5 are activated by the conveyor (continuous belt conveyor) used to influence the speed of conveyed goods immediately before the union point with the conveyor 26-5. The light barriers 18-6 and 18-8 are also used to influence the speed before the junction point.
Die Lichtschranke 18-7 ist schräg - und somit nicht senkrecht wie die anderen Licht schranken - zur Förderrichtung orientiert, um eine Längenmessung durchführen zu können. Der Scanner 18-9 tastet einen Bereich ab und dient zur Identitätsbestimmung. The light barrier 18-7 is oblique - and thus not perpendicular barriers like the other light - oriented to the conveying direction in order to be able to carry out a length measurement. The scanner 18-9 scans an area and is used for identity determination.
Ferner könnten auch Flächen seitlich zu den Förderstrecken und/oder Fördereinrichtun gen 26 überwacht werden, z.B. um herabfallende Fördergüter zu erfassen. Diese Flächen grenzen vorzugsweise unmittelbar an die Fördereinrichtungen 26 an, wie es in Fig. 2 durch schraffierte Bereiche angedeutet ist. Furthermore, areas to the side of the conveyor sections and/or conveyor devices 26 could also be monitored, e.g. to detect falling conveyed goods. These areas are preferably directly adjacent to the conveying devices 26, as indicated by hatched areas in FIG.
Die Fig. 2 zeigt also verschiedene Positionen, Ausrichtungen und Größen von Bereichen im Bild 36, die überwacht werden, um eine (ortsabhängige) Materialflusssteuerung zuverlässig durchführen zu können, und zwar allein auf Basis von Daten, die der Bildsensor 14 liefert. 2 therefore shows different positions, alignments and sizes of areas in the image 36 that are monitored in order to be able to reliably carry out a (location-dependent) material flow control, specifically solely on the basis of data that the image sensor 14 supplies.
Zu diesem Zweck wird ein Bild 36 frei von Fördergütern erzeugt, das als eine Basis für Bilder 36 dient, die später aufgenommen werden, während Fördergüter durch das Sicht feld 37 des Bildsensors 14 befördert werden. Durch den Bildvergleich ist es möglich, die Anwesenheit der Fördergüter ortsabhängig zu detektieren. Wenn ein Fördergut in einem Bereich des Bilds 36 erkannt ist, der einem virtuellen Sensor 18 entspricht, wird ein entsprechendes Zustandssignal erzeugt, welches der MFR 24 zur Steuerung von Aktua toren benutzen kann, die zur Materialflusssteuerung benötigt werden. Zum Beispiel kann das Signal einer virtuellen Lichtschranke benutzt werden, um einen Antrieb abzuschalten, der eine Fördereinrichtung 26 antreibt, die dem gleichen Ort wie die virtuelle Lichtschran ke zugeordnet ist, um das Fördergut zu stoppen (Staufunktion). Die virtuelle Lichtschran ke liefert auf Basis des Bildvergleichs ein entsprechendes Signal, sobald das Fördergut in den Bereich eintritt, der der virtuellen Lichtschranke zugeordnet ist. For this purpose, an image 36 free of conveyed goods is generated, which serves as a basis for images 36 that are later recorded while conveyed goods are conveyed through the field of view 37 of the image sensor 14 . By comparing the images, it is possible to detect the presence of the conveyed goods depending on the location. If a conveyed item is detected in an area of the image 36 that corresponds to a virtual sensor 18, a corresponding status signal is generated, which the MFC 24 can use to control actuators that are required for material flow control. For example, the signal from a virtual light barrier can be used to turn off a drive that drives a conveyor 26 that is assigned to the same location as the virtual light barrier ke in order to stop the conveyed goods (congestion function). Based on the image comparison, the virtual light barrier supplies a corresponding signal as soon as the conveyed goods enter the area assigned to the virtual light barrier.
Fig. 3 veranschaulicht die (nachträgliche) Definition eines virtuellen Sensors 18 an einem beliebigen Ort innerhalb des Bilds 36. Bei der Definition wird dem virtuellen Sensor 18 ein (Überwachungs-)Bereich des Bilds 36 innerhalb des Fördersystems 12 zugeordnet, dessen Ortskoordinaten im Bezugssystem 30 bekannt sind. FIG. 3 illustrates the (subsequent) definition of a virtual sensor 18 at any location within the image 36. In the definition, the virtual sensor 18 is given a (Monitored) area of the image 36 assigned within the conveyor system 12, whose location coordinates are known in the reference system 30.
Fig. 3 zeigt einen exemplarischen Tabletcomputer 40 mit einem berührungsempfindlichen Bildschirm 42, auf dem einem Benutzer 44 das Bild 36 der Kamera 16 der Fig. 2 ange zeigt wird. Im angezeigten Bild 36 ist der virtuelle Sensoren 18-5 bereits veranschaulicht. Das (Kamera-) Bild 36 ist bereits auf die Realität referenziert, d.h. die Koordinatentrans formation zwischen dem Bezugssystem 30‘ des Bilds 36 und dem Bezugssystem 30 der realen Welt ist bereits anhand der identifizierten Referenzpunkte (M1 bis M3) bestimmt worden. FIG. 3 shows an exemplary tablet computer 40 with a touch-sensitive screen 42 on which the image 36 of the camera 16 of FIG. 2 is displayed to a user 44 . The virtual sensor 18-5 is already illustrated in the displayed image 36. The (camera) image 36 is already referenced to reality, i.e. the coordinate transformation between the reference system 30' of the image 36 and the reference system 30 of the real world has already been determined using the identified reference points (M1 to M3).
Der Benutzer 44 hat manuell, z.B. mit einem Stift 46, den virtuellen Sensor 18-5 auf den Bildschirm 42 gezeichnet. Der Bildschirm 42 erfasst die Position, Ausrichtung und/oder Größe des gezeichneten Sensors 18 in seinem Bezugssystem 30‘. The user 44 has drawn the virtual sensor 18-5 on the screen 42 manually, e.g. The screen 42 records the position, orientation and/or size of the drawn sensor 18 in its frame of reference 30'.
Die gezeichnete Position, Ausrichtung und/oder Größe des virtuellen Sensors 18-5 kann nun in entsprechende Daten, insbesondere in Ortsdaten, in der realen Welt gewandelt werden, um die gewünschten Sensordaten zu simulieren. The drawn position, orientation and/or size of the virtual sensor 18-5 can now be converted into corresponding data, in particular location data, in the real world in order to simulate the desired sensor data.
Der Benutzer 44 definiert ferner einen Sensortyp (z.B. Lichtschranke) und bindet den so definierten Sensor in die Materialflusssteuerung 22 (vgl. Fig. 1) ein. The user 44 also defines a sensor type (e.g. light barrier) and integrates the sensor defined in this way into the material flow control 22 (cf. FIG. 1).
Es versteht sich, dass die virtuellen Sensoren 18 auch lediglich in den Modelldaten des Systems 10 und/oder 12 definiert werden können, wobei der Bildsensor 14 anschließend so zu positionieren ist, dass das Sichtfeld 37 die so definierten Bereiche (und ausreichend Referenzpunkte) erfasst. It goes without saying that the virtual sensors 18 can also only be defined in the model data of the system 10 and/or 12, in which case the image sensor 14 must then be positioned in such a way that the field of view 37 captures the areas defined in this way (and sufficient reference points).
Die Einbindung der virtuellen Sensoren ist in Fig. 4 veranschaulicht, wobei Fig. 4A eine alte Materialflusssteuerung gemäß dem Stand der Technik mit echten Sensoren, Fig. 4B eine neue Steuerung mit einem virtuellen Sensor 18 (nicht veranschaulicht) und Fig. 4C eine Einbindung eines virtuellen Sensors 18 (nicht veranschaulicht) in eine alte Steuerung zeigt. Fig. 4A zeigt, dass herkömmliche Steuerungen mit jedem realen Sensor physisch verbun den sind. Dies bedeutet mit anderen Worten, dass eine Vielzahl von Signalleitungen oder ein Bussystem benutzt wird, um die realen Sensoren physisch mit der Steuerung zu verbinden. The integration of the virtual sensors is illustrated in FIG. 4, with FIG. 4A showing an old prior art material flow controller with real sensors, FIG. 4B showing a new controller with a virtual sensor 18 (not shown), and virtual sensor 18 (not shown) in an old controller. Figure 4A shows that conventional controllers are physically connected to each real world sensor. In other words, this means that a large number of signal lines or a bus system is used to physically connect the real sensors to the controller.
Fig. 4B veranschaulicht das gleiche Szenario wie Fig. 4A, jedoch sind die realen Senso ren durch den (vorzugsweise einzigen) Bildsensor 14 ersetzt worden, der wiederum eine Vielzahl von virtuellen Sensoren 18 simuliert. FIG. 4B illustrates the same scenario as FIG. 4A, but the real sensors have been replaced by the (preferably single) image sensor 14, which in turn simulates a plurality of virtual sensors 18.
Fig. 4C veranschaulicht ebenfalls das gleiche Szenario wie die Fig. 4A und 4B, wobei der Bildsensor 14 bzw. die virtuellen Sensoren 18 über eine Zwischensteuerung 48 an eine alte Steuerung gekoppelt werden. Die Zwischensteuerung 48 wandelt das Signal des Bildsensors 14 in eine entsprechende Anzahl von Signalen von virtuellen Sensoren 18, die an entsprechende Anschlüsse der alten Steuerung geliefert werden. Dies bedeutet mit anderen Worten, dass die Fig. 4C die Möglichkeit einer Nachrüstung aufzeigt, so dass auch Bestandssteuerungen um virtuelle Sensoren 18 erweitert werden können. FIG. 4C also illustrates the same scenario as FIGS. 4A and 4B, in which the image sensor 14 or the virtual sensors 18 are coupled to an old controller via an intermediate controller 48 . The intermediate controller 48 converts the signal from the image sensor 14 into a corresponding number of signals from virtual sensors 18, which are supplied to corresponding terminals of the old controller. In other words, this means that FIG. 4C shows the possibility of retrofitting, so that inventory controls can also be expanded to include virtual sensors 18 .
Fig. 5 zeigt ein Flussdiagramm eines Verfahrens zum Definieren eines virtuellen Sensors 18 in einem Fördersystem 12, dessen Modell im Bezugssystem 30 des Fördersystems 12 bekannt ist. Dies bedeutet, dass das Modell des Fördersystems 12 bereitgestellt wird, wobei das Modell zumindest eine Position, sowie vorzugsweise eine Ausrichtung und Abmessung, von jeder der Förderstrecken 28 im Bezugssystem 30 des Fördersystems 12 (oder des Gesamtsystems 10) umfasst. Die in Fig. 2 gezeigten Fördereinrichtungen 26 können ein (erstes modulares) Fördersystem 12 bilden, an das sich weitere (nicht veran schaulichte modulare Systeme) anschließen, die ähnlich wie das Fördersystem 12 der Fig. 2 aufgebaut sind. FIG. 5 shows a flow chart of a method for defining a virtual sensor 18 in a conveyor system 12 whose model is known in the reference system 30 of the conveyor system 12 . That is, the model of the conveyor system 12 is provided, the model including at least a position, and preferably an orientation and dimension, of each of the conveyor runs 28 in the frame of reference 30 of the conveyor system 12 (or the overall system 10). The conveyor devices 26 shown in FIG. 2 can form a (first modular) conveyor system 12, to which further (not illustrated modular systems) connect, which are constructed similarly to the conveyor system 12 of FIG.
In einem Schritt S10 wird mindestens ein Referenzpunkt im Bezugssystem 30 des För dersystems 12 definiert. Das Bezugsystem 30 ist das Referenzbezugsystem, auf das sich alles beziehen soll. Die Definition kann erfolgen, indem z.B., zusätzliche Markierungen innerhalb des Fördersystems 12 positioniert werden. Eine, mehrere oder alle Förderein richtungen können mit den Markierungen M (vgl. M1 bis M3) versehen werden (siehe optionaler Schritte S 12), indem die Markierungen M z.B. an die Fördereinrichtungen 26 geklebt werden. Die Markierungen M können auch getrennt von den Fördereinrichtungen 26 vorgesehen werden, in diesem Fall aber an fest vorgegebenen und unveränderlichen Positionen relativ zu den Fördereinrichtungen 26. Die Markierungen M könnten z.B. an Ständern (nicht gezeigt) angebracht werden, die getrennt und beabstandet von den Fördereinrichtungen 26 positioniert werden können. In a step S10, at least one reference point in the reference system 30 of the conveyor system 12 is defined. Framework 30 is the reference framework to which everything is intended to relate. The definition can take place, for example, by positioning additional markings within the conveyor system 12 . One, several or all conveyor devices can be provided with the markings M (cf. M1 to M3) (see optional steps S 12) by sticking the markings M to the conveyor devices 26, for example. The markers M can also be provided separately from the conveyors 26, but in this case at fixed and unchanging positions relative to the conveyors 26. The markers M could be attached to stands (not shown), for example, which are separate and spaced from the conveyors 26 can be positioned.
Die Markierungen M können an anderen Elementen der Umgebung (z.B. an Regalen, Türen, Wänden, Decke, Boden, etc.) angebracht werden, die in einem unveränderlichen räumlichen Verhältnis zu den Fördereinrichtungen 26 bzw. den Förderstrecken 28 stehen. Dies ist insbesondere von Vorteil, wenn Unstetigförderer eingesetzt werden. Die Markie rungen könnten in diesem Fall z.B. auf den Boden geklebt werden, ähnlich wie Führungs spuren für verfahrbare Roboter. The markings M can be attached to other elements in the environment (e.g. on shelves, doors, walls, ceiling, floor, etc.) which are in an unchangeable spatial relationship to the conveyor devices 26 or the conveyor sections 28. This is particularly advantageous when discontinuous conveyors are used. In this case, the markings could be glued to the floor, for example, similar to guide tracks for mobile robots.
Bei den Markierungen M kann es sich z.B. Barcodes oder andere, optisch erkennbare Kennzeichnungen handeln. Insbesondere kann es sich um charakteristische Kennzeich nungen handeln, die jeweils nur ein einziges Mal im Fördersystem 12 verwendet werden, um eine eindeutige Zuordnung (Identifikation) der Markierung M zur gewünschten Förder strecke 28 zu erleichtern. The markings M can, for example, be barcodes or other optically recognizable markings. In particular, it can be characteristic markings that are used only once in the conveyor system 12 in order to facilitate a clear assignment (identification) of the marking M to the desired conveyor route 28 .
Es könnten aber auch identische Markierungen M verwendet werden, z.B. reflektierende Punkte, die vom Bildsensor 14 besonders gut erfasst werden und im Bild 36 gut und einfach erkennbar - aber nicht eindeutig identifizierbar - sind. In diesem Fall sind die Markierungen nicht individuell identifizierbar, sondern können nur in Gruppen z.B. mittels Mustererkennung eindeutig identifiziert werden. However, identical markings M could also be used, e.g. reflecting points, which are detected particularly well by the image sensor 14 and are easily recognizable in the image 36 - but cannot be clearly identified. In this case, the markings are not individually identifiable, but can only be clearly identified in groups, e.g. using pattern recognition.
Die Definition der Referenzpunkte des Schritts S10 umfasst auch, dass die Positionen für jeden definierten Referenzpunkt im (Referenz-) Bezugssystem 30 des Fördersystems 12 bestimmt werden. Diese Positionen werden für die Bestimmung der Koordinatentransfor mation benötigt. In einem Schritt S14 wird der Bildsensor 14 innerhalb des Fördersystems 12 so positio niert, dass zumindest eine der Förderstrecken 28 und mindestens einer der vorab defi nierten Referenzpunkte im Sichtfeld 37 des Bildsensors 14 liegen. Üblicherweise werden aber mehrere Referenzpunkte innerhalb des Sichtfelds 37 benötigt, um die (insbesondere automatisierte) Identifizierung der dort vorhandenen Referenzpunkte sicher durchzufüh ren. Dies ist insbesondere schwierig, wenn die Referenzpunkte durch nicht oder nur schwer unterscheidbare Markierungen M realisiert sind oder wenn die Unterschiede in den Markierungen optisch nicht erkennbar sind (z.B. wegen mangelnder Auflösung). In diesen Fällen ist es hilfreich, auf zusätzliche Informationen zurückgreifen zu können, wie z.B. Abstände zwischen den Markierungen, Anbringungsorte in Bezug auf die Förderein richtungen 26 oder Ähnliches. The definition of the reference points of step S10 also includes that the positions for each defined reference point in the (reference) frame of reference 30 of the conveyor system 12 are determined. These positions are required to determine the coordinate transformation. In a step S14, the image sensor 14 is positioned within the conveyor system 12 such that at least one of the conveyor sections 28 and at least one of the previously defined reference points are in the field of view 37 of the image sensor 14. Usually, however, several reference points are required within the field of view 37 in order to reliably carry out the (in particular automated) identification of the reference points present there. This is particularly difficult if the reference points are realized by markings M that are difficult or impossible to distinguish, or if the differences in the Markings are not visually recognizable (e.g. due to insufficient resolution). In these cases it is helpful to be able to access additional information, such as distances between the markings, attachment locations in relation to the conveying devices 26 or the like.
In einem weiteren, nicht veranschaulichten Schritt wird das Bild 36, vorzugsweise perio disch wiederkehrend, mit dem Bildsensor 14 erzeugt, nachdem der Bildsensor 14 ent sprechend positioniert ist. Die richtige Positionierung kann vom Benutzer 44 überprüft werden, indem der Benutzer 44 die Kamera 16 so lange hin und her bewegt, bis er (live) ausreichend viele Referenzpunkte auf seinem Tabletcomputer 40 (vgl. Fig. 3) sieht. In a further step that is not illustrated, the image 36 is generated with the image sensor 14, preferably periodically, after the image sensor 14 has been positioned accordingly. The correct positioning can be checked by the user 44 by the user 44 moving the camera 16 back and forth until he (live) sees a sufficient number of reference points on his tablet computer 40 (cf. FIG. 3).
In einem Schritt S 16 werden die Referenzpunkte im erzeugten Bild 36, vorzugsweise mittels Bilderkennung, identifiziert und die Positionen der identifizierten Referenzpunkte werden in Bezugssystem 30‘ des Bilds 36 bestimmt. Identifizieren bedeutet in diesem Kontext, dass die Referenzpunkt im Bild 36 erkannt werden müssen, um zu entscheiden, welcher Bildpunkt des Bildes 36 einen Referenzpunkt darstellt und welcher nicht. Die Referenzpunkte können z.B. vom Benutzer 44 im Bild 36 erkannt und identifiziert werden. Der Benutzer 44 kann die von ihm visuell erkannten Referenzpunkte im Bild 36 mit dem Stift 46 auf dem Bildschirm 42 auswählen und ihnen den entsprechenden Referenzpunkt in der realen Welt, d.h. deren Position im Referenzbezugssystem 30, zuordnen. In a step S 16, the reference points in the generated image 36 are identified, preferably by means of image recognition, and the positions of the identified reference points are determined in the reference system 30' of the image 36. In this context, identification means that the reference point in the image 36 must be recognized in order to decide which pixel of the image 36 represents a reference point and which does not. The reference points can be recognized and identified by the user 44 in the image 36, for example. The user 44 can use the stylus 46 to select the reference points he has visually recognized in the image 36 on the screen 42 and assign them the corresponding reference point in the real world, i.e. their position in the reference reference system 30.
Die Identifikation kann aber auch automatisiert durch die Bilderkennungseinheit 40 mittels Bilderkennung erfolgen. In diesem Fall werden die Referenzpunkt im Bild 36 zuerst als Referenzpunkte erkannt, d.h. identifiziert, und anschließend aufgrund weiterer Informatio nen, wie z.B. dem Abstand zwischen den erkannten Referenzpunkten, Abstände zu anderen signifikanten, ebenfalls einfach erkennbaren Merkmalen im Bild 36 oderÄhnli- chem, automatisch identifiziert. Dies bedeutet, dass automatisch ermittelt wird, welche der Referenzpunkte im Bild 36 tatsächlich enthalten sind. However, the identification can also take place automatically by the image recognition unit 40 by means of image recognition. In this case, the reference points in image 36 are first recognized as reference points, ie identified, and then based on further information, such as the distance between the recognized reference points, distances to other significant, also easily recognizable features in image 36 or similar chem, automatically identified. This means that it is automatically determined which of the reference points are actually contained in image 36.
In einem Schritt S18 wird eine Koordinatentransformation basierend auf den Positionen der einander zugeordneten Referenzpunkte in beiden Bezugssystemen 30 und 30‘ bestimmt, so dass jedem Punkt des erzeugten Bilds 36 eine Koordinate 34 im Bezugssys tem 30 des Fördersystems 12 zuordenbar ist. In a step S18, a coordinate transformation is determined based on the positions of the mutually assigned reference points in both reference systems 30 and 30', so that each point of the generated image 36 can be assigned a coordinate 34 in the reference system 30 of the conveyor system 12.
In einem weiteren Schritt S 20 wird ein Überwachungsbereich 50 (im Bild 36 oder im Modell) definiert, der durch den virtuellen Sensor 18 zu überwachen ist und der sich zumindest teilweise mit einer der Förderstrecken 28 überlappt, die im Sichtfeld 37 des Bildsensors 14 liegt. In a further step S 20, a monitoring area 50 (in the image 36 or in the model) is defined, which is to be monitored by the virtual sensor 18 and which at least partially overlaps with one of the conveyor sections 28 that is in the field of view 37 of the image sensor 14.
Fig. 6 verdeutlicht die Einsatzmöglichkeiten des virtuellen Sensors 18, wenn Unstetigför derer eingesetzt werden. Fig. 6 illustrates the possible uses of the virtual sensor 18 when discontinuous conveyors are used.
Fig. 6A zeigt ein fahrerloses Transportfahrzeug, FTF 52 und mehrere Drohnen 54 in der Umgebung eines Regallagers. Es sind zwei zweidimensionale Überwachungsbereiche 50-1 und 50-2 veranschaulicht, die die Fahrstrecken 28 (strichpunktierte Linien) überlap pen bzw. von den Fahrstrecken 28 durchdrungen werden. Auch sind exemplarisch vier Markierungen M gezeigt, wobei die Markierungen M1 und M2 an einem Regal angebracht sind und die Markierungen M3 und M4 oben an einem Durchgang angebracht sind. Der Bereich 50-1 umgibt eine Vorderseite des Regals und wird daraufhin überwacht, ob das FTF 52 oder eine der Drohnen 54 sich durch den Bereich 50-1 bewegt. Der Bereich 50-3 ist dreidimensional definiert und kann z.B. eine Sicherheitszone darstellen, in die die Fahrzeuge 52 und 54 nicht eindringen dürfen, weil sich dort Menschen aufhalten könnten. 6A shows a driverless transport vehicle, AGV 52 and several drones 54 in the vicinity of a rack warehouse. Two two-dimensional monitoring areas 50 - 1 and 50 - 2 are illustrated, which overlap the routes 28 (dash-dotted lines) or are penetrated by the routes 28 . Also, four markers M are shown by way of example, with markers M1 and M2 attached to a shelf and markers M3 and M4 attached to the top of a passageway. The area 50-1 surrounds a front of the shelf and is monitored for whether the AGV 52 or one of the drones 54 is moving through the area 50-1. The area 50-3 is defined three-dimensionally and can represent, for example, a safety zone into which the vehicles 52 and 54 are not allowed to enter because people could be there.
Fig. 6B zeigt ebenfalls Fahrzeuge 52 und 54 in einer Außenumgebung. Die Fahrzeuge 52 und 54 können für die Zustellung von Paketen (Fördergut) eingesetzt werden. Die Berei che 50 repräsentieren Zwischenstationen, Ziele oder Sicherheitszonen. Die Überwachung der Bereiche 50 ist in einem Schritt S22 in Fig. 6 verdeutlicht. Die Überwachung erfolgt z.B. durch einen Vergleich von Bildern 36, die zu unterschiedlichen Zeiten aufgenommen wurden. Ein erstes Basisbild kann einen fördergutfreien Zustand zeigen, so dass sich ein Transport von Fördergüter jederzeit als Differenz zu diesem Urbild automatisiert erkennen lässt. 6B also shows vehicles 52 and 54 in an outdoor environment. Vehicles 52 and 54 can be used to deliver parcels (goods). The areas 50 represent waypoints, destinations or safety zones. The monitoring of the areas 50 is illustrated in a step S22 in FIG. Monitoring takes place, for example, by comparing images 36 that were recorded at different times. A first basic image can show a state that is free of conveyed goods, so that a transport of conveyed goods can be automatically recognized at any time as a difference to this original image.
Wenn eine Zustandsänderung festgestellt wird, kann die Steuerung 22 entsprechend auf den Materialfluss in einem optionalen Schritt S24 einwirken. Die Fahrzeuge 52 und 54 der Fig. 6 können z.B. angehalten oder Hinweis- und Warnsignale für Personen, z.B. Bewoh ner, erzeugt werden. Die Förderer 26 der Fig. 3 könnten angehalten oder beschleunigt werden. Das Fördergut könnte in Fig. 3 identifiziert werden, um nur einige Beispiele zu nennen. If a status change is detected, the controller 22 can act accordingly on the material flow in an optional step S24. For example, the vehicles 52 and 54 of Figure 6 may be stopped or alerting and warning signals may be generated to persons, such as residents. The conveyors 26 of Figure 3 could be stopped or accelerated. The item to be conveyed could be identified in FIG. 3, just to give a few examples.
Fig. 7 zeigt ein Blockdiagramm eines Systems 60 zum Definieren von virtuellen Sensoren 18 für ein Fördersystem 12, das mindestens eine Förderstrecke umfasst. FIG. 7 shows a block diagram of a system 60 for defining virtual sensors 18 for a conveyor system 12 that includes at least one conveyor line.
Das System 60 umfasst den Bildsensor 14, die Markierungen M, einen (Daten-)Speicher 62, die Bildverarbeitungseinrichtung 20, eine Koordinatentransformationseinrichtung 64 sowie eine Einrichtung 66 zum Definieren von virtuellen Sensoren. Mit Ausnahme der Markierungen M sind diese Komponenten miteinander verbunden, um Daten untereinan der auszutauschen. The system 60 comprises the image sensor 14, the markings M, a (data) memory 62, the image processing device 20, a coordinate transformation device 64 and a device 66 for defining virtual sensors. With the exception of the marks M, these components are connected to exchange data with each other.
Das System 60 ist an die Steuerung 22 der Fig. 1 koppelbar und erzeugt Steuersignale für die Aktuatoren 32 der Fig. 1. The system 60 can be coupled to the controller 22 of FIG. 1 and generates control signals for the actuators 32 of FIG. 1.
Der Bildsensor 14 kann wiederum durch eine Kamera 16 implementiert sein. The image sensor 14 can in turn be implemented by a camera 16 .
Im Datenspeicher 62 werden die Positionen der Referenzpunkte gespeichert, die im Referenzbezugssystem 30 bekannt sind. Die Bildverarbeitungseinrichtung 20 ist, wie in Fig. 1, eingerichtet, Positionen von Refe renzpunkten, die im Bild 36 identifizierbar sind, vorzugsweise mittels Mustererkennung, im Bezugssystem 30' des erzeugten Bilds 36 zu bestimmen. The positions of the reference points which are known in the reference reference system 30 are stored in the data memory 62 . As in FIG. 1, the image processing device 20 is set up to determine positions of reference points, which can be identified in the image 36, preferably by means of pattern recognition, in the reference system 30' of the image 36 generated.
Die Koordinatentransformationseinrichtung 64 ist eingerichtet, eine Koordinatentransfor- mation basierend auf den Positionen der Referenzpunkte in beiden Bezugssystemen 30 und 30' zu bestimmen, so dass jedem Bildpunkt des erzeugten Bilds 36 eine Koordinate 34 im Referenzbezugssystem 30 zuordenbar ist. The coordinate transformation device 64 is set up to determine a coordinate transformation based on the positions of the reference points in the two reference systems 30 and 30', so that each pixel of the generated image 36 can be assigned a coordinate 34 in the reference reference system 30.
Die Einrichtung 66 ist eingerichtet, einen Überwachungsbereich 50, vorzugsweise im Bild 36, zu definieren, der durch den virtuellen Sensor 18 zu überwachen ist und der sich zumindest teilweise mit einer der Förderstrecken 28 überlappt oder daran angrenzt, in dem Sichtfeld 37 des Bildsensors 14 liegt. Device 66 is set up to define a monitoring area 50, preferably in image 36, which is to be monitored by virtual sensor 18 and which at least partially overlaps with one of conveyor sections 28 or is adjacent thereto, in field of view 37 of image sensor 14 .
Es versteht sich, dass auch mehrere Bildsensoren/Kameras gleichzeitig eingesetzt werden können. Die Sichtfelder der Kameras dürfen sich überlappen. Wenn mehrere Kameras eingesetzt werden, können auch 3D-Positionen von sich bewegenden Objekten bestimmt werden. It goes without saying that several image sensors/cameras can also be used simultaneously. The fields of view of the cameras may overlap. If multiple cameras are used, 3D positions of moving objects can also be determined.

Claims

Patentansprüche patent claims
1. Verfahren zum Definieren eines virtuellen Sensors (18) in einem Fördersys tem (12), das mindestens eine Förderstrecke (28) aufweist, mit den Schritten: a) Bereitstellen eines Modells des Fördersystems (12), wobei das Modell zumindest eine Position, sowie vorzugsweise eine Ausrichtung und/oder eine Ab messung, von jeder der Förderstrecken (28) in einem Referenzbezugssystem (30), insbesondere im Bezugssystem (30) des Fördersystems (12), umfasst; b) Definieren (S10) von mindestens einem Referenzpunkt, insbesondere durch Positionieren von, vorzugsweise identischen, zusätzlichen Markierungen (M1, M2, M3), und Bestimmen einer Position für jeden definierten Referenzpunkt im Referenzbezugssystem (30); c) Positionieren eines Bildsensors (14) innerhalb des Fördersystems (12), vorzugsweise an einem beliebigen Ort, so dass zumindest eine der Förderstre cken (28) und mindestens einer der Referenzpunkte in einem Sichtfeld (37) des Bildsensors (14) liegen; d) Erzeugen eines Bilds (36) mit dem Bildsensor (14), nachdem der Bildsensor (14) positioniert ist; e) Identifizieren von Referenzpunkten im Bild (36) und Bestimmen von Po sitionen der identifizierten Referenzpunkte in einem Bezugssystem (30‘) des er zeugten Bildes (36); f) Bestimmen einer Koordinatentransformation, vorzugsweise mittels Bild verarbeitung, basierend auf den Positionen der Referenzpunkte in beiden Bezugs systemen (30, 30‘), so dass jedem Bildpunkt des erzeugten Bilds (36) eine Koordi nate (34) im Referenzbezugssystem (30) zuordenbar ist; und g) Definieren eines Überwachungsbereichs (50) im Bild (36), der durch den virtuellen Sensor (18) zu überwachen ist und der sich zumindest teilweise mit einer der Förderstrecken (28) überlappt, die im Sichtfeld (37) des Bildsensors (14) liegt, oder daran angrenzt. 1. A method for defining a virtual sensor (18) in a conveyor system (12), which has at least one conveyor section (28), with the steps: a) providing a model of the conveyor system (12), the model having at least one position, and preferably an alignment and/or a dimension of each of the conveyor sections (28) in a reference reference system (30), in particular in the reference system (30) of the conveyor system (12); b) defining (S10) at least one reference point, in particular by positioning of, preferably identical, additional markings (M1, M2, M3), and determining a position for each defined reference point in the reference reference system (30); c) Positioning an image sensor (14) within the conveyor system (12), preferably at any desired location, so that at least one of the conveyor stretches (28) and at least one of the reference points are in a field of view (37) of the image sensor (14); d) generating an image (36) with the image sensor (14) after the image sensor (14) is positioned; e) identifying reference points in the image (36) and determining positions of the identified reference points in a frame of reference (30') of the image (36) generated; f) determining a coordinate transformation, preferably by means of image processing, based on the positions of the reference points in both reference systems (30, 30'), so that each pixel of the generated image (36) can be assigned a coordinate (34) in the reference reference system (30). is; and g) defining a monitoring area (50) in the image (36) which is to be monitored by the virtual sensor (18) and which at least partially overlaps with one of the conveyor sections (28) which is in the field of view (37) of the image sensor (14 ) is located or adjacent to it.
2. Verfahren nach Anspruch 1 , das ferner den Schritt aufweist: 2. The method of claim 1, further comprising the step of:
Überwachen des für den virtuellen Sensor (18) definierten Bereichs (50) in einem aktuell erzeugten Bild (36) auf eine Zustandsänderung basierend auf einem Vergleich mit einem zeitlich früher erzeugten Bild (36). Monitoring the area (50) defined for the virtual sensor (18) in a currently generated image (36) for a change in state based on a comparison with an image (36) generated earlier in time.
3. Verfahren nach Anspruch 2, das ferner den Schritt aufweist: 3. The method of claim 2, further comprising the step of:
Erzeugen eines Steuersignals für einen Aktuator (32), der stromabwärts zum überwachten Bereich (50) angeordnet ist, wenn die Zustandsänderung aufge treten ist. generating a control signal for an actuator (32) located downstream of the monitored area (50) when the state change has occurred.
4. Verfahren nach Anspruch 2 oder 3, wobei die Zustandsänderung durch ein För dergut verursacht wird, das sich entlang der zumindest einen Förderstrecke (28), die im Sichtfeld (37) des Bildsensors (14) liegt, durch den für den virtuellen Sensor (18) definierten Bereich (50) bewegt. 4. The method according to claim 2 or 3, wherein the state change is caused by a conveyed dergut that is along the at least one conveying section (28), which is in the field of view (37) of the image sensor (14), by the virtual sensor ( 18) defined area (50) moves.
5. Verfahren nach einem der Ansprüche 1 bis 4, wobei jeder der Referenzpunkte im Schritt b) definiert wird, indem ein Bereich, insbesondere ein eindeutiges Identifika tionsmerkmal im erzeugten Bild (36) ausgewählt wird, der einer der Förderstrecken (28) zugeordnet ist und der für diese Förderstrecke (28) kennzeichnend ist. 5. The method according to any one of claims 1 to 4, wherein each of the reference points is defined in step b) by selecting an area, in particular a unique identification feature in the generated image (36), which is assigned to one of the conveyor sections (28) and which is characteristic of this conveyor section (28).
6. Verfahren nach einem der Ansprüche 1 bis 5, wobei wiederkehrend überprüft wird, ob sich die Positionen der Referenzpunkte im Bezugssystem des erzeugten Bildes geändert haben und, wenn sich die Koordinaten der Referenzpunkte im erzeugten Bild (36) verändert haben, erneutes Durchführen des Schritts f). 6. The method according to any one of claims 1 to 5, wherein it is repeatedly checked whether the positions of the reference points in the reference system of the generated image have changed and, if the coordinates of the reference points in the generated image (36) have changed, performing the step again f).
7. Verfahren nach einem der Ansprüche 1 bis 6, wobei dem Überwachungsbereich (50) ferner ein Sensortyp zugewiesen wird, der vorzugsweise eine Lichtschranke, ein Lichttaster oder ein Scanner ist. 7. The method according to any one of claims 1 to 6, wherein the monitored area (50) is also assigned a sensor type, which is preferably a light barrier, a light sensor or a scanner.
8. System zum Definieren eines virtuellen Sensors (18) für ein Fördersystem (12), das mindestens eine Förderstrecke (28) umfasst, wobei das System aufweist: mindestens einen Bildsensor (14), der in dem Fördersystem (12), das ein Referenzbezugssystem (30) definiert, positionierbar ist und der ein Sichtfeld (37) aufweist, so dass ein Bild (36) von zumindest einer der Förderstrecken (28) des Fördersystems (12) und von zumindest einem Referenzpunkt erzeugbar ist; eine Vielzahl von Markierungen (M), die als die Referenzpunkte innerhalb des Fördersystems (12) fest und unveränderlich an Positionen positionierbar sind, die im Referenzbezugssystem (30) bekannt sind; eine Einrichtung (62), die eingerichtet ist, die im Referenzbezugssystem (30) bekannten Positionen der Referenzpunkte zu speichern; eine Bildverarbeitungseinrichtung (20), die eingerichtet ist, Positionen von Referenzpunkten, die im Bild (36) identifizierbar sind, vorzugsweise mittels Mus- tererkennung, in einem Bezugssystem (30‘) des erzeugten Bildes (36) zu bestim men; eine Einrichtung, die eingerichtet ist, eine Koordinatentransformation basie rend auf den Positionen der Referenzpunkte in beiden Bezugssystemen (30, 30‘) zu bestimmen, so dass jedem Bildpunkt des erzeugten Bilds (36) eine Koordinate (34) im Referenzbezugssystem (30) zuordenbar ist; und eine Einrichtung, die eingerichtet ist, einen Überwachungsbereich (50) im Bild (36), zu definieren, der durch den virtuellen Sensor (18) zu überwachen ist und der sich zumindest teilweise mit einer der Förderstrecken (28) überlappt, die im Sichtfeld (37) des Bildsensors (14) liegt, oder daran angrenzt. 8. System for defining a virtual sensor (18) for a conveyor system (12) comprising at least one conveyor line (28), the system comprising: at least one image sensor (14) which is in the conveyor system (12) having a reference reference system (30) defined, positionable and a field of view (37) has, so that an image (36) of at least one of the conveyor sections (28) of the conveyor system (12) and of at least one reference point can be generated; a plurality of markers (M) fixedly and invariably positionable as the reference points within the conveyor system (12) at positions known in the reference frame (30); a device (62) which is set up to store the positions of the reference points which are known in the reference reference system (30); an image processing device (20) which is set up to determine positions of reference points which can be identified in the image (36), preferably by means of pattern recognition, in a reference system (30') of the generated image (36); a device that is set up to determine a coordinate transformation based on the positions of the reference points in both reference systems (30, 30'), so that each pixel of the generated image (36) can be assigned a coordinate (34) in the reference reference system (30). ; and a device that is set up to define a monitoring area (50) in the image (36), which is to be monitored by the virtual sensor (18) and which at least partially overlaps with one of the conveyor sections (28) that is in the field of view (37) of the image sensor (14) is, or adjacent to it.
PCT/EP2022/054703 2021-02-26 2022-02-24 Material flow control using virtual sensors WO2022180179A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP22712534.1A EP4154219A1 (en) 2021-02-26 2022-02-24 Material flow control using virtual sensors

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021104623.8A DE102021104623A1 (en) 2021-02-26 2021-02-26 Material flow control with virtual sensors
DE102021104623.8 2021-02-26

Publications (1)

Publication Number Publication Date
WO2022180179A1 true WO2022180179A1 (en) 2022-09-01

Family

ID=80937260

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2022/054703 WO2022180179A1 (en) 2021-02-26 2022-02-24 Material flow control using virtual sensors

Country Status (3)

Country Link
EP (1) EP4154219A1 (en)
DE (1) DE102021104623A1 (en)
WO (1) WO2022180179A1 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006015689A1 (en) 2006-03-28 2007-10-04 SSI Schäfer PEEM GmbH Commissioning system/picking system`s material handling equipment controlling method, involves continuously detecting up-to-date condition images of pre-determined areas of material handling equipment with camera
DE102007035272A1 (en) 2007-07-27 2009-01-29 Siemens Ag Method for identifying transported goods, in particular luggage
US20110019877A1 (en) * 2006-01-19 2011-01-27 Martin Kasemann Method and Apparatus For Monitoring a Production Line
JP2011195288A (en) * 2010-03-19 2011-10-06 Toshiba Elevator Co Ltd Man conveyer image processor
DE102011053547A1 (en) 2011-09-13 2013-03-14 Apologistics Gmbh Method and system for storing and picking articles, in particular pharmacy articles
DE102011055455A1 (en) 2011-11-17 2013-05-23 Apologistics Gmbh Arrangement for automatic packing of e.g. pharmacy articles in shipment box, has data processing unit calculating amount of material to fill free volume in container, and filling device for filling container with material in required amount
US8699758B2 (en) * 2010-11-18 2014-04-15 Axis Ab Object counter and method for counting objects
US20150041281A1 (en) * 2013-08-07 2015-02-12 Solystic Conveyor system including tracking of the conveyed articles by using imaging and virtual sensors
US20180033151A1 (en) * 2015-02-25 2018-02-01 Panasonic Intellectual Property Management Co., Ltd. Monitoring device and monitoring method
WO2018211072A1 (en) 2017-05-18 2018-11-22 Ssi Schäfer Automation Gmbh (At) Device and method for controlling a material flow at a material flow node point

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110019877A1 (en) * 2006-01-19 2011-01-27 Martin Kasemann Method and Apparatus For Monitoring a Production Line
DE102006015689A1 (en) 2006-03-28 2007-10-04 SSI Schäfer PEEM GmbH Commissioning system/picking system`s material handling equipment controlling method, involves continuously detecting up-to-date condition images of pre-determined areas of material handling equipment with camera
DE102007035272A1 (en) 2007-07-27 2009-01-29 Siemens Ag Method for identifying transported goods, in particular luggage
JP2011195288A (en) * 2010-03-19 2011-10-06 Toshiba Elevator Co Ltd Man conveyer image processor
US8699758B2 (en) * 2010-11-18 2014-04-15 Axis Ab Object counter and method for counting objects
DE102011053547A1 (en) 2011-09-13 2013-03-14 Apologistics Gmbh Method and system for storing and picking articles, in particular pharmacy articles
DE102011055455A1 (en) 2011-11-17 2013-05-23 Apologistics Gmbh Arrangement for automatic packing of e.g. pharmacy articles in shipment box, has data processing unit calculating amount of material to fill free volume in container, and filling device for filling container with material in required amount
US20150041281A1 (en) * 2013-08-07 2015-02-12 Solystic Conveyor system including tracking of the conveyed articles by using imaging and virtual sensors
US9365357B2 (en) 2013-08-07 2016-06-14 Solystic Conveyor system including tracking of the conveyed articles by using imaging and virtual sensors
US20180033151A1 (en) * 2015-02-25 2018-02-01 Panasonic Intellectual Property Management Co., Ltd. Monitoring device and monitoring method
WO2018211072A1 (en) 2017-05-18 2018-11-22 Ssi Schäfer Automation Gmbh (At) Device and method for controlling a material flow at a material flow node point

Also Published As

Publication number Publication date
EP4154219A1 (en) 2023-03-29
DE102021104623A1 (en) 2022-09-01

Similar Documents

Publication Publication Date Title
EP2675709B1 (en) Cargo loading system and method for controlling a multiple roller conveyor
EP2665646B1 (en) Loading system for an aircraft, and method for conveying a piece of cargo on a cargo deck
DE102010050461B3 (en) Storage and picking system and method for automatically configuring the system
DE102014016032B4 (en) Apparatus and method for picking up randomly heaped items with a robot
EP3316181B1 (en) Method for detecting objects in a bearing and industrial truck with a device for detecting objects in a storage location
EP2561417B1 (en) Method for inputting a spatial structure of production devices to a computer-aided planning program and for optimizing the latter
DE102007013299A1 (en) Sensor device and system with a conveyor and a sensor device
WO2005033734A1 (en) Transponder-assisted positioning system
EP3291144B1 (en) Rfid device and method for detecting compartment occupation
DE102018116611B4 (en) Method and system for controlling the material flow of objects in a real warehouse
DE10220936A1 (en) Localization device with fixed and / or variable landmarks
DE102017125103A1 (en) ADJUSTMENT DEVICE AND ADJUSTMENT SYSTEM FOR CONFIGURING ADJUSTMENTS FOR A MULTIPLE OF MACHINES
DE102018215560A1 (en) Procedures for coordinating and monitoring objects
DE102017110861A1 (en) Apparatus and method for controlling a flow of material at a material flow node
DE202014000433U1 (en) Device for detecting and displaying three-dimensional objects
DE10033857A1 (en) Storage system operating device is remotely controllable by operator via remote control unit; controller positions device coarsely, control unit automatically performs storage/extraction
WO2022180179A1 (en) Material flow control using virtual sensors
EP3974936A1 (en) Configuration of a visualisation device for a machine area
DE102020001213A1 (en) Position calculation system, position calculation method and automatically guided vehicle
DE202019102253U1 (en) Device for verifying storage goods positions in intralogistic storage systems
WO2020109116A1 (en) Method and system for controlling the material flow of objects in a conveyor system of a real warehouse
DE112021007260T5 (en) Alert control device, alert control method, alert control program and storage medium
DE102018204704A1 (en) System for monitoring a surveillance area
DE102019135620B4 (en) Optical teaching of camera-recorded routes
DE102016222156A1 (en) Method and control unit for controlling an autonomous transport vehicle

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22712534

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022712534

Country of ref document: EP

Effective date: 20221222

NENP Non-entry into the national phase

Ref country code: DE