WO2007065676A1 - Verfahren und vorrichtung zum bewegen einer auf einem schwenk-/neigekopf angeordneten kamera entlang einer vorgegebenen bewegungsbahn - Google Patents

Verfahren und vorrichtung zum bewegen einer auf einem schwenk-/neigekopf angeordneten kamera entlang einer vorgegebenen bewegungsbahn Download PDF

Info

Publication number
WO2007065676A1
WO2007065676A1 PCT/EP2006/011752 EP2006011752W WO2007065676A1 WO 2007065676 A1 WO2007065676 A1 WO 2007065676A1 EP 2006011752 W EP2006011752 W EP 2006011752W WO 2007065676 A1 WO2007065676 A1 WO 2007065676A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
robot
pan
movement path
tilt head
Prior art date
Application number
PCT/EP2006/011752
Other languages
English (en)
French (fr)
Inventor
Uwe Fritsch
Walter Honegger
Original Assignee
Kuka Roboter Gmbh
Cine-Tv Broadcast Systems Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=37899270&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2007065676(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Kuka Roboter Gmbh, Cine-Tv Broadcast Systems Gmbh filed Critical Kuka Roboter Gmbh
Priority to US12/096,228 priority Critical patent/US20080316368A1/en
Priority to EP06829375A priority patent/EP1958436A1/de
Publication of WO2007065676A1 publication Critical patent/WO2007065676A1/de

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices

Definitions

  • the invention relates to a method for moving a camera arranged on a pan / tilt head along a predetermined movement path, in particular in a set or studio, and a camera robot with a pan / tilt head designed to carry a camera, which is arranged on a mounting flange of a robot.
  • the invention can preferably be used in virtual studios, for example for news, reports, sports reports, and also for the creation of advertising programs and video clips, both in the form of live events and in the form of recordings.
  • Another area of application is film and post-production.
  • Production environments for audiovisual contributions are described as virtual studios, in which real backdrops and decorations are replaced or at least supplemented by computer-generated images.
  • sections of the virtual studio are replaced, among other things, by computer-generated, i.e. virtual images or graphics. This is currently done using the chroma key process. Newer processes provide for digital stamping techniques.
  • the virtual image sources can be weather maps, for example, which are added to a blue screen. Movements of the camera are not permitted for static virtual images. If the camera were moved, there would be perspective deviations between real and virtual parts of the image. As a result of the deviations in perspective, the uniform visual impression of an apparent real world is destroyed. This effect occurs particularly strongly when the camera pans.
  • Modern computer graphics can be used to create two- and three-dimensional virtualities, which can be inserted into a real image or a sequence of images synchronized with camera movements. It is for that however, it is necessary to be able to assign the spatial position and the orientation of the camera in space for each image to an image sequence, to each frame. Position and orientation are collectively referred to as a pose.
  • the recorded values of positions and orientations of the camera in space are also referred to as tracking data. Interpolated values can be added to the recorded values.
  • the movements of the real camera must be simulated in a virtual studio in order to determine the perspective that is suitable for a particular camera pose and to be able to generate the virtual images.
  • the simulation system must capture the poses of the real camera using camera tracking and then be able to simulate them.
  • WO 93/06690 A1 shows a remote-controlled tripod which is equipped with a television camera. Defined positions of the television camera are assigned to a large number of image settings by means of a control system. To do this, it is necessary to approach and save the individual positions.
  • the object of the invention is to provide a method and a camera robot, whereby a camera can be moved with repeatable accuracy along a predetermined movement path.
  • the repetition accuracy should preferably be possible with cameras that are moved automatically, but also with cameras that are to be driven manually.
  • the method according to the invention and the camera robot according to the invention can be used particularly advantageously in order to be able to use computer-generated virtual movement paths (offline programming) of a virtual camera directly on a real camera in a simulation, without having to carry out previous manual learning drives.
  • the object according to the invention is achieved in a generic method in that an assigned movement path for the spatial positions and orientations of a basic reference system of the pan / tilt head is determined from the predetermined movement path for the camera and from the determined movement path for the basic reference system of the Actuating variables assigned to the pan / tilt head for axes of a robot which can be moved in Cartesian coordinates and to the mounting flange of which the pan / tilt head is attached are generated and transmitted to the axes.
  • the pan / tilt head is guided through the robot in Cartesian coordinates along a movement path.
  • the repetition accuracy of the movement can be maintained particularly well by the movement in Cartesian coordinates.
  • An articulated arm robot is preferably used as the robot.
  • the articulated arm robot has in particular at least four and advantageously six axes of rotation.
  • the same camera poses can be achieved with different articulated positions of the articulated arm robot. This provides a camera robot that can be used in a particularly flexible manner, since it enables camera movements that were previously not possible with known systems.
  • driving commands can be generated from the associated position data that control a robot that guides the camera along the desired movement path.
  • the drive motors to be controlled by a controller preferably via servo amplifiers, are driven simultaneously, so that the axes of the robot can be moved simultaneously.
  • Each robot axis can be assigned its own controller and several controllers for several robot axes can be coupled or synchronized via suitable bus systems. According to the invention, it is also possible to provide a separate control for the drive of the robot axes and for the functions of the camera and the pan / tilt head.
  • the control of the functional unit camera and pan / tilt head can be connected to the control of the robot axes via suitable bus systems preferably ensure a coupled or synchronous operation.
  • the virtual trajectories or predefined trajectories generated in a simulation of a set or a studio can be fed directly to the robot in the real studio, so that the robot can guide the camera on the trajectory with repeat accuracy.
  • Desired speed or acceleration profiles can be assigned to the specified trajectories. Different speed or acceleration profiles can also be assigned to the same predefined movement path, and thus different camera movements with differently acting sequences can be generated in spite of the same movement path in space. The generated image sequences then have different dynamics.
  • the pan / tilt head which in addition to the relevant functions of Pan and TiIt can also have the roll function, forms the functional unit with the camera, which in particular can be controlled separately by the robot.
  • the camera can be oriented independently according to the known camera control methods. It is particularly advantageous that camera controls that are already on the market can continue to be used for functions such as pan, TiIt, roll, zoom, focus and iris. This is achieved in that the movement planning for the robot axes relate to a basic reference system of the pan / tilt head and not to the camera itself.
  • the basic reference system is a coordinate system that defines a fixed position in a part of the flange assigned to the mounting flange Has pan / tilt head.
  • the movement path for the camera or for the basic reference system of the pan / tilt head can be traversed in real time by manual movement by means of a control.
  • a control for this purpose, either the spatial position of the basic reference system of the pan / tilt head can be set, for example by means of a joystick or another hand-operated control unit, whereby the camera can be oriented independently according to the known camera guidance methods.
  • the spatial position of the camera can be set directly using the joystick or the hand-held control panel.
  • the movement path for the camera or for the basic reference system of the pan / tilt head is supplied from a simulation system of a virtual set or studio.
  • Sets that have already been created virtually in a simulation can be planned in advance within the simulation and the movement path of the camera can be calculated.
  • This virtually planned movement path of the camera can be fed to a controller for the robot and can be executed in real time, for example, so that the robot can guide the camera directly on the planned movement path.
  • the robot and / or the unit consisting of the camera and pan / tilt head is operated with a real-time controller.
  • This planned trajectory can be repeated by the robot as often as required and in the correct position without there being any deviations in the pose of the camera on the trajectory. Since the robot system according to the invention does not have any slip-prone components, it is possible to repeat the tracking of the camera on the movement path true to the path. Slip, such as in Travel stands with wheels are not present in a robot according to the invention.
  • the trajectory for the camera or for the basic reference system of the pan / tilt head can be stored in a controller for the robot as a preprogrammed trajectory pattern.
  • a user can do without complex and costly simulation programs and manual learning drives.
  • a movement path pattern can, for example, be a pre-programmed 360 ° swivel around a fixed point.
  • Another movement path pattern can be, for example, a linear drive past a fixed point.
  • the camera can optionally be focused on a spatial point in the drive-by. This allows users to use trajectories without having to pre-program them themselves.
  • a multiplicity of preprogrammed movement path patterns are stored in a controller for the robot.
  • a movement path pattern to be carried out can be activated by the user as required by selection on an operating device coupled to the control.
  • the preprogrammed movement path patterns can be stored in a memory that can be separated from the control. This enables a simple and inexpensive exchange of existing movement path patterns. Movement path patterns that are no longer required can be removed from the control so that these movement path patterns can no longer be activated. In addition, new trajectory patterns can be added.
  • the specification of fixed preprogrammed trajectory patterns increases the safety of the robot system, since the user has no influence whatsoever and therefore incorrectly programmed trajectory patterns that could represent a safety risk cannot be created at all.
  • the manipulated variables for axes of a first robot can be synchronized with manipulated variables of at least one second robot by means of a synchronous control.
  • the synchronization can take place, for example, by having several cameras off different positions are focused on a common object and when moving the object in space and tracking the object by means of a first camera, the other cameras keep the object in focus synchronously with the first camera.
  • Object tracking is possible with the method according to the invention or with one or more robots, also with the option of manual change.
  • a single robot can perform an automated movement in which the desired target object is always captured in the image of the camera and, in parallel, a person can manually control or edit the functions of the camera and / or the position of the pan / tilt head.
  • several cameras can be set up on a common target object, so that the same object is captured by the cameras simultaneously from different perspectives.
  • the multiple cameras can also be controlled in such a way that a target object is transferred from one camera to the next camera. This automatically enables object tracking over large distances.
  • the manipulated variables for axes of the at least one robot can advantageously be synchronized by means of a synchronous control with manipulated variables for travel drives of a mobile platform on which the robot is mounted.
  • the mobile platform can be an automatically movable tripod or a platform with an omnidirectional drive.
  • Mecanum wheels are preferably used.
  • the position of the mobile platform in the driving plane can be calibrated using position-known markers.
  • One or more optical targets attached in the driving plane of the mobile platform can be used as markers.
  • Each work location for the robot is preferably assigned its own target.
  • As a work location the basic position of the robot base is to be understood from which the camera movements are carried out within a set or studio.
  • the position and / or orientation of the camera in the room can optionally be determined using markers or wirelessly detectable position sensors. GPS sensors, for example, can be used as wireless position sensors.
  • the height of the camera can also be determined.
  • different camera altitudes can also be approached via the position of a height-adjustable tripod.
  • the axes of the robot are provided with different drive types and / or gear types depending on different application profiles.
  • gearboxes with a very high gear ratio that convert a maximum speed of the drive motor into a very low angular speed for the robot axis in question.
  • Camera movements in space with travel speeds between 0.01 cm / s and angular rotation speeds of 0.01 degrees / s are understood as very slow camera movements.
  • gear ratios with a lower gear ratio are preferably used, which enable high angular speeds for the robot axis in question.
  • Such high-speed movements are understood to mean camera movements in space with travel speeds between 2 m / s and angular speeds of 180 degrees / s.
  • Servomotors can be used, for example, for an application profile for tracking shots that require a low level of noise.
  • the servomotors are preferably operated via frequency converters with a frequency above 15 kilohertz.
  • the camera robots according to the invention can also be used in live recordings and live transmissions with sound, without disturbing noises which could be caused by drives of the camera robot.
  • frequency converters with a frequency above 15 kilohertz no audible noise is generated, so that costly sound insulation of the robot drives can be omitted.
  • harmonic drive gearboxes are preferably used, which enable very high speed ratios with little noise to be generated without play.
  • the inventive method for moving a camera arranged on a pan / tilt head along a predetermined movement path is assigned a camera robot according to the invention, which is equipped with a pan / tilt head designed for carrying a camera and which is arranged on a receiving flange of the robot, the Robot is preferably equipped with at least four axes of rotation. In a preferred embodiment, the robot has six axes of rotation. The robot can bring the camera into the same desired position with different positions of the robot. In this way, the camera can be brought into positions that cannot be reached with known camera tripods.
  • the camera robot can be connected to a controller which is designed to control further actuators for at least the pan and tilt functions of the pan / tilt head.
  • the controller can also be designed to control actuators for roll, camera, zoom, focus and / or iris.
  • the camera robot can be arranged on a linear or travel drive that can be controlled by the control.
  • a linear drive known in particular in robot technology can be provided in order to additionally increase the mobility of the robot system according to the invention.
  • Such a linear drive has the advantage that it enables a linear movement without slippage, as a result of which even large straight-line movements of the camera can be repeated in a precise position.
  • the camera robot can be arranged on a mobile platform.
  • the mobile platform is preferably an automatically movable tripod or a platform with an omnidirectional drive.
  • Mecanum wheels are preferably provided as drive wheels.
  • control can also be designed for the control of further external studio devices, such as video servers and video mixers.
  • the control can also be designed in such a way that it can be controlled by the external studio devices.
  • the accuracy of the camera robot control enables a connection to newsroom systems.
  • Fig. 1a is a schematic representation of the sequence of an inventive
  • FIG. 1 b shows a schematic representation of the sequence analogous to FIG. 1 a in an extended variant with the functions pivoting and tilting as additional axes;
  • Fig. 2 is a schematic representation of an inventive
  • FIG. 3 shows a side view of a camera robot according to the invention.
  • FIG. 4 shows the camera robot from FIG. 3 with an additional linear axis
  • FIG. 5 shows a camera robot according to the invention on a tripod.
  • the sequence of a method according to the invention is shown schematically in FIG. 1a.
  • a desired camera movement for a film sequence is planned in a TV studio 1 and a suitable movement path 2 is specified for a camera 3.
  • the method determines the positions and orientations of a basic reference system 4 in space from the predetermined movement path 2 for the camera 3.
  • the basic reference system 4 is located at a fixedly defined location on a pan / tilt head 5 to which the camera 3 is attached.
  • the basic reference system 4 is preferably provided on a connecting part 6 of the pan / tilt head 5.
  • the connecting part 6 is fixedly connected to a receiving flange 7 of a six-axis industrial robot 8.
  • the basic reference system 4 is coupled to the movements of the receiving flange 7 and thus corresponds to a receiving flange or tool tool center point (TCP) of the six-axis industrial robot 8.
  • the positions of the basic reference system 4 are in space defined by the three Cartesian spatial coordinates X 1 Y and Z.
  • the orientations of the basic reference system 4 in space are defined by the three rotations in the Cartesian spatial coordinate system.
  • the rotation around A preferably corresponds to a rotation around the Z axis
  • the rotation around B corresponds to a rotation around the Y axis
  • the rotation around C corresponds to a rotation around the X axis of the Cartesian spatial coordinate system.
  • the movement path 2 can be traced repeatedly as often as required, for example by assigning a specific position of the basic reference system 4 to a time cycle and processing the time cycles one after the other.
  • the time code is usually linked to the sequence of the film sequence.
  • a controller 9 for the six-axis industrial robot 8 can use suitable reverse transformation algorithms to determine the angular positions 10 of the robot axes A1, A2, A3, required for setting the respective position and orientation of the basic reference system 4. Determine A4, A5 and A6.
  • Corresponding manipulated variables for the axis drives 11 of the six-axis industrial robot 8 are generated from the calculated angular positions 10 via assigned servo amplifiers 12 and transmitted to the axis drives 11.
  • Figure 1 b shows an extended variant with the functions pan (pan) and tilt (tilt) as additional axes A7 and A8.
  • the trajectory 2 for the Camera 3 is not only determined by the position and orientation of the basic reference system 4, but also by additional degrees of freedom that are made possible by the pan / tilt head 5.
  • the pan function is defined as an additional axis A7 and the tilt function is defined by a further additional axis A8.
  • the chronological sequence of changes in the axes A7 and A8 are preferably carried out synchronously with the movements of the basic reference system 4.
  • at least one additional camera robot 13 can be used. The camera robot 13 serves to capture the film sequence from a different perspective.
  • the at least two movement paths obtained in this way can be carried out synchronously with one another.
  • the camera robot 13 is coupled to the six-axis industrial robot 8 via a synchronous control 14.
  • This synchronization preferably relates to a temporal synchronization of different movement path patterns of the six-axis industrial robot 8 and the camera robot 13.
  • the six-axis industrial robot 8 and the camera robot 13 can also be operated in such a way that they execute synchronous movement path patterns with a position offset.
  • FIG. 2 shows a schematic representation of a control system according to the invention.
  • the method according to the invention can be implemented in the controller 9.
  • the control 9 is located on a control computer, which is preferably assigned a “touchscreen interface”. Execution commands can be entered manually into the control via the touchscreen 14.
  • the movement paths 2 can be traversed, for example, by means of a manual control system 15.
  • the control system 15 can be designed as a "joystick panel”.
  • a selected camera can be moved manually in the room using the joystick. Instead of a joystick, a 6D mouse can also be used.
  • the movement paths 2 can also be fed to the controller 9 in a simulation system 16 of a virtual set in the studio 1.
  • a large number of preprogrammed movement path patterns can be stored in the controller 9.
  • the desired movement path pattern is selected via an operating device 17. Furthermore, external movement path patterns can be fed to the controller 9 via a preferably digital input and output interface 18. Pre-programmed movement path patterns can be carried out in a manner controlled by the controller 9 removable memory 19 may be stored. Various memories 19 can be selectively fed to the controller 9. For this purpose, either a single slot 20 can be provided on the controller 9, into which the selected memory 19 is inserted and the corresponding movement path pattern of the controller 9 is implemented, or a plurality of slots 20 are provided for a plurality of memories 19, so that one group of movement path patterns can be present in the controller 9 and the desired movement path is selected by making a corresponding selection on the operating device 17.
  • the servo amplifiers 12 are controlled via a multi-axis controller 21 (multi-axis controller) and the associated axis drives 11 are moved.
  • the robot axes A1, A2, A3, A4, A5 and A6 of the six-axis industrial robot 8 are controlled.
  • the axis A7 is used to adjust the panning and the axis A8 to adjust the inclination of the camera 3.
  • two additional axes A9 and A10 are shown as examples, which are optionally available for other camera functions such as roles, camera on / off, zoom, focus and / or Iris can be used.
  • FIG. 3 shows a six-axis industrial robot 8 according to the invention in the form of an articulated arm robot.
  • a carousel 22 is rotatably connected to a base 23 via the axis A1.
  • a swing arm 24 is articulated on the carousel 22 via the axis A2.
  • an arm 25 is rotatably mounted about the axis A3.
  • a central hand 26 can be rotated about its longitudinal extent via the axis A4.
  • the central hand 26 has a further axis A5, on which the receiving flange 7 is pivotally mounted.
  • the receiving flange 7 itself can carry out a further rotation about the axis 6.
  • the pan / tilt head 5 is fastened to the receiving flange 7.
  • the pan / tilt head 5 has a connection plate 27 which is rigidly connected to the receiving flange 7.
  • the basic reference system 4 is bound to the connection plate 27.
  • a pivot structure 28 is pivotally mounted on the connection plate 27 via the axis A7.
  • the swivel structure 28 carries a camera holder 29 on which the camera 3 is attached.
  • the camera holder 29 can be inclined relative to the swivel structure 28 by means of the axis A8.
  • FIG. 4 shows the six-axis industrial robot 8 from FIG. 3, the base frame 23, in contrast to FIG. 3, not being fixedly mounted on a base, but being arranged on a linear axis 30.
  • the linear axis 30 can be regarded as an additional axis A9, which can be managed by the controller 9 in the same way as other additional functions.
  • the six-axis industrial robot 8 can also be mounted on a manually or automatically movable tripod, as shown schematically in FIG.
  • the travel stand can be a manually displaceable undercarriage which has steerable wheels.
  • driverless transport systems known per se can be used which have wheels which can be driven by an automatic drive control.
  • the drive control can in all cases be connected via a synchronous control 14 to the six-axis industrial robot 8 and the pan / tilt head 5 of the camera 3, so that the axes A1 to A6 of the six-axis industrial robot 8 with the axes A7 and A8 of the pan- / Tilt head 5 of the camera 3 and the wheel drives of the platform 32 can be moved synchronously.
  • the six-axis industrial robot 8 is arranged on a mobile platform 32, which are driven by means of wheel drives in the form of omnidirectional wheels 33.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Accessories Of Cameras (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Bewegen einer auf einem Schwenk-/Neigekopf angeordneten Kamera entlang einer vorgegebenen Bewegungsbahn insbesondere in einem Set oder Studio und einen zugehörigen Kameraroboter. Um eine Kamera entlang einer vorgegeben Bewegungsbahn wiederholgenau bewegen zu können, wird vorgeschlagen, aus der vorgegebenen Bewegungsbahn für die Kamera eine zugeordnete Bewegungsbahn für die räumlichen Positionen und Orientierungen eines Basisbezugs-Systems des Schwenk-/Neigekopfes zu bestimmen und aus der bestimmten Bewegungsbahn für das Basisbezugs-System des Schwenk-/Neigekopfes zugeordnete Stellgrößen für Achsen eines in kartesischen Koordinaten fahrbaren Roboters zu erzeugen und an die Achsen zu übertragen. Dadurch können Kamerafahrten realisiert werden, die mit bekannten Systemen bisher nicht möglich waren.

Description

Verfahren und Vorrichtung zum Bewegen einer auf einem Schwenk-/Neigekopf angeordneten Kamera entlang einer vorgegebenen Bewegungsbahn
Die Erfindung betrifft ein Verfahren zum Bewegen einer auf einem Schwenk- /Neigekopf angeordneten Kamera entlang einer vorgegebenen Bewegungsbahn insbesondere in einem Set oder Studio und einen Kameraroboter mit einem zum Tragen einer Kamera ausgebildeten Schwenk-/Neigekopf, der an einem Aufnahmeflansch eines Roboters angeordnet ist.
Die Erfindung kann vorzugsweise in virtuellen Studios eingesetzt werden, zum Beispiel für Nachrichten, Berichterstattungen, Sportreportagen, und auch für die Erstellung von Werbesendungen und Videoclips, sowohl in Form von Live- Veranstaltungen, als auch in Form von Aufzeichnungen. Ein weiterer Anwendungsbereich ist die Film- und Postproduction.
Als virtuelles Studio werden Produktionsumgebungen für audiovisuelle Beiträge bezeichnet, bei denen reale Kulissen und Dekorationen durch computergenerierte Bilder ersetzt oder zumindest ergänzt werden. Dabei werden Raumabschnitte des virtuellen Studios, unter anderem durch computergenerierte, also virtuelle Bildern oder Grafiken ersetzt. Derzeit geschieht dies im Chroma-Key-Verfahren. Neuere Verfahren sehen digitale Stanztechniken vor.
Die virtuellen Bildquellen können beispielsweise Wetterkarten sein, die auf eine Blue- Screen hinzugefügt werden. Bei statischen virtuellen Bildern sind Bewegungen der Kamera nicht erlaubt. Würde die Kamera bewegt werden, so käme es zu perspektivischen Abweichungen zwischen realen und virtuellen Bildanteilen. In Folge der perspektivischen Abweichungen wird der einheitliche bildliche Eindruck einer scheinbaren realen Welt zerstört. Dieser Effekt tritt besonders stark bei Schwenkbewegungen der Kamera ein.
Durch moderne Computergrafik können zwei- und dreidimensionale Virtualitäten erzeugt werden, die synchronisiert mit Kamerabewegungen in ein real aufgenommenes Bild bzw. in eine Bildfolge eingefügt werden können. Dazu ist es jedoch erforderlich die räumliche Position und die Orientierung der Kamera im Raum für jedes Bild einer Bildfolge, jedem so genannten Frame zuordnen zu können. Position und Orientierung werden gemeinsam auch als Pose bezeichnet. Die erfassten Werte von Positionen und Orientierungen der Kamera im Raum werden auch als Tracking-Daten bezeichnet. Die erfassten Werte können um interpolierte Werte erweitert werden. Die Bewegungen der realen Kamera müssen in einem virtuellen Studio simuliert werden, um die zu einer bestimmten Kamerapose passende Perspektive bestimmen und die virtuellen Bilder erzeugen zu können. Das Simulationssystem muss dabei die Posen der realen Kamera durch ein Kamera- Tracking erfassen und anschließend simulieren können.
Für handgeführt Kameras existieren Tracking-Systeme, die beispielsweise mittels Infarot-Messkameras die Pose einer Kamera in allen sechs Freiheitsgraden bestimmen können und damit ein Motion-Tracking erlauben. Mit einer handgeführten Kamera ist es jedoch nahezu unmöglich, eine bestimmte vorgegebene, bzw. bereits einmal ausgeführte Bewegungsbahn exakt wiederholen zu können.
Automatisch geführte Kameras können bereits einmal ausgeführte Bewegungsbahnen exakt wiederholen. Dazu ist die Kamera auf einem Fahrstativ angebracht. WO 93/06690 A1 zeigt ein fernsteuerbares Fahrstativ, das mit einer Fernsehkamera ausgestattet ist. Einer Vielzahl von Bildeinstellungen werden mittels eines Steuerungssystems definierte Positionen der Fernsehkamera zugeordnet. Dazu ist es erforderlich, die einzelnen Positionen anzufahren und abzuspeichern.
Aufgabe der Erfindung ist es, ein Verfahren und einen Kameraroboter zur Verfügung zu stellen, wodurch eine Kamera entlang einer vorgegeben Bewegungsbahn wiederholgenau bewegt werden kann.
Die Wiederholgenauigkeit soll vorzugsweise bei automatisiert bewegten Kameras, aber auch bei manuell zu fahrenden Kameras möglich sein. Besonders vorteilhaft kann das erfindungsgemäße Verfahren und der erfindungsgemäße Kameraroboter dazu eingesetzt werden, in einer Simulation rechnerisch erzeugte virtuelle Bewegungsbahnen (Offline-Programmierung) einer virtuellen Kamera unmittelbar auf eine reale Kamera anwenden zu können, ohne vorherige manuelle Lernfahrten durchführen zu müssen. Die erfindungsgemäße Aufgabe wird in einem gattungsgemäße Verfahren dadurch gelöst, dass aus der vorgegebenen Bewegungsbahn für die Kamera eine zugeordnete Bewegungsbahn für die räumlichen Positionen und Orientierungen eines Basisbezugs-Systems des Schwenk-/Neigekopfes bestimmt werden und aus der bestimmten Bewegungsbahn für das Basisbezugs-System des Schwenk- /Neigekopfes zugeordnete Stellgrößen für Achsen eines in kartesischen Koordinaten fahrbaren Roboters, an dessen Aufnahmeflansch der Schwenk-/Neigekopf befestigt ist, erzeugt und an die Achsen übertragen werden.
Der Schwenk-/Neigekopf ist erfindungsgemäß in kartesischen Koordinaten entlang einer Bewegungsbahn durch den Roboter geführt. Durch die Bewegung in kartesischen Koordinaten kann die Wiederholgenauigkeit der Bewegung besonders gut eingehalten werden.
Als Roboter wird vorzugsweise ein Knickarmroboter eingesetzt. Der Knickarmroboter weist insbesondere wenigstens vier und in vorteilhafter Weise sechs Drehachsen auf. Durch die Verwendung eines Knickarmroboters können dieselben Kameraposen mit unterschiedlichen Gelenkstellungen des Knickarmroboters erreicht werden. Damit wird ein Kameraroboter zur Verfügung gestellt, der besonders flexible eingesetzt werden kann, da mit ihm Kamerafahrten möglich sind, die mit bekannten Systemen bisher nicht möglich waren.
Ist eine entlang einer Bewegungsbahn abzulaufende Abfolge von Positionen und Orientierungen einer Kamera bekannt, so können aus den zugehörigen Positionsdaten Fahrbefehle generiert werden, die einen Roboter steuern, der die Kamera entlang der gewünschten Bewegungsbahn führt. Die von einer Steuerung vorzugsweise über Servo-Verstärker anzusteuernden Antriebsmotoren werden simultan angetrieben, so dass die Achsen des Roboters simultan bewegt werden können. Es kann jeder Roboterachse eine eigene Steuerung zugeordnet sein und mehrere Steuerungen für mehrere Roboterachsen über geeignete Bussysteme gekoppelt oder synchronisiert sein. Erfindungsgemäß ist es auch möglich, eine eigene Steuerung für den Antrieb der Roboterachsen und für die Funktionen der Kamera und des Schwenk-/Neigekopfes eine separate Steuerung vorzusehen. Die Steuerung der funktionellen Einheit Kamera und Schwenk-/Neigekopf kann mit der Steuerung der Roboterachsen über geeignete Bussysteme verbunden sein, die vorzugsweise einen gekoppelten oder synchronen Betrieb sicherstellen. So können beispielsweise die in einer Simulation eines Sets oder eines Studios erzeugte virtuelle Bewegungsbahnen oder vorgegebene Bewegungsbahnen, im realen Studio dem Roboter unmittelbar zugeführt werden, so dass dieser die Kamera auf der Bewegungsbahn wiederholgenau führen kann.
Den vorgegebenen Bewegungsbahnen können gewünschte Geschwindigkeits- bzw. Beschleunigungsprofile zugeordnet werden. Es können auch der selben vorgegebenen Bewegungsbahn verschiedene Geschwindigkeits- bzw. Beschleunigungsprofile zugeordnet werden und damit trotz gleicher Bewegungsbahn im Raum verschiedene Kamerafahrten mit unterschiedlich wirkenden Sequenzen erzeugt werden. Die erzeugten Bildsequenzen weisen dann eine unterschiedliche Dynamik auf.
Für die Kopplung von Kamera und Roboter ist es wesentlich, dass zwischen Kamera und Aufnahmeflansch des Roboters ein Schwenk-/Neigekopf vorgesehen ist. Der Schwenk-/Neigekopf, der neben den diesbezüglichen Funktionen von Pan und TiIt auch zusätzlich über die Funktion Roll verfügen kann, bildet erfindungsgemäß mit der Kamera die funktionelle Einheit, die insbesondere separat vom Roboter angesteuert werden kann. Dadurch kann zusätzlich zu einer durch die Roboterstellung vorgegeben Raumpose eine unabhängige Orientierung der Kamera gemäß den bekannten Kameraführungsmethoden erfolgen. Besonders vorteilhaft ist es, dass bereits auf dem Markt befindliche Kamerasteuerungen weiterhin für die Funktionen wie bspw. Pan, TiIt, Roll, Zoom, Fokus und Iris eingesetzt werden können. Dies wird dadurch erreicht, dass die Bewegungsplanung für die Roboterachsen sich auf ein Basisbezugs-System des Schwenk-/Neigekopfes beziehen und nicht auf die Kamera selbst. Als Basisbezugs-System wird ein Koordinatensystem bezeichnet, das eine feste Lage in einem dem Aufnahmeflansch zugeordneten Teil des Schwenk-/Neigekopfes aufweist. Durch die Verwendung eines Roboters können nicht nur Bewegungsbahnen abgefahren werden, die mit üblichen Systemen, wie den bekannten Fahrstativen nicht möglich sind. Aufgrund der Vielzahl von Achsen eines Roboters kann dieselbe räumliche Position über unterschiedliche Kombinationen von Achsstellungen durch mehrere Stellungen des Roboters eingenommen werden. So können auch Positionsabfolgen gefahren werden, die mit den bekannten Systemen nicht möglich sind. Mit dem erfindungsgemäßen Verfahren erzielbare Kamerafahrten können nicht nur in virtuellen Studios eingesetzt werden, sondern beispielsweise auch in Livesendungen bzw. Sportübertragungen bisher nicht realisierbare wiederholgenaue Kamerafahrten ermöglichen. Die bekannten Systeme ohne Fahrstative sind nur Bewegungen in vertikaler Richtung und Schwenks um die vertikale Richtung (Pan) möglich. Für lineare Bewegungen in der Horizontalen sind dann Fahrstative erforderlich. Bei Verwendung eines erfindungsgemäßen Roboters sind auch bei feststehendem Roboter lineare Kamerafahrten in horizontaler Richtung möglich, ohne ein aufwendiges Fahrstativ zu benötigen.
In einer vorteilhaften Ausgestaltung der Erfindung ist die Bewegungsbahn für die Kamera oder für das Basisbezugs-System des Schwenk-/Neigekopfes durch manuelles Bewegen mittels einer Steuerung in Echtzeit abfahrbar. Dazu kann entweder die räumliche Lage des Basisbezugs-Systems des Schwenk-/Neigekopfes beispielsweise mittels eines Joysticks oder eines anderen handgeführten Bedienteils eingestellt werden, wobei eine unabhängige Orientierung der Kamera gemäß den bekannten Kameraführungsmethoden erfolgen kann. Oder es kann die räumliche Lage der Kamera direkt mittels des Joysticks oder des handgeführten Bedienteils eingestellt werden.
In einer weiteren bevorzugten Ausgestaltung der Erfindung wird die Bewegungsbahn für die Kamera oder für das Basisbezugs-System des Schwenk-/Neigekopfes aus einem Simulations-System eines virtuellen Sets oder Studios zugeführt. In einer Simulation bereits virtuell erstellte Sets können noch innerhalb der Simulation vorausgeplant und die Bewegungsbahn der Kamera berechnet werden. Diese virtuell geplante Bewegungsbahn der Kamera kann einer Steuerung für den Roboter zugeführt und beispielsweise in Echtzeit ausgeführt werden, so dass der Roboter die Kamera unmittelbar auf der geplanten Bewegungsbahn führen kann. Für einen Echtzeitbetrieb wird der Roboter und/oder die Einheit aus Kamera und Schwenk- /Neigekopf mit einer echtzeitfähigen Steuerung betrieben. Diese geplante Bewegungsbahn kann durch den Roboter beliebig oft und positionstreu wiederholt werden, ohne dass es zu Abweichungen in der Pose der Kamera auf der Bewegungsbahn kommt. Da das erfindungsgemäße Robotersystem keine schlupfbehafteten Komponenten aufweist, ist eine bahntreue Wiederholbarkeit der Kamerafahrt auf der Bewegungsbahn möglich. Schlupf, wie er beispielsweise in Fahrstativen mit Rädern vorhanden ist, kann bei einem erfindungsgemäßen Roboter nicht auftreten.
Alternativ kann die Bewegungsbahn für die Kamera oder für das Basisbezugs- System des Schwenk-/Neigekopfes als vorprogrammiertes Bewegungsbahnmuster in einer Steuerung für den Roboter hinterlegt sein. Durch die Hinterlegung von vorprogrammierten Bewegungsbahnmustern kann ein Anwender auf aufwendige und kostenintensive Simulationsprogramme und manuelle Lernfahrten verzichten. Ein Bewegungsbahnmuster kann beispielsweise ein vorprogrammierter 360°-Schwenk um einen Fixpunkt sein. Ein anderes Bewegungsbahnmuster kann beispielsweise eine lineare Vorbeifahrt an einem Fixpunkt sein. Dabei kann optional in der Vorbeifahrt die Kamera auf einen Raumpunkt fokussiert sein. Somit können Anwender Bewegungsbahnen benutzen, ohne diese selbst vorprogrammieren zu müssen.
In einer vorteilhaften Weiterbildung sind in einer Steuerung für den Roboter eine Vielzahl von vorprogrammierten Bewegungsbahnmustern hinterlegt. Ein durchzuführendes Bewegungsbahnmuster kann vom Benutzer je nach Bedarf durch Auswahl an einem mit der Steuerung gekoppelten Bediengerät aktiviert werden.
Die vorprogrammierten Bewegungsbahnmuster können in einem von der Steuerung abtrennbaren Speicher abgelegt sein. Dies ermöglicht einen einfachen und kostengünstigen Austausch existierender Bewegungsbahnmuster. Es können nicht mehr benötigte Bewegungsbahnmuster aus der Steuerung entfernt werden, so dass diese Bewegungsbahnmuster nicht mehr aktiviert werden können. Zusätzlich können neue Bewegungsbahnmuster hinzugefügt werden. Die Vorgabe von festen vorprogrammierten Bewegungsbahnmustern erhöht die Sicherheit des Robotersystems, da dem Benutzer jede Einflussnahme verwert ist und somit fehlerhaft programmierte Bewegungsbahnmuster, die ein Sicherheitsrisiko darstellen könnten, erst gar nicht erstellt werden können.
In Anwendungen mit mehreren Kameras in einem Set oder Studio können die Stellgrößen für Achsen eines ersten Roboters mittels einer Synchronsteuerung mit Stellgrößen mindestens eines zweiten Roboters synchronisiert werden. Die Synchronisation kann beispielsweise dadurch erfolgen, dass mehrere Kameras aus unterschiedlichen Positionen auf ein gemeinsames Objekt fokussiert sind und bei Bewegen des Objektes im Raum und einer Verfolgung des Objektes mittels einer ersten Kamera, die weiteren Kameras synchron zur ersten Kamera das Objekt im Fokus behalten.
Ein Objekt-Tracking ist mit dem erfindungsgemäßen Verfahren bzw. mit einem oder mehreren Robotern möglich, auch mit der Option der manuellen Veränderung. So kann beispielsweise ein einzelner Roboter eine automatisierte Bewegung ausführen, bei der das gewünschte Zielobjekt stets im Bild der Kamera eingefangen bleibt und parallel dazu kann eine Person die Funktionen der Kamera und/oder die Stellung des Schwenk-/Neigekopfes manuell steuern bzw. editieren. Bei Verwendung von mehreren Robotern bzw. robotischen Kameras können mehrere Kameras auf ein gemeinsames Zielobjekt eingerichtet sein, so dass das selbe Objekt zeitgleich aus unterschiedlichen Perspektiven von den Kameras eingefangen wird. Die mehreren Kameras können jedoch auch so angesteuert sein, dass ein Zielobjekt von einer Kamera auf eine nächste Kamera übergeben wird. Dadurch wird ein Objekt-Tracking über große Distanzen automatisiert möglich.
In vorteilhafter Weise können die Stellgrößen für Achsen des mindestens einen Roboters mittels einer Synchronsteuerung mit Stellgrößen für Fahrantriebe einer fahrbaren Plattform, auf welcher der Roboter montiert ist, synchronisiert werden.
Die fahrbare Plattform kann ein automatisch verfahrbares Fahrstativ oder eine Plattform mit omnidirektionalem Antrieb sein.
In der Ausgestaltung als omnidirektionaler Antrieb werden vorzugsweise Mecanumräder verwendet.
Zur Verbesserung der Positionsgenauigkeit oder auch zur Schlupfkorrektur kann die Position der fahrbaren Plattform in der Fahrebene mittels positionsbekannter Marker kalibriert wird.
Als Marker können ein oder mehrere in der Fahrebene der fahrbaren Plattform befestigte optische Targets verwendet werden. Vorzugsweise wird jedem Arbeitsstandort für den Roboter ein eigenes Target zugeordnet. Als Arbeitsstandort ist dabei die Grundposition der Roboterbasis zu verstehen, von der aus innerhalb eines Sets oder Studios die Kamerafahrten ausgeführt werden.
Die Lage und/oder Orientierung der Kamera im Raum kann optional mittels Marker oder drahtlos detektierbarer Positionssensoren bestimmt werden. Als drahtlose Positionssensoren können beispielsweise GPS-Sensoren verwendet werden. Neben der Position der Roboterbasis kann dadurch beispielsweise auch die Höhenlage der Kamera bestimmt werden. Unterschiedliche Höhenlagen der Kamera können neben der Positionseinstellung über die Achswinkelstellungen des Roboters auch über die Position eines höhenverstellbaren Stativs angefahren werden.
In einer bevorzugten Variante des erfindungsgemäßen Verfahrens werden die Achsen des Roboters in Abhängigkeit verschiedener Anwendungsprofile mit unterschiedlichen Antriebstypen und/oder Getriebetypen versehen. So kann es für Anwendungsfälle, in denen besonders langsame Kamerafahrten erforderlich sind, von Vorteil sein, sehr hoch untersetzte Getriebe zu verwenden, die eine maximale Drehzahl des Antriebsmotors in eine sehr geringe Winkelgeschwindigkeit für die betreffende Roboterachse umwandelt. Als sehr langsame Kamerafahrten werden Kamerabewegungen im Raum mit Fahrgeschwindigkeiten zwischen 0,01 cm/s bzw. Winkeldrehgeschwindigkeiten von 0,01 grad/s verstanden. In anderen Anwendungsfällen, wie beispielsweise bei Objektverfolgungen in Hochgeschwindigkeitsbewegungen werden vorzugsweise geringer untersetze Getriebe verwendet, die hohe Winkelgeschwindigkeit für die betreffende Roboterachse ermöglichen. Bei solchen Hochgeschwindigkeitsbewegungen werden Kamerabewegungen im Raum mit Fahrgeschwindigkeiten zwischen 2 m/s bzw. Winkeldrehgeschwindigkeiten von 180 grad/s verstanden.
Bei einem Anwendungsprofil für Kamerafahrten, die eine hohe Geräuscharmut voraussetzen, können beispielsweise Servomotoren eingesetzt werden. Die Servomotoren werden bevorzugt über Frequenzumrichter mit einer Frequenz über 15 Kilohertz betrieben. So können die erfindungsgemäßen Kameraroboter auch bei vertonten Live-Aufnahmen und Live-Übertragungen verwendet werden, ohne dass störende Geräusche, die von Antrieben des Kameraroboters verursacht könnten gestört werden. Durch den Betrieb von Frequenzumrichter mit einer Frequenz über 15 Kilohertz werden keine hörbaren Störgeräusche erzeugt, so dass aufwendige Schallisolierungen der Roboterantriebe entfallen können.
Bei einem Anwendungsprofil für Kamerafahrten geringer Geschwindigkeiten und hoher Geräuscharmut werden vorzugsweise Harmonic-Drive-Getriebe eingesetzt, die bei geringer Geräuschentwicklung sehr hohe Drehzahlübersetzungen spielfrei ermöglichen.
Dem erfindungsgemäßen Verfahren zum Bewegen einer auf einem Schwenk- /Neigekopf angeordneten Kamera entlang einer vorgegebenen Bewegungsbahn ist ein erfindungsgemäßer Kameraroboter zugeordnet, der mit einem zum Tragen einer Kamera ausgebildeten Schwenk-/Neigekopf ausgestattet ist, der an einem Aufnahmeflansch des Roboters angeordnet ist, wobei der Roboter vorzugsweise mit mindestens vier Drehachsen ausgestattet ist. In einer bevorzugten Ausgestaltung weist der Roboter sechs Drehachsen aufweist. Der Roboter kann dabei die Kamera mit unterschiedlichen Stellungen des Roboters in die selbe gewünschte Position bringen. So kann die Kamera in Positionen gebracht werden, die mit bekannten Kamerastativen nicht erreichbar sind.
Zur Flexibilisierung des Kamerasystems kann der Kameraroboter mit einer Steuerung verbunden sein, die zum Ansteuern weiterer Stelltriebe für mindestens die Funktionen Pan und TiIt des Schwenk-/Neigekopfes ausgebildet ist.
Die Steuerung kann zusätzlich zum Ansteuern von Stelltrieben für Roll, Kamera, Zoom, Fokus und/oder Iris ausgebildet sein.
Ergänzend kann der Kameraroboter auf einem Linear- oder Fahrantrieb angeordnet sein, der von der Steuerung ansteuerbar ist. Ein insbesondere in der Robotertechnik bekannter Linearantrieb kann vorgesehen werden, um die Beweglichkeit des erfindungsgemäßen Robotersystems zusätzlich zu erhöhen. Ein solcher Linearantrieb hat den Vorteil, dass er schlupffrei eine lineare Bewegung ermöglich, wodurch auch große geradlinige Bewegungen der Kamera positionsgenau wiederholt werden können. In einer alternativen Ausgestaltung der Erfindung kann der Kameraroboter auf einer fahrbaren Plattform angeordnet sein.
Die fahrbare Plattform ist vorzugsweise ein automatisch verfahrbares Fahrstativ oder eine Plattform mit omnidirektionalem Antrieb.
Ist der Antrieb als omnidirektionaler Antrieb ausgelegt, so sind vorzugsweise Mecanumräder als Antriebsräder vorgesehen.
Die Steuerung kann neben der Kameraführung und der Ansteuerung der Stelltriebe für Roll, Kamera, Zoom, Fokus und/oder Iris auch für die Steuerung weiterer externer Studiogeräte, wie bspw. Videoserver und Videomischer ausgelegt sein. Auch kann die Steuerung so ausgelegt sein, dass sie ihrerseits von den externen Studiogeräten angesteuert werden kann. Durch die Genauigkeit der Kamerarobotersteuerung ist eine Anbindung an Newsroom-Systeme möglich.
Die Erfindung ist anhand von Ausführungsbeispielen im Folgenden näher erläutert.
Es zeigen:
Fig. 1a eine schematische Darstellung des Ablaufs eines erfindungsgemäßen
Verfahrens in einer Grundvariante;
Fig. 1 b eine schematische Darstellung des Ablaufs analog Fig. 1a in einer erweiterten Variante mit den Funktionen Schwenken und Neigen als zusätzliche Achsen;
Fig. 2 eine schematische Darstellung eines erfindungsgemäßen
Steuerungssystems;
Fig. 3 eine Seitenansicht eines erfindungsgemäßen Kameraroboters, und
Fig. 4 den Kameraroboter aus Figur 3 mit einer zusätzlichen Linearachse;
Fig. 5 einen erfindungsgemäßen Kameraroboter auf einem Fahrstativ. In Figur 1a ist schematisch der Ablauf eines erfindungsgemäßen Verfahrens dargestellt. In einem TV-Studio 1 wird eine gewünschte Kamerafahrt für eine Filmsequenz geplant und eine dazu passende Bewegungsbahn 2 für eine Kamera 3 vorgegeben. Das Verfahren bestimmt aus der vorgegebenen Bewegungsbahn 2 für die Kamera 3 die Positionen und Orientierungen eines Basisbezugs-Systems 4 im Raum. Das Basisbezugs-System 4 befindet sich, wie in Figur 2 gezeigt, an einer fest definierten Stelle eines Schwenk-/Neigekopfes 5, an dem die Kamera 3 befestigt ist. Das Basisbezugs-System 4 ist bevorzugt an einem Anschlussteil 6 des Schwenk- /Neigekopfes 5 vorgesehen. Das Anschlussteil 6 ist fest mit einem Aufnahmeflansch 7 eines Sechsachs-Industrieroboter 8 verbunden. Das Basisbezugs-Systems 4 ist in dieser Ausführungsform insoweit an die Bewegungen des Aufnahmeflansches 7 gekoppelt und entspricht damit einem Aufnahmeflansch- oder Werkzeug-Tool- Center-Point (TCP) des Sechsachs-Industrieroboter 8. Die Positionen des Basisbezugs-Systems 4 im Raum sind durch die drei kartesischen Raumkoordinaten X1 Y und Z definiert. Die Orientierungen des Basisbezugs-Systems 4 im Raum sind durch die drei Rotationen im kartesischen Raumkoordinatensystem definiert. Dabei entspricht vorzugsweise die Rotation um A einer Drehung um die Z-Achse, die Rotation um B einer Drehung um die Y-Achse und die Rotation um C einer Drehung um die X-Achse des kartesischen Raumkoordinatensystems. Die Bewegungsbahn 2 kann beliebig oft wiederholt nachgefahren werden, indem bspw. je einem Zeittakt (time code) eine bestimmte Position des Basisbezugs-System 4 zugeordnet wird und die Zeittakte nacheinander abgearbeitet werden. Üblicher Weise ist der Zeittakt (time code) an den Ablauf der Filmsequenz gebunden. Aus der Position und der Orientierung des Basisbezugs-Systems 4 kann eine Steuerung 9 für den Sechsachs- Industrieroboter 8 mittels geeigneter Rücktransformations-Algorithmen die zur Einstellung der jeweiligen Position und Orientierung des Basisbezugs-System 4 erforderlichen Winkelstellungen 10 der Roboterachsen A1 , A2, A3, A4, A5 und A6 bestimmen. Aus den berechneten Winkelstellungen 10 werden entsprechende Stellgrößen für die Achsantriebe 11 des Sechsachs-Industrieroboter 8 über zugeordnete Servoverstärker 12 erzeugt und an die Achsantriebe 11 übertragen.
Figur 1 b zeigt eine erweiterte Variante mit den Funktionen Schwenken (pan) und Neigen (tilt) als zusätzliche Achsen A7 und A8. Die Bewegungsbahn 2 für die Kamera 3 wird dabei nicht nur von der Position und Orientierung des Basisbezugs- Systems 4 bestimmt, sondern durch zusätzliche Freiheitsgrade, die durch den Schwenk-/Neigekopf 5 ermöglicht sind. In einer ersten Variante wird die Funktion Schwenken (pan) als eine zusätzliche Achse A7 definiert und die Funktion Neigen (tilt) durch eine weitere zusätzliche Achse A8 definiert. Die zeitliche Abfolge von Änderungen in den Achsen A7 und A8 werden dabei vorzugsweise synchron zu den Bewegungen des Basisbezugs-Systems 4 ausgeführt. In einer anderen Variante kann mindestens ein zusätzlicher Kameraroboter 13 eingesetzt werden. Der Kameraroboter 13 dient dazu, die Filmsequenz aus einer anderen Perspektive zu erfassen. Die dabei erhaltenen mindestens zwei Bewegungsbahnen können synchron miteinander ausgeführt werden. Der Kameraroboter 13 ist dazu über eine Synchronsteuerung 14 an den Sechsachs-Industrieroboter 8 gekoppelt. Diese Synchronisation bezieht sich vorzugsweise auf eine zeitliche Synchronisation verschiedener Bewegungsbahnmuster des Sechsachs-Industrieroboters 8 und des Kameraroboters 13. Alternativ können der Sechsachs-Industrieroboter 8 und der Kameraroboter 13 auch derart betrieben werden, dass sie synchrone Bewegungsbahnmuster positionsversetzt ausführen.
Figur 2 zeigt eine schematische Darstellung eines erfindungsgemäßen Steuerungssystems. Das erfindungsgemäße Verfahren kann in der Steuerung 9 realisiert sein. Die Steuerung 9 befindet sich auf einem Steuerungsrechner, dem vorzugsweise ein„Touchscreen-Interface" zugeordnet ist. Über die Touchscreen 14 können Ausführungsbefehle manuell in die Steuerung eingegeben werden. Die Bewegungsbahnen 2 können beispielsweise mittels eines manuellen Steuerungssystems 15 abgefahren werden. Das Steuerungssystem 15 kann als „Joystick-panel" ausgebildet sein. Mittels des Joysticks kann eine selektierte Kamera manuell im Raum bewegt werden. Statt eines Joysticks kann auch eine 6D-Mouse verwendet werden. Alternativ zu einer manuellen Ansteuerung der Kameras 3 können die Bewegungsbahnen 2 auch in einem Simulations-System 16 eines virtuellen Sets des Studios 1 der Steuerung 9 zugeführt werden. Eine Vielzahl von vorprogrammierten Bewegungsbahnmustern kann in der Steuerung 9 hinterlegt sein. Die Auswahl des gewünschten Bewegungsbahnmusters erfolgt über ein Bediengerät 17. Des Weiteren können externe Bewegungsbahnmuster über eine vorzugsweise digitale Ein- und Ausgangsschnittstelle 18 der Steuerung 9 zugeführt werden. Vorprogrammierte Bewegungsbahnmuster können in einem von der Steuerung 9 abtrennbaren Speicher 19 abgelegt sein. Verschieden Speicher 19 können selektiert der Steuerung 9 zugeführt werden. Dazu kann entweder ein einzelner Steckplatz 20 an der Steuerung 9 vorgesehen sein, in den der ausgewählte Speicher 19 eingesetzt und dadurch das entsprechende Bewegungsbahnmuster der Steuerung 9 implementiert wird, oder es sind mehrere Steckplätze 20 für eine Vielzahl von Speichern 19 vorgesehen, so dass eine Gruppe von Bewegungsbahnmustern in der Steuerung 9 vorhanden sein können und die gewünschte Bewegungsbahn dadurch selektiert wird, dass am Bediengerät 17 eine entsprechende Auswahl erfolgt. Entsprechend dem ausgewählten Bewegungsbahnmuster werden die Servoverstärker 12 über eine Mehrachsensteuerung 21 (Multi-Axis-Controller) angesteuert und die zugeordneten Achsantriebe 11 bewegt. Bei dem in Figur 2 dargestellten Ausführungsbeispiel werden die Roboterachsen A1 , A2, A3, A4, A5 und A6 des Sechsachs-Industrieroboters 8 angesteuert. Die Achse A7 dient zur Einstellung des Schwenkens und die Achse A8 der Einstellung der Neigung der Kamera 3. Ergänzend sind beispielhaft zwei weitere Achsen A9 und A10 dargestellt, die wahlweise für weitere Kamerafunktionen wie Rollen, Kamera Ein/Aus, Zoom, Fokus und/oder Iris verwendet werden können.
Figur 3 zeigt einen erfindungsgemäßen Sechsachs-Industrieroboter 8 in der Bauweise als Knickarmroboter. Ein Karussell 22 ist über die Achse A1 drehbar mit einem Grundgestellt 23 verbunden. An dem Karussell 22 ist eine Schwinge 24 über die Achse A2 angelenkt. An einem dem Karussell 22 gegenüberliegendem Ende der Schwinge 24 ist eine Arm 25 über die Achse A3 drehbar gelagert. Eine Zentralhand 26 ist über die Achse A4 um ihre Längserstreckung drehbar. Die Zentralhand 26 weist eine weitere Achse A5 auf, an welcher der Aufnahmeflansch 7 schwenkbar gelagert ist. Der Aufnahmeflansch 7 selbst kann eine weitere Rotation um die Achse 6 ausführen. An dem Aufnahmeflansch 7 ist der Schwenk-/Neigekopf 5 befestigt.
Der Schwenk-/Neigekopf 5 weist eine Anschlussplatte 27 auf, die starr mit dem Aufnahmeflansch 7 verbunden ist. An die Anschlussplatte 27 ist das Basisbezugs- System 4 gebunden. Eine Schwenkstruktur 28 ist über die Achse A7 schwenkbar an der Anschlussplatte 27 gelagert. Die Schwenkstruktur 28 trägt einen Kamerahalter 29 auf dem die Kamera 3 befestigt ist. Der Kamerahalter 29 kann mittels der Achse A8 gegenüber der Schwenkstruktur 28 geneigt werden. Figur 4 zeigt den Sechsachs-Industrieroboter 8 aus Figur 3, wobei das Grundgestellt 23 im Gegensatz zu Figur 3 nicht fest auf einem Untergrund montiert, sondern auf einer Linearachse 30 angeordnet ist. Durch die Montage des Sechsachsindustrieroboters 8 auf einer Linerachse 30 wird ein zusätzlicher Freiheitsgrad geschaffen, der ein Fahren des kompletten Kamera-/Robotersystems ermöglicht. Die Linearachse 30 kann als zusätzliche Achse A9 betrachtet werden, die in gleicher Weise wie andere Zusatzfunktionen von der Steuerung 9 mit verwaltet werden kann.
Alternativ zu einer festen Montage oder der Anordnung auf einer Linearachse 30 kann der Sechsachs-Industrieroboter 8 auch, wie in Figur 5 schematisch dargestellt, auf einem manuell oder automatisch verfahrbaren Fahrstativ montiert sein. Das Fahrstativ kann in der einfachsten Ausgestaltung ein manuell verschiebbares Fahrwerk sein, das lenkbare Räder aufweist. Alternativ können an sich bekannte fahrerlose Transportsysteme verwendet werden, die Räder aufweisen, welche über eine automatische Fahrsteuerung antreibbar sind. Die Fahrsteuerung kann in allen Fällen über eine Synchronsteuerung 14 mit dem Sechsachs-Industrieroboter 8 und dem Schwenk-/Neigekopfes 5 der Kamera 3 verbunden sein, so dass die Achsen A1 bis A6 des Sechsachs-Industrieroboter 8 mit den Achsen A7 und A8 des Schwenk- /Neigekopfes 5 der Kamera 3 und den Radantrieben der Plattform 32 synchron bewegt werden können. In der in Figur 5 gezeigten Ausgestaltung ist der Sechsachs- Industrieroboter 8 auf einer fahrbare Plattform 32 angeordnet, die mittels Radantrieben in Gestalt von omnidirektionalen Rädern 33 angetrieben sind.

Claims

Patentansprüche
1. Verfahren zum Bewegen einer auf einem Schwenk-/Neigekopf (5) angeordneten Kamera (3) entlang einer vorgegebenen Bewegungsbahn (2) insbesondere in einem Set oder Studio (1 ), dadurch gekennzeichnet, dass aus der vorgegebenen Bewegungsbahn (2) für die Kamera (3) eine zugeordnete Bewegungsbahn für die räumlichen Positionen und Orientierungen eines Basisbezugs-Systems (4) des Schwenk-/Neigekopfes (5) bestimmt werden und aus der bestimmten Bewegungsbahn für das Basisbezugs-System (4) des Schwenk-/Neigekopfes (5) zugeordnete Stellgrößen für Achsen (A1-A6) eines in kartesischen Koordinaten fahrbaren Roboters (8), an dessen Aufnahmeflansch (7) der Schwenk-/Neigekopf (5) befestigt ist, erzeugt und an die Achsen (A1-A6) übertragen werden.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass als Roboter (8) ein Knickarmroboter eingesetzt wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Bewegungsbahn (2) für die Kamera (3) oder für das Basisbezugs-System (4) des Schwenk-/Neigekopfes (5) durch ein manuelles Steuerungssystem (15) in Echtzeit abfahrbar ist.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Bewegungsbahn (2) für die Kamera (3) oder für das Basisbezugs-System (4) des Schwenk-/Neigekopfes (5) aus einem Simulations-System (16) eines virtuellen Sets oder Studios (1 ) einer Steuerung (9) des Roboters (8) zugeführt wird.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Bewegungsbahn (2) für die Kamera (3) oder für das Basisbezugs-System (4) des Schwenk-/Neigekopfes (5) als vorprogrammiertes Bewegungsbahnmuster (19) in einer Steuerung (9) des Roboters (8) hinterlegt ist.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass in der Steuerung (9) eine Vielzahl von vorprogrammierten Bewegungsbahnmustern hinterlegt ist und ein durchzuführendes Bewegungsbahnmuster durch Auswahl an einem mit der Steuerung (9) gekoppelten Bediengerät (17) aktivierbar ist.
7. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die vorprogrammierten Bewegungsbahnmuster in einem von der Steuerung (9) abtrennbaren Speicher (19) abgelegt sind.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Stellgrößen für Achsen (A1-A6) eines ersten Roboters (8) mittels einer Synchronsteuerung (14) mit Stellgrößen mindestens eines zweiten Roboters (13) synchronisiert werden.
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die Stellgrößen für Achsen (A1-A6) des mindestens einen Roboters (8, 13) und für Achsen (A7, A8) des Schwenk-/Neigekopfes (5) der Kamera (3) mittels einer Synchronsteuerung (14) mit Stellgrößen für Fahrantriebe (31 ) einer fahrbaren Plattform (32), auf welcher der Roboter (8, 13) montiert ist, synchronisiert werden.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass die fahrbare Plattform (32) ein automatisch verfahrbares Fahrstativ oder eine Plattform mit omnidirektionalen Antrieben (33) ist.
11.Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die omnidirektionalen Antriebe (33) vorzugsweise Mecanumräder aufweist.
12. Verfahren nach einem der Ansprüche 9 bis 11 , dadurch gekennzeichnet, dass die Position der fahrbaren Plattform (32) in der Fahrebene mittels positionsbekannter Marker kalibriert wird.
13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass als Marker ein oder mehrere in der Fahrebene der fahrbaren Plattform (32) befestigte optische Targets (33) und/oder Systeme, die eine Orientierung mit Hilfe von Laserscannern oder GPS verwendet werden.
14. Verfahren nach einem der Ansprüche 9 bis 13, dadurch gekennzeichnet, dass die Lage und/oder Orientierung der Kamera (3) im Raum unter Einbeziehung der Position einer fahrbaren Plattform oder eines Stativs bestimmt wird.
15. Verfahren nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass die Achsen (A1-A6) des Roboters (8) in Abhängigkeit verschiedener Anwendungsprofile mit unterschiedlichen Antriebstypen und/oder Getriebetypen versehen werden.
16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass bei einem Anwendungsprofil für Kamerafahrten geringer Geschwindigkeiten und hoher Geräuscharmut Elektromotoren, insbesondere Servomotoren eingesetzt werden.
17. Verfahren nach Anspruch 16, dadurch gekennzeichnet, dass die Servomotoren von Frequenzumrichtern mit einer Frequenz über 15 Kilohertz betrieben werden.
18. Verfahren nach Anspruch 15 bis 17, dadurch gekennzeichnet, dass bei einem Anwendungsprofil für Kamerafahrten geringer Geschwindigkeiten und hoher Geräuscharmut vorzugsweise Harmonic-Drive-Getriebe eingesetzt werden.
19. Kameraroboter mit einem zum Tragen einer Kamera (3) ausgebildeten Schwenk-/Neigekopf (5), der an einem Aufnahmeflansch (7) eines Roboters (8) angeordnet ist, dadurch gekennzeichnet, dass der Roboter (8) mindestens vier Drehachsen (A1 -A4) aufweist.
20. Kameraroboter nach Anspruch 19, dadurch gekennzeichnet, dass der Roboter (8) sechs Drehachsen (A1-A6) aufweist.
21. Kameraroboter nach Anspruch 19 oder 20, dadurch gekennzeichnet, dass der Kameraroboter (8) mit einer Steuerung (9) verbunden ist, die zum Ansteuern weiterer Stelltriebe für mindestens die Funktionen Pan und TiIt des Schwenk- /Neigekopfes (5) ausgebildet ist.
22. Kameraroboter nach Anspruch 21 , dadurch gekennzeichnet, dass die Steuerung (9) zusätzlich zum Ansteuern von Stelltrieben für Roll, Kamera, Zoom, Fokus und/oder Iris ausgebildet ist.
23. Kameraroboter nach einem der Ansprüche 19 bis 22, dadurch gekennzeichnet, dass der Kameraroboter (8) auf einem Linearantrieb (30) angeordnet ist, der von der Steuerung (9) ansteuerbar ist.
24. Kameraroboter nach einem der Ansprüche 19 bis 23, dadurch gekennzeichnet, dass der Kameraroboter (8) auf einer fahrbaren Plattform (32) angeordnet ist.
25. Kameraroboter nach Anspruch 24, dadurch gekennzeichnet, dass die fahrbare Plattform (32) ein automatisch bzw. manuell verfahrbares Fahrstativ oder eine Plattform mit omnidirektionalem Antrieb ist.
26. Verfahren nach Anspruch 25, dadurch gekennzeichnet, dass der omnidirektionale Antrieb vorzugsweise Mecanumräder aufweist.
PCT/EP2006/011752 2005-12-09 2006-12-07 Verfahren und vorrichtung zum bewegen einer auf einem schwenk-/neigekopf angeordneten kamera entlang einer vorgegebenen bewegungsbahn WO2007065676A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/096,228 US20080316368A1 (en) 2005-12-09 2006-12-07 Method and Device For Moving a Camera Disposed on a Pan/Tilt Head Long a Given Trajectory
EP06829375A EP1958436A1 (de) 2005-12-09 2006-12-07 Verfahren und vorrichtung zum bewegen einer auf einem schwenk-/neigekopf angeordneten kamera entlang einer vorgegebenen bewegungsbahn

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102005058867.0 2005-12-09
DE102005058867.0A DE102005058867B4 (de) 2005-12-09 2005-12-09 Verfahren und Vorrichtung zum Bewegen einer auf einem Schwenk- und Neigekopf angeordneten Kamera entlang einer vorgegebenen Bewegungsbahn

Publications (1)

Publication Number Publication Date
WO2007065676A1 true WO2007065676A1 (de) 2007-06-14

Family

ID=37899270

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2006/011752 WO2007065676A1 (de) 2005-12-09 2006-12-07 Verfahren und vorrichtung zum bewegen einer auf einem schwenk-/neigekopf angeordneten kamera entlang einer vorgegebenen bewegungsbahn

Country Status (4)

Country Link
US (1) US20080316368A1 (de)
EP (1) EP1958436A1 (de)
DE (1) DE102005058867B4 (de)
WO (1) WO2007065676A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202011003666U1 (de) 2011-03-07 2012-06-12 Staubli Faverges Kamerasystem mit sechs Drehachsen zum Bewegen einer Kamera
DE102021123245A1 (de) 2021-09-08 2023-03-09 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Validieren einer Kamerakalibrierung für einen beweglichen Roboterarm mittels eines Systems, Computerprogrammprodukt sowie System

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007009851B3 (de) * 2007-02-28 2008-05-29 Kuka Roboter Gmbh Industrieroboter und Verfahren zum Bestimmen der Lage eines Industrieroboters relativ zu einem Objekt
DE102007026956A1 (de) * 2007-06-12 2008-12-18 Kuka Innotec Gmbh Verfahren und System zum Roboter geführten Depalettieren von Reifen
SE533198C2 (sv) * 2008-02-14 2010-07-20 Hexagon Metrology Ab Mätanordning med mäthuvud för kontrollmätning av föremål
DE102008015779A1 (de) 2008-03-26 2009-10-01 Fpt Systems Gmbh Fahrerloses Transportsystem zum Transport, Aufnehmen und Absetzen von Lasten
DE202008005421U1 (de) * 2008-04-14 2009-08-27 Robotics Technology Leaders Gmbh Robotiksystem
DE102008023955B4 (de) * 2008-05-16 2010-04-01 Kuka Roboter Gmbh Verfahren zur Simulation von Ereignissen und Abläufen von Luft-, Land- oder Wasserfahrzeugen und Simulationssystem
DE102009007639B4 (de) * 2009-02-05 2011-05-26 Kurt Wallerstorfer Vorrichtung zur Bildaufzeichnung eines Sportlers auf einer Rennstrecke
GB2473479A (en) * 2009-09-11 2011-03-16 Vitec Group Plc Camera system control and interface
DK200901377A (da) * 2009-12-23 2011-06-24 360 Dev Aps Opfindelsens primære formål er, at tilvejebringe en serie digitale billeder, som kan anvendes til input til object VR af en fysisk genstand.
TWM382891U (en) * 2010-01-07 2010-06-21 Everprec Tech Co Ltd Angle adjustment structure of right-angle robot arm
IT1400536B1 (it) 2010-05-26 2013-06-11 Oto Melara Spa Braccio robotizzato per un veicolo.
US9094608B1 (en) * 2010-07-19 2015-07-28 Lucasfilm Entertainment Company Ltd. Virtual director's viewfinder
KR101251184B1 (ko) * 2010-08-05 2013-04-08 서울대학교산학협력단 구동 명령을 이용한 비젼 트래킹 시스템 및 방법
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
DE102012004592A1 (de) 2011-11-22 2013-05-23 Robotics Technology Leaders Gmbh System zur Steuerung eines Roboters zum Tragen einer Kamera
DE102012208094A1 (de) * 2012-05-15 2013-11-21 Kuka Laboratories Gmbh Verfahren zum Ermitteln möglicher Positionen eines Roboterarms
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
WO2013176758A1 (en) * 2012-05-22 2013-11-28 Intouch Technologies, Inc. Clinical workflows utilizing autonomous and semi-autonomous telemedicine devices
DE102013013114A1 (de) * 2012-08-17 2014-02-20 Liebherr-Verzahntechnik Gmbh Vorrichtung zum automatisierten Entnehmen von in einem Behälter angeordneten Werkstücken
US9578133B2 (en) 2012-12-03 2017-02-21 Apkudo, Llc System and method for analyzing user experience of a software application across disparate devices
US10261611B2 (en) 2012-12-03 2019-04-16 Apkudo, Llc System and method for objectively measuring user experience of touch screen based devices
US9075781B2 (en) 2013-03-15 2015-07-07 Apkudo, Llc System and method for coordinating field user testing results for a mobile application across various mobile devices
DE102013020851A1 (de) * 2013-12-12 2015-06-18 Grenzebach Maschinenbau Gmbh Fahrerloses Transportfahrzeug für den Transport schwerer Lasten auf Lafetten und Verfahren zum Betrieb des Transportfahrzeugs
WO2015106156A1 (en) * 2014-01-10 2015-07-16 Revolve Robotics, Inc. Systems and methods for controlling robotic stands during videoconference operation
ES2746754T3 (es) * 2014-04-17 2020-03-06 Softbank Robotics Europe Robot humanoide con ruedas omnidireccionales basado en un controlador de posición y velocidad lineal predictivo
US9622021B2 (en) 2014-07-06 2017-04-11 Dynamount, Llc Systems and methods for a robotic mount
US9283678B2 (en) * 2014-07-16 2016-03-15 Google Inc. Virtual safety cages for robotic devices
WO2016018327A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Camera alignment based on an image captured by the camera that contains a reference marker
US9283672B1 (en) 2014-12-11 2016-03-15 Apkudo, Llc Robotic testing device and method for more closely emulating human movements during robotic testing of mobile devices
KR101627519B1 (ko) * 2015-05-04 2016-06-08 재단법인대구경북과학기술원 로봇 원격 제어 장치 및 그 방법
CN104965454A (zh) * 2015-06-26 2015-10-07 深圳市兆通影视科技有限公司 一种演播室机器人的控制系统
EP3207301A4 (de) * 2015-08-14 2018-05-09 SZ DJI Osmo Technology Co., Ltd. Kardanische aufhängung mit parallelem stabilitätsmechanismus
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
DE102016123372A1 (de) 2016-12-02 2018-06-07 Timo Plogstedt Kameraarm
US10843350B2 (en) * 2017-02-02 2020-11-24 Brunson Instrument Company Counterbalanced support system and method of use
US10527925B2 (en) * 2017-05-16 2020-01-07 Nico Toutenhoofd Fully-spherical imaging system, camera support for same, and associated methods
USD891834S1 (en) 2017-10-06 2020-08-04 Brunson Instrument Company Stand and counterbalanced support
US10676022B2 (en) 2017-12-27 2020-06-09 X Development Llc Visually indicating vehicle caution regions
CN108397652B (zh) * 2018-04-27 2023-11-07 韩城黄河影视特拍装备有限公司 一种影视特拍机器人云台
CN109884590B (zh) * 2019-03-28 2024-05-24 湖南第一师范学院 一种工业机器人轨迹精度检测装置及方法
EP3971464A1 (de) * 2020-09-21 2022-03-23 M. Schäfer Vermietung und Verwaltung Kamerawagen und kamerabewegungssystem
EP4302474A1 (de) * 2021-03-03 2024-01-10 Robidia GmbH Verfahren zur steuerung eines kameraroboters
CN115072357B (zh) * 2021-03-15 2023-07-07 中国人民解放军96901部队24分队 一种基于双目视觉的机器人转载自动定位方法
CN113581092B (zh) * 2021-08-17 2023-06-06 苏州帕拉摩申智能科技有限公司 一种车载跟拍装置
CN113733052B (zh) * 2021-09-17 2023-07-25 西安交通大学 一种全向移动机器人及其控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4720805A (en) * 1985-12-10 1988-01-19 Vye Scott R Computerized control system for the pan and tilt functions of a motorized camera head
US5008804A (en) 1988-06-23 1991-04-16 Total Spectrum Manufacturing Inc. Robotic television-camera dolly system
GB2252473A (en) 1991-09-17 1992-08-05 Radamec Epo Limited Remote control system for robotic camera
WO1993006690A1 (en) 1991-09-17 1993-04-01 Radamec Epo Limited Setting-up system for remotely controlled cameras
US20050122390A1 (en) * 2003-12-05 2005-06-09 Yulun Wang Door knocker control system for a remote controlled teleconferencing robot

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4283766A (en) * 1979-09-24 1981-08-11 Walt Disney Productions Automatic camera control for creating special effects in motion picture photography
US4402053A (en) * 1980-09-25 1983-08-30 Board Of Regents For Education For The State Of Rhode Island Estimating workpiece pose using the feature points method
US4341452A (en) * 1981-08-10 1982-07-27 Torkel Korling Triaxial universal camera mount
EP0245262A1 (de) * 1985-11-15 1987-11-19 HOWELL, Mary E. Kamerasystem auf schienen
JP2535366B2 (ja) * 1988-01-09 1996-09-18 ファナック株式会社 産業用ロボットの動作能力確認方法と装置
US5046022A (en) * 1988-03-10 1991-09-03 The Regents Of The University Of Michigan Tele-autonomous system and method employing time/position synchrony/desynchrony
DE3918471A1 (de) 1988-06-06 1989-12-14 Elmech Mechanische Werkstaette Verfahren und vorrichtung zum speichern und regeln des bewegungsablaufes einer kamera
IT1229686B (it) * 1989-04-20 1991-09-06 Movie Engineering Di Paolo Bas Metodo ed apparecchiatura per il controllo a distanza dei movimenti di una telecamera o di una cinepresa.
US4989823A (en) * 1989-04-28 1991-02-05 Leonard Studio Equipment, Inc. Shock and vibration isolator
CA2088071A1 (en) * 1990-08-08 1992-02-09 John Richard Edwards Motion control system for cinematography
US5186270A (en) * 1991-10-24 1993-02-16 Massachusetts Institute Of Technology Omnidirectional vehicle
US5255096B1 (en) * 1992-04-10 1997-12-23 William M Boyle Video time code synchronized robot control apparatus
US5443354A (en) * 1992-07-20 1995-08-22 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Hazardous materials emergency response mobile robot
US5394069A (en) * 1993-03-08 1995-02-28 International Business Machines Corporation Mechanical brake hold circuit for an electric motor
US5440916A (en) * 1993-11-15 1995-08-15 The United States Of America As Represented By The Administrator Of The National Aeronatics And Space Administration Emergency response mobile robot for operations in combustible atmospheres
DE4407317A1 (de) 1994-03-04 1995-09-07 Movietech Filmgeraete Gmbh Verfahren zum Speichern und Steuern eines Bewegungsablaufes einer Kamera
US5974348A (en) * 1996-12-13 1999-10-26 Rocks; James K. System and method for performing mobile robotic work operations
US6264330B1 (en) * 1996-12-30 2001-07-24 Sony Corporation Self-propelled camera dolly
JPH10210506A (ja) * 1997-01-22 1998-08-07 Sony Corp 3次元画像情報入力装置および3次元画像情報入出力装置
US5900925A (en) * 1997-05-09 1999-05-04 Service Vision, S.A. Computer assisted camera control system
JP3673383B2 (ja) * 1997-12-12 2005-07-20 ファナック株式会社 ロボットの制御装置
US6628338B1 (en) * 1998-07-08 2003-09-30 Elbex Video Ltd. Direct drive electric motor apparatus incorporating slip ring assembly
US6236924B1 (en) * 1999-06-21 2001-05-22 Caterpillar Inc. System and method for planning the operations of an agricultural machine in a field
US6965411B1 (en) * 1999-06-24 2005-11-15 Jones Richard A Remote camera positioner
JP2001212781A (ja) * 2000-02-02 2001-08-07 Aida Eng Ltd ロボットの同期制御装置
US7037006B2 (en) * 2000-05-31 2006-05-02 Chapman/Leonard Studio Equipment Camera crane
ES2377193T3 (es) * 2000-10-25 2012-03-23 Shotoku Ltd. Procedimiento de captación de imagen y sistema de captación de imagen
US6595704B2 (en) * 2001-04-06 2003-07-22 Metrica, Inc. Two degree of freedom camera mount
JP2002374581A (ja) * 2001-06-14 2002-12-26 Yamaha Motor Co Ltd コミュニケーションツール及びコミュニケーション支援システム
JP3632644B2 (ja) * 2001-10-04 2005-03-23 ヤマハ株式会社 ロボット、および、ロボットの動作パターン制御プログラム
JP2003340759A (ja) * 2002-05-20 2003-12-02 Sony Corp ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
US7688381B2 (en) * 2003-04-08 2010-03-30 Vanbree Ken System for accurately repositioning imaging devices
US7209176B2 (en) * 2004-02-19 2007-04-24 Chapman/Leonard Studio Equipment Three-axis remote camera head
DE10345743A1 (de) * 2003-10-01 2005-05-04 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung
US7813836B2 (en) * 2003-12-09 2010-10-12 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US7128479B2 (en) * 2004-03-01 2006-10-31 Chapman/Leonard Studio Equipment Telescoping camera crane
US8077963B2 (en) * 2004-07-13 2011-12-13 Yulun Wang Mobile robot with a head-based movement mapping scheme
US7802802B2 (en) * 2004-10-12 2010-09-28 Cambotics Inc. Camera dolly
US20060109274A1 (en) * 2004-10-28 2006-05-25 Accelerated Pictures, Llc Client/server-based animation software, systems and methods
WO2007035943A2 (en) * 2005-09-23 2007-03-29 Braintech Canada, Inc. System and method of visual tracking
US8199197B2 (en) * 2008-02-20 2012-06-12 Actioncam. LLC Aerial camera system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4720805A (en) * 1985-12-10 1988-01-19 Vye Scott R Computerized control system for the pan and tilt functions of a motorized camera head
US5008804A (en) 1988-06-23 1991-04-16 Total Spectrum Manufacturing Inc. Robotic television-camera dolly system
US5008804B1 (de) 1988-06-23 1993-05-04 Total Spectrum Manufacturing I
GB2252473A (en) 1991-09-17 1992-08-05 Radamec Epo Limited Remote control system for robotic camera
WO1993006690A1 (en) 1991-09-17 1993-04-01 Radamec Epo Limited Setting-up system for remotely controlled cameras
US20050122390A1 (en) * 2003-12-05 2005-06-09 Yulun Wang Door knocker control system for a remote controlled teleconferencing robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202011003666U1 (de) 2011-03-07 2012-06-12 Staubli Faverges Kamerasystem mit sechs Drehachsen zum Bewegen einer Kamera
DE102021123245A1 (de) 2021-09-08 2023-03-09 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Validieren einer Kamerakalibrierung für einen beweglichen Roboterarm mittels eines Systems, Computerprogrammprodukt sowie System

Also Published As

Publication number Publication date
US20080316368A1 (en) 2008-12-25
DE102005058867B4 (de) 2018-09-27
EP1958436A1 (de) 2008-08-20
DE102005058867A1 (de) 2007-06-21

Similar Documents

Publication Publication Date Title
WO2007065676A1 (de) Verfahren und vorrichtung zum bewegen einer auf einem schwenk-/neigekopf angeordneten kamera entlang einer vorgegebenen bewegungsbahn
DE102005060967B4 (de) Verfahren und Vorrichtung zum Einrichten einer Bahnkurve einer Robotervorrichtung
EP1521211B1 (de) Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung
DE102007029335B4 (de) Programmierhandgerät
DE102011079117B4 (de) Verfahren zum Programmieren eines Roboters
DE202011003666U1 (de) Kamerasystem mit sechs Drehachsen zum Bewegen einer Kamera
WO2019201652A1 (de) Verfahren zur benutzung einer mehrgliedrigen aktuierten kinematik, vorzugsweise eines roboters, besonders vorzugsweise eines knickarmroboters, durch einen benutzer mittels einer mobilen anzeigevorrichtung
DE3741632A1 (de) Verfahren und vorrichtung zum erkennen und ansteuern eines raumzieles
DE102016103799A1 (de) Bildverarbeitungssystem zum Trainieren eines Montagesystems durch virtuelle Montage von Objekten
EP2008778B1 (de) Verfahren und Vorrichtung zum Programmieren eines Industrieroboters
DE10351669B4 (de) Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt
DE102018009025A1 (de) Robotersteuervorrichtung zum Einstellen eines Bewegungskoordinatensystems
WO2014174017A1 (de) Platziervorrichtung und platzierverfahren
EP1172183A2 (de) Vorrichtung und Anordnung zur Ermittlung von korrigierten Bewegungsdaten für einen vorgegebenen Bewegungsablauf einer bewegbaren Einrichtung sowie bewegbare Einrichtung und System aus bewegbaren Einrichtungen
WO2005039836A2 (de) Verfahren zur einrichtung einer bewegung eines handhabungsgeräts und bildverarbeitung
DE202005014072U1 (de) Vorrichtung zur automatischen fotografischen Aufnahme von Objekten aus verschiedenen Perspektiven
WO2005050335A1 (de) Vorrichtung und verfahren zum programmieren eines industrieroboters
DE60108918T2 (de) Interaktives Verfahren und Vorrichtung für Bildrundfunk einer beweglichen Videokamera
EP1912431A2 (de) Verfahren und Vorrichtung zur Steuerung einer schwenkbaren Kamera
EP0775415B1 (de) Vorrichtung und verfahren zur herstellung einer bildsequenz
EP1455525A1 (de) Verfahren und Vorrichtung zur Aufnahme von Videodaten
DE102007057887A1 (de) Verfahren und Vorrichtung zum Anzeigen und Verändern einer Darstellung eines mehrdimensionalen Raums und/oder Objekts
DE102005047489A1 (de) Verfahren und System zur Programmierung von Arbeits- und Bewegungsabläufen von Robotern
DE102018123034A1 (de) Vorrichtungen und Verfahren für Werkstückbearbeitung
DE102019003510B4 (de) Verfahren und Vorrichtung zur Steuerung von Motoren im Film- und Broadcastbereich

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2006829375

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12096228

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2006829375

Country of ref document: EP