EP2119226A2 - Device and method for watching real-time augmented reality - Google Patents

Device and method for watching real-time augmented reality

Info

Publication number
EP2119226A2
EP2119226A2 EP08761752A EP08761752A EP2119226A2 EP 2119226 A2 EP2119226 A2 EP 2119226A2 EP 08761752 A EP08761752 A EP 08761752A EP 08761752 A EP08761752 A EP 08761752A EP 2119226 A2 EP2119226 A2 EP 2119226A2
Authority
EP
European Patent Office
Prior art keywords
camera
image sensor
image
orientation
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP08761752A
Other languages
German (de)
French (fr)
Inventor
Valentin Lefevre
Nicolas Livet
Alan Savary
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Total Immersion
Original Assignee
Total Immersion
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Total Immersion filed Critical Total Immersion
Publication of EP2119226A2 publication Critical patent/EP2119226A2/en
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream

Definitions

  • Real-time augmented reality observation device and method for implementing such a device
  • the present invention relates to observation devices such as telescopes and more particularly augmented reality observation devices for adding real-time virtual objects to the observed image and methods for implementing such devices.
  • a large number of high-traffic sites such as tourist sites are equipped with telescopes or binoculars that allow their users to observe a panorama with a magnification factor, variable or not, giving the opportunity to better appreciate the view.
  • a telescope refers to a device located on many tourist sites offering an interesting point of view to observe.
  • the principle of operation of the telescope is as follows: the user puts a coin in the device and then has a predetermined time to observe the offered point of view. The observation is similar to what would be done with the use of a pair of binoculars.
  • the main function is therefore to provide a "magnification" of the panorama observed via a dedicated optical system. The latter offers a restricted field of view around the line of sight.
  • the limitation of the field of view of the optical system is compensated by the two degrees of freedom offered by the apparatus by rotation of the line of sight in the horizontal plane, that is to say around the main axis of the device, and by rotation of the line of sight in the vertical plane, that is to say around an axis perpendicular to the main axis of the device. Thanks to these movements, the user is able to scan a large part of the observable panorama and thus observe in detail, using magnification, the areas that interest him.
  • Figure 1 illustrates an example of such a telescope.
  • the user of the system has no other information than that naturally present in the image. However, for the development of a site, it is often important to provide additional information. These For example, information may be of a cultural or technical nature but may also be of the advertising or economic type to indicate, for example, the presence of restaurants or hotels.
  • Algmented Reality are adapted to the addition of such information to enrich the image observed. They make it possible to make appear in the same image, the real view and the added information. This information can then take the form of symbols such as arrows, logos, special signage, text but also three-dimensional virtual objects, animated or not. It is thus possible to make emerge, for example, an old building today disappeared above the ruin which the user would have had to be satisfied if it had only a conventional telescope.
  • YDreams offers a solution called Virtual Sightseeing (Virtual Sightseeing is a registered trademark).
  • This device has a degree of freedom.
  • a disadvantage of this device is the quality of service drift over time. Indeed, the spatial and temporal synchronization depends not only on the accuracy of the encoders used to determine the motions but also on the accuracy and stability of the mechanical links used. In this respect, it should be noted that an error of one degree in the horizontal plane results in an error of more than four meters on the X coordinate of an object located two-fifty meters from the observation point. Any mechanical connection of this nature consisting of a displacement of heavy parts, as precise as it, evolves over time.
  • the invention solves at least one of the problems discussed above.
  • the invention thus relates to a method for a real-time augmented reality observation device comprising an image sensor, a display system and a control interface, this method being characterized in that it comprises the following steps receiving a request comprising axis of view guidance information transmitted by said control interface;
  • the method according to the invention makes it possible to distinguish the control commands of the user from the commands of the image sensor and thus to improve the accuracy and reliability of the observation device, with a slight drift over time.
  • the device is thus more robust in time and in the face of external aggressions.
  • the camera brings the actual shooting of an area of the panorama to which a computer adds information elements precisely superimposed on the different elements of the image.
  • This method makes it possible to improve the quality of the spatial and temporal synchronization between the real and the virtual which only then depends on the parameters inherent to the image sensor.
  • the method according to the invention also offers possibilities of correction of disturbances.
  • the method according to the invention allows great freedom as to the form that can take the control interface.
  • the method according to the invention advantageously comprises a calibration phase of said image sensor to take into account any imperfections thereof.
  • said calibration step comprises the calibration of at least one of the parameters included in the set of parameters including the radial distortion correction of said image sensor, the roll correction of said image sensor, the heading and pitch corrections of the line of sight of said image sensor and the offset between the image sensor; optical center and the center of rotation of said image sensor.
  • said image sensor comprises a zoom function and the calibration of said at least one parameter is performed for a plurality of zoom factors.
  • the calibration of the image sensor and in particular the image sensor calibration for several zoom factors make it possible to consider the camera's defects as extrinsic parameters of the camera and thus optimize the calculations required on the images from this image sensor.
  • the method further comprises a co-location step of said image sensor and the scene observed by said image sensor to determine the laying of said at least one datum to be inserted into said image received in said observed scene.
  • Said at least one piece of data to be inserted in said received image is advantageously a representation of a virtual three-dimensional model animated or not.
  • said orientation of the line of sight is defined according to two degrees of freedom and said image sensor comprises a zoom function to enable the user to observe the point he wishes to see, with the desired magnification.
  • the invention also relates to a computer program comprising instructions adapted to the implementation of each of the steps of the method described above.
  • the invention also relates to a means for storing information, removable or not, partially or completely readable by a computer or a microprocessor comprising code instructions of a computer program for the execution of each of the steps of the previously described method.
  • the invention also relates to an augmented reality observation device comprising means of connection to an image sensor, a display system and a control interface, this device being characterized in that it comprises the following means means for receiving guidance line orientation information transmitted by said control interface;
  • the device according to the invention makes it possible to separate the control commands of the user from the commands of the image sensor and thus to improve the accuracy and reliability of the observation device, with a small drift over time.
  • the device is thus more robust in time and in the face of external aggressions.
  • the camera brings the actual shooting of an area of the panorama to which a computer adds information elements precisely superimposed on the different elements of the image.
  • the device makes it possible to improve the quality of the spatial and temporal synchronization between the real and the virtual which only then depends on the parameters inherent to the image sensor.
  • the device according to the invention also offers possibilities of correction of disturbances.
  • the device according to the invention allows great freedom as to the shape that can take the control interface.
  • the device according to the invention advantageously comprises means for transmitting said received image comprising said at least one given to allow the user to view the augmented images from said image sensor on a suitable device.
  • At least one of said image sensor and storage means is remote from said observation device.
  • This embodiment allows the user of the observation device to benefit from a point of view that he can not reach and to protect the image sensor and / or the storage means against external aggressions such as vandalism.
  • FIG. 1 schematically shows a conventional telescope as used in tourist places
  • FIG. 2 diagrammatically illustrates the observation device according to the invention
  • FIG. 3 comprising FIGS. 3a, 3b and 3c, shows an example of a part of the observation device according to the invention comprising a sphere housing a motorized camera on which are mounted a control interface and a display system.
  • FIG. 4 illustrates the observation device presented in FIG.
  • FIG. 5 illustrates an example of an apparatus that can be used to control the movements of the camera and to insert the virtual objects in the images coming from the camera
  • FIG. 6 schematically represents certain operating steps of the observation device according to the invention.
  • FIG. 7 shows another example of an observation device according to the invention in which the motorized camera is deported.
  • control of the image capture device is indirect, that is to say that the movement of the camera is not physically or physically coupled to the movement made by the user.
  • the aiming control interface is separated from the positioning interface of the shooting module such as a camera.
  • the coupling between the two interfaces is realized in a software way which also offers possibilities of correction of the disturbances.
  • the movements of the user are reflected on the shooting module via the software interface. Since the virtual scene is co-located with the camera and not the hardware physically manipulated by the user, any loss of precision on the motion sensors of the control interface has no impact on the quality of the integration of the devices. virtual elements in the real image.
  • the camera module, motorized is preferably capable of producing lateral movements, also called cap or pan, and elevation movements, also called pitching or tilting. This type of shooting module can be introduced under the name PT (Pan, Tilt) camera.
  • the shooting module also makes it possible to zoom, this type of shooting module can be called PTZ camera (Pan, Tilt, Zoom).
  • the device according to the invention comprises a video acquisition system producing a video stream composed of images corresponding to the actual view observed, an image processing system for increasing the video stream by virtual elements inlaid in real time according to the direction of the line of sight of the device and a system for viewing the increased video stream.
  • the line of sight is determined in real time by motion sensors.
  • the accuracy of the position of the line of sight of the camera is essential to the proper functioning of the set, in order to insert the virtual objects in the appropriate locations, that is to say to spatially synchronize the real and virtual environments .
  • the separation of the command to define the position of the line of sight as desired by the user, that is to say the user interface, means to achieve this position, that is to say say the internal mechanism of control of the movements of the camera, implies the setting up of a command interface allowing not only to define but also to transmit permanently the requested position of axis of sight.
  • the use of a motorized camera makes it possible to move its axis of sight according to the request.
  • This interface is preferably performed by the computer used to insert the virtual objects in the images from the camera.
  • This computer receives the orientation request for the axis of view of the command interface, transmits the orders to the motorized camera to modify the line of sight and receives, from the camera, the exact position of the axis of view. referred.
  • the orientation information of the line of sight of the camera is received from it in the form of, for example, flow.
  • Such a stream may transmit, for example, orientation and zoom data per second.
  • the video stream is increased and restored.
  • One of the objectives of indirect control is to limit the propagation of errors within the system.
  • the durability of the synchronization between the virtual and the real over time relies entirely on the quality and reliability of the data received from the motorized camera.
  • the precision of the command interface deteriorates over time, the impact will be limited: the line of sight may not correspond exactly to the request sent by the interface but the real and the virtual will remain perfectly synchronized.
  • command interface and the rest of the system allows great freedom as to the form that this interface can take. It may be for example a keyboard, a joystick type joystick or a dedicated pointing system such as a mechanical system with motion capture. Such a pointing system can mechanically couple the control interface and the display system.
  • Figure 2 schematically illustrates the device 200 of the invention.
  • the device 200 comprises a control interface 205 which transmits a position request of the line of sight to the computer 210.
  • the computer 210 transmits a command, corresponding to the position request of the line of sight, to the motorized camera 215 having a line of sight 220.
  • the camera 215 transmits to the computer 210 the orientation of its line of sight, for example in the form of a data stream, thus allowing the processing of images from the camera during the period of movement.
  • the camera 215 also transmits an image flow, preferably continuous, to the computer 210 which integrates in the images from this video stream the virtual objects according to the wishes of the user, pre-established scenarios and / or the context for forming the augmented video stream that is transmitted to a display system 225.
  • the quality of the system depends on the characteristics of the motorized camera which must be fast enough to respond to the requests from the control interface, sufficiently precise to best reach the requested positions and sufficiently enduring to maintain the quality of the preceding characteristics during the time.
  • the presented architecture concentrates the problem of the synchronization of the real and virtual environments on the camera, preferably a PT camera or a PTZ camera.
  • Part of the coordinates of its line of sight is determined during the installation of the observation system while another part of the coordinates of its line of sight is determined in real time.
  • the X, Y and Z coordinates as well as the roll (mi!) Along the line of sight are determined or calculated during the installation of the observation system while the heading and pitch (pan, tilt) are provided in real time.
  • the zoom function on the line of sight is implemented, the zoom factor is determined in real time.
  • the camera mark can be used as the reference mark.
  • the X, Y and Z coordinates as well as the roll have zero values.
  • the PTZ camera is preferably not accessible to the user. It is therefore necessary to integrate the latter within a suitable receptacle.
  • a suitable receptacle must advantageously protect the camera from external aggression, voluntary or otherwise, such as misuse, vandalism and bad weather.
  • This receptacle presented by example a part without tint masking the camera to the user but allowing the latter to film the panorama without loss of light or deformation.
  • the camera In order to avoid the problems of deformation related to the shape of this receptacle, the camera is here placed in the center of a sphere. Thus, whatever the position of the line of sight, the lens of the camera always remains equidistant from the receptacle.
  • the point of rotation of the line of sight of the camera is preferably located at eye level.
  • the camera can be deported to allow including a view that could not have the user.
  • control interface, or PTZ interface, and the display system are arranged on the sphere used as a receptacle for the camera.
  • the shape of the sphere is then used as a guide for the PTZ interface and for the display system, the guide being able to assume the appearance of a meridian-shaped movable rail.
  • FIG. 3 comprising FIGS. 3a, 3b and 3c, illustrates an example of a part of the observation device 300 comprising a sphere housing a PT camera or a PTZ camera, on which a control interface and a control system are mounted. viewing.
  • Figure 3a shows a part of the device seen user side
  • Figure 3b shows a part of the device seen in profile
  • Figure 3c shows a part of the device seen camera side.
  • the illustrated portion of the device comprises a sphere 305, a control interface 310 mounted on a guide 315 and a display system 320, here a binocular display.
  • the sphere 305 preferably comprises two distinct parts, a first portion 325 transparent, semi transparent, or non-tain, located on the camera side and a second part 330 preferably opaque located on the user side.
  • the control interface 310 advantageously comprises two handles allowing the user to move this control interface 310 on the opaque portion 330 of the sphere 305.
  • the control interface 310 can move along the guide 315. , the guide 315 being rotatable about 180 degrees about the vertical axis of the sphere 305. It is of course possible to limit or extend the displacement of the control interface 310, in particular around the vertical axis of the sphere 305.
  • a motorized camera 335 is located in the center of the sphere 305 as shown in FIG. 3c.
  • the movement of the camera 335 is controlled by the displacement of the interface 310.
  • a movement along the vertical axis of the sphere of the control interface 310 causes a movement along the vertical axis of the camera 335 while a movement along the guide 315 of the control interface 310 causes a movement along an axis of the horizontal plane of the camera 335.
  • the movement of the control interface 310 is detected by an optical encoder whose accuracy corresponds to that of the movements servo camera 335, or by a set of sensors.
  • a linear position sensor may be integrated with the control interface 310 to determine its position on the guide 315 while an angular sensor is placed on the link between the guide 315 and the sphere 305.
  • FIG. 4 illustrates the observation device 300 presented in FIG. 3.
  • the observation device here comprises a foot 400 mounted on a base 405, a step 410 and a coin mechanism 415. It should be noted that the coin mechanism 415 is not necessary for the implementation of the invention.
  • the camera 335 may be a camera equipped with a CCD (Charge-Coupled Device) sensor having a resolution of HD 108Oi, that is to say a resolution of 1080 lines with progressive scanning, with a 60 fps refresh rate and YUV-HD / HD-SDI type interface and RS-232 port to control camera movement and receive data related to its position.
  • the binocular display 320 may comprise two Organic Light-Emitting Diode (OLED) displays, one for each eye, each having a resolution of 800 ⁇ 600 pixels (picture element), a resolution of 24 bits, a refresh rate of 60 images per second. second, a brightness greater than 50 cd / m 2 , a contrast greater than 200: 1 and an interface type VGA (Video Graphics Array) and USB (Universal Serial Bus).
  • OLED Organic Light-Emitting Diode
  • Figure 5 illustrates an example of an apparatus that can be used to control camera movements and to insert virtual objects into images from the camera.
  • the device 500 is for example a microcomputer or a workstation.
  • the device 500 preferably comprises a communication bus 502 to which are connected: a central processing unit or microprocessor 504 (CPU,
  • ROM read-only memory 506
  • Programg programs
  • a random access memory or cache 508 (Random Access Memory RAM) comprising registers adapted to record variables and parameters created and modified during the execution of the aforementioned programs;
  • a video capture card 510 connected to a camera 335 ';
  • the apparatus 500 may also have the following elements:
  • a hard disk 520 which may comprise the aforementioned "Prog" programs and data processed or to be processed according to the invention
  • the user can, according to a particular embodiment, insert a memory card so as to store images from the camera 335, real or augmented.
  • the communication bus allows communication and interoperability between the various elements included in the device 500 or connected to it.
  • the representation of the bus is not limiting and, in particular, the central unit is capable of communicating instructions to any element of the apparatus 500 directly or via another element of the apparatus 500.
  • the executable code of each program enabling the programmable device to implement the processes according to the invention can be stored, for example, in the hard disk 520 or in the read-only memory 506. According to a variant, the executable code of the programs can be received via the communication network 528, via the interface 526, to be stored identically to that previously described.
  • program or programs may be loaded into one of the storage means of the device 500 before being executed.
  • the central unit 504 will control and direct the execution of the instructions or portions of software code of the program or programs according to the invention, instructions which are stored in the hard disk 520 or in the read-only memory 506 or else in the other elements of aforementioned storage.
  • the program or programs that are stored in a non-volatile memory, for example the hard disk 520 or the read-only memory 506, are transferred into the random access memory 508 which then contains the executable code of the program or programs according to the invention, as well as registers for storing the variables and parameters necessary for the implementation of the invention.
  • the communication apparatus comprising the device according to the invention can also be a programmed apparatus.
  • This device then contains the code of the computer program or programs for example frozen in a specific application integrated circuit (ASIC).
  • ASIC application integrated circuit
  • the apparatus 500 includes an augmented reality application such as Total Fusion's Fusion software (D'Fusion is a trademark of Total Immersion).
  • D'Fusion is a trademark of Total Immersion.
  • the principle of real-time insertion of a virtual object in an image from a camera or other video acquisition means according to this software is described in the patent application WO 2004/012445.
  • FIG. 6 schematically illustrates certain operating steps of the observation device according to the invention.
  • the operation of the observation device includes an installation and initialization phase (phase I) and a phase of use (phase II).
  • the installation and initialization phase comprises a step of calibrating the PTZ camera (step 600) and a step of loading the data used to enrich the real images (step 605).
  • the loading of these data can be carried out during the installation of the observation device, when the device is switched on or at regular or programmed times.
  • the user's sighting movement information is received from the control interface (step 610) and used to control the line of sight of the camera (step 615).
  • the camera then transmits the position of its line of sight and the zoom factor if the zoom function is implemented (step 620).
  • the zoom factor then makes it possible to retrieve the intrinsic parameters of the camera and the distortion parameters (step 625) by comparison with the values established during the calibration of the camera during the initialization phase.
  • the heading and pitch data of the line of sight of the camera make it possible to retrieve the extrinsic data of the camera according to the current zoom level (step 630).
  • a projection matrix is then determined from the data from steps 605, 625 and 630 (step 635).
  • This projection matrix is used to determine the position of the elements, such as virtual objects, to be inserted into the image from the camera (step 640). These elements, for example a representation of virtual objects, are then inserted into the image from the camera (step 645) to form an augmented image. The augmented image is then presented to the user (step 650). Steps 610 to 650 are repeated for each image as indicated by the dotted arrow. It should be noted that steps 610 to 630 may not be repeated if there is no movement of the user.
  • the calibration of the camera (step 600) is intended to allow a good integration of the elements, such as virtual objects, in the images from the camera, by modeling the behavior of the camera for any type of environment in which it operates, that is to say by modeling the transformation of a point of space into a point of the image.
  • the main calibration steps of the PTZ type camera are preferably the following,
  • the shooting module for example a CCD sensor
  • O is the position of the camera, and k is the line of sight;
  • ( ⁇ , ⁇ j, k) is the reference linked to the camera, in space;
  • (D, u, v) is the landmark in the image;
  • O ' is the center of the image, the coordinates of O' in the reference (D, u, v) are
  • is the line perpendicular to the image plane and passing through the point O, ⁇ thus represents the optical axis of the camera;
  • f is the focal length, that is to say the distance between the point O and the image plane;
  • M is a point of space having coordinates (x, y, z) in the coordinate system
  • the projection matrix P r making it possible to go from a point M to the point m can be written in the following form,
  • (w 0 v 0 l) are the homogeneous coordinates of the point O in the frame (D, û, v), expressed in pixels, k u is the horizontal scale factor and k v is the vertical scale factor, expressed in pixels per millimeter.
  • the intrinsic parameters of the camera are the internal characteristics of the camera.
  • the geometric model of the camera is expressed by the matrix product AT • /'.which gives the relation between the coordinates in the coordinate system ( ⁇ j, j, k) of the point M (x, y, z) and the coordinates in the landmark (D, û, v) from the point q (u, v), projected from M into the image plane.
  • the coordinates of the point q can therefore be expressed according to the following form,
  • the matrix A intrinsic parameters can be expressed in the following form, a ,, 0 u n
  • the intrinsic parameters must be related to other information more generally used in the world of video such as the resolution, in pixels, the size of the image sensor, in millimeters and the focal length according to the known relations.
  • the extrinsic parameters correspond to the rigid spatial transformation of the camera.
  • the transformation matrix D taking into account three degrees of freedom linked to the rotation R and three degrees of freedom linked to the translation T, can be written in the following form,
  • the distortion parameters are then interpolated for the intermediate focal length values. It is therefore unnecessary to take this into account in the formulation.
  • the The solution is to consider the camera used as a simple ideal camera for which offsets are made outside the camera model. Thus the distortion is pre-compensated and other residual errors, such as the optical center, are not compensated at the projection but considering that these errors come from the positioning (position and orientation) of the camera. Even if this approach can theoretically prove to be wrong, it nevertheless allows to obtain good results.
  • these compensations should not be considered constant because they may be a function of the variation of the user's aim control parameters.
  • most of the compensations are calibrated for a set of focal values and interpolated when the focal length is between two focal values for which the compensations to be applied have been calculated.
  • This approach makes it possible to correctly overlay the virtual objects on the images of a real scene by displaying the compensated images of the real scene and by rendering the virtual objects with a virtual camera simply offset and offset in position and orientation.
  • the real-time calculation cost of the virtual PTZ camera model is then almost the same as that of a perfect virtual camera (pin-hole).
  • the approach for calibrating a PTZ type camera is however different than that set up for a conventional camera. Indeed, it is necessary to perform radial distortion calibration and field of view calibration steps for several zoom levels. The corresponding parameters are thus associated with a precise zoom level given in real time by the camera. Then, during the use of the device these parameters are interpolated according to the current zoom level of the camera.
  • Each calibration phase uses the compensations from the previous calibration phases. So, to be able to consider the camera as a pin-hole model, it is necessary to start by compensating the distortion. When the radial distortion is corrected, it is then possible to calibrate the roll of the image sensor which has the effect of having a rotation of the image around the center of the distortion. To this end, it is necessary to determine whether, during a course movement (horizontal rotation) the trajectory of the points in the image is a horizontal trajectory and if necessary, to compensate for this defect. When this compensation is established it is possible to measure the horizontal field of view simply by making a course movement. The focal length of the camera is thus calibrated and then a sufficiently complete camera model is available to compare the projection of a point theoretically on the optical axis and its actual position as a zoom is done.
  • the previous formulation of the distortion shows that it is necessary to know the position of the optical center to estimate it.
  • the calibration uses a pattern consisting of a set of coplanar points placed in a regular and known manner.
  • one solution consists in comparing the theoretical projection of the set of points with the observed effective projection, which implies the knowledge of the extrinsic parameters of position and orientation of the target with respect to the camera as well as than the intrinsic parameters of horizontal and vertical focal lengths.
  • the distortion is estimated for several focal lengths of the camera.
  • the distortion does not depend on the orientation of the camera which is preferably left in central orientation during the distortion calibration step.
  • the first phase of the calibration for a given focal length and expressed not by its metric focal length but by the value of the camera's encoder associated with the zoom factor, consists in placing a target in front of the camera lens. and to analyze the projection of the points of the test pattern into the image.
  • the points of the chart are a set of coplanar points placed in a regular way (fixed and known horizontal and vertical spacings).
  • the pattern is characterized by determining one of its points as a reference. This reference point defines the reference of the target from which all other points of the target can be expressed.
  • the expression of the configuration of the test pattern with respect to the camera thus amounts to expressing the configuration (position and orientation) of this point with respect to the optical center of the camera.
  • Any point N of the test pattern can therefore be expressed, in the local coordinate system M of the test pattern, by the following relation,
  • this point of the target projected on the image plane of the camera sees its image coordinates (u, v) generate an error (squared) E n with respect to the measurement (u n , v n ) .
  • the calibration steps are as follows,
  • This calibration phase of the distortion can be automated.
  • the test pattern controllable by computer, is placed on a mechanical rail so as to be able to move the sight away from the camera.
  • a set of sights is placed in front of the camera, each is placed at an angle and a distance to ensure that for each zoom factor chosen for the calibration, there is a heading configuration to observe at a good distance, a test pattern and only one.
  • the distortion compensation can not compensate for a roll defect of the image sensor.
  • which must be estimated. This angle is considered to be independent of the zoom factor.
  • the angle ⁇ it is necessary to determine a reference point situated in the observed scene, substantially in the center of the image coming from the camera, and to make a course movement of the camera. If the angle is zero, the reference point must remain permanently on the mid-height line, or horizon line, of the image coming from the camera otherwise, it passes below or above this line of halfway up. The angle ⁇ is then estimated so that the reference point has a perfectly horizontal movement in the image. This step only needs to be performed for a single zoom value, for example the lowest zoom value.
  • this step can be automated by following a decorative point during a camera heading movement and calculating the compensation to be made so that the movement is horizontal in the image. For more robustness, this calculation can be performed on a set of points, the angle ⁇ being evaluated according to an average.
  • the zoom factor is controlled by indicating a value given to the encoder in charge of the zoom to calibrate the distortion. We therefore do not have the focal value directly.
  • the principle is to create a map between the values of the zoom encoder and the field of view ⁇ u (Field Of View angle). The use of the field of view makes it possible to determine the value of the focal length in pixel according to the following relation,
  • FoW is the width of the field of view ⁇ Field of View Width
  • a solution consists in aiming at a point or a vertical line of the decoration located at the center of the image when the heading is at zero and changing. the heading angle until the point or line is precisely on the right or left edge of the image. This makes it possible to measure the half-angle of the horizontal field of view and thus to calculate the value of the horizontal focal length.
  • the value of the horizontal focal point makes it possible to deduce that of the vertical focal length from the known ratio of the focal lengths. This solution is applicable if the relationship between the heading encoder and heading is linear, known and symmetrical with respect to the center of course.
  • This procedure could be automated by following a point or line of scenery during a course move, until the tracked item disappears.
  • the heading encoder then directly gives the value of the half horizontal field of view.
  • the decentering can be corrected by a rotation combining heading and pitching to avoid inserting this decentering into the intrinsic parameters.
  • the heading and pitch errors with respect to the optical axis of the camera are compensated not in the form of a complexification of the model of the camera but by means of an offset on the position and the orientation of the camera.
  • This pitch and pitch shift is preferably measured for all zoom factors. The measurement is made, for example, by aiming at a relatively far point of the scene while using the lowest minimum zoom factor. For each zoom factor increase, the pitch and pitch offset is set manually on the virtual camera so that the virtual point associated with the target point remains superimposed on it.
  • this procedure can be automated by following a point of the scene during a zooming motion and offsetting the pixel error by a shift in heading and pitch.
  • the calibration of the offset between the optical center and the center of rotation of the camera is the last phase of the calibration step.
  • This Calibration of the shift between the optical center and the center of rotation of the camera is not necessary if the filmed scene and the position of the virtual objects in the filmed scene are still far from the camera. Indeed, in the other steps of the calibration, it was considered that the optical center and the center of physical rotation of the camera was in the same place. This can be false but has almost no impact as soon as the visual elements are a few tens of centimeters apart. However, for close points, the previous compensations are not sufficient and the taking into account of this shift of the optical center may be necessary. It is considered here that the offset exists only along the optical axis, which is consistent with the fact that the previous calibrations are intended to compensate for the offset, except on its optical axis component.
  • one solution consists in aiming at a point of the scenery located physically close to the camera and whose physical distance with respect to the camera has previously been measured. This point is preferably chosen in the middle of the image when the line of sight of the camera is oriented with zero heading and pitch. For each zoom factor increase, the camera heading is changed until the target point is at the edge of the image. The offset is then adjusted manually so that the virtual point associated with the real point is superimposed on it. It is possible to automate the calibration of the shift between the optical center and the center of rotation of the camera by automatically following a point close to the scene by varying the zoom factor and compensating for the pixel error by a shift in translation. along the optical axis.
  • the calibration of the camera is necessary to obtain a good integration of the virtual objects in the images coming from the camera, it is also necessary to know precisely the position and the orientation of the object with respect to the camera or in an equivalent way to know the configuration of the real camera in relation to the real world that it films.
  • This calculation is called a "pose" calculation.
  • To perform this pose calculation it is necessary to relate an object of the three-dimensional scene with its two-dimensional image. For this, it is necessary to have the coordinates of several points of the object in the real scene (three-dimensional coordinates), all expressed with respect to a point of the object considered as object reference during the calculation of the pose. For this set of points, it is also necessary to have coordinates of their projection in the image (two-dimensional coordinates).
  • a multi-level pose evaluation is then implemented.
  • a first level is to perform a quick calculation to obtain an approximate pose while a second level, by a longer calculation, uses the approximate pose to improve the pose estimate, iteratively.
  • the first-level estimate is based on a first-order approximation of the "weak perspective" perspective projection model.
  • This method is fast and robust as long as the points chosen in the real space are distributed over the entire surface of the object and are not coplanar. In addition, to converge, it is necessary that the object is visible rather in the center of the image and located relatively far from the camera.
  • This known method is presented, for example, in the article "Model-Based Object Pose in 25 Lines of Code” D. DeMenthon and L. S. Davis, International Journal of Computer Vision, 15, pp. 123-141, June 1995 and in the article "Object Pose: The Link between Weak Perspective, Paraperspective, and FuII Perspective", R. Horaud, F. Dornaika, Lamiroy B., S. Christy, International Journal of Computer Vision, Volume 22, No. 2, 1997.
  • This method performs a pose calculation by choosing one of the points of the object, in three-dimensional space, as a reference frame.
  • the quality of the pose estimate was not the same depending on the chosen reference point and sometimes it is useful to remove some points to obtain a better result, while keeping at least five points not coplanar.
  • the object comprises r points in the three-dimensional space, to perform r. (R-5) pose calculations by taking each of the r points as a reference point and then to delete at each iteration, among the other points, the furthest point from the reference point. For each of these pose calculations, an average of the reprojection error in the image plane is calculated. The final pose is the one that corresponds to the smallest error.
  • the second-level estimation uses a stochastic exploration, guided by an error criterion, of the configuration space, that is to say the six-dimensional space corresponding to the set of pairs (position, orientation) close to the current pose.
  • the idea is to start from the current pose then to move a small random shift in the configuration space. If the new configuration better meets the error criterion then it becomes the new reference or else another random offset is used.
  • the steps of this method are as follows,
  • the calculation of the error is preferably done by summing, for each point, the orthogonal distance to the square between the point of the object (P), in the three-dimensional space, in the considered pose (P) and the straight line, in the three-dimensional space resulting from the projection in the two-dimensional image associated with the point, in the three-dimensional space, and the projection center of the camera (defined by the center of the camera in the three-dimensional space and a unit vector u whose direction is defined by the center of the camera and the considered point, in three-dimensional space).
  • the camera When the camera is calibrated and its configuration (position / orientation) relative to the environment is known, it is possible inserting virtual objects, or any other element such as a secondary video stream, into the images from the camera.
  • the insertion of the virtual objects in the video stream can be realized in real time by the merger software of the company Total Immersion as indicated above.
  • the choice of virtual objects to be inserted into the video stream can be done by geolocation by constituting a database. This database can be made manually or from existing databases via, for example, a connection to a network such as the Internet.
  • the camera of the observation device can be deported as shown in FIG. 7. According to this embodiment, one or more cameras are installed at locations that are not directly accessible to the users such as at the top of a camera. building, in a cave or underwater.
  • FIG. 7 illustrates an observation device 300 'comprising a sphere 305' on which are movably attached a control interface 310 'and a display system 320''.
  • the sphere 305' is preferably coupled to a foot 400 ' mounted on a base 405 'comprising a computer 500' which can also be deported
  • a step 410 ' allows the user to position themselves appropriately facing the control interface 310' and the display system 320 ".
  • the camera 335 is here deported to be fixed on a chimney 700 of a house 705.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Astronomy & Astrophysics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The invention relates to a real-time augmented-reality watching device (300), which comprises an image sensor (335) such as a PTZ camera, a visualisation system (320) and a control interface (310). In this device, the camera is controlled by a control interface operated by the user. Once the user has received (610) orientation information on the desired line of sight from the control interface, the orientation information on the line of sight is transmitted to the camera (615), the camera being powered and capable of movement. Then the camera transmits the orientation of its line of sight (620). The camera transmits a video stream in parallel. The position at which must be inserted data, such as the representation of a virtual three-dimensional object, is determined from the data resulting from the calibration and the orientation of the line of sight of the camera received from the latter (640). The data is further inserted in real time into the video stream that is transmitted to the visualisation system (645). A calibration of the camera is preferably carried out during the device set-up (600) in order to improve the device performance.

Description

Dispositif d'observation de réalité augmentée temps réel et procédé de mise en œuvre d'un tel dispositif Real-time augmented reality observation device and method for implementing such a device
La présente invention concerne les dispositifs d'observation tels que les télescopes et plus particulièrement les dispositifs d'observation de réalité augmentée permettant d'ajouter en temps réel des objets virtuels à l'image observée et les procédés de mise en œuvre de tels dispositifs.The present invention relates to observation devices such as telescopes and more particularly augmented reality observation devices for adding real-time virtual objects to the observed image and methods for implementing such devices.
Un grand nombre de sites à fort passage tels que des sites touristiques sont équipés de télescopes ou de jumelles qui permettent à leurs utilisateurs de pouvoir observer un panorama avec un facteur de grossissement, variable ou non, donnant la possibilité de mieux apprécier la vue.A large number of high-traffic sites such as tourist sites are equipped with telescopes or binoculars that allow their users to observe a panorama with a magnification factor, variable or not, giving the opportunity to better appreciate the view.
Un télescope désigne ici un appareil implanté sur bon nombre de sites touristiques offrant un point de vue intéressant à observer. Le principe de fonctionnement du télescope est le suivant : l'utilisateur met une pièce de monnaie dans l'appareil et dispose alors d'un temps prédéterminé pour observer le point de vue offert. L'observation est similaire à celle qui serait faire avec l'utilisation d'une paire de jumelles. La principale fonction consiste donc à fournir un « grossissement » du panorama observé via un système optique dédié. Ce dernier offre un champ de vision restreint autour de l'axe de visée. La limitation du champ de vision du système optique est compensée par les deux degrés de liberté offerts par l'appareil par rotation de l'axe de visée dans le plan horizontal, c'est-à-dire autour de l'axe principal de l'appareil, et par rotation de l'axe de visée dans le plan vertical, c'est-à-dire autour d'un axe perpendiculaire à l'axe principal de l'appareil. Grâce à ces mouvements, l'utilisateur est en mesure de balayer une grande partie du panorama observable et ainsi d'observer en détail, à l'aide du grossissement, les zones qui l'intéressent. La figure 1 illustre un exemple d'un tel télescope. Cependant, l'utilisateur du système n'a pas d'autre information que celle présente naturellement dans l'image. Or, pour la mise en valeur d'un site, il est souvent important de fournir des informations complémentaires. Ces informations peuvent être par exemple de type culturel ou technique mais aussi de type publicitaire ou économique pour indiquer, par exemple, la présence de restaurants ou d'hôtels.A telescope refers to a device located on many tourist sites offering an interesting point of view to observe. The principle of operation of the telescope is as follows: the user puts a coin in the device and then has a predetermined time to observe the offered point of view. The observation is similar to what would be done with the use of a pair of binoculars. The main function is therefore to provide a "magnification" of the panorama observed via a dedicated optical system. The latter offers a restricted field of view around the line of sight. The limitation of the field of view of the optical system is compensated by the two degrees of freedom offered by the apparatus by rotation of the line of sight in the horizontal plane, that is to say around the main axis of the device, and by rotation of the line of sight in the vertical plane, that is to say around an axis perpendicular to the main axis of the device. Thanks to these movements, the user is able to scan a large part of the observable panorama and thus observe in detail, using magnification, the areas that interest him. Figure 1 illustrates an example of such a telescope. However, the user of the system has no other information than that naturally present in the image. However, for the development of a site, it is often important to provide additional information. These For example, information may be of a cultural or technical nature but may also be of the advertising or economic type to indicate, for example, the presence of restaurants or hotels.
Les techniques dites de « Réalité Augmentée » sont adaptées à l'ajout de telles informations pour enrichir l'image observée. Elles permettent de faire apparaître dans une même image, la vue réelle et les informations ajoutées. Ces informations peuvent alors prendre la forme de symboles tels que des flèches, des logos, une signalétique particulière, du texte mais aussi des objets tridimensionnels virtuels, animés ou non. Il est ainsi possible de faire surgir, par exemple, un ancien bâtiment aujourd'hui disparu au dessus de la ruine dont l'utilisateur aurait du se contenter s'il ne disposait que d'un télescope classique.Techniques called "Augmented Reality" are adapted to the addition of such information to enrich the image observed. They make it possible to make appear in the same image, the real view and the added information. This information can then take the form of symbols such as arrows, logos, special signage, text but also three-dimensional virtual objects, animated or not. It is thus possible to make emerge, for example, an old building today disappeared above the ruin which the user would have had to be satisfied if it had only a conventional telescope.
Il existe des dispositifs de vision de réalité augmentée. Par exemple, la société YDreams propose une solution appelée Virtual Sightseeing (Virtual Sightseeing est une marque enregistrée). Ce dispositif dispose d'un degré de liberté. Un inconvénient de ce dispositif est la dérive de qualité de service dans le temps. En effet, la synchronisation spatiale et temporelle dépend non seulement de la précision des encodeurs utilisés pour déterminer les mouvements mais aussi de la précision et de la stabilité des liaisons mécaniques mises en oeuvre. Il convient à cet égard de noter qu'une erreur de un degré dans le plan horizontal se traduit par une erreur de plus de quatre mètres sur la coordonnée en X d'un objet situé à deux cinquante mètres du point d'observation. Toute liaison mécanique de cette nature consistant en un déplacement de pièces lourdes, aussi précise soit elle, évolue au cours du temps. Cela affecte la précision de la synchronisation entre le virtuel et le réel qui se dégrade au cours du temps. Un autre dispositif, proposé par la société Trivisio Prototyping, a, comme les télescopes classiques, deux degrés de liberté. Cependant, ce dispositif a le même inconvénient de dérive de qualité de service dans le temps. L'invention permet de résoudre au moins un des problèmes exposés précédemment. L'invention a ainsi pour objet un procédé pour un dispositif d'observation de réalité augmentée temps réel comprenant un capteur d'images, un système de visualisation et une interface de commande, ce procédé étant caractérisé en ce qu'il comprend les étapes suivantes, - recevoir une requête comprenant des informations d'orientation d'axe de visée transmise par ladite interface de commande ;There are augmented reality vision devices. For example, YDreams offers a solution called Virtual Sightseeing (Virtual Sightseeing is a registered trademark). This device has a degree of freedom. A disadvantage of this device is the quality of service drift over time. Indeed, the spatial and temporal synchronization depends not only on the accuracy of the encoders used to determine the motions but also on the accuracy and stability of the mechanical links used. In this respect, it should be noted that an error of one degree in the horizontal plane results in an error of more than four meters on the X coordinate of an object located two-fifty meters from the observation point. Any mechanical connection of this nature consisting of a displacement of heavy parts, as precise as it, evolves over time. This affects the accuracy of the synchronization between the virtual and the real which is degraded over time. Another device proposed by Trivisio Prototyping has, like conventional telescopes, two degrees of freedom. However, this device has the same drawback of quality of service drift over time. The invention solves at least one of the problems discussed above. The invention thus relates to a method for a real-time augmented reality observation device comprising an image sensor, a display system and a control interface, this method being characterized in that it comprises the following steps receiving a request comprising axis of view guidance information transmitted by said control interface;
- transmettre lesdites informations d'orientation d'axe de visée audit capteur d'images, ledit capteur d'images étant mobile et motorisé ;transmitting said line of sight orientation information to said image sensor, said image sensor being mobile and motorized;
- recevoir dudit capteur d'images l'orientation de son axe de visée ; - recevoir au moins une image issue dudit capteur d'images ;receiving from said image sensor the orientation of its line of sight; receiving at least one image originating from said image sensor;
- déterminer dans ladite image reçue la position à laquelle doit être insérée au moins une donnée, selon l'orientation de l'axe de visée dudit capteur d'images ; et,determining in said received image the position at which at least one data item must be inserted, according to the orientation of the axis of view of said image sensor; and,
- insérer en temps réel dans ladite image reçue ladite au moins une donnée à ladite position déterminée.inserting in real time into said received image said at least one datum at said determined position.
Le procédé selon l'invention permet de distinguer les commandes de contrôle de l'utilisateur des commandes du capteur d'images et ainsi d'améliorer la précision et la fiabilité du dispositif d'observation, avec une faible dérive dans le temps. Le dispositif est ainsi plus robuste dans le temps et face aux agressions externes. La caméra apporte la prise de vue réelle d'une zone du panorama à laquelle un ordinateur ajoute des éléments d'informations précisément superposés sur les différents éléments de l'image. Ce procédé permet d'améliorer la qualité de la synchronisation spatiale et temporelle entre le réel et le virtuel qui ne dépend alors que des paramètres inhérents au capteur d'images. Le procédé selon l'invention offre en outre des possibilités de correction des perturbations. De plus, le procédé selon l'invention autorise une grande liberté quant à la forme que peut prendre l'interface de commande.The method according to the invention makes it possible to distinguish the control commands of the user from the commands of the image sensor and thus to improve the accuracy and reliability of the observation device, with a slight drift over time. The device is thus more robust in time and in the face of external aggressions. The camera brings the actual shooting of an area of the panorama to which a computer adds information elements precisely superimposed on the different elements of the image. This method makes it possible to improve the quality of the spatial and temporal synchronization between the real and the virtual which only then depends on the parameters inherent to the image sensor. The method according to the invention also offers possibilities of correction of disturbances. In addition, the method according to the invention allows great freedom as to the form that can take the control interface.
Le procédé selon l'invention comprend avantageusement une phase de calibration dudit capteur d'images pour prendre en compte les éventuelles imperfections de celui-ci.The method according to the invention advantageously comprises a calibration phase of said image sensor to take into account any imperfections thereof.
Selon un mode de réalisation particulier, ladite étape de calibration comprend la calibration d'au moins l'un des paramètres compris dans l'ensemble des paramètres comprenant la correction de distorsion radiale dudit capteur d'images, la correction de roulis dudit capteur d'images, les corrections de cap et de tangage de l'axe de visée dudit capteur d'images et le décalage entre le centre optique et le centre de rotation dudit capteur d'images. Toujours selon un mode de réalisation particulier, ledit capteur d'images comprend une fonction de zoom et la calibration dudit au moins un paramètre est effectuée pour une pluralité de facteurs de zoom.According to a particular embodiment, said calibration step comprises the calibration of at least one of the parameters included in the set of parameters including the radial distortion correction of said image sensor, the roll correction of said image sensor, the heading and pitch corrections of the line of sight of said image sensor and the offset between the image sensor; optical center and the center of rotation of said image sensor. Still according to a particular embodiment, said image sensor comprises a zoom function and the calibration of said at least one parameter is performed for a plurality of zoom factors.
La calibration du capteur d'images et en particulier la calibration du capteur d'images pour plusieurs facteurs de zoom permettent de considérer les défauts de la caméra comme des paramètres extrinsèques de la caméra et ainsi d'optimiser les calculs nécessaires sur les images issues de ce capteur d'images.The calibration of the image sensor and in particular the image sensor calibration for several zoom factors make it possible to consider the camera's defects as extrinsic parameters of the camera and thus optimize the calculations required on the images from this image sensor.
Toujours selon un mode de réalisation particulier, le procédé comprend en outre une étape de co-localisation dudit capteur d'images et de la scène observée par ledit capteur d'images pour déterminer la pose de ladite au moins une donnée à insérer dans ladite image reçue dans ladite scène observée.Still according to a particular embodiment, the method further comprises a co-location step of said image sensor and the scene observed by said image sensor to determine the laying of said at least one datum to be inserted into said image received in said observed scene.
Ladite au moins une donnée à insérer dans ladite image reçue est avantageusement une représentation d'un modèle tridimensionnel virtuel animé ou non.Said at least one piece of data to be inserted in said received image is advantageously a representation of a virtual three-dimensional model animated or not.
Selon un mode de réalisation particulier, ladite orientation de l'axe de visée est définie selon deux degrés de liberté et ledit capteur d'images comprend une fonction de zoom pour permettre à l'utilisateur d'observer le point qu'il souhaite voir, avec le grossissement désiré. L'invention a également pour objet un programme d'ordinateur comprenant des instructions adaptées à la mise en œuvre de chacune des étapes du procédé décrit précédemment.According to a particular embodiment, said orientation of the line of sight is defined according to two degrees of freedom and said image sensor comprises a zoom function to enable the user to observe the point he wishes to see, with the desired magnification. The invention also relates to a computer program comprising instructions adapted to the implementation of each of the steps of the method described above.
L'invention a aussi pour objet un moyen de stockage d'informations, amovible ou non, partiellement ou totalement lisible par un ordinateur ou un microprocesseur comportant des instructions de code d'un programme d'ordinateur pour l'exécution de chacune des étapes du procédé décrit précédemment. L'invention a aussi pour objet un dispositif d'observation de réalité augmentée comprenant des moyens de connexion à un capteur d'images, un système de visualisation et une interface de commande, ce dispositif étant caractérisé en ce qu'il comprend les moyens suivants, - moyens pour recevoir des informations d'orientation d'axe de visée transmise par ladite interface de commande ;The invention also relates to a means for storing information, removable or not, partially or completely readable by a computer or a microprocessor comprising code instructions of a computer program for the execution of each of the steps of the previously described method. The invention also relates to an augmented reality observation device comprising means of connection to an image sensor, a display system and a control interface, this device being characterized in that it comprises the following means means for receiving guidance line orientation information transmitted by said control interface;
- moyens pour contrôler l'orientation de l'axe de visée dudit capteur d'images selon lesdites informations d'orientation reçues, ledit capteur d'images étant mobile et motorisé ; - moyens pour recevoir l'orientation de l'axe de visée dudit capteur d'images ;means for controlling the orientation of the axis of view of said image sensor according to said orientation information received, said image sensor being mobile and motorized; means for receiving the orientation of the axis of view of said image sensor;
- moyens pour recevoir au moins une image issue dudit capteur d'images ;means for receiving at least one image from said image sensor;
- moyens pour déterminer dans ladite image reçue la position à laquelle doit être insérée au moins une donnée selon l'orientation de l'axe de visée dudit capteur d'images ; etmeans for determining in said received image the position at which at least one datum is to be inserted according to the orientation of the axis of view of said image sensor; and
- moyens pour insérer en temps réel dans ladite image reçue ladite au moins une donnée à ladite position déterminée.means for inserting in real time into said received image said at least one datum at said determined position.
Le dispositif selon l'invention permet de séparer les commandes de contrôle de l'utilisateur des commandes du capteur d'images et ainsi d'améliorer la précision et la fiabilité du dispositif d'observation, avec une faible dérive dans le temps. Le dispositif est ainsi plus robuste dans le temps et face aux agressions externes. La caméra apporte la prise de vue réelle d'une zone du panorama à laquelle un ordinateur ajoute des éléments d'informations précisément superposés sur les différents éléments de l'image. Le dispositif permet d'améliorer la qualité de la synchronisation spatiale et temporelle entre le réel et le virtuel qui ne dépend alors que des paramètres inhérents au capteur d'images. Le dispositif selon l'invention offre en outre des possibilités de correction des perturbations. De plus, le dispositif selon l'invention autorise une grande liberté quant à la forme que peut prendre l'interface de commande.The device according to the invention makes it possible to separate the control commands of the user from the commands of the image sensor and thus to improve the accuracy and reliability of the observation device, with a small drift over time. The device is thus more robust in time and in the face of external aggressions. The camera brings the actual shooting of an area of the panorama to which a computer adds information elements precisely superimposed on the different elements of the image. The device makes it possible to improve the quality of the spatial and temporal synchronization between the real and the virtual which only then depends on the parameters inherent to the image sensor. The device according to the invention also offers possibilities of correction of disturbances. In addition, the device according to the invention allows great freedom as to the shape that can take the control interface.
Le dispositif selon l'invention comprend avantageusement des moyens de transmission de ladite image reçue comprenant ladite au moins une donnée pour permettre à l'utilisateur de visualiser sur un dispositif adapté les images augmentées issue dudit capteur d'images.The device according to the invention advantageously comprises means for transmitting said received image comprising said at least one given to allow the user to view the augmented images from said image sensor on a suitable device.
Selon un mode de réalisation particulier, l'un au moins desdits capteur d'images et moyens de stockage est distant dudit dispositif d'observation. Ce mode de réalisation permet à l'utilisateur du dispositif d'observation de bénéficier d'un point de vue qu'il ne peut pas atteindre et de protéger le capteur d'images et/ou les moyens de stockage contre les agressions externes telles que le vandalisme.According to a particular embodiment, at least one of said image sensor and storage means is remote from said observation device. This embodiment allows the user of the observation device to benefit from a point of view that he can not reach and to protect the image sensor and / or the storage means against external aggressions such as vandalism.
D'autres avantages, buts et caractéristiques de la présente invention ressortent de la description détaillée qui suit, faite à titre d'exemple non limitatif, au regard des dessins annexés dans lesquels :Other advantages, aims and features of the present invention will emerge from the detailed description which follows, given by way of non-limiting example, with reference to the accompanying drawings in which:
- la figure 1 représente schématiquement un télescope classique tel qu'il est utilisé dans les lieux touristiques ;- Figure 1 schematically shows a conventional telescope as used in tourist places;
- la figure 2 illustre schématiquement le dispositif d'observation selon l'invention ;FIG. 2 diagrammatically illustrates the observation device according to the invention;
- la figure 3, comprenant les figures 3a, 3b et 3c, présente un exemple d'une partie du dispositif d'observation selon l'invention comprenant une sphère abritant une caméra motorisée sur laquelle sont montées une interface de commande et un système de visualisation ; - la figure 4 illustre le dispositif d'observation présenté sur la figureFIG. 3, comprising FIGS. 3a, 3b and 3c, shows an example of a part of the observation device according to the invention comprising a sphere housing a motorized camera on which are mounted a control interface and a display system. ; FIG. 4 illustrates the observation device presented in FIG.
3, dans son ensemble ;3, as a whole;
- la figure 5 illustre un exemple d'appareil pouvant être utilisé pour contrôler les mouvements de la caméra et pour insérer les objets virtuels dans les images issues de la caméra ; - la figure 6 représente schématiquement certaines étapes de fonctionnement du dispositif d'observation selon l'invention ; et,FIG. 5 illustrates an example of an apparatus that can be used to control the movements of the camera and to insert the virtual objects in the images coming from the camera; FIG. 6 schematically represents certain operating steps of the observation device according to the invention; and,
- la figure 7 montre un autre exemple de dispositif d'observation selon l'invention dans lequel la caméra motorisée est déportée.FIG. 7 shows another example of an observation device according to the invention in which the motorized camera is deported.
Selon l'invention, le pilotage du dispositif de capture d'images est indirect, c'est-à-dire que le mouvement de la caméra n'est pas couplé physiquement ou matériellement au mouvement effectué par l'utilisateur.According to the invention, the control of the image capture device is indirect, that is to say that the movement of the camera is not physically or physically coupled to the movement made by the user.
L'interface de commande de visée est séparée de l'interface de positionnement du module de prise de vue tel qu'une caméra. Le couplage entre les deux interfaces est réalisé de façon logicielle ce qui offre en outre des possibilités de correction des perturbations. Ainsi, les mouvements de l'utilisateur sont répercutés sur le module de prise de vue via l'interface logicielle. La scène virtuelle étant co-localisée à la caméra et non pas au matériel manipulé physiquement par l'utilisateur, toute perte de précision sur les capteurs de mouvement de l'interface de commande n'a aucun impact sur la qualité de l'intégration des éléments virtuels dans l'image réelle. Le module de prise de vue, motorisé, est de préférence capable de produire des mouvements latéraux, aussi appelé cap ou pan, et des mouvements d'élévation, aussi appelé tangage ou tilt. Ce type de module de prise de vue peut être introduit sous le nom de caméra PT (Pan, Tilt). Avantageusement, le module de prise de vue permet également d'effectuer des zooms, ce type de module de prise de vue peut être appelé caméra PTZ (Pan, Tilt, Zoom). Le dispositif selon l'invention comprend un système d'acquisition vidéo produisant un flux vidéo composé d'images correspondant à la vue réelle observée, un système de traitement d'image pour augmenter le flux vidéo par des éléments virtuels incrustés en temps réel en fonction de la direction de l'axe de visée du dispositif et d'un système de visualisation du flux vidéo augmenté. L'axe de visée est déterminé en temps réel par des capteurs de mouvement. La précision de la position de l'axe de visée de la caméra est essentielle au bon fonctionnement de l'ensemble, afin d'insérer les objets virtuels aux emplacements adéquats, c'est-à-dire pour synchroniser spatialement les environnements réel et virtuel. La séparation de la commande permettant de définir la position de l'axe de visée telle que souhaitée par l'utilisateur, c'est-à-dire l'interface utilisateur, des moyens permettant d'atteindre cette position, c'est-à-dire le mécanisme interne de contrôle des mouvements de la caméra, implique la mise en place d'une interface de commandes permettant non seulement de définir mais aussi de transmettre en permanence la position demandée d'axe de visée. L'utilisation d'une caméra motorisée permet de déplacer son axe de visée selon la requête. Cette interface est de préférence réalisée par l'ordinateur utilisé pour insérer les objets virtuels dans les images issues de la caméra. Cet ordinateur reçoit la requête d'orientation pour l'axe de visée de l'interface de commandes, transmet les ordres à la caméra motorisée pour modifier l'axe de visée et reçoit, de la caméra, la position exacte de l'axe de visée. On parle alors de pilotage indirect de l'axe de visée. Les informations d'orientation de l'axe de visée de la caméra sont reçues de celle-ci sous forme, par exemple, de flux. Un tel flux peut transmettre, par exemple, 15 données d'orientation et de zoom par seconde. Lorsque la position de l'axe de visée est connue, le flux vidéo est augmenté et restitué.The aiming control interface is separated from the positioning interface of the shooting module such as a camera. The coupling between the two interfaces is realized in a software way which also offers possibilities of correction of the disturbances. Thus, the movements of the user are reflected on the shooting module via the software interface. Since the virtual scene is co-located with the camera and not the hardware physically manipulated by the user, any loss of precision on the motion sensors of the control interface has no impact on the quality of the integration of the devices. virtual elements in the real image. The camera module, motorized, is preferably capable of producing lateral movements, also called cap or pan, and elevation movements, also called pitching or tilting. This type of shooting module can be introduced under the name PT (Pan, Tilt) camera. Advantageously, the shooting module also makes it possible to zoom, this type of shooting module can be called PTZ camera (Pan, Tilt, Zoom). The device according to the invention comprises a video acquisition system producing a video stream composed of images corresponding to the actual view observed, an image processing system for increasing the video stream by virtual elements inlaid in real time according to the direction of the line of sight of the device and a system for viewing the increased video stream. The line of sight is determined in real time by motion sensors. The accuracy of the position of the line of sight of the camera is essential to the proper functioning of the set, in order to insert the virtual objects in the appropriate locations, that is to say to spatially synchronize the real and virtual environments . The separation of the command to define the position of the line of sight as desired by the user, that is to say the user interface, means to achieve this position, that is to say say the internal mechanism of control of the movements of the camera, implies the setting up of a command interface allowing not only to define but also to transmit permanently the requested position of axis of sight. The use of a motorized camera makes it possible to move its axis of sight according to the request. This interface is preferably performed by the computer used to insert the virtual objects in the images from the camera. This computer receives the orientation request for the axis of view of the command interface, transmits the orders to the motorized camera to modify the line of sight and receives, from the camera, the exact position of the axis of view. referred. This is called indirect steering of the line of sight. The orientation information of the line of sight of the camera is received from it in the form of, for example, flow. Such a stream may transmit, for example, orientation and zoom data per second. When the position of the line of sight is known, the video stream is increased and restored.
L'utilisation de la position de l'axe de visée fournie par la caméra motorisée et non par l'interface de commandes permet d'améliorer la qualité de la synchronisation spatiale et temporelle entre le réel et le virtuel qui ne dépend alors que des paramètres inhérents à la caméra.The use of the position of the line of sight provided by the motorized camera and not the control interface makes it possible to improve the quality of the spatial and temporal synchronization between the real and the virtual, which depends only on the parameters inherent to the camera.
Un des objectifs du pilotage indirect est de limiter la propagation des erreurs au sein du système. Ainsi, la pérennité de la synchronisation entre le virtuel et le réel au cours du temps repose entièrement sur la qualité et la fiabilité des données reçues de la caméra motorisée. Même si la précision de l'interface de commandes se détériore au cours du temps, l'impact restera limité : l'axe de visée ne correspondra peut être pas exactement à la requête émise par l'interface mais le réel et le virtuel resteront parfaitement synchronisés.One of the objectives of indirect control is to limit the propagation of errors within the system. Thus, the durability of the synchronization between the virtual and the real over time relies entirely on the quality and reliability of the data received from the motorized camera. Even if the precision of the command interface deteriorates over time, the impact will be limited: the line of sight may not correspond exactly to the request sent by the interface but the real and the virtual will remain perfectly synchronized.
De plus, la séparation entre l'interface de commandes et le reste du système autorise une grande liberté quant à la forme que peut prendre cette interface. Il peut s'agir par exemple d'un clavier, d'une manette type joystick ou d'un système de pointage dédié tel qu'un système mécanique avec captation de mouvements. Un tel système de pointage peut coupler mécaniquement l'interface de commandes et le système de visualisation. La figure 2 illustre schématiquement le dispositif 200 de l'invention.In addition, the separation between the command interface and the rest of the system allows great freedom as to the form that this interface can take. It may be for example a keyboard, a joystick type joystick or a dedicated pointing system such as a mechanical system with motion capture. Such a pointing system can mechanically couple the control interface and the display system. Figure 2 schematically illustrates the device 200 of the invention.
Comme illustré, le dispositif 200 comprend une interface de commande 205 qui transmet une requête de position de l'axe de visée à l'ordinateur 210. L'ordinateur 210 transmet à son tour une commande, correspondant à la requête de position de l'axe de visée, à la caméra motorisée 215 ayant un axe de visée 220. En parallèle, la caméra 215 transmet à l'ordinateur 210 l'orientation de son axe de visée, par exemple sous forme de flux de données, permettant ainsi le traitement des images issues de la caméra durant la période de mouvement. La caméra 215 transmet également un flux d'images, de préférence continu, à l'ordinateur 210 qui intègre dans les images issues de ce flux vidéo les objets virtuels selon les souhaits de l'utilisateur, des scénarii préétablis et/ou le contexte pour former le flux vidéo augmenté qui est transmis à un système de visualisation 225.As illustrated, the device 200 comprises a control interface 205 which transmits a position request of the line of sight to the computer 210. The computer 210 in turn transmits a command, corresponding to the position request of the line of sight, to the motorized camera 215 having a line of sight 220. In parallel, the camera 215 transmits to the computer 210 the orientation of its line of sight, for example in the form of a data stream, thus allowing the processing of images from the camera during the period of movement. The camera 215 also transmits an image flow, preferably continuous, to the computer 210 which integrates in the images from this video stream the virtual objects according to the wishes of the user, pre-established scenarios and / or the context for forming the augmented video stream that is transmitted to a display system 225.
La qualité du système dépend des caractéristiques de la caméra motorisée qui doit être suffisamment rapide pour répondre aux sollicitations provenant de l'interface de commande, suffisamment précise pour atteindre au mieux les positions demandées et suffisamment endurante pour maintenir la qualité des caractéristiques précédentes au cours du temps.The quality of the system depends on the characteristics of the motorized camera which must be fast enough to respond to the requests from the control interface, sufficiently precise to best reach the requested positions and sufficiently enduring to maintain the quality of the preceding characteristics during the time.
L'architecture présentée concentre le problème de la synchronisation des environnements réel et virtuel sur la caméra, de préférence une caméra PT ou une caméra PTZ. Une partie des coordonnées de son axe de visée est déterminée lors de l'installation du système d'observation tandis qu'une autre partie des coordonnées de son axe de visée est déterminée en temps réel. Les coordonnées X, Y et Z ainsi que le roulis {ml!) selon l'axe de visée sont déterminées ou calculées lors de l'installation du système d'observation alors que le cap et le tangage (pan, tilt) sont fournis en temps réel. De même, si la fonction de zoom sur l'axe de visée est mise en œuvre, le facteur de zoom est déterminé en temps réel. Pour simplifier les calculs, le repère de la caméra peut être utilisé comme le repère de référence. Il en résulte que les coordonnées X, Y et Z, ainsi que le roulis ont des valeurs nulles.The presented architecture concentrates the problem of the synchronization of the real and virtual environments on the camera, preferably a PT camera or a PTZ camera. Part of the coordinates of its line of sight is determined during the installation of the observation system while another part of the coordinates of its line of sight is determined in real time. The X, Y and Z coordinates as well as the roll (mi!) Along the line of sight are determined or calculated during the installation of the observation system while the heading and pitch (pan, tilt) are provided in real time. Similarly, if the zoom function on the line of sight is implemented, the zoom factor is determined in real time. To simplify calculations, the camera mark can be used as the reference mark. As a result, the X, Y and Z coordinates as well as the roll have zero values.
Pour des raisons de robustesse, la caméra PTZ n'est de préférence pas accessible à l'utilisateur. Il convient donc d'intégrer cette dernière au sein d'un réceptacle adapté. Un tel réceptacle doit avantageusement protéger la caméra des agressions externes, volontaire ou non, telles qu'une mauvaise utilisation, le vandalisme et les intempéries. Ce réceptacle présente par exemple une partie sans tain masquant la caméra à l'utilisateur mais autorisant cette dernière à filmer le panorama sans perte de lumière ni déformation.For reasons of robustness, the PTZ camera is preferably not accessible to the user. It is therefore necessary to integrate the latter within a suitable receptacle. Such a receptacle must advantageously protect the camera from external aggression, voluntary or otherwise, such as misuse, vandalism and bad weather. This receptacle presented by example a part without tint masking the camera to the user but allowing the latter to film the panorama without loss of light or deformation.
Afin d'éviter les problèmes de déformation liées à la forme de ce réceptacle, la caméra est ici placée au centre d'une sphère. Ainsi, quelque soit la position de l'axe de visée, l'objectif de la caméra reste toujours à égale distance du réceptacle.In order to avoid the problems of deformation related to the shape of this receptacle, the camera is here placed in the center of a sphere. Thus, whatever the position of the line of sight, the lens of the camera always remains equidistant from the receptacle.
Afin de respecter l'aspect pratique du dispositif d'observation, le point de rotation de l'axe de visée de la caméra est de préférence situé à hauteur de l'oeil. Alternativement, la caméra peut être déportée pour permettre notamment une vue que ne pourrait pas avoir l'utilisateur.In order to respect the practical aspect of the observation device, the point of rotation of the line of sight of the camera is preferably located at eye level. Alternatively, the camera can be deported to allow including a view that could not have the user.
Selon un mode de réalisation particulier, l'interface de commande, ou interface PTZ, et le système de visualisation sont agencés sur la sphère utilisée comme réceptacle pour la caméra. La forme de la sphère est alors utilisée comme un guide pour l'interface PTZ et pour le système d'affichage, le guide pouvant prendre l'apparence d'un rail mobile en forme de méridien.According to a particular embodiment, the control interface, or PTZ interface, and the display system are arranged on the sphere used as a receptacle for the camera. The shape of the sphere is then used as a guide for the PTZ interface and for the display system, the guide being able to assume the appearance of a meridian-shaped movable rail.
La figure 3, comprenant les figures 3a, 3b et 3c, illustre un exemple d'une partie du dispositif d'observation 300 comprenant une sphère abritant une caméra PT ou une caméra PTZ, sur laquelle sont montés une interface de commande et un système de visualisation. La figure 3a représente une partie du dispositif vu côté utilisateur, la figure 3b représente une partie du dispositif vu de profil et la figure 3c représente une partie du dispositif vu côté caméra. La partie illustrée du dispositif comprend une sphère 305, une interface de commande 310 montée sur un guide 315 et un système de visualisation 320, ici un afficheur binoculaire. La sphère 305 comprend de préférence deux parties distinctes, une première partie 325 transparente, semi transparente, ou sans tain, située côté caméra et une seconde partie 330 de préférence opaque située côté utilisateur. L'interface de commande 310 comprend avantageusement deux poignées permettant à l'utilisateur de déplacer cette interface de commande 310 sur la partie opaque 330 de la sphère 305. A cette fin, l'interface de commande 310 peut se déplacer le long du guide 315, le guide 315 pouvant pivoter d'environ 180 degrés autour de l'axe vertical de la sphère 305. Il est bien entendu possible de limiter ou d'étendre le déplacement de l'interface de commande 310, en particulier autour de l'axe vertical de la sphère 305.FIG. 3, comprising FIGS. 3a, 3b and 3c, illustrates an example of a part of the observation device 300 comprising a sphere housing a PT camera or a PTZ camera, on which a control interface and a control system are mounted. viewing. Figure 3a shows a part of the device seen user side, Figure 3b shows a part of the device seen in profile and Figure 3c shows a part of the device seen camera side. The illustrated portion of the device comprises a sphere 305, a control interface 310 mounted on a guide 315 and a display system 320, here a binocular display. The sphere 305 preferably comprises two distinct parts, a first portion 325 transparent, semi transparent, or non-tain, located on the camera side and a second part 330 preferably opaque located on the user side. The control interface 310 advantageously comprises two handles allowing the user to move this control interface 310 on the opaque portion 330 of the sphere 305. For this purpose, the control interface 310 can move along the guide 315. , the guide 315 being rotatable about 180 degrees about the vertical axis of the sphere 305. It is of course possible to limit or extend the displacement of the control interface 310, in particular around the vertical axis of the sphere 305.
Une caméra motorisée 335 est située au centre de la sphère 305 comme illustré sur la figure 3c. Le mouvement de la caméra 335 est contrôlé par le déplacement de l'interface 310. Un mouvement selon l'axe vertical de la sphère de l'interface de commande 310 entraîne un mouvement selon l'axe vertical de la caméra 335 tandis qu'un mouvement le long du guide 315 de l'interface de commande 310 entraîne un mouvement selon un axe du plan horizontal de la caméra 335. Le mouvement de l'interface de commande 310 est détecté par un encodeur optique dont la précision correspond à celle des mouvements d'asservissement de la caméra 335, ou par un ensemble de capteurs. Par exemple un capteur linéaire de position peut être intégré à l'interface de commande 310 pour déterminer sa position sur le guide 315 tandis qu'un capteur angulaire est placé sur la liaison entre le guide 315 et la sphère 305.A motorized camera 335 is located in the center of the sphere 305 as shown in FIG. 3c. The movement of the camera 335 is controlled by the displacement of the interface 310. A movement along the vertical axis of the sphere of the control interface 310 causes a movement along the vertical axis of the camera 335 while a movement along the guide 315 of the control interface 310 causes a movement along an axis of the horizontal plane of the camera 335. The movement of the control interface 310 is detected by an optical encoder whose accuracy corresponds to that of the movements servo camera 335, or by a set of sensors. For example, a linear position sensor may be integrated with the control interface 310 to determine its position on the guide 315 while an angular sensor is placed on the link between the guide 315 and the sphere 305.
L'ordinateur utilisé pour contrôler les mouvements de la caméra 335 et pour insérer les objets virtuels dans les images issues de la caméra 335 avant qu'elles ne soient transmises au système de visualisation 320 peut être placé dans le socle (non représenté) du dispositif d'observation 300. La figure 4 illustre le dispositif d'observation 300 présenté sur la figure 3. Le dispositif d'observation comprend ici un pied 400 monté sur un socle 405, un marchepied 410 et un monnayeur 415. Il convient de noter que le monnayeur 415 n'est pas nécessaire à la mise en œuvre de l'invention.The computer used to control the movements of the camera 335 and to insert the virtual objects into the images from the camera 335 before they are transmitted to the display system 320 can be placed in the base (not shown) of the device 300. FIG. 4 illustrates the observation device 300 presented in FIG. 3. The observation device here comprises a foot 400 mounted on a base 405, a step 410 and a coin mechanism 415. It should be noted that the coin mechanism 415 is not necessary for the implementation of the invention.
A titre d'illustration, la caméra 335 peut être une caméra équipée d'un capteur CCD (Charge-Coupled Device) ayant une résolution de HD 108Oi, c'est-à-dire une résolution de 1080 lignes à balayage progressif, avec une vitesse de rafraîchissement de 60 images par seconde et une interface de type YUV-HD/HD-SDI et un port RS-232 pour contrôler les mouvements de la caméra et recevoir des données liées à sa position. L'afficheur binoculaire 320 peut comprendre deux afficheur OLED (Organic Light-Emitting Diode), un pour chaque œil, ayant chacun une résolution de 800x600 pixels (picture élément), une résolution de 24 bits, une vitesse de rafraîchissement de 60 images par seconde, une luminosité supérieure à 50 cd/m2, un contraste supérieur à 200 :1 et une interface de type VGA (Video Graphics Array) et USB (Universal Sériai Bus).By way of illustration, the camera 335 may be a camera equipped with a CCD (Charge-Coupled Device) sensor having a resolution of HD 108Oi, that is to say a resolution of 1080 lines with progressive scanning, with a 60 fps refresh rate and YUV-HD / HD-SDI type interface and RS-232 port to control camera movement and receive data related to its position. The binocular display 320 may comprise two Organic Light-Emitting Diode (OLED) displays, one for each eye, each having a resolution of 800 × 600 pixels (picture element), a resolution of 24 bits, a refresh rate of 60 images per second. second, a brightness greater than 50 cd / m 2 , a contrast greater than 200: 1 and an interface type VGA (Video Graphics Array) and USB (Universal Serial Bus).
La figure 5 illustre un exemple d'appareil pouvant être utilisé pour contrôler les mouvements de la caméra et pour insérer les objets virtuels dans les images issues de la caméra. L'appareil 500 est par exemple un microordinateur ou une station de travail.Figure 5 illustrates an example of an apparatus that can be used to control camera movements and to insert virtual objects into images from the camera. The device 500 is for example a microcomputer or a workstation.
L'appareil 500 comporte de préférence un bus de communication 502 auquel sont reliés : - une unité centrale de traitement ou microprocesseur 504 (CPU,The device 500 preferably comprises a communication bus 502 to which are connected: a central processing unit or microprocessor 504 (CPU,
Central Processing Unit) ;Central Processing Unit);
- une mémoire morte 506 (ROM, Read OnIy Memory) pouvant comporter le système d'exploitation et des programmes tels que "Prog" ;a read-only memory 506 (ROM) that can include the operating system and programs such as "Prog";
- une mémoire vive ou mémoire cache 508 (RAM, Random Access Memory) comportant des registres adaptés à enregistrer des variables et paramètres créés et modifiés au cours de l'exécution des programmes précités ;a random access memory or cache 508 (Random Access Memory RAM) comprising registers adapted to record variables and parameters created and modified during the execution of the aforementioned programs;
- une carte d'acquisition vidéo 510 reliée à une caméra 335' ;a video capture card 510 connected to a camera 335 ';
- une carte d'entrée/sortie 514 reliée à la caméra 335' et à une interface de commande 310' ; et,an input / output card 514 connected to the camera 335 'and to a control interface 310'; and,
- une carte graphique 516 reliée à un écran ou à un projecteur 320'. Optionnellement, l'appareil 500 peut également disposer des éléments suivants :a graphics card 516 connected to a screen or a projector 320 '. Optionally, the apparatus 500 may also have the following elements:
- un disque dur 520 pouvant comporter les programmes "Prog" précités et des données traitées ou à traiter selon l'invention ;a hard disk 520 which may comprise the aforementioned "Prog" programs and data processed or to be processed according to the invention;
- un clavier 522 et une souris 524 ou tout autre dispositif de pointage comme un crayon optique, un écran tactile ou une télécommande permettant à l'utilisateur d'interagir avec les programmes selon l'invention, en particulier lors des phases d'installation et/ou d'initialisation ; - une interface de communication 526 reliée à un réseau de communication distribué 528, par exemple le réseau Internet, l'interface étant apte à transmettre et à recevoir des données ; et, - un lecteur de cartes mémoires (non représenté) adapté à y lire ou à y écrire des données traitées ou à traiter selon l'invention. En particulier, l'utilisateur peut, selon un mode de réalisation particulier, insérer une carte mémoire de façon à y stocker des images issues de la caméra 335, réelles ou augmentées.a keyboard 522 and a mouse 524 or any other pointing device such as an optical pencil, a touch screen or a remote control allowing the user to interact with the programs according to the invention, in particular during the installation phases and / or initialization; a communication interface 526 connected to a distributed communication network 528, for example the Internet network, the interface being able to transmit and receive data; and, - A memory card reader (not shown) adapted to read or write processed or processed data according to the invention. In particular, the user can, according to a particular embodiment, insert a memory card so as to store images from the camera 335, real or augmented.
Le bus de communication permet la communication et l'interopérabilité entre les différents éléments inclus dans l'appareil 500 ou reliés à lui. La représentation du bus n'est pas limitative et, notamment, l'unité centrale est susceptible de communiquer des instructions à tout élément du l'appareil 500 directement ou par l'intermédiaire d'un autre élément du l'appareil 500.The communication bus allows communication and interoperability between the various elements included in the device 500 or connected to it. The representation of the bus is not limiting and, in particular, the central unit is capable of communicating instructions to any element of the apparatus 500 directly or via another element of the apparatus 500.
Le code exécutable de chaque programme permettant à l'appareil programmable de mettre en oeuvre les processus selon l'invention, peut être stocké, par exemple, dans le disque dur 520 ou en mémoire morte 506. Selon une variante, le code exécutable des programmes pourra être reçu par l'intermédiaire du réseau de communication 528, via l'interface 526, pour être stocké de façon identique à celle décrite précédemment.The executable code of each program enabling the programmable device to implement the processes according to the invention can be stored, for example, in the hard disk 520 or in the read-only memory 506. According to a variant, the executable code of the programs can be received via the communication network 528, via the interface 526, to be stored identically to that previously described.
De manière plus générale, le ou les programmes pourront être chargés dans un des moyens de stockage de l'appareil 500 avant d'être exécutés.More generally, the program or programs may be loaded into one of the storage means of the device 500 before being executed.
L'unité centrale 504 va commander et diriger l'exécution des instructions ou portions de code logiciel du ou des programmes selon l'invention, instructions qui sont stockées dans le disque dur 520 ou dans la mémoire morte 506 ou bien dans les autres éléments de stockage précités. Lors de la mise sous tension, le ou les programmes qui sont stockés dans une mémoire non volatile, par exemple le disque dur 520 ou la mémoire morte 506, sont transférés dans la mémoire vive 508 qui contient alors le code exécutable du ou des programmes selon l'invention, ainsi que des registres pour mémoriser les variables et paramètres nécessaires à la mise en œuvre de l'invention.The central unit 504 will control and direct the execution of the instructions or portions of software code of the program or programs according to the invention, instructions which are stored in the hard disk 520 or in the read-only memory 506 or else in the other elements of aforementioned storage. When powering up, the program or programs that are stored in a non-volatile memory, for example the hard disk 520 or the read-only memory 506, are transferred into the random access memory 508 which then contains the executable code of the program or programs according to the invention, as well as registers for storing the variables and parameters necessary for the implementation of the invention.
Il convient de noter que l'appareil de communication comportant le dispositif selon l'invention peut également être un appareil programmé. Cet appareil contient alors le code du ou des programmes informatiques par exemple figé dans un circuit intégré à application spécifique (ASIC).It should be noted that the communication apparatus comprising the device according to the invention can also be a programmed apparatus. This device then contains the code of the computer program or programs for example frozen in a specific application integrated circuit (ASIC).
L'appareil 500 comprend une application de réalité augmentée telle que le logiciel D'Fusion de la société Total Immersion (D'Fusion est une marque de la société Total Immersion). Le principe d'insertion en temps réel d'un objet virtuel dans une image issue d'une caméra ou d'un autre moyen d'acquisition vidéo selon ce logiciel est décrit dans la demande de brevet WO 2004/012445.The apparatus 500 includes an augmented reality application such as Total Fusion's Fusion software (D'Fusion is a trademark of Total Immersion). The principle of real-time insertion of a virtual object in an image from a camera or other video acquisition means according to this software is described in the patent application WO 2004/012445.
La figure 6 illustre schématiquement certaines étapes de fonctionnement du dispositif d'observation selon l'invention. Le fonctionnement du dispositif d'observation comprend une phase d'installation et d'initialisation (phase I) et une phase d'utilisation (phase II).FIG. 6 schematically illustrates certain operating steps of the observation device according to the invention. The operation of the observation device includes an installation and initialization phase (phase I) and a phase of use (phase II).
La phase d'installation et d'initialisation comprend une étape de calibration de la caméra PTZ (étape 600) et une étape de chargement des données utilisées pour enrichir les images réelles (étape 605). Le chargement de ces données peut être réalisé lors de l'installation du dispositif d'observation, lors de la mise en route du dispositif ou à des instants réguliers ou programmés.The installation and initialization phase comprises a step of calibrating the PTZ camera (step 600) and a step of loading the data used to enrich the real images (step 605). The loading of these data can be carried out during the installation of the observation device, when the device is switched on or at regular or programmed times.
Lors de la phase d'utilisation, les informations relatives aux mouvements de visée de l'utilisateur sont reçues de l'interface de commande (étape 610) et utilisées pour contrôler l'axe de visée de la caméra (étape 615). La caméra transmet alors la position de son axe de visée et du facteur de zoom si la fonction de zoom est implémentée (étape 620). Le facteur de zoom permet ensuite de retrouver les paramètres intrinsèques de la caméra et les paramètres de distorsion (étape 625) par comparaison avec les valeurs établies lors de la calibration de la caméra durant la phase d'initialisation. En parallèle, les données de cap et de tangage de l'axe de visée de la caméra permettent de retrouver les données extrinsèques de la caméra en fonction du niveau de zoom courant (étape 630). Une matrice de projection est alors déterminée à partir des données issues des étapes 605, 625 et 630 (étape 635). Cette matrice de projection est utilisée pour déterminer la position des éléments, tels que des objets virtuels, devant être insérés dans l'image issue de la caméra (étape 640). Ces éléments, par exemple une représentation des objets virtuels, sont alors insérés dans l'image issue de la caméra (étape 645) pour former une image augmentée. L'image augmentée est ensuite présentée à l'utilisateur (étape 650). Les étapes 610 à 650 sont répétées pour chaque image comme indiqué par la flèche pointillée. Il convient de noter que les étapes 610 à 630 peuvent ne pas être répétées s'il n'y a pas de mouvement de l'utilisateur.During the use phase, the user's sighting movement information is received from the control interface (step 610) and used to control the line of sight of the camera (step 615). The camera then transmits the position of its line of sight and the zoom factor if the zoom function is implemented (step 620). The zoom factor then makes it possible to retrieve the intrinsic parameters of the camera and the distortion parameters (step 625) by comparison with the values established during the calibration of the camera during the initialization phase. In parallel, the heading and pitch data of the line of sight of the camera make it possible to retrieve the extrinsic data of the camera according to the current zoom level (step 630). A projection matrix is then determined from the data from steps 605, 625 and 630 (step 635). This projection matrix is used to determine the position of the elements, such as virtual objects, to be inserted into the image from the camera (step 640). These elements, for example a representation of virtual objects, are then inserted into the image from the camera (step 645) to form an augmented image. The augmented image is then presented to the user (step 650). Steps 610 to 650 are repeated for each image as indicated by the dotted arrow. It should be noted that steps 610 to 630 may not be repeated if there is no movement of the user.
La calibration de la caméra (étape 600) a pour objet de permettre une bonne intégration des éléments, tels que des objets virtuels, dans les images issues de la caméra, en modélisant le comportement de la caméra pour tout type d'environnement dans lequel elle opère, c'est-à-dire en modélisant la transformation d'un point de l'espace en un point de l'image. Les grandes étapes de calibration de la caméra de type PTZ sont de préférence les suivantes,The calibration of the camera (step 600) is intended to allow a good integration of the elements, such as virtual objects, in the images from the camera, by modeling the behavior of the camera for any type of environment in which it operates, that is to say by modeling the transformation of a point of space into a point of the image. The main calibration steps of the PTZ type camera are preferably the following,
- calibration de la distorsion radiale ;- calibration of the radial distortion;
- calibration du roulis du module de prise de vue (par exemple un capteur CCD) ;- Roll calibration of the shooting module (for example a CCD sensor);
- calibration du champ de vision ;- calibration of the field of vision;
- calibration de la distance entre le centre optique et le centre de rotation de la caméra ; et,- calibration of the distance between the optical center and the center of rotation of the camera; and,
- co-localisation de la scène réelle par rapport à la caméra. II est important de noter que les informations de valeurs de focales données par les caméras de type PTZ, ne correspondent pas à des données « métriques ». Il convient donc de construire avec précision une table de correspondance entre la valeur de zoom donnée par la caméra PTZ et les paramètres intrinsèques retrouvés après calibration. II convient tout d'abord de rappeler la géométrie projective permettant d'exprimer la relation entre un point dans l'espace et son projeté sur le plan image.- co-location of the real scene with respect to the camera. It is important to note that the focal length information given by PTZ cameras does not correspond to "metric" data. It is therefore necessary to precisely construct a correspondence table between the zoom value given by the PTZ camera and the intrinsic parameters found after calibration. It is first necessary to recall the projective geometry that makes it possible to express the relation between a point in space and its projected on the image plane.
Les notations suivantes sont utilisées dans la suite de la description,The following notations are used in the rest of the description,
O est la position de la caméra, et k est l'axe de visée ; (θ,ïj,k) est le repère lié à la caméra, dans l'espace ; (D,u,v) est le repère dans l'image ; O' est le centre de l'image, les coordonnées de O' dans le repère (D,u,v) sontWhere O is the position of the camera, and k is the line of sight; (θ, ïj, k) is the reference linked to the camera, in space; (D, u, v) is the landmark in the image; Where O 'is the center of the image, the coordinates of O' in the reference (D, u, v) are
(uo.vo) ;(uo.vo);
Δ est la droite perpendiculaire au plan image et passant par le point O, Δ représente donc l'axe optique de la caméra ; f est la distance focale, c'est-à-dire la distance entre le point O et le plan image ; M est un point de l'espace ayant pour coordonnées (x,y,z) dans le repèreΔ is the line perpendicular to the image plane and passing through the point O, Δ thus represents the optical axis of the camera; f is the focal length, that is to say the distance between the point O and the image plane; M is a point of space having coordinates (x, y, z) in the coordinate system
(θj,j,k) ; et, m est la projection du point M dans le plan image selon la droite OM1 les coordonnées de m dans le repère [θ,Tj,k) sont (x'.y'.z1) avec,(θj, j, k); and, m is the projection of the point M in the image plane along line OM 1, the coordinates of m in the frame [θ, Tj, k) are (x'.y'.z 1 ) with,
x'= f- z \ y'= f- z \ ï= fx '= f- z \ y' = f- z \ ï = f
La matrice de projection Pr permettant de passer d'un point M au point m peut s'écrire sous la forme suivante,The projection matrix P r making it possible to go from a point M to the point m can be written in the following form,
et la matrice K de la transformation affine permettant de passer du repère [θj,],kj au repère {D,u,v) peut s'écrire sous la forme suivante, and the matrix K of the affine transformation making it possible to pass from the reference [θj,], kj to the reference {D, u, v) can be written in the following form,
où (w0 v0 l) sont les coordonnées homogènes du point O dans le repère (D, û, v), exprimées en pixels, ku est le facteur d'échelle horizontal et kv est le facteur d'échelle vertical, exprimés en pixels par millimètre. where (w 0 v 0 l) are the homogeneous coordinates of the point O in the frame (D, û, v), expressed in pixels, k u is the horizontal scale factor and k v is the vertical scale factor, expressed in pixels per millimeter.
Les paramètres intrinsèques de la caméra sont les caractéristiques internes de la caméra. Le modèle géométrique de la caméra s'exprime par le produit matriciel AT • /'.qui donne la relation entre les coordonnées dans le repère (θj,j,k) du point M(x,y,z) et les coordonnées dans le repère (D,û,v) du point q(u,v), projeté de M dans le plan image. Les coordonnées du point q peuvent donc s'exprimer selon la forme suivante,The intrinsic parameters of the camera are the internal characteristics of the camera. The geometric model of the camera is expressed by the matrix product AT • /'.which gives the relation between the coordinates in the coordinate system (θj, j, k) of the point M (x, y, z) and the coordinates in the landmark (D, û, v) from the point q (u, v), projected from M into the image plane. The coordinates of the point q can therefore be expressed according to the following form,
u = kuf- + u0 ; v = kj - + vo u = k u f + u 0 ; v = kj - + v o
Z ZZ Z
La matrice A des paramètres intrinsèque peut s'exprimer sous la forme suivante, a,, 0 un The matrix A intrinsic parameters can be expressed in the following form, a ,, 0 u n
A = fK - Pr = 0 α,, vn avec au = kuf et av = kjA = fK - P r = 0 α ,, v n with a u = k u f and a v = kj
0 0 1 car il est possible de multiplier tous les coefficients de K - Pr par un facteur f, les coordonnées homogènes étant définies à un facteur près.0 0 1 because it is possible to multiply all the coefficients of K - P r by a factor f, the homogeneous coordinates being defined by a factor.
Les paramètres intrinsèques doivent être reliés à d'autres informations plus généralement utilisées dans le monde de la vidéo telles que la résolution, en pixels, la taille du capteur d'images, en millimètres et la focale selon les relations connues.The intrinsic parameters must be related to other information more generally used in the world of video such as the resolution, in pixels, the size of the image sensor, in millimeters and the focal length according to the known relations.
Les paramètres extrinsèques correspondent à la transformation spatiale rigide de la caméra. La matrice de transformation D, prenant en compte trois degrés de liberté liés à la rotation R et trois degrés de liberté liés à la translation T, peut s'écrire sous la forme suivante,The extrinsic parameters correspond to the rigid spatial transformation of the camera. The transformation matrix D, taking into account three degrees of freedom linked to the rotation R and three degrees of freedom linked to the translation T, can be written in the following form,
II est alors possible d'écrire la matrice d'une projection perspective quelconque sous la forme d'une matrice 3x4 définie seulement à un facteur près λ=f, f étant la focale,It is then possible to write the matrix of any prospective projection in the form of a 3x4 matrix defined only by a factor of approximately λ = f, where f is the focal length,
Cependant, ceci n'est valide que pour une caméra parfaire dite « pin- hole », c'est-à-dire une caméra théorique n'utilisant pas de lentille. Généralement les caméras utilisent au moins une lentille qui induit des distorsions géométriques et colorimétriques. Seules les distorsions géométriques sont ici traitées. La distorsion géométrique introduite par une lentille peut être décomposée en deux composantes, la distorsion radiale et la distorsion tangentielle. La distorsion radiale s'exerce radialement autour du centre optique dans l'image, de façon négative (distorsion en coussinet, pincushion) ou positive (distorsion en barillet, barrel). Cette distorsion peut être modélisée de façon polynomiale, avec des monômes de degrés pairs. La distorsion tangentielle peut provenir d'un décentrage des lentilles ou des imperfections de celles-ci. En considérant des pixels carrés (αvu = 1 ), en se plaçant à une distance focale de un pixel («„ = «„ = 1 ) et en partant de l'hypothèse que la distorsion tangentielle est nulle (/?, = p2 = 0 ), la formulation de la distorsion peut s'écrire sous la forme simplifiée non linéaire suivante, u'= u - u0 V= v- v0 d2 = u'2+V2 p - \ λ- αxd2 + α2d4 However, this is valid only for a so-called "pin-hole" camera, that is to say a theoretical camera that does not use a lens. Generally, cameras use at least one lens that induces Geometric and colorimetric distortions. Only geometric distortions are treated here. The geometric distortion introduced by a lens can be decomposed into two components, radial distortion and tangential distortion. The radial distortion is radially around the optical center in the image, in a negative manner (pincushion distortion, pincushion) or positive (barrel distortion, barrel). This distortion can be modeled polynomially, with monomials of even degrees. The tangential distortion can come from a misalignment of the lenses or imperfections thereof. By considering square pixels (α v / α u = 1), by placing at a focal distance of one pixel ("" = "" = 1) and starting from the hypothesis that the tangential distortion is zero (/? , = p 2 = 0), the formulation of the distortion can be written in the following non-linear simplified form, u '= u - u 0 V = v- v 0 d 2 = u' 2 + V 2 p - \ λ-α x d 2 + α 2 d 4
U = M0 + u'pU = M 0 + u'p
V = vQ + v' p où (u,v) sont les coordonnées (en pixel) issus de la projection perspective parfaite, ai et α.2 sont respectivement la focale (en pixel) horizontale et verticale, (uo,vo) sont les coordonnées (en pixel) du centre optique projeté dans l'image et (U1V) sont les coordonnées (en pixel) après distorsion. Ce choix de simplification s'explique par le fait que pour une caméraV = v Q + v 'p where (u, v) are the coordinates (in pixels) resulting from the perfect perspective projection, ai and α.2 are respectively the focal length (in pixels) horizontal and vertical, (uo, v o ) are the coordinates (in pixels) of the optical center projected in the image and (U 1 V) are the coordinates (in pixels) after distortion. This choice of simplification is explained by the fact that for a camera
PTZ, une seule distorsion est calculée pour un ensemble de valeurs de focale, les paramètres de distorsion étant ensuite interpolés pour les valeurs de focale intermédiaire. Il est donc inutile de prendre en compte celle-ci dans la formulation. Afin d'obtenir une précision suffisante tout en limitant le volume de calcul pour permettre une exécution en temps réel du dispositif d'observation, la solution consiste à considérer la caméra utilisée comme une caméra idéale simple pour laquelle des compensations sont effectuées en dehors du modèle de la caméra. Ainsi la distorsion est pré-compensée et les autres erreurs résiduelles, comme le centre optique, ne sont pas compensées au niveau de la projection mais en considérant que ces erreurs proviennent du positionnement (position et orientation) de la caméra. Même si cette approche peut, de façon théorique, se révéler fausse, celle-ci permet néanmoins d'obtenir de bons résultats.PTZ, a single distortion is calculated for a set of focal values, the distortion parameters are then interpolated for the intermediate focal length values. It is therefore unnecessary to take this into account in the formulation. In order to obtain a sufficient precision while limiting the computation volume to allow a real-time execution of the observation device, the The solution is to consider the camera used as a simple ideal camera for which offsets are made outside the camera model. Thus the distortion is pre-compensated and other residual errors, such as the optical center, are not compensated at the projection but considering that these errors come from the positioning (position and orientation) of the camera. Even if this approach can theoretically prove to be wrong, it nevertheless allows to obtain good results.
En résumé, toutes les erreurs sur les paramètres intrinsèques et extrinsèques par rapport au modèle de caméra parfaite sont compensées à l'aide des paramètres extrinsèques. Par exemple, un décentrage optique faisant intervenir les paramètres intrinsèques (uO)vo) est compensé sur les paramètres extrinsèques de position et d'orientation de la caméra.In summary, all intrinsic and extrinsic parameter errors with respect to the perfect camera model are compensated for using the extrinsic parameters. For example, an optical decentering involving the intrinsic parameters (u O) vo) is compensated for the extrinsic position and orientation parameters of the camera.
De surcroît, ces compensations ne doivent pas être considérées comme constantes car elles peuvent être fonction de la variation des paramètres de commande de visée de l'utilisateur. Ainsi la plupart des compensations sont calibrées pour un ensemble de valeurs de focale et interpolées lorsque la focale se situe entre deux valeurs de focale pour lesquelles les compensations à appliquer ont été calculées. Cette approche permet de superposer correctement les objets virtuels sur les images d'une scène réelle en affichant les images compensées de la scène réelle et en effectuant un rendu des objets virtuels avec une caméra virtuelle simplement décalée et compensée en position et en orientation. Le coût de calcul en temps réel du modèle de la caméra PTZ virtuelle est alors quasi le même que celui d'une caméra virtuelle parfaite (pin- hole).In addition, these compensations should not be considered constant because they may be a function of the variation of the user's aim control parameters. Thus, most of the compensations are calibrated for a set of focal values and interpolated when the focal length is between two focal values for which the compensations to be applied have been calculated. This approach makes it possible to correctly overlay the virtual objects on the images of a real scene by displaying the compensated images of the real scene and by rendering the virtual objects with a virtual camera simply offset and offset in position and orientation. The real-time calculation cost of the virtual PTZ camera model is then almost the same as that of a perfect virtual camera (pin-hole).
L'approche pour la calibration d'une caméra de type PTZ est cependant différente que celle mise en place pour une caméra classique. En effet, il est nécessaire d'effectuer des étapes de calibration de distorsion radiale et de calibration du champ de vision pour plusieurs niveaux de zoom. Les paramètres correspondants sont ainsi associés à un niveau de zoom précis donné en temps réel par la caméra. Ensuite, durant l'utilisation du dispositif d'observation, ces paramètres sont interpolés en fonction du niveau de zoom courant de la caméra.The approach for calibrating a PTZ type camera is however different than that set up for a conventional camera. Indeed, it is necessary to perform radial distortion calibration and field of view calibration steps for several zoom levels. The corresponding parameters are thus associated with a precise zoom level given in real time by the camera. Then, during the use of the device these parameters are interpolated according to the current zoom level of the camera.
Chaque phase de calibration utilise les compensations issues des phases de calibration précédentes. Donc, pour pouvoir considérer la caméra comme un modèle pin-hole, il est nécessaire de commencer par compenser la distorsion. Lorsque la distorsion radiale est corrigée, il est ensuite possible de calibrer le roulis du capteur d'images qui a pour effet d'avoir une rotation de l'image autour du centre de la distorsion. A cette fin, il est nécessaire de déterminer si, lors d'un mouvement de cap (rotation horizontale) la trajectoire des points dans l'image est bien une trajectoire horizontale et si nécessaire, de compenser ce défaut. Lorsque cette compensation est établie il est possible de mesurer le champ de vision horizontal simplement en effectuant un mouvement de cap. La focale de la caméra est ainsi calibrée et on dispose alors d'un modèle de caméra suffisamment complet pour effectuer la comparaison entre la projection d'un point théoriquement sur l'axe optique et sa position réelle au fur et à mesure qu'un zoom est effectué.Each calibration phase uses the compensations from the previous calibration phases. So, to be able to consider the camera as a pin-hole model, it is necessary to start by compensating the distortion. When the radial distortion is corrected, it is then possible to calibrate the roll of the image sensor which has the effect of having a rotation of the image around the center of the distortion. To this end, it is necessary to determine whether, during a course movement (horizontal rotation) the trajectory of the points in the image is a horizontal trajectory and if necessary, to compensate for this defect. When this compensation is established it is possible to measure the horizontal field of view simply by making a course movement. The focal length of the camera is thus calibrated and then a sufficiently complete camera model is available to compare the projection of a point theoretically on the optical axis and its actual position as a zoom is done.
Après compensation de ce décentrage, il est finalement possible de réaliser une compensation de la distance entre le centre optique et le centre de rotation de la caméra. La formulation précédente de la distorsion montre qu'il est nécessaire de connaître la position du centre optique pour estimer celle-ci. La calibration utilise une mire consistant en un ensemble de points coplanaires placés de façon régulière et connue. Pour mesurer et estimer la distorsion, une solution consiste à comparer la projection théorique de l'ensemble de points avec la projection effective observée, ce qui implique la connaissance des paramètres extrinsèques de position et d'orientation de la mire par rapport à la caméra ainsi que les paramètres intrinsèques de focales horizontale et verticale.After compensation for this decentering, it is finally possible to compensate for the distance between the optical center and the center of rotation of the camera. The previous formulation of the distortion shows that it is necessary to know the position of the optical center to estimate it. The calibration uses a pattern consisting of a set of coplanar points placed in a regular and known manner. In order to measure and estimate the distortion, one solution consists in comparing the theoretical projection of the set of points with the observed effective projection, which implies the knowledge of the extrinsic parameters of position and orientation of the target with respect to the camera as well as than the intrinsic parameters of horizontal and vertical focal lengths.
Pour pouvoir effectuer une calibration de la distorsion, il est donc en théorie nécessaire de connaître tous les paramètres de la caméra (intrinsèques et extrinsèques) ou de se placer dans des conditions très précises quant au placement de la mire par rapport à la caméra. Cette dernière approche étant difficilement réalisable, il convient alors en théorie d'effectuer une calibration simultanée de tous les paramètres de la caméra. La méthode utilisée consiste à calibrer simultanément tous les paramètres de la caméra mais à ne conserver que ceux liés à la distorsion, les autres étant estimés ultérieurement selon une autre méthode.To be able to perform a calibration of the distortion, it is therefore theoretically necessary to know all the parameters of the camera (intrinsic and extrinsic) or to be placed in very precise conditions as to the placement of the test pattern with respect to the camera. This last approach being difficult to achieve, it is then advisable in theory to carry out a simultaneous calibration of all the parameters of the camera. The method used is to simultaneously calibrate all the parameters of the camera but keep only those related to the distortion, the others being estimated later by another method.
La distorsion est estimée pour plusieurs valeurs de focale de la caméra. De plus, de part la mécanique de la caméra PTZ, la distorsion ne dépend pas de l'orientation de la caméra qui est de préférence laissée en orientation centrale durant l'étape de calibration de la distorsion. La première phase de la calibration, pour une focale donnée et exprimée non pas par sa valeur de focale métrique mais par la valeur de l'encodeur de la caméra associé au facteur de zoom, consiste à placer une mire devant l'objectif de la caméra et à analyser la projection des points de la mire dans l'image. Les points de la mire sont un ensemble de points coplanaires placés de manière régulière (espacements horizontal et vertical fixes et connus). La mire est caractérisée en déterminant un de ses points comme référence. Ce point de référence défini le repère de la mire par rapport auquel tous les autres points de la mire peuvent être exprimés. L'expression de la configuration de la mire par rapport à la caméra revient donc à exprimer la configuration (position et orientation) de ce point par rapport au centre optique de la caméra. Cette configuration peut être modélisée par la donnée d'une position T=(Tx,Ty,Tz) qui représente la position du centre optique par rapport à l'origine de la mire exprimée dans le repère de la mire, ainsi que de trois angles d'Euler (γ,β,α) représentant les rotations respectivement autour de X, Y, Z appliquées successivement dans cet ordre. Tout point N de la mire peut donc être exprimé, dans le repère local M de la mire, par la relation suivante,The distortion is estimated for several focal lengths of the camera. In addition, due to the mechanics of the PTZ camera, the distortion does not depend on the orientation of the camera which is preferably left in central orientation during the distortion calibration step. The first phase of the calibration, for a given focal length and expressed not by its metric focal length but by the value of the camera's encoder associated with the zoom factor, consists in placing a target in front of the camera lens. and to analyze the projection of the points of the test pattern into the image. The points of the chart are a set of coplanar points placed in a regular way (fixed and known horizontal and vertical spacings). The pattern is characterized by determining one of its points as a reference. This reference point defines the reference of the target from which all other points of the target can be expressed. The expression of the configuration of the test pattern with respect to the camera thus amounts to expressing the configuration (position and orientation) of this point with respect to the optical center of the camera. This configuration can be modeled by the data of a position T = (T x , T y , T z ) which represents the position of the optical center with respect to the origin of the target expressed in the reference of the target, as well as of three Euler angles (γ, β, α) representing the rotations respectively around X, Y, Z successively applied in this order. Any point N of the test pattern can therefore be expressed, in the local coordinate system M of the test pattern, by the following relation,
De même, tout point N de la mire peut être exprimé, dans le repère C de la caméra, par la relation suivante, PN l( = Rot -(PNIM -T) avec, ca.cb ca.sb.sg - cg.sa ca.cg.sb + sa.sgSimilarly, any point N of the test pattern can be expressed, in the C mark of the camera, by the following relation, P N l ( = Rot - (P NIM -T) with, ca.cb ca.sb.sg - cg.sa ca.cg.sb + sa.sg
Rot = Rot, • Rot. • Rotr = cb.sa ca.cg + sa.sb.sg cg.sa.sb - ca.sgRot = Rot, • Rot. • Rot r = cb.sa ca.cg + sa.sb.sg cg.sa.sb - ca.sg
- sb cb.sg cb.cg où,- sb cb.sg cb.cg where,
Rotr 0 ca - cos a cb = COS yS = cos Y avec sa = sinα sb = sin /? ^g = sin γ a étant l'angle de rotation autour de l'axe x, β étant l'angle de rotation autour de l'axe y et γ étant l'angle de rotation autour de l'axe z.Rot r 0 cos y cos = COS cos = s cos = S cos = sin /? ^ g = sin γ a being the angle of rotation around the x axis, β being the angle of rotation around the y axis and γ being the angle of rotation around the z axis.
D'après le modèle mathématique, ce point de la mire projeté sur le plan image de la caméra voit ses coordonnées image (u,v) engendrer une erreur (au carré) En par rapport à la mesure (un,vn).According to the mathematical model, this point of the target projected on the image plane of the camera sees its image coordinates (u, v) generate an error (squared) E n with respect to the measurement (u n , v n ) .
Les étapes de la calibration sont donc les suivantes,The calibration steps are as follows,
• choisir une mire ;• choose a test pattern;
• déterminer la position des points de la mire dans l'image observée ;• determine the position of the points of the test pattern in the observed image;
• choisir une référence PO/M parmi ces points de l'image. Ce point P0/M a donc (0,0,0) comme coordonnées dans le repère de la mire. Tous les autres points ont une position dans le repère de la mire pouvant s'écrire sous la forme PN IM = (xN,YN O) = (δw.i,δh.j,θ) où δw et δh sont respectivement la distance métrique horizontale et verticale entre deux points consécutifs sur la mire ;• choose a reference P O / M among these points of the image. This point P 0 / M therefore has (0,0,0) as coordinates in the frame of reference. All the other points have a position in the reference of the target which can be written in the form P N IM = (x N , Y NO ) = (δ w .i, δ h .j, θ) where δ w and δ h are respectively the horizontal and vertical metric distance between two consecutive points on the test pattern;
• choisir des paramètres intrinsèques (focale horizontale, focale verticale, distorsion radiale, centre optique) et extrinsèques (position et orientation) approximatifs pour la caméra. Ce choix représente l'initialisation d'un algorithme itératif qui va ensuite estimer ces paramètres ; et,• choose intrinsic parameters (horizontal focal point, vertical focal point, radial distortion, optical center) and extrinsic parameters (approximate position and orientation) for the camera. This choice represents the initialization of an iterative algorithm which will then estimate these parameters; and,
• appliquer la technique du gradient conjugué par calcul de la sécante sur la fonction représentant l'erreur entre le modèle et la mesure selon la relation fct = ∑E, A l'issue de la convergence de l'algorithme du gradient conjugué, tous les paramètres de la caméra ont été estimés simultanément. Toutefois, en raison de la mauvaise stabilité numérique de certains paramètres tels que la focale, il est préférable de ne conserver que les deux paramètres de distorsion (ai,a2) qui sont associés à la valeur de l'encodeur du facteur de zoom de la caméra. Il en résulte ainsi une carte de la distorsion radiale en fonction des valeurs de l'encodeur du facteur de zoom. Selon la formulation utilisée, cette distorsion a pour centre le centre de l'image et non le centre optique. Cependant, la caméra étant considérée comme parfaite, le centre optique est donc au centre de l'image. L'erreur commise si les deux centres sont distincts est préalablement corrigée par une rotation.• apply the conjugate gradient technique by calculating the secant on the function representing the error between the model and the measure according to the relation fct = ΣE, At the end of the convergence of the conjugate gradient algorithm, all the parameters of the camera were estimated simultaneously. However, due to the poor numerical stability of certain parameters such as the focal length, it is preferable to keep only the two distortion parameters (ai, a2) which are associated with the value of the encoder of the zoom factor of the camera. This results in a map of the radial distortion as a function of the encoder values of the zoom factor. According to the formulation used, this distortion centers on the center of the image and not the optical center. However, since the camera is considered perfect, the optical center is at the center of the image. The error committed if the two centers are distinct is corrected beforehand by a rotation.
En pratique, il est préférable de commencer avec le facteur de zoom le plus faible et de placer la mire devant la caméra, perpendiculairement à l'axe optique, de telle sorte qu'un maximum de points soit visible dans l'image sans pour autant laisser de bordure. Il est ensuite nécessaire de figer l'image et de déterminer la position des points de la mire dans l'image par analyse d'image Lorsque les points sont appariés, un calcul du fitting (calcul par gradient conjugué) est lancé et le résultat est sauvegardé. Le facteur de zoom est ensuite augmenté et les étapes précédentes sont répétées. Au fur et à mesure que le facteur de zoom augmente, il est nécessaire d'éloigner la mire de la caméra.In practice, it is best to start with the lowest zoom factor and place the target in front of the camera, perpendicular to the optical axis, so that a maximum of points can be seen in the image without leave border. It is then necessary to freeze the image and to determine the position of the points of the pattern in the image by image analysis. When the points are matched, a calculation of the fitting (calculation by conjugate gradient) is launched and the result is saved. The zoom factor is then increased and the previous steps are repeated. As the zoom factor increases, it is necessary to move the sight away from the camera.
Cette phase de calibration de la distorsion peut être automatisée. Selon une première approche, la mire, pilotable par ordinateur, est placée sur un rail mécanique de telle sorte à pouvoir éloigner la mire de la caméra. Selon une seconde approche, utilisant le fait que la distorsion est considérée comme indépendante de l'orientation de la caméra, un ensemble de mires est placé devant la caméra, chacune est placée à un angle et à une distance permettant d'assurer que pour chaque facteur de zoom choisi pour la calibration, il existe une configuration de cap permettant d'observer à bonne distance, une mire et une seule.This calibration phase of the distortion can be automated. According to a first approach, the test pattern, controllable by computer, is placed on a mechanical rail so as to be able to move the sight away from the camera. According to a second approach, using the fact that the distortion is considered independent of the orientation of the camera, a set of sights is placed in front of the camera, each is placed at an angle and a distance to ensure that for each zoom factor chosen for the calibration, there is a heading configuration to observe at a good distance, a test pattern and only one.
Après avoir calibré la distorsion, il peut être nécessaire de calibrer le roulis du capteur d'images. En effet, il est possible que le capteur de la caméra, par exemple un capteur CCD, ne soit pas parfaitement orienté par rapport à la mécanique de mouvement de la caméra. Il convient de noter que la distorsion étant radiale, la compensation de distorsion ne peut pas compenser un défaut de roulis du capteur d'images. Pour compenser le défaut de roulis, il est nécessaire de tourner virtuellement la caméra virtuelle autour de son axe optique d'un angle θ qui doit être estimé. Cet angle est considéré comme étant indépendant du facteur de zoom.After calibrating the distortion, it may be necessary to calibrate the roll of the image sensor. Indeed, it is possible that the sensor of the camera, for example a CCD sensor, is not perfectly oriented with respect to the movement mechanics of the camera. It should be noted that since the distortion is radial, the distortion compensation can not compensate for a roll defect of the image sensor. To compensate for the roll defect, it is necessary to virtually rotate the virtual camera around its optical axis by an angle θ which must be estimated. This angle is considered to be independent of the zoom factor.
Pour estimer l'angle θ, il faut déterminer un point de référence situé dans la scène observée, sensiblement au centre de l'image issue de la caméra, et faire un mouvement de cap de la caméra. Si l'angle est nul, le point de référence doit rester en permanence sur la ligne de mi-hauteur, ou ligne d'horizon, de l'image issue de la caméra sinon, il passe au dessous ou au dessus de cette ligne de mi-hauteur. L'angle θ est alors estimé afin que le point de référence ait un mouvement parfaitement horizontal dans l'image. Cette étape n'a besoin d'être effectuée que pour une unique valeur de zoom, par exemple la plus faible valeur de zoom.To estimate the angle θ, it is necessary to determine a reference point situated in the observed scene, substantially in the center of the image coming from the camera, and to make a course movement of the camera. If the angle is zero, the reference point must remain permanently on the mid-height line, or horizon line, of the image coming from the camera otherwise, it passes below or above this line of halfway up. The angle θ is then estimated so that the reference point has a perfectly horizontal movement in the image. This step only needs to be performed for a single zoom value, for example the lowest zoom value.
En pratique, cette étape peut être automatisée en suivant un point de décor pendant un mouvement de cap de la caméra et en calculant la compensation à réaliser pour que le mouvement soit horizontal dans l'image. Pour plus de robustesse, ce calcul peut être effectué sur un ensemble de points, l'angle θ étant évalué selon une moyenne.In practice, this step can be automated by following a decorative point during a camera heading movement and calculating the compensation to be made so that the movement is horizontal in the image. For more robustness, this calculation can be performed on a set of points, the angle θ being evaluated according to an average.
Comme décrit précédemment, le facteur de zoom est piloté en indiquant une valeur donnée à l'encodeur en charge du zoom pour calibrer la distorsion. On ne dispose donc pas directement de la valeur focale. Pour calibrer le champ de vision, le principe est de créer une cartographie entre les valeurs d'encodeur de zoom et le champ de vision θu (Field Of View angle). L'utilisation du champ de vision permet de déterminer la valeur de la focale en pixel selon la relation suivante,As previously described, the zoom factor is controlled by indicating a value given to the encoder in charge of the zoom to calibrate the distortion. We therefore do not have the focal value directly. To calibrate the field of view, the principle is to create a map between the values of the zoom encoder and the field of view θ u (Field Of View angle). The use of the field of view makes it possible to determine the value of the focal length in pixel according to the following relation,
FoW α , où FoW est la largeur du champ de vision {Field of View Width) correspondant à la résolution horizontale en pixels (connue). Afin d'établir la cartographie des valeurs d'encodeur de zoom en fonction du champ de vision θu une solution consiste à viser un point ou une ligne verticale du décor située au centre de l'image quand le cap est à zéro et à changer l'angle de cap jusqu'à ce que le point ou la ligne soit précisément sur le bord droit ou gauche de l'image. Cela permet de mesurer le demi angle du champ de vision horizontal et de calculer ainsi la valeur de la focale horizontale. La valeur de la focale horizontale permet d'en déduire celle de la focale verticale à partir du ratio, connu, des focales. Cette solution est applicable si la relation entre l'encodeur de cap et le cap est linéaire, connue et symétrique par rapport au centre de cap.FoW α, where FoW is the width of the field of view {Field of View Width) corresponding to the horizontal resolution in pixels (known). In order to map the zoom encoder values as a function of the field of view θ u, a solution consists in aiming at a point or a vertical line of the decoration located at the center of the image when the heading is at zero and changing. the heading angle until the point or line is precisely on the right or left edge of the image. This makes it possible to measure the half-angle of the horizontal field of view and thus to calculate the value of the horizontal focal length. The value of the horizontal focal point makes it possible to deduce that of the vertical focal length from the known ratio of the focal lengths. This solution is applicable if the relationship between the heading encoder and heading is linear, known and symmetrical with respect to the center of course.
Cette procédure pourrait être automatisée en suivant un point ou une ligne de décor au cours d'un mouvement de cap, jusqu'à ce que l'élément suivi disparaisse. L'encodeur de cap donne alors directement la valeur du demi champ de vision horizontal. Lorsque le centre optique n'est pas tout à fait au centre de l'image, le décentrage peut être corrigé par une rotation combinant cap et tangage pour éviter d'insérer ce décentrage dans les paramètres intrinsèques.This procedure could be automated by following a point or line of scenery during a course move, until the tracked item disappears. The heading encoder then directly gives the value of the half horizontal field of view. When the optical center is not quite in the center of the image, the decentering can be corrected by a rotation combining heading and pitching to avoid inserting this decentering into the intrinsic parameters.
Ainsi que mentionné précédemment, il a été fait ici le choix que la caméra devait être considérée comme parfaite. Ainsi, les erreurs de cap et de tangage par rapport à l'axe optique de la caméra sont compensées non pas sous la forme d'une complexification du modèle de la caméra mais à l'aide d'un décalage (offset) sur la position et l'orientation de la caméra. Ce décalage de cap et de tangage est de préférence mesuré pour l'ensemble des facteurs de zoom. La mesure est effectuée, par exemple, en visant un point du décor placé relativement loin tout en utilisant le plus faible facteur de zoom minimum. Pour chaque augmentation du facteur de zoom, le décalage de cap et de tangage est réglé manuellement sur la caméra virtuelle de sorte que le point virtuel associé au point visé reste superposé à celui-ci. Naturellement, cette procédure peut être automatisée en suivant un point du décor durant un mouvement de zoom et en compensant l'erreur en pixel par un décalage en cap et en tangage.As mentioned before, it was made here the choice that the camera should be considered perfect. Thus, the heading and pitch errors with respect to the optical axis of the camera are compensated not in the form of a complexification of the model of the camera but by means of an offset on the position and the orientation of the camera. This pitch and pitch shift is preferably measured for all zoom factors. The measurement is made, for example, by aiming at a relatively far point of the scene while using the lowest minimum zoom factor. For each zoom factor increase, the pitch and pitch offset is set manually on the virtual camera so that the virtual point associated with the target point remains superimposed on it. Naturally, this procedure can be automated by following a point of the scene during a zooming motion and offsetting the pixel error by a shift in heading and pitch.
La calibration du décalage entre le centre optique et le centre de rotation de la caméra est la dernière phase de l'étape de calibration. Cette calibration du décalage entre le centre optique et le centre de rotation de la caméra n'est pas nécessaire si la scène filmée et la position des objets virtuels dans la scène filmée sont toujours éloignées de la caméra. En effet, dans les autres étapes de la calibration, il a été considéré que le centre optique et le centre de rotation physique de la caméra était au même endroit. Ceci peut être faux mais n'a quasi aucune incidence dès que les éléments visuels sont éloignés de quelques dizaines de centimètres. Cependant, pour des points proches, les compensations précédentes ne sont pas suffisantes et la prise en compte de ce décalage du centre optique peut être nécessaire. Il est ici considéré que le décalage n'existe que le long de l'axe optique, ce qui est cohérent avec le fait que les calibrations précédentes ont pour objet de compenser le décalage, excepté sur sa composante d'axe optique.The calibration of the offset between the optical center and the center of rotation of the camera is the last phase of the calibration step. This Calibration of the shift between the optical center and the center of rotation of the camera is not necessary if the filmed scene and the position of the virtual objects in the filmed scene are still far from the camera. Indeed, in the other steps of the calibration, it was considered that the optical center and the center of physical rotation of the camera was in the same place. This can be false but has almost no impact as soon as the visual elements are a few tens of centimeters apart. However, for close points, the previous compensations are not sufficient and the taking into account of this shift of the optical center may be necessary. It is considered here that the offset exists only along the optical axis, which is consistent with the fact that the previous calibrations are intended to compensate for the offset, except on its optical axis component.
Pour déterminer le décalage entre le centre optique et le centre de rotation de la caméra, une solution consiste à viser un point du décor situé physiquement proche de la caméra et dont on a préalablement mesuré la distance physique par rapport la caméra. Ce point est de préférence choisi au milieu de l'image lorsque l'axe de visée de la caméra est orienté avec un cap et un tangage nuls. Pour chaque augmentation du facteur de zoom, le cap de la caméra est modifié jusqu'à ce que le point visé soit au bord de l'image. Le décalage est ensuite ajusté manuellement de sorte que le point virtuel associé au point réel se superpose à celui-ci. Il est possible d'automatiser la calibration du décalage entre le centre optique et le centre de rotation de la caméra en suivant automatiquement un point proche du décor en faisant varier le facteur de zoom et en compensant l'erreur en pixel par un décalage en translation selon l'axe optique.In order to determine the offset between the optical center and the center of rotation of the camera, one solution consists in aiming at a point of the scenery located physically close to the camera and whose physical distance with respect to the camera has previously been measured. This point is preferably chosen in the middle of the image when the line of sight of the camera is oriented with zero heading and pitch. For each zoom factor increase, the camera heading is changed until the target point is at the edge of the image. The offset is then adjusted manually so that the virtual point associated with the real point is superimposed on it. It is possible to automate the calibration of the shift between the optical center and the center of rotation of the camera by automatically following a point close to the scene by varying the zoom factor and compensating for the pixel error by a shift in translation. along the optical axis.
Si la calibration de la caméra est nécessaire à l'obtention d'une bonne intégration des objets virtuels dans les images issues de la caméra, il est aussi nécessaire de connaître précisément la position et l'orientation de l'objet par rapport à la caméra ou de façon équivalente de connaître la configuration de la caméra réelle par rapport au monde réel qu'elle filme. Ce calcul est appelé un calcul de « pose ». Pour effectuer ce calcul de pose, il faut mettre en relation un objet de la scène tridimensionnelle avec son image bidimensionnelle. Pour cela, il est nécessaire de disposer des coordonnées de plusieurs points de l'objet dans la scène réelle (coordonnées tridimensionnelles), tous exprimés par rapport à un point de l'objet considéré comme référentiel objet durant le calcul de la pose. Il faut également disposer, pour cet ensemble de points, des coordonnées de leur projection dans l'image (coordonnées bidimensionnelles). Une évaluation de pose à plusieurs niveaux est ensuite mise en œuvre.If the calibration of the camera is necessary to obtain a good integration of the virtual objects in the images coming from the camera, it is also necessary to know precisely the position and the orientation of the object with respect to the camera or in an equivalent way to know the configuration of the real camera in relation to the real world that it films. This calculation is called a "pose" calculation. To perform this pose calculation, it is necessary to relate an object of the three-dimensional scene with its two-dimensional image. For this, it is necessary to have the coordinates of several points of the object in the real scene (three-dimensional coordinates), all expressed with respect to a point of the object considered as object reference during the calculation of the pose. For this set of points, it is also necessary to have coordinates of their projection in the image (two-dimensional coordinates). A multi-level pose evaluation is then implemented.
Un premier niveau consiste à effectuer un calcul rapide permettant d'obtenir une pose approximative tandis qu'un second niveau, par un calcul plus long, utilise la pose approximative pour améliorer l'estimation de pose, de façon itérative.A first level is to perform a quick calculation to obtain an approximate pose while a second level, by a longer calculation, uses the approximate pose to improve the pose estimate, iteratively.
L'estimation de premier niveau se base sur une approximation de premier ordre du modèle de projection perspective « perspective faible » (weak perspective). Cette méthode est rapide et robuste tant que les points choisis dans l'espace réel sont répartis sur l'ensemble de la surface de l'objet et ne sont pas coplanaires. De plus, pour converger, il est nécessaire que l'objet soit visible plutôt au centre de l'image et situé relativement loin de la caméra. Cette méthode, connue, est présentée, par exemple, dans l'article « Model-Based Object Pose in 25 Lines of Code » D. DeMenthon and L. S. Davis, International Journal of Computer Vision, 15, pp. 123-141 , June 1995 et dans l'article « Object Pose: The Link between Weak Perspective, Paraperspective, and FuII Perspective », R. Horaud, F. Dornaika, B. Lamiroy, S. Christy, International Journal of Computer Vision, volume 22, No. 2, 1997.The first-level estimate is based on a first-order approximation of the "weak perspective" perspective projection model. This method is fast and robust as long as the points chosen in the real space are distributed over the entire surface of the object and are not coplanar. In addition, to converge, it is necessary that the object is visible rather in the center of the image and located relatively far from the camera. This known method is presented, for example, in the article "Model-Based Object Pose in 25 Lines of Code" D. DeMenthon and L. S. Davis, International Journal of Computer Vision, 15, pp. 123-141, June 1995 and in the article "Object Pose: The Link between Weak Perspective, Paraperspective, and FuII Perspective", R. Horaud, F. Dornaika, Lamiroy B., S. Christy, International Journal of Computer Vision, Volume 22, No. 2, 1997.
Cette méthode effectue un calcul de pose en choisissant un des points de l'objet, dans l'espace tridimensionnel, comme référentiel. Il a cependant été remarqué que la qualité de l'estimation de la pose n'était pas la même en fonction du point de référence choisi et il est parfois utile de supprimer certains points pour obtenir un meilleur résultat, tout en conservant au moins cinq points non coplanaires. Il est ainsi avantageux, si l'objet comprend r points dans l'espace tridimensionnel, d'effectuer r.(r-5) calculs de pose en prenant à chaque fois l'un des r points comme point de référence puis de supprimer à chaque itération, parmi les autres points, le point le plus éloigné du point de référence. Pour chacun de ces calculs de pose, une moyenne de l'erreur de reprojection dans le plan image est calculée. La pose finale est celle qui correspond à la plus petite erreur.This method performs a pose calculation by choosing one of the points of the object, in three-dimensional space, as a reference frame. However, it was noted that the quality of the pose estimate was not the same depending on the chosen reference point and sometimes it is useful to remove some points to obtain a better result, while keeping at least five points not coplanar. It is thus advantageous, if the object comprises r points in the three-dimensional space, to perform r. (R-5) pose calculations by taking each of the r points as a reference point and then to delete at each iteration, among the other points, the furthest point from the reference point. For each of these pose calculations, an average of the reprojection error in the image plane is calculated. The final pose is the one that corresponds to the smallest error.
L'estimation de second niveau utilise une exploration stochastique, guidée par un critère d'erreur, de l'espace de configuration, c'est-à-dire de l'espace à six dimensions correspondant à l'ensemble des couples (position, orientation) proche de la pose courante. L'idée est de partir de la pose courante puis de se déplacer d'un petit décalage aléatoire dans l'espace des configurations. Si la nouvelle configuration respecte mieux le critère d'erreur alors elle devient la nouvelle référence sinon un autre décalage aléatoire est utilisé. Les étapes de cette méthode sont donc les suivantes,The second-level estimation uses a stochastic exploration, guided by an error criterion, of the configuration space, that is to say the six-dimensional space corresponding to the set of pairs (position, orientation) close to the current pose. The idea is to start from the current pose then to move a small random shift in the configuration space. If the new configuration better meets the error criterion then it becomes the new reference or else another random offset is used. The steps of this method are as follows,
- sélectionner la pose déterminée selon l'estimation de premier niveau ;- select the pose determined according to the first level estimate;
- créer s décalages aléatoires de la configuration de pose courante ;- create random offsets of the current pose configuration;
- pour chacun de ces décalages aléatoires, calculer l'erreur engendrée par cette pose. Si l'erreur est plus petite que celle obtenue jusqu'à présent, alors cette pose est considérée comme meilleure et mémorisée ;for each of these random offsets, calculate the error generated by this pose. If the error is smaller than that obtained so far, then this pose is considered better and memorized;
- si à l'issue de l'estimation de ces s décalages aléatoires, aucun n'a amélioré l'erreur de la pose courante alors un compteur d'échec est augmenté, sinon le conteur d'échec est remis à zéro et la nouvelle configuration courante est celle mémorisée ; et,if at the end of the estimation of these random shifts, none has improved the error of the current pose then a failure counter is increased, otherwise the failure storyteller is reset and the new one is reset. current configuration is the one memorized; and,
- si le compteur d'échec atteint un seuil prédéterminé, le processus est arrêté sinon les trois étapes précédentes sont répétées.- If the failure counter reaches a predetermined threshold, the process is stopped otherwise the previous three steps are repeated.
Le calcul de l'erreur se fait de préférence en sommant, pour chaque point, la distance orthogonale au carré entre le point de l'objet (P), dans l'espace tridimensionnel, dans la pose considérée (P) et la droite, dans l'espace tridimensionnel issue de la projection dans l'image bidimensionnelle associée au point, dans l'espace tridimensionnel, et le centre de projection de la caméra (définie par le centre de la caméra dans l'espace tridimensionnel et un vecteur unitaire u dont la direction est définie par le centre de la caméra et le point considéré, dans l'espace tridimensionnel).The calculation of the error is preferably done by summing, for each point, the orthogonal distance to the square between the point of the object (P), in the three-dimensional space, in the considered pose (P) and the straight line, in the three-dimensional space resulting from the projection in the two-dimensional image associated with the point, in the three-dimensional space, and the projection center of the camera (defined by the center of the camera in the three-dimensional space and a unit vector u whose direction is defined by the center of the camera and the considered point, in three-dimensional space).
Lorsque la caméra est calibrée et sa configuration (position/orientation) par rapport à l'environnement est connue, il est possible d'insérer des objets virtuels, ou tout autre élément tel qu'un flux vidéo secondaire, dans les images issues de la caméra. L'insertion des objets virtuels dans le flux vidéo peut être réalisé en temps réel par le logiciel D'fusion de la société Total Immersion comme indiqué précédemment. Le choix des objets virtuels à insérer dans le flux vidéo peut être réalisé par géo-localisation en constituant une base de données. Cette base de données peut être constituée manuellement ou à partir de bases de données existantes par l'intermédiaire, par exemple, d'une connexion à un réseau tel qu'Internet. Alternativement, la caméra du dispositif d'observation peut être déportée comme illustré sur la figure 7. Selon ce mode de réalisation, une ou plusieurs caméras sont installées à des emplacements qui ne sont pas directement accessible aux utilisateurs tel qu'au sommet d'un bâtiment, dans une grotte ou sous l'eau. Cependant, ces caméras sont reliées aux interfaces de commande des utilisateurs de telle sorte qu'ils en contrôlent les mouvements depuis une plateforme de commande et de visualisation. L'utilisation de caméras et éventuellement de calculateurs déportés, permet également de placer les caméras à des endroits inaccessibles afin de protéger le matériel contre le vandalisme ou le vol. La figure 7 illustre un dispositif d'observation 300' comprenant une sphère 305' sur laquelle sont fixées de façon mobile une interface de commande 310' et un système de visualisation 320". La sphère 305' est de préférence couplée à un pied 400' monté sur un socle 405' comprenant un ordinateur 500' qui peut également être déporté. Un marchepied 410' permet à l'utilisateur de se positionner de façon appropriée face à l'interface de commande 310' et au système de visualisation 320". La caméra 335" est ici déportée pour être fixée sur une cheminée 700 d'une maison 705.When the camera is calibrated and its configuration (position / orientation) relative to the environment is known, it is possible inserting virtual objects, or any other element such as a secondary video stream, into the images from the camera. The insertion of the virtual objects in the video stream can be realized in real time by the merger software of the company Total Immersion as indicated above. The choice of virtual objects to be inserted into the video stream can be done by geolocation by constituting a database. This database can be made manually or from existing databases via, for example, a connection to a network such as the Internet. Alternatively, the camera of the observation device can be deported as shown in FIG. 7. According to this embodiment, one or more cameras are installed at locations that are not directly accessible to the users such as at the top of a camera. building, in a cave or underwater. However, these cameras are connected to the control interfaces of the users so that they control the movements from a control and viewing platform. The use of cameras and possibly remote computers, also allows the cameras to be placed in inaccessible places to protect the equipment against vandalism or theft. FIG. 7 illustrates an observation device 300 'comprising a sphere 305' on which are movably attached a control interface 310 'and a display system 320''.The sphere 305' is preferably coupled to a foot 400 ' mounted on a base 405 'comprising a computer 500' which can also be deported A step 410 'allows the user to position themselves appropriately facing the control interface 310' and the display system 320 ". The camera 335 "is here deported to be fixed on a chimney 700 of a house 705.
Naturellement, pour satisfaire des besoins spécifiques, une personne compétente dans le domaine de l'invention pourra appliquer des modifications dans la description précédente, notamment en ce qui concerne les moyens de commande de mouvement de visée et la forme du dispositif d'observation. Naturally, to meet specific needs, a person skilled in the field of the invention may apply modifications in the previous description, particularly with regard to the sighting movement control means and the shape of the observation device.

Claims

REVENDICATIONS
1. Procédé pour un dispositif d'observation de réalité augmentée temps réel (300) comprenant un capteur d'images (335), un système de visualisation (320) et une interface de commande indirecte (310) à visée directe, ce procédé étant caractérisé en ce qu'il comprend les étapes suivantes,A method for a real-time augmented reality observation device (300) comprising an image sensor (335), a display system (320), and an indirect control interface (310) with a direct view, which method is characterized in that it comprises the following steps,
- recevoir une requête comprenant des informations d'orientation d'axe de visée transmise par ladite interface de commande (610) ;receiving a request comprising axis of view guidance information transmitted by said control interface (610);
- transmettre lesdites informations d'orientation d'axe de visée audit capteur d'images (615), ledit capteur d'images étant mobile et motorisé ;transmitting said line of sight orientation information to said image sensor (615), said image sensor being mobile and motorized;
- recevoir dudit capteur d'images l'orientation de son axe de visée (620) ; - recevoir au moins une image issue dudit capteur d'images ;receiving from said image sensor the orientation of its line of sight (620); receiving at least one image originating from said image sensor;
- déterminer dans ladite image reçue la position à laquelle doit être insérée au moins une donnée, selon l'orientation de l'axe de visée dudit capteur d'images (640) ; et,determining in said received image the position to which at least one data item is to be inserted, according to the orientation of the axis of view of said image sensor (640); and,
- insérer en temps réel dans ladite image reçue ladite au moins une donnée à ladite position déterminée (645).inserting in real time into said received image said at least one datum at said determined position (645).
2. Procédé selon la revendication 1 selon lequel ledit système de visualisation est mobile et lié mécaniquement à au moins un élément de ladite interface de commande.2. The method of claim 1 wherein said display system is movable and mechanically linked to at least one element of said control interface.
3. Procédé selon la revendication 1 ou la revendication 2 caractérisé en ce qu'il comprend en outre une phase de calibration dudit capteur d'images (600).3. Method according to claim 1 or claim 2 characterized in that it further comprises a calibration phase of said image sensor (600).
4. Procédé selon la revendication 3 caractérisé en ce que ladite étape de calibration comprend la calibration d'au moins l'un des paramètres compris dans l'ensemble des paramètres comprenant la correction de distorsion radiale dudit capteur d'images, la correction de roulis dudit capteur d'images, les corrections de cap et de tangage de l'axe de visée dudit capteur d'images et le décalage entre le centre optique et le centre de rotation dudit capteur d'images.4. Method according to claim 3 characterized in that said calibration step comprises the calibration of at least one of the parameters included in the set of parameters comprising the radial distortion correction of said image sensor, the roll correction. of said image sensor, corrections of heading and pitch of the axis of view of said sensor of images and the shift between the optical center and the center of rotation of said image sensor.
5. Procédé selon la revendication 4 caractérisé en ce que ledit capteur d'images comprend une fonction de zoom et en ce que la calibration dudit au moins un paramètre est effectuée pour une pluralité de facteurs de zoom.5. Method according to claim 4 characterized in that said image sensor comprises a zoom function and in that the calibration of said at least one parameter is performed for a plurality of zoom factors.
6. Procédé selon l'une quelconque des revendications précédentes caractérisé en ce qu'il comprend en outre une étape de co-localisation dudit capteur d'images et de la scène observée par ledit capteur d'images pour déterminer la pose de ladite au moins une donnée à insérer dans ladite image reçue dans ladite scène observée.6. Method according to any one of the preceding claims, characterized in that it further comprises a co-location step of said image sensor and the scene observed by said image sensor to determine the laying of said at least one a data item to be inserted in said received image in said observed scene.
7. Procédé selon l'une quelconque des revendications précédentes caractérisé en ce que ladite au moins une donnée à insérer dans ladite image reçue est dépendante de la position géographique dudit dispositif d'observation. 7. Method according to any one of the preceding claims, characterized in that said at least one piece of data to be inserted in said received image is dependent on the geographical position of said observation device.
8. Procédé selon l'une quelconque des revendications précédentes caractérisé en ce que ladite au moins une donnée à insérer dans ladite image reçue est une représentation d'un modèle tridimensionnel virtuel animé ou non.8. Method according to any one of the preceding claims characterized in that said at least one piece of data to be inserted in said received image is a representation of a virtual three-dimensional model animated or not.
9. Procédé selon l'une quelconques des revendications précédentes caractérisé en ce que ladite orientation de l'axe de visée est définie selon deux degrés de liberté et en ce que ledit capteur d'images comprend une fonction de zoom.9. Method according to any one of the preceding claims characterized in that said orientation of the line of sight is defined according to two degrees of freedom and in that said image sensor comprises a zoom function.
10. Programme d'ordinateur comprenant des instructions adaptées à la mise en œuvre de chacune des étapes du procédé selon l'une quelconque des revendications précédentes. 10. Computer program comprising instructions adapted to the implementation of each of the steps of the method according to any one of the preceding claims.
11. Dispositif d'observation de réalité augmentée (300) comprenant des moyens de connexion à un capteur d'images (335), un système de visualisation (320) et une interface de commande indirecte (310) à visée directe, ce dispositif étant caractérisé en ce qu'il comprend les moyens suivants, - moyens pour recevoir des informations d'orientation d'axe de visée transmise par ladite interface de commande ; - moyens pour contrôler l'orientation de l'axe de visée dudit capteur d'images selon lesdites informations d'orientation reçues, ledit capteur d'images étant mobile et motorisé ;An augmented reality observation device (300) comprising means for connection to an image sensor (335), a display system (320) and an indirect control interface (310) for direct viewing, which device is characterized in that it comprises the following means, - means for receiving guidance line orientation information transmitted by said control interface; means for controlling the orientation of the axis of view of said image sensor according to said orientation information received, said image sensor being mobile and motorized;
- moyens pour recevoir l'orientation de l'axe de visée dudit capteur d'images ;means for receiving the orientation of the axis of view of said image sensor;
- moyens pour recevoir au moins une image issue dudit capteur d'images ;means for receiving at least one image from said image sensor;
- moyens pour déterminer dans ladite image reçue la position à laquelle doit être insérée au moins une donnée selon l'orientation de l'axe de visée dudit capteur d'images ; etmeans for determining in said received image the position at which at least one datum is to be inserted according to the orientation of the axis of view of said image sensor; and
- moyens pour insérer en temps réel dans ladite image reçue ladite au moins une donnée à ladite position déterminée.means for inserting in real time into said received image said at least one datum at said determined position.
12. Dispositif selon la revendication 11 selon lequel ledit système de visualisation est mobile et mécaniquement lié à au moins une partie de ladite interface de commande.12. Device according to claim 11 wherein said display system is movable and mechanically linked to at least a portion of said control interface.
13. Dispositif selon la revendication 11 ou la revendication 12 caractérisé en ce qu'il comprend en outre des moyens de transmission de ladite image reçue comprenant ladite au moins une donnée.13. Device according to claim 11 or claim 12 characterized in that it further comprises means for transmitting said received image comprising said at least one datum.
14. Dispositif selon l'une quelconque des revendications 11 et 13 caractérisé en ce que l'un au moins desdits capteur d'images et moyens de stockage est distant dudit dispositif d'observation. 14. Device according to any one of claims 11 and 13 characterized in that at least one of said image sensor and storage means is remote from said observation device.
EP08761752A 2007-01-12 2008-01-10 Device and method for watching real-time augmented reality Withdrawn EP2119226A2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0752641A FR2911463B1 (en) 2007-01-12 2007-01-12 REAL-TIME REALITY REALITY OBSERVATION DEVICE AND METHOD FOR IMPLEMENTING A DEVICE
PCT/FR2008/000030 WO2008099092A2 (en) 2007-01-12 2008-01-10 Device and method for watching real-time augmented reality

Publications (1)

Publication Number Publication Date
EP2119226A2 true EP2119226A2 (en) 2009-11-18

Family

ID=38372367

Family Applications (1)

Application Number Title Priority Date Filing Date
EP08761752A Withdrawn EP2119226A2 (en) 2007-01-12 2008-01-10 Device and method for watching real-time augmented reality

Country Status (4)

Country Link
US (1) US20100045700A1 (en)
EP (1) EP2119226A2 (en)
FR (1) FR2911463B1 (en)
WO (1) WO2008099092A2 (en)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8817045B2 (en) 2000-11-06 2014-08-26 Nant Holdings Ip, Llc Interactivity via mobile image recognition
KR101019569B1 (en) 2005-08-29 2011-03-08 에브릭스 테크놀로지스, 인코포레이티드 Interactivity via mobile image recognition
US8239132B2 (en) 2008-01-22 2012-08-07 Maran Ma Systems, apparatus and methods for delivery of location-oriented information
JP2011530708A (en) * 2008-08-13 2011-12-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Measurement and correction of lens distortion in a multi-spot scanner
FR2944932B1 (en) * 2009-04-27 2012-06-01 Scutum METHOD AND SYSTEM FOR DISSEMINATION OF INFORMATION THROUGH A COMMUNICATION NETWORK
KR20150008840A (en) 2010-02-24 2015-01-23 아이피플렉 홀딩스 코포레이션 Augmented reality panorama supporting visually imparired individuals
US9514654B2 (en) 2010-07-13 2016-12-06 Alive Studios, Llc Method and system for presenting interactive, three-dimensional learning tools
USD654538S1 (en) 2011-01-31 2012-02-21 Logical Choice Technologies, Inc. Educational card
USD675648S1 (en) 2011-01-31 2013-02-05 Logical Choice Technologies, Inc. Display screen with animated avatar
USD647968S1 (en) 2011-01-31 2011-11-01 Logical Choice Technologies, Inc. Educational card
USD648391S1 (en) 2011-01-31 2011-11-08 Logical Choice Technologies, Inc. Educational card
USD648390S1 (en) 2011-01-31 2011-11-08 Logical Choice Technologies, Inc. Educational card
USD648796S1 (en) 2011-01-31 2011-11-15 Logical Choice Technologies, Inc. Educational card
US8711186B2 (en) * 2011-05-02 2014-04-29 Microvision, Inc. Scanning projection apparatus with tangential compensation
US9600933B2 (en) 2011-07-01 2017-03-21 Intel Corporation Mobile augmented reality system
EP2798847B1 (en) * 2011-12-30 2018-08-22 Barco NV Method and system for determining image retention
FR2998680B1 (en) * 2012-11-26 2015-01-16 Laurent Desombre NAVIGATION METHOD IN AN ENVIRONMENT ASSOCIATED WITH AN INTERACTIVE PERISCOPE WITH A VIRTUAL REALITY
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
WO2015054387A1 (en) * 2013-10-10 2015-04-16 Selverston Aaron Outdoor, interactive 3d viewing apparatus
KR101592740B1 (en) * 2014-07-24 2016-02-15 현대자동차주식회사 Apparatus and method for correcting image distortion of wide angle camera for vehicle
US10196005B2 (en) 2015-01-22 2019-02-05 Mobileye Vision Technologies Ltd. Method and system of camera focus for advanced driver assistance system (ADAS)
US20180255285A1 (en) * 2017-03-06 2018-09-06 Universal City Studios Llc Systems and methods for layered virtual features in an amusement park environment
RU2682588C1 (en) * 2018-02-28 2019-03-19 Федеральное государственное автономное научное учреждение "Центральный научно-исследовательский и опытно-конструкторский институт робототехники и технической кибернетики" (ЦНИИ РТК) Method of high-precision calibration of digital video channel distortion
WO2021101524A1 (en) * 2019-11-19 2021-05-27 Hewlett-Packard Development Company, L.P. Determining a preferred region of a scanner
US11145117B2 (en) 2019-12-02 2021-10-12 At&T Intellectual Property I, L.P. System and method for preserving a configurable augmented reality experience

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060238861A1 (en) * 2005-04-20 2006-10-26 Baun Kenneth W High definition telescope

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2001070A1 (en) * 1988-10-24 1990-04-24 Douglas B. George Telescope operating system
US5448053A (en) * 1993-03-01 1995-09-05 Rhoads; Geoffrey B. Method and apparatus for wide field distortion-compensated imaging
US5815411A (en) * 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
US5745387A (en) * 1995-09-28 1998-04-28 General Electric Company Augmented reality maintenance system employing manipulator arm with archive and comparison device
US6665454B1 (en) * 1997-07-15 2003-12-16 Silverbrook Research Pty Ltd Dot adjacency compensation in optical storage systems using ink dots
EP1125156A4 (en) * 1998-10-26 2006-06-28 Meade Instruments Corp Fully automated telescope system with distributed intelligence
US20020082498A1 (en) * 2000-10-05 2002-06-27 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
US6765569B2 (en) * 2001-03-07 2004-07-20 University Of Southern California Augmented-reality tool employing scene-feature autocalibration during camera motion
US20020171924A1 (en) * 2001-05-15 2002-11-21 Varner Jerry W. Telescope viewing system
US8688833B1 (en) * 2001-11-08 2014-04-01 Oceanit Laboratories, Inc. Autonomous robotic telescope system
US7138963B2 (en) * 2002-07-18 2006-11-21 Metamersion, Llc Method for automatically tracking objects in augmented reality
US7427996B2 (en) * 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
WO2004107012A1 (en) * 2003-05-30 2004-12-09 Vixen Co., Ltd. Automatic introduction system of celestial body
US7443404B2 (en) * 2003-10-17 2008-10-28 Casio Computer Co., Ltd. Image display apparatus, image display controlling method, and image display program
US8521411B2 (en) * 2004-06-03 2013-08-27 Making Virtual Solid, L.L.C. En-route navigation display method and apparatus using head-up display
US20060103926A1 (en) * 2004-11-12 2006-05-18 Imaginova Corporation Telescope system and method of use
US7339731B2 (en) * 2005-04-20 2008-03-04 Meade Instruments Corporation Self-aligning telescope
EP1931945B1 (en) * 2005-09-12 2011-04-06 Trimble Jena GmbH Surveying instrument and method of providing survey data using a surveying instrument
US20080018995A1 (en) * 2006-07-21 2008-01-24 Baun Kenneth W User-directed automated telescope alignment

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060238861A1 (en) * 2005-04-20 2006-10-26 Baun Kenneth W High definition telescope

Also Published As

Publication number Publication date
FR2911463A1 (en) 2008-07-18
WO2008099092A3 (en) 2008-10-02
WO2008099092A2 (en) 2008-08-21
FR2911463B1 (en) 2009-10-30
US20100045700A1 (en) 2010-02-25
WO2008099092A8 (en) 2010-05-06

Similar Documents

Publication Publication Date Title
EP2119226A2 (en) Device and method for watching real-time augmented reality
EP2715662B1 (en) Method for localisation of a camera and 3d reconstruction in a partially known environment
EP2923330B1 (en) Method of 3d reconstruction and 3d panoramic mosaicing of a scene
EP0661672B1 (en) Picture processing process and device for building a target image from a source image with perspective change
EP0661671B1 (en) Picture processing process and device for building a target image from a source image with perspective change
EP2385405B1 (en) Panomaric projection device and method implemented by said device
EP4254333A2 (en) Augmented reality method and devices using a real time automatic tracking of marker-free textured planar geometrical objects in a video stream
WO2011144408A1 (en) Method and system for fusing data arising from image sensors and from motion or position sensors
EP2791914A1 (en) System for filming a video movie
EP0971319A2 (en) Modelisation process for image capturing system and process and system for combining real images with synthetic pictures
EP2111605A2 (en) Method and device for creating at least two key images corresponding to a three-dimensional object
EP1168831B1 (en) Method for camera calibration
FR3027144A1 (en) METHOD AND DEVICE FOR DETERMINING MOVEMENT BETWEEN SUCCESSIVE VIDEO IMAGES
EP3008693A1 (en) System for tracking the position of the shooting camera for shooting video films
WO2018229358A1 (en) Method and device for constructing a three-dimensional image
FR3052287B1 (en) CONSTRUCTION OF A THREE-DIMENSIONAL IMAGE
EP3072110A1 (en) Method for estimating the movement of an object
FR3047831A1 (en) METHOD FOR DETERMINING THE SPEED OF MOVING OBJECTS IN A SCENE
FR3030843A1 (en) METHOD FOR PROJECTING IMAGES ON A THREE-DIMENSIONAL HYBRID SCENE
FR2964203A1 (en) Image acquiring device e.g. camera, for use in photograph field of two-dimensional effects, has target determining unit determining part of panoramic, where viewing axis of device is passed through optical center of lens and sensor
FR2737071A1 (en) Matrix array camera movement system for site surveillance and e.g. being mounted on platform on boat - has random position camera with position picture and coordinate memorisation and display, and is provided with gyroscope
FR2962871A3 (en) Image acquisition device for e.g. camera in video-conferencing, has scenery elements seen from device, and photographic objective with optical axis made positioned with respect to device when no correction by line of sight of device is made
WO2012093209A1 (en) Method and device for assisting in the shooting of a digital photo using a wide-angle lens

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20090729

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MT NL NO PL PT RO SE SI SK TR

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20110127

RIC1 Information provided on ipc code assigned before grant

Ipc: G06F 3/01 20060101ALI20130628BHEP

Ipc: H04N 5/232 20060101ALI20130628BHEP

Ipc: G02B 23/00 20060101AFI20130628BHEP

Ipc: H04N 5/445 20110101ALI20130628BHEP

Ipc: H04N 5/272 20060101ALI20130628BHEP

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

INTG Intention to grant announced

Effective date: 20131125

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20140408