WO2005091104A2 - Controleur par manipulation d’objets virtuels sur un ecran tactile multi-contact - Google Patents

Controleur par manipulation d’objets virtuels sur un ecran tactile multi-contact Download PDF

Info

Publication number
WO2005091104A2
WO2005091104A2 PCT/FR2005/000428 FR2005000428W WO2005091104A2 WO 2005091104 A2 WO2005091104 A2 WO 2005091104A2 FR 2005000428 W FR2005000428 W FR 2005000428W WO 2005091104 A2 WO2005091104 A2 WO 2005091104A2
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
computerized equipment
controlling
equipment according
objects
Prior art date
Application number
PCT/FR2005/000428
Other languages
English (en)
Other versions
WO2005091104A3 (fr
Inventor
Pascal Joguet
Guillaume Largillier
Original Assignee
Jazzmutant
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=34834225&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2005091104(A2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority to KR1020067019321A priority Critical patent/KR101197876B1/ko
Priority to DE602005008384T priority patent/DE602005008384D1/de
Priority to PL05730729T priority patent/PL1719047T3/pl
Priority to US10/590,306 priority patent/US8049730B2/en
Priority to EP05730729A priority patent/EP1719047B1/fr
Priority to CA2557063A priority patent/CA2557063C/fr
Priority to JP2006553627A priority patent/JP4932500B2/ja
Application filed by Jazzmutant filed Critical Jazzmutant
Publication of WO2005091104A2 publication Critical patent/WO2005091104A2/fr
Publication of WO2005091104A3 publication Critical patent/WO2005091104A3/fr
Priority to US13/013,985 priority patent/US20110181547A1/en
Priority to US13/013,976 priority patent/US20110181546A1/en
Priority to US13/013,994 priority patent/US8659545B2/en
Priority to US13/013,970 priority patent/US8665232B2/en
Priority to US13/187,143 priority patent/US20110273392A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/045Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using resistive elements, e.g. a single continuous surface or two parallel surfaces put in contact
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/047Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using sets of wires, e.g. crossed wires
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • G10H1/04Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation
    • G10H1/053Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation during execution only
    • G10H1/055Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation during execution only by switches with variable impedance elements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/096Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/221Keyboards, i.e. configuration of several keys or key-like input devices relative to one another
    • G10H2220/241Keyboards, i.e. configuration of several keys or key-like input devices relative to one another on touchscreens, i.e. keys, frets, strings, tablature or staff displayed on a touchscreen display for note input purposes

Definitions

  • the present invention relates to the field of musical controllers.
  • the present invention relates more particularly to a man-machine interface allowing for example the control of music software or a controller by a multi-touch touch screen with manipulation of virtual objects.
  • the solution proposed by the present invention is to implement a touch screen for the manipulation and access to the software functions.
  • touch pads as touch control interfaces
  • video cameras and light sensor matrices as optical transducers
  • chemical sensors and other devices for generating digital images from computer processing or digital simulations.
  • Touch transducers can be placed on conventional instrument keys, attached to existing instruments, or used to create new instruments or controllers.
  • Chemical sensor arrays and other devices for generating digital images from computer processing or numerical simulations can be used to observe or simulate natural physical phenomena such as environmental conditions or conditions. self-organizing process behaviors.
  • Scalar or vector matrices are processed to extract pattern boundaries, geometric properties of pixels within boundaries (geometric center, weighted moments, etc.) and higher level derived information (direction of rotation, segmented regions, pattern classification, syntax, grammars, sequences, etc.) that are used to create control signals to external video, visual and control equipment or algorithms.
  • This invention also provides MIDI and non-MIDI control signals.
  • This US patent application does not provide a visual feedback of manipulations.
  • This US patent application does not mention control law either.
  • this patent application does not propose technical solutions to masking phenomena that occur when several fingers are aligned or placed orthogonally on the sensor. The resolution of these problems is essential for the implementation of a multi-contact touch sensor.
  • the prior art also knows, through the American patent US 5,027,689 (Yamaha) "Musical Tone Generating apparatus", "a musical sound generating device.
  • the apparatus includes a position information generating device for generating musical instrument position information (PS) as planar coordinate values. This information (PS) is stored in a memory device or determined selectively by a manual operation.
  • the apparatus also includes an information conversion device for converting the information (PS) into musical tone parameter (PD) control information.
  • This PD control information controls the source signals of musical sounds (SU, S12 and S13) for generating a sound field corresponding to the position of musical instruments arranged on a stage. This allows an operator to check the positions of musical instruments on a stage, thus providing the feeling of being in a real "live" performance.
  • multi-contact defines a touch sensor allowing the acquisition of the contact areas of several fingers at a time, as opposed to “single-contact” sensors allowing acquisition only for a single finger or for a stylet, as for example for the previous patent US 5,559,301.
  • the present invention intends to overcome the disadvantages of the prior art by providing a multi-touch tactile musical control screen with visual feedback of the various actions of the user on parametrizable objects.
  • the present invention is of the type described above and is remarkable, in its broadest sense, in that it relates to a method for controlling computerized equipment by a device comprising a two-dimensional multi-dimensional sensor. contact for the acquisition of tactile information, as well as calculation means generating control signals according to said touch information, characterized in that it comprises a step of generating graphic objects on a screen placed under a multi-touch sensor transparent contact, each of the graphic objects being associated with at least one specific processing law, the sensor delivering, during each acquisition phase, a plurality of tactile information, each of said tactile information being the subject of a specific treatment determined by its location relative to the position of one of said graphic objects.
  • the treatments include an area detection encompassing the contact area of an object with the touch sensor.
  • the treatments comprise a detection of barycentre.
  • it comprises steps of refreshing the graphic objects as a function of the treatments performed during a preceding acquisition step at least.
  • it comprises a step of editing graphic objects consisting in generating a graphical representation from a library of components and graphical functions, and determining an associated processing law.
  • the acquisition frequency of the touch information is greater than 50 Hz.
  • the present invention also relates to a device for controlling a computerized equipment comprising a two-dimensional multi-contact sensor for the acquisition of tactile information, characterized in that it further comprises a display screen disposed under the two-dimensional tactile sensor, as well as a memory for the recording of graphic objects each associated with at least one processing law, and a local computer for analyzing the position of the acquired tactile information and the application of a processing law according to of said position with respect to the position of the graphic objects.
  • said two-dimensional tactile touch sensor is a resistive slab.
  • said device further comprises a network output adapted to receive a network cable.
  • FIG. 1A is a functional diagram of the controller according to the invention
  • FIG. 1B represents the structure of the controller associated with the functional diagram according to the invention
  • FIG. 1C represents the functional diagram of the various steps of the data acquisition processes originating from the sensor, the creation of the sliders associated with the different fingers, the interaction with the graphic objects and the generation of the control messages
  • FIG. 2A is a description of the matrix touch sensor
  • FIG. 2B describes the first step of the operation of the scanning of the sensor in order to to obtain multi-contact information
  • Figures 2C, 2E and 2F explain the resolution of orthogonality problems
  • Figure 2D is a functional diagram of the capture interface
  • FIGS. 3A to 3F explain the steps of creation of cursors, filtering, calculation of center of gravity, mapping and control of graphical objects
  • FIGS. 4 and 5 represent different examples of graphic objects
  • FIGS. 6 to 10 show various examples of combinations of graphic objects on the controller
  • FIG. 11 illustrates the network use of the controller associated with the user's computer.
  • control is performed on computerized equipment that can be for example a music software, a PLC, an audiovisual equipment, or multimedia equipment.
  • the first fundamental element of the present invention is the matrix sensor (101), necessary for acquisition (multi-contact manipulations) using a capture interface (102) .
  • the sensor can be optionally divided into several parts to accelerate the capture, each part being scanned simultaneously.
  • the general principle is to create as many cursors (as a mouse cursor) that there are zones detected on the sensor and to follow their evolutions over time.
  • the sensor used for the exemplary implementation of the invention is a matrix resistive touch screen of known type.
  • Matrix resistive touch panels are composed of 2 superimposed faces on which tracks of ITO (indium tin oxide), which is a translucent conductive material, are organized.
  • the tracks form arranged in rows on the upper layer and in columns on the lower layer, forming a matrix (see Figure 2A).
  • the two conductive layers are insulated from one another by spacers. The intersection of a line with a column forms a point of contact.
  • one or more columns located on the upper layer are brought into contact with one or more lines situated on the lower layer thus creating one or more points of contact (see FIG. 2B).
  • a variant of the invention consists in replacing the spacers with a transparent resistive material (for example a conductive polymer), the resistance of which would vary according to the crushing, the latter falling if a force is exerted. sufficient support. In this way, one could also extract the pressure exerted on the surface by making a resistance measurement at each line-column intersection. In view of the musical or audiovisual use of these slabs, the imperative is to measure the activity of a finger with a maximum latency of 20 ms.
  • a transparent resistive material for example a conductive polymer
  • At least 100 times per second is measured the state of the slab, which can be divided into several zones in order to perform a parallel treatment on said zones.
  • the sampling frequency of the slab is at least 100 Hz.
  • Another fundamental element is the electronic scanning device of the touch screen allowing the simultaneous detection of several contact points on the matrix sensor. Indeed, known acquisition methods for this type of sensor do not allow the detection of multiple simultaneous contact points.
  • FIG. 2D representing the slab acquisition algorithm comprising 100 lines (L) and 135 columns (C).
  • the point cloud absorbs a large part of the electric potential of the powered column.
  • the potential measured on the isolated point is therefore too small to be detected.
  • the solution to this problem is to use a digitally controlled voltage comparator at the output of the line to determine if the observed voltage is sufficient to be considered as resulting from the action of a finger on the touchscreen.
  • the reference value of the comparator (comparison threshold) is decremented at each line measurement.
  • the values of comparisons of The last lines are smaller than those of the first lines, which makes it possible to detect in the same way a point of contact situated at the bottom left or at the top right.
  • the complete sampling of the slab is performed at least 100 times per second for the columns and the lines.
  • the data from the capture interface (102) thus form an image representative of the entire sensor. This image is placed in memory so that a program can perform filtering, finger detection and cursor creation. This will be referred to in FIG. 1C.
  • the filtering phase illustrated in FIG. 3B consists in eliminating the noise possibly generated by the acquisition interface or the sensor itself. It is considered that only clouds of several points of contact may correspond to the support of a finger. An encompassing zone detection is thus performed in order to eliminate isolated contact points.
  • the next step is to associate a cursor at each point of support ( Figure 3C). For this purpose, the center of gravity of each bounding zone is calculated. When a finger is released, the corresponding cursor is released.
  • the program executed locally by the main processor makes it possible to associate these cursors with graphical objects that are displayed on the screen (105) in order to manipulate them. Simultaneously, the local program uses these cursors to generate control messages addressed to the host computer or the controlled device.
  • the program includes a physical model simulator to modify the interaction laws between cursors and graphic objects. Different physical models can be used: mass-spring system, vibration of a rope, collision management, law of gravity, electromagnetic field.
  • the program considers the positioning of the cursors and on which graphic object each one is located. Depending on the object under consideration, a specific processing is applied to the data from the sensor. For example, a pressure measurement (corresponding to an evolution of the task made by the finger on the touchscreen in a short time interval) can be interpreted. Depending on the nature of the object, other parameters can be deduced: acceleration, speed, trajectories, etc. Shape recognition algorithms can be applied as well to differentiate different fingers.
  • the main program (103) also transmits to the graphical interface (104) the data to be displayed on the screen (105).
  • This graphical interface further consists of a graphics processor.
  • This graphic processor is for example of known type. The latter can be made up of primitive graphical functions allowing for example the display of bitmap, fonts of polygons and figures in 2 and 3 Dimensions, the vectorial drawing, the antialiasing, the texturing, the transparency and the interpolation colours.
  • the main program also includes a mathematical expression analyzer which allows to enter and calculate in time real mathematical functions. These allow to modify the values of any variable.
  • a mathematical expression analyzer which allows to enter and calculate in time real mathematical functions. These allow to modify the values of any variable.
  • the coordinates (x, y) of a cursor inside an object can be considered as two variables between 0 and 1.
  • the expression parser allows to create an expression of the type "x * 1000 + 600 "to obtain a new variable whose value will be between 600 and 1600.
  • the variable obtained makes it possible to control, for example, the frequency of an oscillator between 600 and 1600 hertz.
  • Math expressions can be applied to both scalar and vector values.
  • the expression analyzer is a tool for performing real-time calculations on object variables.
  • the local program (103) also formats the data as messages for the network port (106), which will communicate them to the computer on which the computer applications are running.
  • the network interface is for example a standard 10/100 baseT Ethernet interface, which communicates in packets using the TCP / IP protocol. It can also be a wireless type network interface.
  • Ethernet offers the user the possibility, through the use of a simple hub (network socket), to extend its control device indefinitely by constituting a network of controllers according to the invention.
  • the controller (s) present on the network then communicate with each other and with the host computer in the form of reciprocal message transmissions.
  • the assembly constituting the machine is also powered by a not shown battery of known type or by a power adapter.
  • an interface editor (107) makes it possible to graphically program the interface, that is to say the set of graphical objects displayed on the screen ( 105).
  • the interfaces are themselves organized in scenes, which are hierarchical structures superior. Each scene includes several interfaces. The user can switch the interfaces using a button keyboard or a control pedal connected to the input-output port (109).
  • Another function of the interface editor is to assign the control data to the parameters that the user wishes to control
  • the user has a library of graphical graphical objects making it possible to compose different interfaces according to the desired application.
  • Figures 4 and 5 show various graphical objects made available to the user.
  • a linear potentiometer (403, 404) is particularly suitable for controlling continuous parameters such as the volume of a sound signal, the frequency of a filter.
  • a wheel (401) can for example be used to control the scrolling of an audio or video player.
  • Objects can also be freely developed using a known type of development kit (SDK) (109).
  • SDK development kit
  • the development kit provides access to the graphical primitive functions of the controller.
  • the interface editor (107) thus allows the user to easily create custom control interfaces. It is software running on the user's computer. It consists of a main window representing the tactile surface of the slab on which we can deposit graphical objects from a library of proposed objects. The manipulation and placement of objects on the surface is done with the mouse, for example. The object deposited on the window is displayed simultaneously on the controller, the object being stored in a memory of the controller. It can later move or resize the objects as it sees fit.
  • a button (402) may also act as a switch or as a trigger.
  • a pressure measurement can optionally be performed.
  • Another example of a configurable object is the 2D area (503, 504), the principle of which is to move pions within a delimited area.
  • the number of pawns present on the 2D area is a parameterizable option.
  • the area can be configured in uniplan mode, in which pions collide with each other, or multi-plane, where pawns are placed on separate planes Bunk.
  • Physical parameters can also be configured: the coefficient of friction of the pions on the plane, the rebound and the attraction of the pions on the edges and between them.
  • the editor also allows you to list the objects on the surface, to create functions and variables thanks to the expression parser.
  • objects have by default a certain number of variables (x, y, z ...) corresponding to their primitive axes. These variables are always between 0 and 1 and vary as 32-bit floating-point numbers. The user must be able to "connect" these variables to other values more representative of what he wants to control.
  • Status display options are also desired. They allow to visually control the state of a parameter.
  • a circular movement of the finger on a virtual linear potentiometer (403, 404) must not have any effect on the state of the potentiometer, whereas it must change the state in the case of a circular potentiometer (401).
  • some objects can only take into account one finger (the linear potentiometer for example) at the same time, while others can accept the interaction of several fingers (keyboard, aire2D).
  • the "2D area" (503, 504) is a rectangular surface that contains a number of pions, each having a proper position. The pieces can be moved by the user.
  • the principle is to set up a physical system for all the objects, that is to say for example that the pieces moved by the user acquire a speed of inertia they keep when the user releases them ; the pawns thus submitted to their own speed will bounce off the edges of the "2D area" and even bounce between them. In addition, they will be subject to attraction / repulsion forces on the edges and on the other pions, as well as a coefficient of friction on the surface of the 2D area, to stop the pions after a certain time. time. All these parameters will be configurable.
  • Another variant of the 2D area is to apply a physical law of the "mass-spring" type.
  • a virtual elastic is stretched between each slider and each pawn. The user can modify the behavior of this object by configuring the friction and the interpolation factor. These properties can also be modified in real time using other objects.
  • FIGS. 6 to 9 A visualization of different examples of interfaces bringing together different types of objects is illustrated in FIGS. 6 to 9, where several objects described above can be observed.
  • Figure 6 shows a 6-area 2D array (601) each containing 1 pawn.
  • This interface could control, for example, six different filters assigned to one or more sound sources.
  • the abscissa displacement of each pin within each zone controls the frequency of the filter, while the ordinate displacement controls the quality factor or bandwidth of the filter.
  • FIG. 7 represents an example of control of a synthesizer or a sampler of known type.
  • the interface consists of a tempered keyboard (704) controlling the pitch of the sounds, a group of four vertical potentiometers (703) to control for example its dynamic envelope (attack time, decay time, level d maintenance, release time).
  • a 2D area (701) containing 3 pions makes it possible to control, for example, effects applied to the sound (reverberation, echo, filters).
  • a matrix of 16 buttons (702) can for example trigger 16 different recorded musical sequences or recall 16 pre-recorded configurations of the controls described previously.
  • FIG. 8 Another example of application of the invention is illustrated in FIG. 8 showing the control of a device for broadcasting different sound sources in space, on a device consisting of several loudspeakers.
  • a 2D area (801) representing the broadcast space contains 4 pawns (801) corresponding to four sound sources.
  • the 2D area also contains 5 icons (802) representing the positioning of five speakers.
  • By moving the different pins (802) we adjust the level and / or phase of each sound source with respect to each speaker, which determines its location in space.
  • a group of four linear potentiometers (803) allows moreover to adjust the relative level of each source.
  • a set of four buttons (804) turns on or off each sound source.
  • FIG. 9 represents the control of a synthesizer or of a sound generator in a configuration different from that represented by FIG. 7.
  • the frequency of the sound generator is controlled by four virtual strings. (903).
  • the initial tension (tuning) of each chord can itself be controlled, for example, by a linear potentiometer (902).
  • a 2D area can control other parameters of the sound generator, such as output level, timbre, pan, and so on.
  • Figure 10 shows the control of audio and / or video editing equipment of known type.
  • a wheel (1001) controls the playback speed of audio sources and / or video.
  • a status display object (1002) makes it possible to represent the positioning of the reading in a format (hour, minute, second, image) of known type.
  • a set of buttons (1003) provides access to the playback and editing functions of the controlled device.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Measurement Of Length, Angles, Or The Like Using Electric Or Magnetic Means (AREA)
  • Length Measuring Devices Characterised By Use Of Acoustic Means (AREA)
  • Details Of Television Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

La présente invention se rapporte à une interface homme-machine permettant le contrôle de logiciels de musique par un écran tactile avec manipulation d'objets virtuels. Elle concerne un procédé pour le contrôle d'un équipement informatisé par un dispositif comportant un capteur bidimensionnel multi-contact pour l'acquisition d'informations tactiles, ainsi que des moyens de calculs générant des signaux de commande en fonction desdites informations tactiles caractérisé en ce qu'il comporte une étape de génération d'objets graphiques sur un écran placé sous un capteur tactile transparent, chacun des objets graphiques étant associé à au moins une loi de traitement spécifique, le capteur délivrant lors de chaque phase d'acquisition une pluralité d'informations tactiles, chacune desdites informations tactiles faisant l'objet d'un traitement spécifique déterminé par sa localisation par rapport à la position d'un desdits objets graphiques.

Description

CONTRÔLEUR PAR MANIPULATION D'OBJETS VIRTUELS SUR UN ÉCRAN TACTILE MULTI-CONTACT
La présente invention se rapporte au domaine des contrôleurs musicaux.
La présente invention se rapporte plus particulièrement à une interface homme-machine permettant par exemple le contrôle de logiciels de musique ou d'un automate par un écran tactile multi-contact avec manipulation d'objets virtuels.
L'art antérieur connaît déjà les contrôleurs de logiciels de type manuel. Ce sont par exemple des potentiomètres manipulables par l'utilisateur sous forme de console et contrôlant les différentes fonctions des logiciels de musique. Une telle console fait par exemple l'objet de la demande PCT WO 01/69399. Le désavantage de ce type de contrôleur est qu'ils sont très peu ergonomiques pour une manipulation efficace des logiciels.
La solution proposée par la présente invention est de mettre en œuvre un écran tactile pour la manipulation et l'accès aux fonctions logicielles.
Dans le domaine des contrôleurs tactiles, l'art antérieur connaît déjà par la demande PCT W0 03/041006, ou le brevet US 6 570 078 des contrôleurs musicaux avec contrôle tactile sur un capteur matriciel. Les technologies décrites dans ces documents permettent un contrôle tactile de type multi-contact, où tous les doigts peuvent intervenir pour le contrôle des logiciels. Cependant ces documents ne proposent pas de retour visuel des manipulations, puisque les différents capteurs matriciels sont de type opaque.
L'art antérieur .connaît, par la demande de brevet américain US 2002/005108 (Lester Franck Ludwig) " Tactile, visual and array controllers for real-time control of music signal processing, mixing, video and lighting" ' , un système et un procédé pour contrôler en temps réel des processeurs de signaux, des synthétiseurs, des instruments de musiques, des processeurs MIDI, des lumières, de la vidéo, et des effets spéciaux lors de représentations, d'enregistrements ou dans des environnements de composition en utilisant des images dérivées de capteurs tactile, de matrices de capteurs de pression, de matrices de transducteurs optiques, des matrices de capteurs chimiques, de matrices de capteurs corporels et de traitements numériques. L'invention de cette demande de brevet américain fournit des touch-pads, des matrices de capteurs de pression et des matrices de capteurs corporels comme interfaces de contrôle tactile, des caméras vidéo et des matrices de capteurs de lumière comme transducteurs optiques, des matrices de capteurs chimiques et d'autres dispositifs de génération d'images numériques à partir de traitements sur ordinateurs ou de simulations numériques. Les transducteurs tactiles peuvent être disposés sur les clés d'instruments conventionnels, être attachés à des instruments existant ou bien être utilisés pour créer de nouveaux instruments ou de nouveaux contrôleurs . Les matrices de capteurs chimiques et les autres dispositifs de génération d'images numériques à partir de traitements par ordinateur ou de simulations numériques peuvent être utilisés pour observer ou simuler des phénomènes physiques naturels tels que des conditions environnementales ou des comportements de processus s'auto-organisant. Des matrices de scalaires ou de vecteurs sont traitées pour extraire des limites de motifs, des propriétés géométriques de pixels à l'intérieur des limites (centre géométrique, moments pondérés, etc.) et des informations dérivées de plus haut niveau (sens de rotation, régions segmentées, classification de motifs, syntaxe, grammaires, séquences etc.) qui sont utilisées pour créer des signaux de contrôle vers des équipements externes vidéo, visuels et de contrôle ou bien des algorithmes. Cette invention permet également de fournir des signaux de contrôle MIDI et non-MIDI. Cette demande de brevet américain ne propose pas de retour visuel des manipulations. Cette demande de brevet américain ne fait pas non plus mention de loi de commande. Enfin cette demande de brevet ne propose pas de solutions techniques aux phénomènes de masquage qui interviennent lorsque plusieurs doigts sont alignés ou placés de manière orthogonale sur le capteur. La résolution de ces problèmes est indispensable à la mise en œuvre d'un capteur tactile multi-contact.
L'art antérieur connaît également, par le brevet américain US 5 027 689 (Yamaha) "Musical tone generating apparatus " ', un appareil générateur de sons musicaux. Cet appareil comporte un dispositif de génération d'informations de position pour générer des informations de position d'instrument de musique (PS) en tant que valeurs de coordonnées planes. Ces informations (PS) sont stockées dans un dispositif mémoire ou déterminées de façon sélective par une opération manuelle. L'appareil comprend aussi un dispositif de conversion d'informations pour convertir les informations (PS) en informations de contrôle de paramètres de sons musicaux (PD). Ces informations de contrôle PD contrôlent les signaux de source de sons musicaux (SU, S12 et S13) pour générer un champ de son correspondant à la position d'instruments de musiques disposés sur une scène. Ceci permet à un opérateur de vérifier les positions d'instruments de musique sur une scène, fournissant ainsi la sensation d'être dans une vraie représentation « en live ». Dans ce brevet américain, il est fait mention de multicontact, mais il s'agit seulement de deux contacts sur un axe et non pas en coordonnées cartésiennes. L'appareil de ce brevet américain ne fonctionne qu'en linéaire pour l'option multipoint et ne permet pas le tracking (suivi de trajectoire). De plus, l'appareil de ce brevet américain nécessite une pluralité de capteurs, spécifique à chacun des instruments, alors que la présente invention vise un capteur générique .
L'art antérieur connaît également une solution de type contrôleur musical sous la forme d'un écran tactile avec retour visuel des objets manipulés par le brevet US 5,559,301. Cependant, ce brevet décrit des objets prédéfinis (essentiellement de type sliders et potentiomètre circulaire). Ces types d'objets sont assez limitatifs et peuvent s'avérer peu ergonomiques pour des manipulations spéciales. Par ailleurs, le mode d'acquisition décrit dans ce brevet n'est pas en temps réel. En effet, un icône doit d'abord être activé par un premier contact du doigt, puis l'objet manipulé, et les valeurs ne sont mises à jour qu'après que l'icône soit relâché. Cette solution ne permet pas une gestion en temps réel des paramètres associés à l'objet. Enfin, le capteur tactile utilisé dans ce brevet est un capteur « mono-contact » ne permettant l'acquisition par exemple que pour un seul doigt, et donc le contrôle d'un seul objet à la fois. Cette caractéristique est très limitative pour une manipulation efficace des objets. Dans toute la suite, le terme « multi-contact » définit un capteur tactile permettant l'acquisition des zones de contact de plusieurs doigts à la fois, par opposition aux capteurs « mono-contact » ne permettant l'acquisition que pour un seul doigt ou pour un stylet, comme par exemple pour le brevet précédent US 5,559,301.
La présente invention entend remédier aux inconvénients de l'art antérieur en proposant un écran de contrôle musical tactile multi-contact avec retour visuel des différentes actions de l'utilisateur sur des objets paramétrables .
Pour ce faire, la présente invention est du type décrit ci-dessus et elle est remarquable, dans son acception la plus large, en ce que elle concerne un procédé pour le contrôle d'un équipement informatisé par un dispositif comportant un capteur bidimensionnel multi-contact pour l'acquisition d'informations tactiles, ainsi que des moyens de calculs générant des signaux de commande en fonction desdites informations tactiles caractérisé en ce qu'il comporte une étape de génération d'objets graphiques sur un écran placé sous un capteur tactile multi-contact transparent, chacun des objets graphiques étant associé à au moins une loi de traitement spécifique, le capteur délivrant lors de chaque phase d'acquisition une pluralité d'informations tactiles, chacune desdites informations tactiles faisant l'objet d'un traitement spécifique déterminé par sa localisation par rapport à la position d'un desdits objets graphiques.
De préférence, les traitements comportent une détection de zone englobante de la zone de contact d'un objet avec le capteur tactile. Avantageusement, les traitements comportent une détection de barycentre.
De préférence, il comporte des étapes de rafraîchissement des objets graphiques en fonction des traitements effectués lors d'une étape d'acquisition précédente au moins.
Selon un mode de mise en œuvre, il comporte une étape d'édition d'objets graphiques consistant à générer une représentation graphique à partir d'une bibliothèque de composants et de fonctions graphiques, et à déterminer une loi de traitement associée.
De préférence, la fréquence d'acquisition des informations tactiles est supérieure à 50 hertz.
La présente invention concerne également un dispositif pour le contrôle d'un équipement informatisé comportant un capteur bidimensionnel multi-contact pour l'acquisition d'informations tactiles caractérisé en ce qu'il comporte en outre un écran de visualisation disposé sous le capteur tactile bidimensionnel, ainsi qu'une mémoire pour l'enregistrement d'objets graphiques associés chacun à au moins une loi de traitement, et un calculateur local pour l'analyse de la position des informations tactiles acquises et l'application d'une loi de traitement en fonction de ladite position par rapport à la position des objets graphiques.
De préférence, il se connecte en outre à un hub (multi-prise réseau) pour former un réseau de contrôleurs. Avantageusement, ledit capteur tactile bidimensionnel multi-contact est une dalle résistive.
De préférence, ledit dispositif comprend en outre une sortie réseau apte à recevoir un câble réseau.
On comprendra mieux l'invention à l'aide de la description, faite ci-après à titre purement explicatif, d'un mode de réalisation de l'invention, en référence aux figures annexées où : la figure 1A est un diagramme fonctionnel du contrôleur selon l'invention, - la figure 1B représente la structure du contrôleur associé au diagramme fonctionnel selon l'invention, - la figure 1C représente le diagramme fonctionnel des différentes étapes des processus d'acquisition des données provenant du capteur, de la création des curseurs associés aux différents doigts, de l'interaction avec les objets graphiques et de la génération des messages de contrôle, - la figure 2A est une description du capteur tactile matriciel, la figure 2B décrit la première étape du fonctionnement du balayage du capteur en vue d'obtenir l'information multi-contact, - les figures 2C, 2E et 2F expliquent la résolution des problèmes d'orthogonalité, la figure 2D est un diagramme fonctionnel de l'interface de capture, - la série de figure 3A à 3F explique les étapes de création de curseurs, de filtrage, de calcul de barycentre, de mapping et de contrôle des objets graphiques, - les figures 4 et 5 représentent différents exemples d'objets graphiques, - les figures 6 à 10 représentent différents exemples de combinaisons d'objets graphiques sur le contrôleur, - la figure 11 illustre l'utilisation en réseau du contrôleur associé à l'ordinateur de l'utilisateur.
Dans toute la suite, le contrôle s'effectue sur un équipement informatisé pouvant être par exemple un logiciel de musique, un automate, un équipement audiovisuel, ou un équipement multimédia.
Illustré figures 1A, 1B et plus précisément 2A, le premier élément fondamental de la présente invention est le capteur matriciel (101), nécessaire à l'acquisition (manipulations multi-contact) à l'aide d'une interface de capture (102). Le capteur peut être éventuellement divisé en plusieurs parties afin d'accélérer la captation, chaque partie étant balayée simultanément.
Le principe général est de créer autant de curseurs (comme un curseur de souris) qu'il y a de zones détectées sur le capteur et de suivre leurs évolutions dans le temps .
Lorsque l'utilisateur retire ses doigts du capteur, les curseurs associés sont détruits.
De cette manière, on capte la position et l'évolution de plusieurs doigts sur le capteur simultanément. C'est une captation multi-contact tout à fait innovante pour ce type de contrôleur.
Le capteur utilisé pour l'exemple d'implémentation de l'invention est une dalle tactile résistive matricielle de type connue. Les dalles tactiles résistives matricielles sont composées de 2 faces superposées sur lesquelles sont organisées des pistes d'ITO (oxyde indium étain) , qui est un matériau conducteur translucide. Les pistes forment disposées en lignes sur la couche supérieure et en colonnes sur la couche inférieure, formant une matrice, (cf. figure 2A) . Les deux couches conductrices sont isolées l'une de l'autre par des entretoises d'espacement. L'intersection d'une ligne avec une colonne forme un point de contact. Quand on pose un doigt sur la dalle, on met en contact une ou des colonnes situées sur la couche supérieure avec une ou des lignes situées sur la couche inférieure créant ainsi un ou plusieurs points de contact, (cf. figure 2B).
Avantageusement, une variante de l'invention consiste à remplacer les entretoises par un matériau résistif transparent (par exemple un polymère conducteur), dont la résistance varierait en fonction de l'écrasement, celle-ci chutant si l'on exerce une force d'appui suffisante. De cette manière, on pourrait également extraire la pression exercée sur la surface en effectuant une mesure de résistance à chaque intersection ligne-colonne. En vue de l'utilisation musicale ou audiovisuelle de ces dalles, l'impératif est de mesurer l'activité d'un doigt avec une latence maximum de 20 ms.
On mesure au moins 100 fois par seconde l'état de la dalle, celle-ci pouvant être divisée en plusieurs zones afin d'effectuer un traitement parallèle sur les lesdites zones.
Ainsi, selon l'invention, la fréquence d'échantillonnage de la dalle est d'au moins 100 Hz. Un autre élément fondamental est le dispositif électronique de balayage de la dalle tactile permettant la détection simultanée de plusieurs points de contact sur le capteur matriciel. En effet, les méthodes d'acquisitions connues pour ce type de capteurs ne permettent pas la détection de plusieurs points de contact simultanés.
Les méthodes connues à ce jour ne permettent pas de résoudre les problèmes illustrés par la figure 2C. Si on effectue une mesure simultanée de toutes les lignes en alimentant une colonne, des problèmes d'orthogonalité surviennent. Le point de contact n°l va masquer le point de contact n°2. De même, si on mesure une ligne lorsque toutes les colonnes sont alimentées, le point de contact n°2 est masqué par le point de contact n°l. La solution proposée pour résoudre ce problème consiste à effectuer un balayage séquentiel du capteur. Les colonnes sont alimentées par exemple en 5V à tour de rôle et on mesure le niveau des lignes (niveau haut ou bas) séquentiellement. Quand une des colonnes est mise sous tension, les autres sont en haute impédance afin d'empêcher la propagation du courant dans celles-ci. Ainsi, On alimente d'abord la colonne 1 tandis que les autres colonnes sont en haute impédance. Les lignes sont mesurées séquentiellement, c'est-à- dire les unes après les autres. On lit dans un premier temps la valeur sur la première ligne tandis que l'on relie toutes les autres lignes à la masse. Puis on relie la ligne 1 à la masse et on lit la valeur sur la ligne 2, et ainsi de suite jusqu'à ce que l'on ait lu la valeur de toutes les lignes. La colonne 1 passe ensuite à l'état de haute impédance et la colonne 2 est alimentée. On recommence à lire l'état de chacune des lignes. On effectue ainsi le balayage jusqu'à la dernière colonne. Le but étant de former une dalle multi-contact, le balayage total de la matrice se fait à une fréquence élevée afin d'obtenir la valeur de chacun des points d'intersection de la dalle plusieurs fois par seconde. Le dispositif permettant d'acquérir les données de la dalle est illustré par la figure 2D, représentant l'algorithme d'acquisition d'une dalle comprenant 100 lignes (L) et 135 colonnes (C). Certains problèmes de masquage d'un point par un ou plusieurs autres points peuvent apparaître. En effet, la résistance du matériau transparent (ITO) composant les colonnes et les lignes augmente proportionnellement à la longueur des pistes. Ainsi, le potentiel mesuré au coin inférieur gauche du capteur sera supérieur au potentiel mesuré à au coin supérieur droit.
Sur les figure 2E et 2F, le nuage de points absorbe une grande partie du potentiel électrique de la colonne alimentée. La potentiel mesuré sur le point isolé est donc trop faible pour être détecté.
La solution à ce problème consiste à utiliser un comparateur de tension piloté numériquement en sortie de la ligne afin de déterminer si la tension observée est suffisante pour être considérée comme résultant de 1 ' action d'un doigt sur la dalle tactile. La valeur de référence du comparateur (seuil de comparaison) est décrémentée à chaque mesure de ligne. Ainsi les valeurs de comparaisons des dernières lignes sont inférieures à celles des premières lignes, ce qui permet de détecter de la même manière un point de contact situé en bas à gauche ou en haut à droite. On effectue alors par exemple l'échantillonnage complet de la dalle au moins 100 fois par seconde pour les colonnes et les lignes.
Les données issues de l'interface de capture (102) forment ainsi une image représentative de l'ensemble du capteur. Cette image est placée en mémoire afin qu'un programme puisse procéder au filtrage, à la détection des doigts et à la création des curseurs. On se référera à cet effet à la figure 1C.
La phase de filtrage illustré par la figure 3B consiste à éliminer le bruit éventuellement généré par l'interface d'acquisition ou le capteur lui-même. On considère que seuls des nuages de plusieurs points de contact peuvent correspondre à l'appui d'un doigt. On effectue donc une détection de zone englobante afin d'éliminer des points de contact isolés.
L'étape suivante consiste à associer un curseur à chaque point d'appui (figure 3C). À cet effet, on calcule le barycentre de chaque zone englobante. Lorsqu'un doigt est relâché, le curseur correspondant est libéré.
Le programme exécuté localement par le processeur principal permet d'associer ces curseurs à des objets graphiques qui sont affichés sur l'écran (105) afin de les manipuler. Simultanément, le programme local utilise ces curseurs pour générer des messages de contrôle adressés à l'ordinateur hôte ou l'appareil contrôlé. En outre, le programme comporte un simulateur de modèles physiques permettant de modifier les lois d'interaction entre les curseurs et les objets graphiques. Différents modèles physiques peuvent être employés : système masse-ressort, vibration d'une corde, gestion des collisions, loi de la gravité, champ électromagnétique.
Le programme considère le positionnement des curseurs et sur quel objet graphique chacun se situe. En fonction de l'objet considéré, un traitement spécifique est appliqué aux données provenant du capteur. Par exemple, une mesure de pression (correspondant à une évolution de la tâche faite par le doigt sur la dalle tactile dans un court intervalle de temps) peut être interprétée. En fonction de la nature de l'objet, d'autres paramètres peuvent être déduits : l'accélération, la vitesse, les trajectoires, etc. Des algorithmes de reconnaissance de forme peuvent être appliqués également afin de différencier différents doigts.
Le programme principal (103) transmet également à l'interface graphique (104) les données à afficher à l'écran (105). Cette interface graphique est en outre constituée d'un processeur graphique. Ce processeur graphique est par exemple de type connu. Ce dernier peut être constitué de fonctions graphiques primitives permettant par exemple l'affichage de bitmap, de polices de caractères de polygones et de figures en 2 et 3 Dimensions, le dessin vectoriel, l'antialiasing, le texturage, la transparence et l'interpolation de couleurs.
Dans cette déclinaison de l'invention, le programme principal comprend également un analyseur d'expressions mathématiques qui permet de saisir et de calculer en temps réel des fonctions mathématiques. Celles-ci permettent de modifier les valeurs de toute variable. Par exemple, les coordonnées (x, y) d'un curseur à l'intérieur d'un objet peuvent être considérées comme deux variables comprises entre 0 et 1. L'analyseur d'expression permet de créer une expression du type « x*1000+600 » afin d'obtenir une nouvelle variable, dont la valeur sera comprise entre 600 et 1600. La variable obtenue permet de contrôler par exemple la fréquence d'un oscillateur comprise entre 600 et 1600 hertz. Les expressions mathématiques peuvent s'appliquer aussi bien à des valeurs scalaires qu'à des vecteurs.
L'analyseur d'expression est un outil permettant d'effectuer des calculs temps réel sur les variables des objets.
Le programme local (103) réalise également un formatage des données sous forme de messages pour le port réseau (106), qui les communiquera à l'ordinateur sur lequel sont exécutées les applications informatiques.
L'interface réseau est par exemple une interface Ethernet 10/100 baseT standard, qui communique par paquets grâce au protocole TCP/IP. Elle peut aussi être une interface réseau de type sans fil.
Illustré figure 11, il faut noter que la liaison
Ethernet offre à l'utilisateur la possibilité, grâce à l'utilisation d'un simple hub (multiprise réseau), d'étendre indéfiniment son dispositif de contrôle en constituant un réseau de contrôleurs selon l'invention. Le (ou les) contrôleur(s) présent(s) sur le réseau communiquent alors entre eux et avec l'ordinateur hôte sous la forme d'envois réciproques de messages. L'ensemble constituant la machine est par ailleurs alimentée par une batterie non représentée de type connu ou par un adaptateur secteur. Enfin, au niveau de l'ordinateur de l'utilisateur, un éditeur d'interface (107) permet de programmer de manière graphique l'interface, c'est-à-dire l'ensemble des objets graphiques affichés sur l'écran (105). Dans ce mode de réalisation de l'invention, les interfaces sont elles-mêmes organisées en scènes, qui sont des structures hiérarchiques supérieures. Chaque scène comprend en effet plusieurs interfaces. L'utilisateur peut permuter les interfaces à l'aide d'un clavier de bouton ou d'un pédalier de contrôle connecté au port d'entrée-sortie (109).
Une autre fonction de l'éditeur d'interface est d'affecter les données de contrôle aux paramètres que l'utilisateur souhaite contrôler
L'utilisateur dispose par exemple d'une bibliothèque d'objets graphiques paramétrables permettant de composer différentes interfaces selon l'application désirée. Les figures 4 et 5 représentent différents objets graphiques mis à la disposition de l'utilisateur.
Ils peuvent être prédéfinis et dédiés tout particulièrement à la musique ou au contrôle d'équipements audiovisuels ou d'appareils informatisés. Par exemple, un potentiomètre linéaire (403, 404) est particulièrement adapté à contrôler des paramètres continus tels que le volume d'un signal sonore, la fréquence d'un filtre. Une molette (401) peut par exemple servir à contrôler le défilement d'un lecteur audio ou vidéo. Les objets peuvent aussi être développés librement grâce à un kit de développement (SDK) de type connu (109). Le kit de développement donne accès aux fonctions primitives graphiques du contrôleur.
L'éditeur d'interface (107) permet ainsi à l'utilisateur de créer aisément des interfaces personnalisées de contrôle. C'est un logiciel exécuté sur l'ordinateur de l'utilisateur. Il se compose d'une fenêtre principale représentant la surface tactile de la dalle sur laquelle on peut déposer des objets graphiques issus d'une bibliothèque d'objets proposés. La manipulation et le placement des objets sur la surface s'effectuent à la souris, par exemple. L'objet déposé sur la fenêtre s'affiche simultanément sur le contrôleur, l'objet étant enregistré dans une mémoire du contrôleur. Il peut par la suite déplacer ou redimensionner les objets à sa convenance.
En plus du positionnement des objets graphiques sur la fenêtre principale, d'autres fenêtres secondaires permettent de régler différents paramètres inhérents aux objets (propriétés graphiques, comportement physique). Par exemple, un bouton (402) peut aussi bien agir comme un interrupteur ou comme une gâchette. Dans le cas du mode gâchette, une mesure de pression peut optionnelle ent être opérée. Un autre exemple d'objet paramétrable est l'aire 2D (503, 504), dont le principe consiste à déplacer des pions à l'intérieur d'une zone délimitée. Le nombre de pions présents sur l'aire2D est une option paramétrable. L'aire peut être configurée en mode uniplan, mode dans lequel les pions entrent en collision les uns avec les autres, ou multi-plan, mode où les pions sont placés sur des plans distincts superposés. Des paramètres physiques peuvent également être configurés : le coefficient de frottement des pions sur le plan, le rebond et l'attraction des pions sur les bords et entre eux.
L'éditeur permet également de lister les objets présents sur la surface, de créer des fonctions et des variables grâce à l'analyseur d'expression. Ainsi, les objets ont par défaut un certain nombre de variables (x, y, z...) correspondant à leurs axes primitifs. Ces variables sont toujours comprises entre 0 et 1 et varient sous forme de nombres 32 bit à virgule flottante. L'utilisateur doit pouvoir « connecter » ces variables vers d'autres valeurs plus représentatives de ce qu'il souhaite contrôler. Ainsi, l'analyseur d'expression donne la possibilité de créer de nouvelles variables à l'aide d'expressions mathématiques simples. Par exemple, un potentiomètre rectiligne a un axe primitif qui est x. Si l'utilisateur désire contrôler une fréquence de 500 à 2500Hz, il doit créer une variable a=2000x+500.
Des options d'affichage de statut sont aussi souhaitées. Elles permettent de contrôler visuellement l'état d'un paramètre.
Les traitements Ultérieurs qui seront appliqués aux objets au niveau de l'unité de calcul principale (103) par la manipulation sur la dalle sont spécifiques à chaque type d'objet.
En effet, un mouvement circulaire du doigt sur un potentiomètre linéaire virtuel (403, 404) ne doit pas avoir d'action sur l'état du potentiomètre, alors qu'il doit modifier l'état dans le cas d'un potentiomètre circulaire (401). De même, certains objets ne peuvent prendre en compte qu'un seul doigt (le potentiomètre linéaire par exemple) en même temps, tandis que d'autres peuvent accepter l'interaction de plusieurs doigts (clavier, aire2D) .
Par exemple, l' « aire 2D » (503, 504) est une surface rectangulaire qui contient un certain nombre de pions, chacun ayant une position propre. Les pions peuvent être déplacés par l'utilisateur.
Le principe est de mettre en place un système physique pour l'ensemble des objets, c'est-à-dire par exemple que les pions déplacés par l'utilisateur acquièrent une vitesse d'inertie qu'ils gardent lorsque l'utilisateur les relâche ; les pions ainsi soumis à leur vitesse propre vont rebondir sur les bords de l' « aire 2D » et même rebondir entre eux. De plus, ils seront soumis à des forces d'attraction/répulsion sur les bords et sur les autres pions, ainsi qu'à un coefficient de frottement sur la surface de l'aire 2D, pour stopper les pions au bout d'un certain temps. Tous ces paramètres seront paramétrables.
Une autre variante de l'aire 2D consiste à appliquer une loi physique de type «masse-ressort ». Un élastique virtuel est tendu entre chaque curseur et chaque pion. L'utilisateur peut modifier le comportement de cet objet en configurant la friction et le facteur d'interpolation. Ces propriétés peuvent également être modifiées en temps réel à l'aide d'autres objets.
Un autre exemple est le « Multislider » (501), une table de curseurs dont le nombre est configurable. L'utilisation typique ' est le contrôle d'un égaliseur graphique ou d'une enveloppe spectrale. La différence entre un « multislider » et plusieurs potentiomètres linéaires simples juxtaposés est que l'on peut modifier l'ensemble des curseurs en un seul toucher, en faisant glisser le doigt. Le multislider peut également être utilisé comme une corde discrétisée. Pour cela, il suffit de lui appliquer le modèle physique d'une corde, dont la tension est paramétrable par l'utilisateur. Une visualisation de différents exemples d'interfaces réunissant différents types d'objets est illustrée par les figures 6 à 9, où l'on peut observer plusieurs objets décrits ci-dessus. La figure 6 représente un arrangement de 6 aire 2D (601) contenant chacune 1 pion. Cette interface pourrait contrôler, par exemple, six filtres différents affectés à une ou plusieurs sources sonores. Dans ce cas, le déplacement en abscisse de chaque pion à l'intérieur de chaque zone contrôle la fréquence du filtre, tandis que le déplacement en ordonnée contrôle le facteur qualité ou la largeur de bande du filtre. La figure 7 représente un exemple de contrôle d'un synthétiseur ou d'un échantillonneur de type connu. L'interface se compose d'un clavier tempéré (704) contrôlant la hauteur des sons, d'un groupe de quatre potentiomètres (703) verticaux permettant de contrôler par exemple son enveloppe dynamique (temps d'attaque, temps de décroissance, niveau d'entretien, temps de relâchement). Une aire 2D (701) contenant 3 pions permet de contrôler par exemple des effets appliqués au son (réverbération, écho, filtres). Une matrice de 16 boutons (702) peut par exemple déclencher 16 différentes séquences musicales enregistrées ou encore rappeler 16 configurations pré-enregistrées des contrôles décrits précédemment.
Un autre exemple d'application de l'invention est illustré par la figure 8 représentant le contrôle d'un dispositif de diffusion de différentes sources sonores dans l'espace, sur un dispositif constitué de plusieurs haut- parleurs. Dans cette configuration, une aire 2D (801) représentant l'espace de diffusion contient 4 pions (801) correspondant à quatre sources sonores. L'aire 2D contient également 5 icônes (802) représentant le positionnement de cinq haut-parleurs. En déplaçant les différents pions (802) on règle le niveau et/ou la phase de chaque source sonore par rapport à chaque enceinte, ce qui détermine son emplacement dans l'espace. Un groupe de quatre potentiomètres linéaires (803) permet qui plus est de régler le niveau relatif de chaque source. Un ensemble de quatre boutons (804) permet d'activer ou de désactiver chaque source sonore .
Un autre exemple est illustré par la figure 9 qui représente le contrôle d'un synthétiseur ou d'un générateur de son selon une configuration différente de celle représentée par la figure 7. Ici, la fréquence du générateur de son est contrôlée par quatre cordes virtuelles (903). La tension initiale (l'accord) de chaque corde peut elle-même être contrôlée, par exemple, par un potentiomètre linéaire (902). Une aire 2D peut par exemple contrôler d'autres paramètres du générateur de son, tel que le niveau de sortie, le timbre, le panoramique, etc.
La figure 10 représente le contrôle d'un équipement de montage audio et/ou vidéo de type connu. Une molette (1001) permet de contrôler la vitesse de lecture des sources audio et/ou vidéo. Un objet d'affichage de statut (1002) permet de représenter le positionnement de la lecture selon un format (heure, minute, seconde, image) de type connu. Un ensemble de boutons (1003) permet d'accéder aux fonctions de lecture et de montage de l'appareil contrôlé.
L'invention est décrite dans ce qui précède à titre d'exemple. Il est entendu que l'homme du métier est à même de réaliser différentes variantes de 1 ' invention sans pour autant sortir du cadre du brevet.

Claims

REVENDICATIONS
1. Procédé pour le contrôle d'un équipement informatisé par un dispositif comportant un capteur bidimensionnel multi-contact pour l'acquisition d'informations tactiles, ainsi que des moyens de calculs générant des signaux de commande en fonction desdites informations tactiles caractérisé en ce qu'il comporte une étape de génération d'objets graphiques sur un écran placé sous un capteur tactile multi-contact transparent, chacun des objets graphiques étant associé à au moins une loi de traitement spécifique, le capteur délivrant lors de chaque phase d'acquisition une pluralité d'informations tactiles, chacune desdites informations tactiles faisant l'objet d'un traitement spécifique déterminé par sa localisation par rapport à la position d'un desdits objets graphiques.
2. Procédé pour le contrôle d'un équipement informatisé selon la revendication 1, caractérisé en ce qu'il met œuvre un capteur matriciel et qu'il comporte en outre une étape de balayage séquentiel du capteur.
3. Procédé pour le contrôle d'un équipement informatisé selon la revendication 1, caractérisé en en ce que les traitements comportent une détection de zone englobante de la zone de contact d'un objet avec le capteur tactile.
4. Procédé pour le contrôle d'un équipement informatisé selon la revendication 1, caractérisé en en ce que les traitements comportent une détection de barycentre.
5. Procédé pour le contrôle d'un équipement informatisé selon la revendication 1, caractérisé en en ce qu'il comporte des étapes de rafraîchissement des objets graphiques en fonction des traitements effectués lors d'une étape d'acquisitions précédente au moins.
6. Procédé pour le contrôle d'un équipement informatisé selon la revendication 1, caractérisé en en ce qu'il comporte une étape d'édition d'objets graphiques consistant à générer une représentation graphique à partir d'une bibliothèque de composants et de fonctions graphiques, et à déterminer une loi de traitement associée.
7. Procédé pour le contrôle d'un équipement informatisé selon la revendication 1, caractérisé en en ce que la fréquence d'acquisition des données tactiles est supérieure à 50 hertz.
8. Procédé pour le contrôle d'un équipement informatisé selon la revendication 1, caractérisé en en ce que ledit dispositif communique avec ledit équipement informatisé par une liaison Ethernet.
9. Dispositif pour le contrôle d'un équipement informatisé comportant un capteur bidimensionnel multi- contact pour l'acquisition d'informations tactiles, caractérisé en ce qu'il comporte en outre un écran de visualisation disposé sous le capteur tactile bidimensionnel, ainsi qu'une mémoire pour l'enregistrement d'objets graphiques associés chacun à au moins une loi de traitement, et un calculateur local pour l'analyse de la position des informations tactiles acquises et l'application d'une loi de traitement en fonction de ladite position par rapport à la position des objets graphiques.
10. Dispositif pour le contrôle d'un équipement informatisé selon la revendication 9, caractérisé en ce qu'il se connecte en outre à un hub (multi-prise réseau) pour former un réseau de contrôleurs.
11. Dispositif pour le contrôle d'un équipement informatisé selon la revendication 9, caractérisé en ce que ledit capteur tactile bidimensionnel multi-contact est une dalle résistive.
12. Dispositif pour le contrôle d'un équipement informatisé selon la revendication 9, caractérisé en ce que ledit dispositif comprend en outre une sortie réseau apte à recevoir un câble réseau.
PCT/FR2005/000428 2004-02-23 2005-02-23 Controleur par manipulation d’objets virtuels sur un ecran tactile multi-contact WO2005091104A2 (fr)

Priority Applications (12)

Application Number Priority Date Filing Date Title
KR1020067019321A KR101197876B1 (ko) 2004-02-23 2005-02-23 다중접촉 촉각 스크린 상에서 가상 대상의 조작을 통한제어기
DE602005008384T DE602005008384D1 (de) 2004-02-23 2005-02-23 Steuerung, bei der eine manipulation virtueller objekte auf einem mehrkontakt-berührungsschirm erfolgt
PL05730729T PL1719047T3 (pl) 2004-02-23 2005-02-23 Sterownik do obsługi wirtualnych obiektów na wielo-kontaktowym ekranie dotykowym
US10/590,306 US8049730B2 (en) 2004-02-23 2005-02-23 Devices and methods of controlling manipulation of virtual objects on a multi-contact tactile screen
EP05730729A EP1719047B1 (fr) 2004-02-23 2005-02-23 Controleur par manipulation d'objets virtuels sur un ecran tactile multi-contact
CA2557063A CA2557063C (fr) 2004-02-23 2005-02-23 Controleur par manipulation d'objets virtuels sur un ecran tactile multi-contact
JP2006553627A JP4932500B2 (ja) 2004-02-23 2005-02-23 多点接触の触知スクリーン上の仮想オブジェクトの操作によるコントローラー
US13/013,985 US20110181547A1 (en) 2004-02-23 2011-01-26 Devices and methods of controlling manipulation of virtual objects on a multi-contact tactile screen
US13/013,970 US8665232B2 (en) 2004-02-23 2011-01-26 Device and method for acquiring tactile information with sequential scanning
US13/013,994 US8659545B2 (en) 2004-02-23 2011-01-26 Device and method for controlling computerized equipment
US13/013,976 US20110181546A1 (en) 2004-02-23 2011-01-26 Devices and methods of controlling manipulation of virtual objects on a multi-contact tactile screen
US13/187,143 US20110273392A1 (en) 2004-02-23 2011-07-20 Devices and methods of controlling manipulation of virtual objects on a multi-contact tactile screen

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0450329 2004-02-23
FR0450329A FR2866726B1 (fr) 2004-02-23 2004-02-23 Controleur par manipulation d'objets virtuels sur un ecran tactile multi-contact

Related Child Applications (6)

Application Number Title Priority Date Filing Date
US10/590,306 A-371-Of-International US8049730B2 (en) 2004-02-23 2005-02-23 Devices and methods of controlling manipulation of virtual objects on a multi-contact tactile screen
US13/013,970 Division US8665232B2 (en) 2004-02-23 2011-01-26 Device and method for acquiring tactile information with sequential scanning
US13/013,985 Division US20110181547A1 (en) 2004-02-23 2011-01-26 Devices and methods of controlling manipulation of virtual objects on a multi-contact tactile screen
US13/013,976 Division US20110181546A1 (en) 2004-02-23 2011-01-26 Devices and methods of controlling manipulation of virtual objects on a multi-contact tactile screen
US13/013,994 Division US8659545B2 (en) 2004-02-23 2011-01-26 Device and method for controlling computerized equipment
US13/187,143 Division US20110273392A1 (en) 2004-02-23 2011-07-20 Devices and methods of controlling manipulation of virtual objects on a multi-contact tactile screen

Publications (2)

Publication Number Publication Date
WO2005091104A2 true WO2005091104A2 (fr) 2005-09-29
WO2005091104A3 WO2005091104A3 (fr) 2006-07-13

Family

ID=34834225

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2005/000428 WO2005091104A2 (fr) 2004-02-23 2005-02-23 Controleur par manipulation d’objets virtuels sur un ecran tactile multi-contact

Country Status (12)

Country Link
US (6) US8049730B2 (fr)
EP (5) EP2278440A2 (fr)
JP (2) JP4932500B2 (fr)
KR (1) KR101197876B1 (fr)
CN (1) CN100447723C (fr)
AT (1) ATE402436T1 (fr)
CA (1) CA2557063C (fr)
DE (1) DE602005008384D1 (fr)
ES (1) ES2311218T3 (fr)
FR (1) FR2866726B1 (fr)
PL (1) PL1719047T3 (fr)
WO (1) WO2005091104A2 (fr)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2914756A1 (fr) * 2007-04-05 2008-10-10 Jazzmutant Soc Par Actions Sim Capteur multi-tactile transparent.
EP1783593A3 (fr) * 2005-10-07 2012-12-19 Sony Corporation Dispositif de traitement d'information avec une interface utilisateur à écran tactile, procédé et logiciel correspondant
US8717301B2 (en) 2005-08-01 2014-05-06 Sony Corporation Information processing apparatus and method, and program

Families Citing this family (119)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6610917B2 (en) 1998-05-15 2003-08-26 Lester F. Ludwig Activity indication, external source, and processing loop provisions for driven vibrating-element environments
US9024884B2 (en) 2003-09-02 2015-05-05 Apple Inc. Touch-sensitive electronic apparatus for media applications, and methods therefor
FR2866726B1 (fr) * 2004-02-23 2006-05-26 Jazzmutant Controleur par manipulation d'objets virtuels sur un ecran tactile multi-contact
JP4201775B2 (ja) * 2005-03-02 2008-12-24 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置の制御方法及びプログラム
ATE423344T1 (de) * 2006-06-30 2009-03-15 Christian Iten Verfahren zur positionierung eines cursors auf einem berührungsempfindlichen bildschirm
US8144129B2 (en) * 2007-01-05 2012-03-27 Apple Inc. Flexible touch sensing circuits
US8970503B2 (en) * 2007-01-05 2015-03-03 Apple Inc. Gestures for devices having one or more touch sensitive surfaces
US20080168478A1 (en) 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US9052817B2 (en) * 2007-06-13 2015-06-09 Apple Inc. Mode sensitive processing of touch data
KR101395780B1 (ko) * 2007-07-27 2014-05-16 삼성전자주식회사 촉각 감지를 위한 압력 센서 어레이 장치 및 방법
CN101458586B (zh) * 2007-12-11 2010-10-13 义隆电子股份有限公司 以多根手指在触控屏幕上操作对象的方法
AR064377A1 (es) 2007-12-17 2009-04-01 Rovere Victor Manuel Suarez Dispositivo para sensar multiples areas de contacto contra objetos en forma simultanea
FR2925714B1 (fr) 2007-12-19 2010-01-15 Stantum Circuit electronique d'analyse a alternance de mesure capacitive/resistive pour capteur tactile multicontacts a matrice passive
FR2925716B1 (fr) 2007-12-19 2010-06-18 Stantum Circuit electronique d'analyse a modulation de caracteristiques de balayage pour capteur tactile multicontacts a matrice passive
TWI358028B (en) * 2007-12-25 2012-02-11 Htc Corp Electronic device capable of transferring object b
US8797271B2 (en) 2008-02-27 2014-08-05 Microsoft Corporation Input aggregation for a multi-touch device
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8416196B2 (en) 2008-03-04 2013-04-09 Apple Inc. Touch event model programming interface
US8717305B2 (en) 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US20090237374A1 (en) * 2008-03-20 2009-09-24 Motorola, Inc. Transparent pressure sensor and method for using
US9018030B2 (en) * 2008-03-20 2015-04-28 Symbol Technologies, Inc. Transparent force sensor and method of fabrication
US8345014B2 (en) 2008-07-12 2013-01-01 Lester F. Ludwig Control of the operating system on a computing device via finger angle using a high dimensional touchpad (HDTP) touch user interface
FR2934908B1 (fr) 2008-08-05 2013-09-27 Stantum Procede d'acquisition et d'analyse d'un capteur tactile multicontacts suivant un principe dichotomique, circuit electronique et capteur tactile multicontacts mettant en oeuvre un tel procede
FR2934921B1 (fr) * 2008-08-05 2010-09-24 Stantum Capteur tactile multicontacts a moyens d'espacement de taille et impedance variables
FR2936326B1 (fr) * 2008-09-22 2011-04-29 Stantum Dispositif pour le controle d'appareil electronique par la manipulation d'objets graphiques sur un ecran tactile multicontacts
US8749495B2 (en) * 2008-09-24 2014-06-10 Immersion Corporation Multiple actuation handheld device
US20100079400A1 (en) * 2008-09-26 2010-04-01 Sony Ericsson Mobile Communications Ab Touch sensitive display with conductive liquid
US8310464B2 (en) * 2008-10-16 2012-11-13 Texas Instruments Incorporated Simultaneous multiple location touch systems
US8466879B2 (en) 2008-10-26 2013-06-18 Microsoft Corporation Multi-touch manipulation of application objects
US8477103B2 (en) 2008-10-26 2013-07-02 Microsoft Corporation Multi-touch object inertia simulation
US20100141604A1 (en) * 2008-12-09 2010-06-10 Nokia Corporation Resistive multi touch screen
US8330732B2 (en) * 2008-12-19 2012-12-11 Honeywell International Inc. Method and apparatus for avionic touchscreen operation providing sensible feedback
US9342202B2 (en) * 2009-01-23 2016-05-17 Qualcomm Incorporated Conductive multi-touch touch panel
FR2942329B1 (fr) 2009-02-17 2011-07-15 Stantum Capteur multipoints
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US9311112B2 (en) 2009-03-16 2016-04-12 Apple Inc. Event recognition
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US9459734B2 (en) * 2009-04-06 2016-10-04 Synaptics Incorporated Input device with deflectable electrode
TWI466004B (zh) 2009-04-17 2014-12-21 Egalax Empia Technology Inc 電阻式多點觸控裝置及方法
CN101866253B (zh) * 2009-04-20 2013-03-20 禾瑞亚科技股份有限公司 电阻式多点触控装置及方法
KR101611511B1 (ko) 2009-05-12 2016-04-12 삼성전자주식회사 터치스크린을 구비한 휴대 단말기를 이용한 음악 생성 방법
TWI402738B (zh) * 2009-05-27 2013-07-21 Wintek Corp 觸控裝置以及觸控感測方法
US20120068969A1 (en) * 2009-05-29 2012-03-22 Matteo Paolo Bogana Method for determining multiple touch inputs on a resistive touch screen and a multiple touch controller
US9383881B2 (en) * 2009-06-03 2016-07-05 Synaptics Incorporated Input device and method with pressure-sensitive layer
IT1394716B1 (it) * 2009-06-09 2012-07-13 Corona Dispositivo e metodo di acquisizione di dati da strumenti musicali aerofoni, in particolare per launeddas e similari
CN101989143B (zh) * 2009-07-31 2013-05-01 群康科技(深圳)有限公司 触控装置及其控制方法
GB0913734D0 (en) * 2009-08-06 2009-09-16 Binstead Ronald P Masked touch sensors
US8988191B2 (en) * 2009-08-27 2015-03-24 Symbol Technologies, Inc. Systems and methods for pressure-based authentication of an input on a touch screen
JP5278766B2 (ja) * 2009-09-07 2013-09-04 Nltテクノロジー株式会社 タッチ位置検出装置、情報入力システム、タッチ位置検出方法、タッチ位置検出プログラム
US8558722B2 (en) * 2009-12-10 2013-10-15 Industrial Technology Research Institute Touch apparatus, transparent scan electrode structure, and manufacturing method thereof
FR2954981A1 (fr) 2010-01-05 2011-07-08 Stantum Afficheur et capteur tactile bidimensionnel multicontacts a elements longitudinaux conducteurs inclines
FR2954982A1 (fr) * 2010-01-05 2011-07-08 Stantum Capteur tactile multicontacts a resistance de contact electrique elevee
US20110163944A1 (en) * 2010-01-05 2011-07-07 Apple Inc. Intuitive, gesture-based communications with physics metaphors
TWI426427B (zh) * 2010-02-12 2014-02-11 Wintek Corp 觸控面板
US8587422B2 (en) 2010-03-31 2013-11-19 Tk Holdings, Inc. Occupant sensing system
DE102011006448A1 (de) 2010-03-31 2011-10-06 Tk Holdings, Inc. Lenkradsensoren
DE102011006649B4 (de) 2010-04-02 2018-05-03 Tk Holdings Inc. Lenkrad mit Handsensoren
US8686960B2 (en) * 2010-04-23 2014-04-01 Lester F. Ludwig Piecewise-linear and piecewise-affine transformations for high dimensional touchpad (HDTP) output decoupling and corrections
US9501145B2 (en) * 2010-05-21 2016-11-22 Disney Enterprises, Inc. Electrovibration for touch surfaces
US10216408B2 (en) 2010-06-14 2019-02-26 Apple Inc. Devices and methods for identifying user interface objects based on view hierarchy
US8963874B2 (en) 2010-07-31 2015-02-24 Symbol Technologies, Inc. Touch screen rendering system and method of operation thereof
JP5821170B2 (ja) * 2010-08-31 2015-11-24 ヤマハ株式会社 電子音楽装置及びプログラム
US8330033B2 (en) 2010-09-13 2012-12-11 Apple Inc. Graphical user interface for music sequence programming
US9158369B2 (en) * 2010-10-12 2015-10-13 Tactonic Technologies, Llc Sensors having a connecting frame and method for composite sensors
FR2968102B1 (fr) * 2010-11-26 2013-01-04 Stantum Capteur tactile a réseau matriciel de pistes conductrices et écran de contrôle tactile
FR2971068B1 (fr) 2011-01-31 2013-09-27 Stantum Capteur tactile multicontacts a couche intermédiaire résistive
FR2971346A1 (fr) * 2011-02-03 2012-08-10 Stantum Procede et dispositif d'acquisition de donnees d'un capteur tactile matriciel multicontacts
FR2972288B1 (fr) 2011-03-04 2013-04-05 Stantum Procédé de fabrication d'un film transparent, notamment pour un capteur tactile matriciel transparent
US8743244B2 (en) 2011-03-21 2014-06-03 HJ Laboratories, LLC Providing augmented reality based on third party information
US9298363B2 (en) 2011-04-11 2016-03-29 Apple Inc. Region activation for touch sensitive surface
FR2974200B1 (fr) 2011-04-15 2014-08-01 Stantum Procede de fabrication d'un capteur tactile matriciel, et capteur tactile matriciel associe
TWI469024B (zh) * 2011-08-03 2015-01-11 Raydium Semiconductor Corp 驅動信號轉換之觸控輸入裝置
FR2979025A1 (fr) 2011-08-12 2013-02-15 Stantum Procede de caracterisation de toucher sur un ecran tactile
EP2763378B1 (fr) * 2011-09-27 2019-07-24 NEC Corporation Dispositif électronique portable, procédé de traitement d'opération tactile et programme
WO2013049816A1 (fr) 2011-09-30 2013-04-04 Sensitronics, LLC Capteurs de force capacitifs hybrides
FR2981765B1 (fr) 2011-10-20 2013-12-27 Stantum Procede d'acquisition de donnees d'un capteur tactile matriciel, notamment pour un ecran tactile
US20150033161A1 (en) * 2012-03-30 2015-01-29 Richard James Lawson Detecting a first and a second touch to associate a data file with a graphical data object
WO2013154720A1 (fr) 2012-04-13 2013-10-17 Tk Holdings Inc. Capteur de pression comprenant un matériau sensible à la pression à utiliser avec des systèmes de commande et ses procédés d'utilisation
JP6086188B2 (ja) * 2012-09-04 2017-03-01 ソニー株式会社 音響効果調整装置および方法、並びにプログラム
DE112013004512T5 (de) 2012-09-17 2015-06-03 Tk Holdings Inc. Einzelschicht-Kraftsensor
US9671943B2 (en) 2012-09-28 2017-06-06 Dassault Systemes Simulia Corp. Touch-enabled complex data entry
US9122330B2 (en) 2012-11-19 2015-09-01 Disney Enterprises, Inc. Controlling a user's tactile perception in a dynamic physical environment
US20140239815A1 (en) * 2013-02-28 2014-08-28 Power One Data International, Inc. Method and system for controlling lighting operation
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
WO2015048584A1 (fr) 2013-09-27 2015-04-02 Sensel , Inc. Système de capteur tactile capacitif et procédé
US11221706B2 (en) 2013-09-27 2022-01-11 Sensel, Inc. Tactile touch sensor system and method
JP6358554B2 (ja) * 2013-12-19 2018-07-18 カシオ計算機株式会社 楽音制御装置、楽音制御方法およびプログラム
US9542027B2 (en) 2014-04-16 2017-01-10 At&T Intellectual Property I, L.P. Pressure-based input method for user devices
US9336762B2 (en) * 2014-09-02 2016-05-10 Native Instruments Gmbh Electronic music instrument with touch-sensitive means
US9864460B2 (en) * 2014-09-26 2018-01-09 Sensel, Inc. Systems and methods for manipulating a virtual environment
US9779709B2 (en) * 2014-11-05 2017-10-03 Roger Linn Polyphonic multi-dimensional controller with sensor having force-sensing potentiometers
KR101784420B1 (ko) 2015-10-20 2017-10-11 연세대학교 산학협력단 감압 센서를 구비한 터치 스크린을 이용한 사운드 모듈레이션 장치 및 그 방법
CN109154872B (zh) 2016-03-25 2020-06-30 森赛尔股份有限公司 用于检测和表征表面上的力输入的系统和方法
US20190291224A1 (en) * 2018-03-22 2019-09-26 Ford Motor Company Workpiece alignment system having pressure sensors for assessing alignment of a workpiece with a fixture
US10725549B2 (en) * 2018-03-29 2020-07-28 Cirrus Logic, Inc. Efficient detection of human machine interface interaction using a resonant phase sensing system
US11537242B2 (en) 2018-03-29 2022-12-27 Cirrus Logic, Inc. Q-factor enhancement in resonant phase sensing of resistive-inductive-capacitive sensors
US10642435B2 (en) 2018-03-29 2020-05-05 Cirrus Logic, Inc. False triggering prevention in a resonant phase sensing system
US10921159B1 (en) 2018-03-29 2021-02-16 Cirrus Logic, Inc. Use of reference sensor in resonant phase sensing system
US10908200B2 (en) 2018-03-29 2021-02-02 Cirrus Logic, Inc. Resonant phase sensing of resistive-inductive-capacitive sensors
US11092657B2 (en) 2018-03-29 2021-08-17 Cirrus Logic, Inc. Compensation of changes in a resonant phase sensing system including a resistive-inductive-capacitive sensor
WO2020037439A1 (fr) * 2018-08-23 2020-02-27 Pontificia Universidad Católica De Chile Contrôleur midi à sensibilité personnalisable
US11402946B2 (en) 2019-02-26 2022-08-02 Cirrus Logic, Inc. Multi-chip synchronization in sensor applications
US10935620B2 (en) 2019-02-26 2021-03-02 Cirrus Logic, Inc. On-chip resonance detection and transfer function mapping of resistive-inductive-capacitive sensors
US11536758B2 (en) 2019-02-26 2022-12-27 Cirrus Logic, Inc. Single-capacitor inductive sense systems
US10948313B2 (en) 2019-02-26 2021-03-16 Cirrus Logic, Inc. Spread spectrum sensor scanning using resistive-inductive-capacitive sensors
US11079874B2 (en) 2019-11-19 2021-08-03 Cirrus Logic, Inc. Virtual button characterization engine
US11579030B2 (en) 2020-06-18 2023-02-14 Cirrus Logic, Inc. Baseline estimation for sensor system
US11835410B2 (en) 2020-06-25 2023-12-05 Cirrus Logic Inc. Determination of resonant frequency and quality factor for a sensor system
US11868540B2 (en) 2020-06-25 2024-01-09 Cirrus Logic Inc. Determination of resonant frequency and quality factor for a sensor system
US11619519B2 (en) 2021-02-08 2023-04-04 Cirrus Logic, Inc. Predictive sensor tracking optimization in multi-sensor sensing applications
US11821761B2 (en) 2021-03-29 2023-11-21 Cirrus Logic Inc. Maximizing dynamic range in resonant sensing
US11808669B2 (en) 2021-03-29 2023-11-07 Cirrus Logic Inc. Gain and mismatch calibration for a phase detector used in an inductive sensor
US11507199B2 (en) 2021-03-30 2022-11-22 Cirrus Logic, Inc. Pseudo-differential phase measurement and quality factor compensation
US20230297186A1 (en) * 2021-09-13 2023-09-21 Sanctuary Cognitive Systems Corporation Scanning of grid-based sensing arrays
US11979115B2 (en) 2021-11-30 2024-05-07 Cirrus Logic Inc. Modulator feedforward compensation
US11854738B2 (en) 2021-12-02 2023-12-26 Cirrus Logic Inc. Slew control for variable load pulse-width modulation driver and load sensing

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5027689A (en) * 1988-09-02 1991-07-02 Yamaha Corporation Musical tone generating apparatus
US5053585A (en) * 1990-10-12 1991-10-01 Interlink Electronics, Incorporated Multipurpose keyboard using digitizer pad featuring spatial minimization of a pressure contact area and method of making same
US20020005108A1 (en) * 1998-05-15 2002-01-17 Ludwig Lester Frank Tactile, visual, and array controllers for real-time control of music signal processing, mixing, video, and lighting
US6762752B2 (en) * 2001-11-29 2004-07-13 N-Trig Ltd. Dual function input device and method

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5816504B2 (ja) * 1979-09-27 1983-03-31 沖電気工業株式会社 感圧式手書き図形入力装置
US4296406A (en) * 1979-12-28 1981-10-20 Sperry Corporation Pressure sensitive switch structure
DE3220622A1 (de) * 1982-06-01 1983-12-15 M.A.N.- Roland Druckmaschinen AG, 6050 Offenbach Dateneingabeeinrichtung an druckmaschinen
US4550221A (en) 1983-10-07 1985-10-29 Scott Mabusth Touch sensitive control device
AU582181B2 (en) * 1984-12-28 1989-03-16 Wang Laboratories, Inc. Information display and entry device
US5153829A (en) * 1987-11-11 1992-10-06 Canon Kabushiki Kaisha Multifunction musical information processing apparatus
US4914624A (en) * 1988-05-06 1990-04-03 Dunthorn David I Virtual button for touch screen
JP3089421B2 (ja) * 1988-09-02 2000-09-18 ヤマハ株式会社 音処理装置
US5113042A (en) * 1990-11-20 1992-05-12 Summagraphics Corporation Digitizer tablet with reduced radiation susceptibility
US5159159A (en) * 1990-12-07 1992-10-27 Asher David J Touch sensor and controller
JP2975467B2 (ja) * 1991-11-28 1999-11-10 シャープ株式会社 表示一体型位置読取装置
JPH0743627B2 (ja) * 1993-08-12 1995-05-15 セイコーエプソン株式会社 入力装置
US5565657A (en) * 1993-11-01 1996-10-15 Xerox Corporation Multidimensional user interface input device
GB9406702D0 (en) * 1994-04-05 1994-05-25 Binstead Ronald P Multiple input proximity detector and touchpad system
JPH07281813A (ja) * 1994-04-08 1995-10-27 Oki Electric Ind Co Ltd タッチパネル装置とその位置検出方法
JP3239017B2 (ja) * 1994-07-05 2001-12-17 シャープ株式会社 反射防止タブレットの座標検出装置
US5559301A (en) * 1994-09-15 1996-09-24 Korg, Inc. Touchscreen interface having pop-up variable adjustment displays for controllers and audio processing systems
GB9507817D0 (en) * 1995-04-18 1995-05-31 Philips Electronics Uk Ltd Touch sensing devices and methods of making such
JPH08307954A (ja) * 1995-05-12 1996-11-22 Sony Corp 座標入力装置および方法、並びに情報処理装置
US6255604B1 (en) * 1995-05-31 2001-07-03 Canon Kabushiki Kaisha Coordinate detecting device for outputting coordinate data when two points are simultaneously depressed, method therefor and computer control device
US6107997A (en) * 1996-06-27 2000-08-22 Ure; Michael J. Touch-sensitive keyboard/mouse and computing device using the same
US6028593A (en) * 1995-12-01 2000-02-22 Immersion Corporation Method and apparatus for providing simulated physical interactions within computer generated environments
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US5949501A (en) * 1996-02-13 1999-09-07 Kabushiki Kaisha Pilot Coordinates input device using liquid crystal sheet
JPH09282095A (ja) * 1996-02-13 1997-10-31 Pilot Corp:The 液晶シートを用いた座標入力装置
US6073036A (en) * 1997-04-28 2000-06-06 Nokia Mobile Phones Limited Mobile station with touch input having automatic symbol magnification function
US6229529B1 (en) * 1997-07-11 2001-05-08 Ricoh Company, Ltd. Write point detecting circuit to detect multiple write points
JPH11112254A (ja) * 1997-10-01 1999-04-23 Sony Corp 遠隔制御装置ならびに制御装置
JP3470995B2 (ja) * 1997-10-31 2003-11-25 株式会社デジタル プログラム式表示装置用の表示画面作成装置
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6323846B1 (en) * 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US7663607B2 (en) * 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
JP2000222130A (ja) * 1999-02-02 2000-08-11 Toshiba Corp 入力装置および方法および記憶媒体
JP3632522B2 (ja) * 1999-09-24 2005-03-23 ヤマハ株式会社 演奏データ編集装置、方法及び記録媒体
TW501000B (en) * 2000-01-05 2002-09-01 Iomega Corp Storage device in an expansion slot of a computer input device
FR2806497B1 (fr) 2000-03-17 2002-05-03 Naguy Caillavet Interface materielle et logicielle de controle par messages midi
DE10042300A1 (de) 2000-08-29 2002-03-28 Axel C Burgbacher Elektronisches Musikinstrument
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
JP4686886B2 (ja) * 2001-04-06 2011-05-25 ソニー株式会社 情報処理装置
JP2003008808A (ja) * 2001-06-19 2003-01-10 Fuji Xerox Co Ltd タッチパネル入力装置、表示装置及び画像記録装置
JP2003173237A (ja) * 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
TW565798B (en) * 2001-10-12 2003-12-11 High Tech Comp Corp Pressing point coordinate detecting method for resistor type touch panel
FR2831707B1 (fr) * 2001-10-25 2004-10-29 Siemens Vdo Automotive Surface sensible au toucher ainsi qu'aux niveaux de pression
US6995752B2 (en) * 2001-11-08 2006-02-07 Koninklijke Philips Electronics N.V. Multi-point touch pad
JP3847641B2 (ja) * 2002-02-28 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、及び情報処理方法
US7038659B2 (en) * 2002-04-06 2006-05-02 Janusz Wiktor Rajkowski Symbol encoding apparatus and method
US6882337B2 (en) * 2002-04-18 2005-04-19 Microsoft Corporation Virtual keyboard for touch-typing using audio feedback
US6809280B2 (en) * 2002-05-02 2004-10-26 3M Innovative Properties Company Pressure activated switch and touch panel
JP2003337659A (ja) * 2002-05-20 2003-11-28 Sharp Corp 入力装置およびタッチ領域登録方法
US7461356B2 (en) * 2002-06-03 2008-12-02 Fuji Xerox Co., Ltd. Function control unit and method thereof
US7151532B2 (en) * 2002-08-09 2006-12-19 3M Innovative Properties Company Multifunctional multilayer optical film
US20040090429A1 (en) * 2002-11-12 2004-05-13 Geaghan Bernard O. Touch sensor and method of making
TWI231453B (en) * 2003-01-20 2005-04-21 Htc Corp Method and apparatus for avoiding pressing inaccuracies on a touch panel
FR2866726B1 (fr) 2004-02-23 2006-05-26 Jazzmutant Controleur par manipulation d'objets virtuels sur un ecran tactile multi-contact
US7213125B2 (en) 2004-07-31 2007-05-01 Hewlett-Packard Development Company, L.P. Method for patching virtually aliased pages by a virtual-machine monitor
WO2008028044A2 (fr) * 2006-08-30 2008-03-06 Centocor, Inc. Marqueurs et procédés pour évaluer et traiter la recto-colite hémorragique et des troubles associés utilisant un panel de 66 gènes

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5027689A (en) * 1988-09-02 1991-07-02 Yamaha Corporation Musical tone generating apparatus
US5053585A (en) * 1990-10-12 1991-10-01 Interlink Electronics, Incorporated Multipurpose keyboard using digitizer pad featuring spatial minimization of a pressure contact area and method of making same
US20020005108A1 (en) * 1998-05-15 2002-01-17 Ludwig Lester Frank Tactile, visual, and array controllers for real-time control of music signal processing, mixing, video, and lighting
US6762752B2 (en) * 2001-11-29 2004-07-13 N-Trig Ltd. Dual function input device and method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8922508B2 (en) 2004-12-28 2014-12-30 Sony Corporation Media player using a multidimensional grid interface
US8717301B2 (en) 2005-08-01 2014-05-06 Sony Corporation Information processing apparatus and method, and program
EP1783593A3 (fr) * 2005-10-07 2012-12-19 Sony Corporation Dispositif de traitement d'information avec une interface utilisateur à écran tactile, procédé et logiciel correspondant
FR2914756A1 (fr) * 2007-04-05 2008-10-10 Jazzmutant Soc Par Actions Sim Capteur multi-tactile transparent.
WO2008139050A1 (fr) * 2007-04-05 2008-11-20 Stantum Capteur multi-tactile transparent

Also Published As

Publication number Publication date
KR20070031286A (ko) 2007-03-19
US20110181547A1 (en) 2011-07-28
US8665232B2 (en) 2014-03-04
PL1719047T3 (pl) 2009-03-31
EP1950649A2 (fr) 2008-07-30
EP1719047A2 (fr) 2006-11-08
CN1947087A (zh) 2007-04-11
US20110115736A1 (en) 2011-05-19
EP2278439A2 (fr) 2011-01-26
ATE402436T1 (de) 2008-08-15
EP2278440A2 (fr) 2011-01-26
JP4932500B2 (ja) 2012-05-16
US20110119580A1 (en) 2011-05-19
WO2005091104A3 (fr) 2006-07-13
JP2012089150A (ja) 2012-05-10
KR101197876B1 (ko) 2012-11-05
EP2306279A2 (fr) 2011-04-06
US20110273392A1 (en) 2011-11-10
FR2866726A1 (fr) 2005-08-26
US8659545B2 (en) 2014-02-25
ES2311218T3 (es) 2009-02-01
EP1950649A3 (fr) 2008-12-24
CA2557063A1 (fr) 2005-09-29
EP1719047B1 (fr) 2008-07-23
FR2866726B1 (fr) 2006-05-26
US8049730B2 (en) 2011-11-01
CA2557063C (fr) 2013-08-13
DE602005008384D1 (de) 2008-09-04
CN100447723C (zh) 2008-12-31
US20070198926A1 (en) 2007-08-23
JP2007527061A (ja) 2007-09-20
US20110181546A1 (en) 2011-07-28

Similar Documents

Publication Publication Date Title
CA2557063C (fr) Controleur par manipulation d'objets virtuels sur un ecran tactile multi-contact
FR2790319A1 (fr) Conception de sensations de force destinees aux applications programmees, y compris les sons
US20100013613A1 (en) Haptic feedback projection system
EP2332035A2 (fr) Dispositif pour le controle d'appareil electronique par la manipulation d'objets graphiques sur un ecran tactile multicontacts
TW201523509A (zh) 律動影像化方法、系統以及電腦可讀取記錄媒體
EP2235614A1 (fr) Circuit electronique d'analyse a alternance de mesure capacitive/ resistive pour capteur tactile multicontacts a matrice passive
US20110249007A1 (en) Computer rendering of drawing-tool strokes
EP1266293A2 (fr) Interface materielle et logicielle de controle par messages midi
WO2020157175A1 (fr) Procédé de génération d'un retour sensitif pour une interface et interface associée
WO2018219832A1 (fr) Procédé de génération d'un retour sensitif pour une interface et interface associée
EP2926232A1 (fr) Système et procédé de communication reproduisant une interactivité de type physique
Kanzari et al. A real-time synthesizer of naturalistic congruent audio-haptic textures
US20030123728A1 (en) Interactive video installation and method thereof
CN117492631A (zh) 触觉增强虚拟拨盘交互控件装置
FR2847357A1 (fr) Methode de commande d'une machine au moyen de la position d'un objet mobile
WO2012156288A1 (fr) Dispositif d'enregistrement audiovisuel dynamique multi caméra et système associé
WO2009121199A1 (fr) Procede et dispositif pour realiser une surface tactile multipoints a partir d'une surface plane quelconque et pour detecter la position d'un objet sur une telle surface
FR2852115A1 (fr) Procede et systeme d'affichage d'une scene 3d avec un deplacement virtuel correle a un deplacement reel, programme d'ordinateur et dispositifs de detection et estimation de deplacement correspondants
FR2996318A1 (fr) Dispositif de commande d'un systeme informatique et/ou electronique
FR2973898A1 (fr) Procede et systeme de configuration pour configurer dynamiquement un systeme informatique de commande d'au moins un dispositif electrique
FR2844900A1 (fr) Procede de traitement d'un objet tridimensionnel virtuel, programme et support pour sa mise en oeuvre

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2557063

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 2006553627

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2005730729

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020067019321

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 200580012714.3

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 10590306

Country of ref document: US

Ref document number: 2007198926

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2005730729

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020067019321

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 10590306

Country of ref document: US

WWG Wipo information: grant in national office

Ref document number: 2005730729

Country of ref document: EP