EP2368167A1 - Method and device for processing text data - Google Patents

Method and device for processing text data

Info

Publication number
EP2368167A1
EP2368167A1 EP09802187A EP09802187A EP2368167A1 EP 2368167 A1 EP2368167 A1 EP 2368167A1 EP 09802187 A EP09802187 A EP 09802187A EP 09802187 A EP09802187 A EP 09802187A EP 2368167 A1 EP2368167 A1 EP 2368167A1
Authority
EP
European Patent Office
Prior art keywords
terminal
data
image
mcu
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP09802187A
Other languages
German (de)
French (fr)
Inventor
Stephane Allegro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Publication of EP2368167A1 publication Critical patent/EP2368167A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/16Arrangements for providing special services to substations
    • H04L12/18Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
    • H04L12/1813Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
    • H04L12/1827Network arrangements for conference optimisation or adaptation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor

Definitions

  • the invention relates to the field of textual data processing, in particular in the context of videoconferencing between a plurality of users.
  • Conversational videophone services have recently undergone a strong development. Such services consist of the joint use of video, audio and text means to organize a conference between a plurality of participants.
  • chat feature is required to exchange messages as textual data.
  • a chat feature is required to exchange messages as textual data.
  • a point-to-point context between two participants, there are methods of exchanging texts, regardless of the exchange of video, with for example a text input made on the client side and exchanged by entire sentence.
  • FIG. IA An example of such a point-to-point system is shown in FIG. IA.
  • the terminals A and B exchange video data by a first exchange channel 1, audio data by a second exchange channel 2 and text data by a third exchange channel 3.
  • the transfer of Text data is governed by a text communication protocol, such as the T. 140, SIP Message or SIP Info protocols.
  • a text communication protocol such as the T. 140, SIP Message or SIP Info protocols.
  • the terminal A uses a channel 4 for exchanging text data managed by a T.140 type protocol, while the terminal B uses a channel 5 d exchange of text data managed by a SIP Message type protocol, as an example.
  • the terminal B can not receive the textual data provided by the channel 4, and conversely the terminal A can not receive the data provided by the channel 5.
  • This problem is particularly acute in the context of multipoint videoconferencing systems, where a central control unit will manage videoconferencing between a plurality of participants, typically more than three.
  • the terminal A uses a channel 6 for exchanging text data managed by a T.140 protocol. It receives textual data from a terminal B according to a textual data exchange channel 7 managed by the same protocol T.140, as well as textual data from a terminal C according to a textual data exchange channel 8 managed. by the SIP protocol Message. In such a case, the terminal A can communicate verbatim with the terminal B, but is unable to communicate verbatim with the C terminal.
  • a solution to this text conversation problem, during a videoconference between several participants, is of course to require that each participant use the same textual communication protocol, as is the case for the terminals A and B on the figure IC.
  • this constraint is cumbersome to implement, or even simply unfeasible, when the participants' terminals already have their own textual communication protocol and can not change it.
  • participants' terminals do not know how to receive textual data from multiple text sources, even if they use the same protocol.
  • most terminals do not support the multi-point text dialogue function.
  • One of the aims of the invention is to overcome disadvantages of the state of the art cited above.
  • a textual data processing method in telecommunication context between at least a first terminal and a second terminal, having, after receiving from a textual data processing device of the first terminal, the generation of data. image integrating the textual data received, for transmission of these image data at least to the second terminal.
  • the present invention improves the situation, making it possible for multiple text conversations, homogeneously and dynamically, with any terminal supporting at least the sending of textual data.
  • the second terminal does not need to use the same textual communication protocol as the first terminal to receive the text data thereof.
  • the second terminal can now receive multiple text streams from different sources and transferred using the same protocol.
  • the processing device embeds at least a portion of a text corresponding to said text data in at least one source image.
  • the text data of the first terminal will thus be readily available for the second terminal, simply by viewing the image data received from the processing device.
  • the processing device also receives text data from the second terminal and embeds at least part of a text corresponding to said textual data received from the second terminal in said source image.
  • At least part of the source image is communicated from the first terminal to the processing device.
  • Information of a textual nature from the first terminal will thus be supplemented by information of a visual nature.
  • the source image is a composite image of which at least part is communicated from the second terminal to the processing device. Textual information from the terminals will thus be supplemented by visual information from them.
  • the overlay of the text data is performed in a display area defined in said source image.
  • the source image comprises at least a first display area in which at least a portion of a first image communicated from the first terminal to the processing device is displayed, as well as a second display area. wherein at least a portion of a second communicated image of the second terminal is displayed to the processing device.
  • a processing device embeds at least part of a text corresponding to said text data from the first terminal in the first display area and at least a portion of a text corresponding to said text data from the second terminal in the second area. display.
  • the present invention also proposes a device for processing textual data, in the context of telecommunication between at least a first terminal and a second terminal, comprising processing means adapted to implement the method as described above.
  • the processing device comprises pretreatment means for generating the source image according to the method described above.
  • the pretreatment means comprises mixing means for generating said source image in the form of a composite image according to the method described above.
  • the present invention also provides a video-text conversation system comprising a textual data processing device as described above, connected to at least two terminals able to send textual and / or image data to the processing device.
  • the present invention proposes, finally, a computer program for the implementation of the method as described above.
  • a program may be downloadable via a telecommunication network and / or stored in a memory of a processing device and / or stored on a storage medium intended to cooperate with a processing device.
  • FIGS. 1A, 1B, 1C illustrate various conventional videoconferencing systems with textual communication
  • FIG. 2 diagrammatically represents a textual data processing device according to a preferred embodiment of the invention
  • Figures 3A, 3B illustrate different modes of presentation of textual data and images according to the present invention
  • FIG. 4 illustrates a videoconferencing system with textual communication according to a preferred embodiment of the invention
  • Figure 5 illustrates the steps of a textual data processing method according to a preferred embodiment of the invention.
  • FIG. 2 shows schematically a conversation system comprising a textual data processing device MCU according to a preferred embodiment of the invention.
  • text data is understood to mean one or more data corresponding to one or more successive characters forming a part of text, for example characters represented by data coded in the ASCII format. Such data can be entered on the keyboard of a usual terminal.
  • Any textual data communication protocol such as the T. 140 protocol, SIP message or
  • SIP info can be used to transmit the textual data between the terminals and the control unit, from the moment when the protocols used by the different terminals Ti, T 2 , T 3 are recognized by the control unit MCU.
  • the different users do not need to use the same textual communication protocol in the present invention.
  • the control unit MCU thus receives the textual data of at least one terminal, for example Ti, and then generates from these, within a processing means PROC, image data Im which are intended to be transmitted to at least one other terminal, for example T 2 .
  • the control unit MCU generates data image Im intended to be sent to Jen, through the terminal T 2 , or even to Sam through the terminal T 3 .
  • this image data is also sent to the terminal Ti, so that Bob can verify that his di se data have been integrated into the image data Im.
  • the generation of the image data Im can be performed, for example, by embedding a portion of text corresponding to the textual data di in a portion of a source image Im 3 .
  • This source image Im 3 may be a simple still image, such as a completely black image, on which a portion of text corresponding to the textual data di in white characters is embedded.
  • the source image Im 8 may also consist of a succession of images ⁇ Im s ⁇ i, .. ⁇ / k of a video stream, received for example from a medium external to the control unit MCU and generating such video stream, like a TV program for example.
  • the source image data Im 3 come from the users themselves.
  • Bob, Jen and / or Sam can transmit respective image data Im 1 , Im 2 , Im 3 , which will be used to embed a portion of text corresponding to the text data di, d 2 and / or d 3 transmitted.
  • the terminal T 1 transmits textual data di, corresponding to a text entered by the user Bob, as well as image data Imi, corresponding for example to a picture of this user.
  • the processing means PROC uses the image data Iudi as source image data Im 5 , in order to embed a part of the text corresponding to the textual data di input by this user Bob. It then generates image data Im corresponding to this picture of the user Bob on which appears the text he has entered. This image data is then transmitted to the user Jen, or even for example to other users like Sam, and possibly also to the user Bob as described above.
  • the terminal Ti transmits textual data di, corresponding to a text entered by the user Bob, as well as a video stream consisting of a series of image data ⁇ Imi ⁇ i, ..., k / corresponding for example to the video acquisition of a webcam belonging to BOB.
  • the processing means PROC will then use the image data ⁇ Im ⁇ ik successively as source image data ⁇ Im s ⁇ i, ..., k # to embed on each of these images a part of the corresponding text to the text data dl entered by the user Bob.
  • the means PROC then generates a video stream consisting of successive image data ⁇ Im ⁇ i, ...
  • the text corresponding to the transmitted textual data is inlaid character by character, as the textual data arrive at the MCU control unit. This is called a "real-time" text inlay mode, as text data is entered. Such a mode of inlay offers a great interactivity between the participants.
  • the processing means PROC may comprise a memory, of buffer type for example, for storing the received textual data until a data indicative of the end of a sentence (such as the ASCII data corresponding to the "input" key of a keyboard) is received. It is only then that the processing means PROC processes all the stored text data and inserts the entire sentence on the source image Im 3 .
  • the control unit MCU can also very well simultaneously receive text data d ⁇ , d 2 , d 3 respectively from the users Bob, Jen and Sam.
  • the processing means PROC can be made to incrust simultaneously, in real time, the text parts corresponding to these different data within the same image to be broadcast to different terminals.
  • the processing means PROC stores separately the textual data coming from the users Bob, Jen and / or Sam, in order to display the corresponding texts only when an entire sentence has been received from one of them. This storage can be done within a single buffer, common to all these users, or buffers dedicated respectively to each user.
  • the source image Im 5 is a composite image consisting of three images Im 1 , Im 2 , Im 3 each representing one of the participants, Bob, Jen and Sam.
  • a central zone Z of Text is superimposed on this composite image and is used to embed the text parts corresponding to each participant.
  • the control unit MCU comprises a preparation means PREP of the source image receiving image data Im ⁇ , Im 2 and Im 3 of each of the terminals T 1 , T 2 , T 3 .
  • This image data can be first decoded by decoders respective DECODi, DECOD 2 , DECOD 3 , in order to overcome the different types of image coding used during transmission from the terminals to the MCU control unit.
  • each participant has his particular zone Z x , Z 2 or Z 3 , in which an image or a video stream that he has transmitted from his terminal for example, as well as the characters, will be displayed. he will have seized.
  • This type of presentation has, in addition to the advantage of homogeneity, that of differentiating, visually and immediately, which user has entered a particular text.
  • Figure 4 will now illustrate a videoconferencing system with text communication using an MCU control unit according to a preferred embodiment of the invention.
  • the three users Bob, Jen and Sam use the respective terminals A, B, C to communicate with each other via an MCU control unit similar to that described. above.
  • the terminals A, B, C use the video channels 21, 31, 41 and the audio channels 22, 32, 42 to organize the videoconference, followed by established protocols.
  • the terminal A uses the protocol T. 140, the terminal B the SIP protocol Message and the terminal C the SIP Info protocol.
  • FIG. 5 illustrates the steps of a method 100 of textual data processing according to a preferred embodiment of the invention.
  • a first input step 110 textual data di are entered on at least one terminal Ti, by means of a keyboard for example.
  • source image data I sculpture are captured on the same terminal T x during a second capture step 120.
  • This data can consist of a single image, or even a video stream, and be captured. by means of a webcam for example.
  • the capture step 120 is indicated as following the input step 110 in FIG. 5, but these two steps can also be performed simultaneously, or in the reverse order where the image data capturing step precedes the step of entering textual data.
  • a source image preparation step 140 follows, in which the image data Im x is processed, formatted to a specific format, or combined with other image data received from other terminals to form an image. composite source image. This step is performed within the PREP preparation means of the MCU control unit. We then obtain a source image Im 5 , or even a source image stream ⁇ Im s ⁇ i k , composed of a succession of source images.
  • the textual data di are then embedded in the source image Im 5 or the stream ⁇ Im s ⁇ X / ..., k , prepared previously, in one of the presentation modes ci. before, for example.
  • An image Im, or the corresponding image stream (Im) xk, is then obtained.
  • the image Im or the image stream (Im) 1k is broadcast to the participants' terminals during a broadcast step 160 , if necessary by being previously encoded by a coding means COD adapted to these terminals.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

The invention relates to a method for processing text data in a telecommunication context between at least one first terminal (T1) and one second terminal (T2), comprising, after a first processing device (MCU) receives text data (d1) from the first terminal (T1), generating image data (Im) integrating said received text data (d1) in order to transmit the image data (Im) to at least the second terminal (T2). The invention also relates to a corresponding device and to a call system including such a device.

Description

Procédé et dispositif de traitement de données textuelles Method and device for processing textual data
L'invention concerne le domaine du traitement de données textuelles, en particulier dans le cadre de la visioconférence entre une pluralité d'utilisateurs.The invention relates to the field of textual data processing, in particular in the context of videoconferencing between a plurality of users.
Les services conversationnels en visiophonie ont connu récemment un fort développement. De tels services consistent en l'utilisation conjointe de moyens vidéo, audio et textuels pour organiser une conférence entre une pluralité de participants.Conversational videophone services have recently undergone a strong development. Such services consist of the joint use of video, audio and text means to organize a conference between a plurality of participants.
En plus des moyens de conférences vidéo/audio traditionnels, une fonctionnalité de discussion (« chat » en anglais) est nécessaire pour échanger des messages sous forme de données textuelles. Dans un contexte point à point, entre deux participants, il existe des procédés d'échange de textes, indépendamment de l'échange de vidéo, avec par exemple une saisie texte faite du côté client et échangée par phrase entière.In addition to traditional video / audio conferencing means, a chat feature is required to exchange messages as textual data. In a point-to-point context, between two participants, there are methods of exchanging texts, regardless of the exchange of video, with for example a text input made on the client side and exchanged by entire sentence.
Un exemple d'un tel système point à point est illustré à la fig. IA. Dans ce système classique, les terminaux A et B échange des données vidéo par un premier canal d'échange 1, des données audio par un second canal d'échange 2 et des données textuelles par un troisième canal d'échange 3. Le transfert de données textuelles est régi par un protocole de communication de texte, comme par exemple les protocoles T. 140, SIP Message ou SIP Info. Un premier problème se pose si l'on souhaite effectuer des conversations textuelles entre deux terminaux n'utilisant pas le même protocole de communication de texte, ou des protocoles incompatibles entre eux. Ce problème est illustré à la figure IB. Dans cette figure, outre les canaux habituels d'échange vidéo 1 et audio 2, le terminal A utilise un canal 4 d'échange de données textuelles géré par un protocole de type T.140, tandis que le terminal B utilise un canal 5 d'échange de données textuelles géré par un protocole de type SIP Message, à titre d'exemple. Dans un tel cas, le terminal B ne peut pas recevoir les données textuelles fournies par le canal 4, et réciproquement le terminal A ne peut pas recevoir les données fournies par le canal 5.An example of such a point-to-point system is shown in FIG. IA. In this conventional system, the terminals A and B exchange video data by a first exchange channel 1, audio data by a second exchange channel 2 and text data by a third exchange channel 3. The transfer of Text data is governed by a text communication protocol, such as the T. 140, SIP Message or SIP Info protocols. A first problem arises if one wishes to carry out textual conversations between two terminals not using the same text communication protocol, or incompatible protocols between them. This problem is illustrated in Figure IB. In this figure, in addition to the usual channels of video exchange 1 and audio 2, the terminal A uses a channel 4 for exchanging text data managed by a T.140 type protocol, while the terminal B uses a channel 5 d exchange of text data managed by a SIP Message type protocol, as an example. In such a case, the terminal B can not receive the textual data provided by the channel 4, and conversely the terminal A can not receive the data provided by the channel 5.
Ce problème se pose de façon particulièrement aiguë dans le cadre des systèmes de visioconférence multipoint, où une unité de contrôle centrale va gérer la visioconférence entre une pluralité de participants, typiquement plus de trois.This problem is particularly acute in the context of multipoint videoconferencing systems, where a central control unit will manage videoconferencing between a plurality of participants, typically more than three.
Ceci est illustré à la fig. IC. Dans cette figure, outre les habituels canaux d'échange vidéo 1 et audio 2, le terminal A utilise un canal 6 d'échange de données textuelles géré par un protocole T.140. Il reçoit des données textuelles d'un terminal B selon un canal d'échange de données textuelles 7 géré par le même protocole T.140, ainsi que des données textuelles d'un terminal C selon un canal d'échange de données textuelles 8 géré par le protocole SIP Message. Dans un tel cas, le terminal A peut bien communiquer textuellement avec le terminal B, mais se trouve dans l'impossibilité de communiquer textuellement avec le terminal C.This is illustrated in FIG. IC. In this figure, in addition to the usual channels of video exchange 1 and audio 2, the terminal A uses a channel 6 for exchanging text data managed by a T.140 protocol. It receives textual data from a terminal B according to a textual data exchange channel 7 managed by the same protocol T.140, as well as textual data from a terminal C according to a textual data exchange channel 8 managed. by the SIP protocol Message. In such a case, the terminal A can communicate verbatim with the terminal B, but is unable to communicate verbatim with the C terminal.
On comprend bien, au vu de la figure IC, que plus il y aura de participants à une visioconférence multipoint, plus grandes seront les chances d'avoir un problème d'échange de données textuelles, car il suffit alors qu'un seul des participants n'utilise pas le même protocole de communication textuelle que les autres, ou un protocole incompatible avec ceux-ci, pour que la conversation textuelle échoue.It is clear from Figure IC that the more participants in a multipoint videoconferencing, the greater the chance of having a textual data exchange problem, since only one of the participants does not use the same text communication protocol as the others, or a protocol that is incompatible with them, for the textual conversation to fail.
De plus, la présentation de la conversation texte dans un tel contexte se fera de façon très hétérogène et dépendra des possibilités de chaque terminal.In addition, the presentation of the text conversation in such a context will be very heterogeneous and depend on the capabilities of each terminal.
Une solution à ce problème de conversation textuelle, au cours d'une visioconférence entre plusieurs participants, est bien entendu de requérir que chacun des participants utilise le même protocole de communication textuelle, comme c'est le cas pour les terminaux A et B sur la figure IC. Cependant, cette contrainte est lourde à mettre en œuvre, voire simplement irréalisable quand les terminaux des participants ont déjà leur propre protocole de communication textuelle et ne peuvent pas en changer. De plus, les terminaux des participants ne savent pas comment recevoir des données textuelles provenant de plusieurs sources de texte, quand bien même celles-ci utiliseraient le même protocole. Ainsi, de fait, la plupart des terminaux ne supportent pas la fonction dialogue textuel en multipoint . Un des buts de 1 ' invention est de remédier à des inconvénients de l'état de la technique précité.A solution to this text conversation problem, during a videoconference between several participants, is of course to require that each participant use the same textual communication protocol, as is the case for the terminals A and B on the figure IC. However, this constraint is cumbersome to implement, or even simply unfeasible, when the participants' terminals already have their own textual communication protocol and can not change it. In addition, participants' terminals do not know how to receive textual data from multiple text sources, even if they use the same protocol. Thus, in fact, most terminals do not support the multi-point text dialogue function. One of the aims of the invention is to overcome disadvantages of the state of the art cited above.
Elle propose à cet effet un procédé de traitement de données textuelles, en contexte de télécommunication entre au moins un premier terminal et un deuxième terminal, comportant, après réception auprès d'un dispositif de traitement de données textuelles du premier terminal, la génération de données d'image intégrant les données textuelles reçues, en vue d'une transmission de ces données d'image au moins au deuxième terminal.It proposes for this purpose a textual data processing method, in telecommunication context between at least a first terminal and a second terminal, having, after receiving from a textual data processing device of the first terminal, the generation of data. image integrating the textual data received, for transmission of these image data at least to the second terminal.
La présente invention vient améliorer la situation, rendant possible les conversations texte à plusieurs, de façon homogène et dynamique, avec n'importe quel terminal supportant au minimum l'envoi de données textuelles.The present invention improves the situation, making it possible for multiple text conversations, homogeneously and dynamically, with any terminal supporting at least the sending of textual data.
Le deuxième terminal n'a ainsi pas besoin d'utiliser le même protocole de communication textuelle que le premier terminal pour recevoir les données textuelles de celui-ci.The second terminal does not need to use the same textual communication protocol as the first terminal to receive the text data thereof.
De plus, le deuxième terminal peut maintenant recevoir plusieurs flux de texte provenant de sources différentes et transférés au moyen d'un même protocole.In addition, the second terminal can now receive multiple text streams from different sources and transferred using the same protocol.
Dans un mode de réalisation préféré, le dispositif de traitement incruste au moins une partie d'un texte correspondant auxdites données textuelles dans au moins une image source. Les données textuelles du premier terminal seront ainsi aisément disponibles pour le deuxième terminal, par simple visionnage des données images reçues depuis le dispositif de traitement.In a preferred embodiment, the processing device embeds at least a portion of a text corresponding to said text data in at least one source image. The text data of the first terminal will thus be readily available for the second terminal, simply by viewing the image data received from the processing device.
Selon une caractéristique avantageuse de l'invention, le dispositif de traitement reçoit en outre des données textuelles du deuxième terminal et incruste au moins une partie d'un texte correspondant auxdites données textuelles reçues du deuxième terminal dans ladite image source .According to an advantageous characteristic of the invention, the processing device also receives text data from the second terminal and embeds at least part of a text corresponding to said textual data received from the second terminal in said source image.
Il devient ainsi possible de faire de la conversation sans avoir besoin d'utiliser le même protocole de communication textuelle, en affichant simultanément des données textuelles provenant de différents terminaux.It thus becomes possible to make conversation without the need to use the same textual communication protocol, simultaneously displaying text data from different terminals.
Avantageusement, une partie au moins de l'image source est communiquée du premier terminal au dispositif de traitement .Advantageously, at least part of the source image is communicated from the first terminal to the processing device.
L'information de nature textuelle en provenance du premier terminal sera ainsi complétée par de l'information de nature visuelle.Information of a textual nature from the first terminal will thus be supplemented by information of a visual nature.
Préférentiellement , l'image source est une image composite dont une partie au moins est communiquée du deuxième terminal au dispositif de traitement. L'information de nature textuelle en provenance des terminaux sera ainsi complétée par de l'information de nature visuelle en provenance de ceux-ci.Preferably, the source image is a composite image of which at least part is communicated from the second terminal to the processing device. Textual information from the terminals will thus be supplemented by visual information from them.
Dans une première variante, l'incrustation des données textuelles s'effectue dans une zone d'affichage définie dans ladite image source.In a first variant, the overlay of the text data is performed in a display area defined in said source image.
Une telle disposition du texte permet de suivre la conversation entre participants de façon immédiate.Such an arrangement of the text makes it possible to follow the conversation between participants in an immediate manner.
Dans une autre variante, l'image source comporte au moins une première zone d'affichage dans laquelle s'affiche au moins une partie d'une première image communiquée du premier terminal au dispositif de traitement, ainsi qu'une deuxième zone d'affichage dans laquelle s'affiche au moins une partie d'une deuxième image communiquée du deuxième terminal au dispositif de traitement. Un tel dispositif de traitement incruste au moins une partie d'un texte correspondant auxdites données textuelles provenant du premier terminal dans la première zone d'affichage et au moins une partie d'un texte correspondant auxdites données textuelles provenant du deuxième terminal dans la deuxième zone d'affichage.In another variant, the source image comprises at least a first display area in which at least a portion of a first image communicated from the first terminal to the processing device is displayed, as well as a second display area. wherein at least a portion of a second communicated image of the second terminal is displayed to the processing device. Such a processing device embeds at least part of a text corresponding to said text data from the first terminal in the first display area and at least a portion of a text corresponding to said text data from the second terminal in the second area. display.
Une telle disposition du texte permet d'associer immédiatement le texte saisi, au cours de la conversation, à son auteur.Such an arrangement of the text makes it possible to immediately associate the text entered during the conversation with its author.
La présente invention propose, en outre, un dispositif de traitement de données textuelles, en contexte de télécommunication entre au moins un premier terminal et un deuxième terminal, comportant un moyen de traitement apte à mettre en œuvre le procédé tel que décrit ci-avant.The present invention also proposes a device for processing textual data, in the context of telecommunication between at least a first terminal and a second terminal, comprising processing means adapted to implement the method as described above.
Avantageusement, le dispositif de traitement comporte un moyen de prétraitement pour générer l'image source selon le procédé décrit ci-avant.Advantageously, the processing device comprises pretreatment means for generating the source image according to the method described above.
Préférentiellement , le moyen de prétraitement comprend un moyen de mixage pour générer ladite image source sous la forme d'une image composite selon le procédé décrit ci- avant .Preferably, the pretreatment means comprises mixing means for generating said source image in the form of a composite image according to the method described above.
La présente invention vise aussi un système de conversation vidéo-textuelle comprenant un dispositif de traitement de données textuelles tel que décrit ci-avant, connecté à au moins deux terminaux aptes à envoyer des données textuelles et/ou d'image au dispositif de traitement .The present invention also provides a video-text conversation system comprising a textual data processing device as described above, connected to at least two terminals able to send textual and / or image data to the processing device.
La présente invention propose, enfin, un programme informatique pour la mise en œuvre du procédé tel que décrit ci-avant. Un tel programme peut être téléchargeable via un réseau de télécommunication et/ou stocké dans une mémoire d'un dispositif de traitement et/ou stocké sur un support mémoire destiné à coopérer avec un dispositif de traitement .The present invention proposes, finally, a computer program for the implementation of the method as described above. Such a program may be downloadable via a telecommunication network and / or stored in a memory of a processing device and / or stored on a storage medium intended to cooperate with a processing device.
D'autres caractéristiques et avantages de l'invention apparaîtront à l'examen de la description détaillée ci- après, et des dessins annexés sur lesquels : - les figures IA, IB, IC illustrent différents systèmes classiques de visioconférence avec communication textuelle;Other characteristics and advantages of the invention will appear on examining the detailed description below, and the attached drawings in which: FIGS. 1A, 1B, 1C illustrate various conventional videoconferencing systems with textual communication;
- la figure 2 représente schématiquement un dispositif de traitement de données textuelles selon un mode de réalisation préféré de l'invention ; les figures 3A, 3B illustrent différents modes de présentation des données textuelles et d'images selon la présente invention ; - la figure 4 illustre un système de visioconférence avec communication textuelle selon un mode de réalisation préféré de 1 ' invention ; la figure 5 illustre les étapes d'un procédé de traitement de données textuelles selon un mode de réalisation préféré de l'invention.FIG. 2 diagrammatically represents a textual data processing device according to a preferred embodiment of the invention; Figures 3A, 3B illustrate different modes of presentation of textual data and images according to the present invention; FIG. 4 illustrates a videoconferencing system with textual communication according to a preferred embodiment of the invention; Figure 5 illustrates the steps of a textual data processing method according to a preferred embodiment of the invention.
On se réfère tout d'abord à la figure 2 sur laquelle est représenté schématiquement un système de conversation comprenant un dispositif de traitement de données textuelles MCU selon un mode préféré de l'invention.Referring first to Figure 2 which shows schematically a conversation system comprising a textual data processing device MCU according to a preferred embodiment of the invention.
Dans ce système de conversation, trois utilisateurs Bob, Jen et Sam conversent ensemble par le biais de leurs terminaux respectifs Ti, T2 et T3. Ces terminaux sont reliés au dispositif de traitement MCU qui, dans l'exemple représenté, est une unité de contrôle MCU (pour « Multipoint Control Unit » en anglais) . Le système illustré à la figure 2 est utilisé par trois utilisateurs à titre d'exemple, mais il est bien évident que la présente invention peut s'appliquer à tout système utilisé par deux ou plus utilisateurs, équipés chacun d'un terminal connecté à l'unité de contrôle MCU.In this conversation system, three users Bob, Jen and Sam converse together through their respective terminals Ti, T 2 and T 3 . These terminals are connected to the MCU processing device which, in the example shown, is an MCU control unit (for "Multipoint Control Unit"). The system illustrated in Figure 2 is used by three users as an example, but it is obvious that the present invention can be applied to any system used by two or more users, each equipped with a terminal connected to the MCU control unit.
Les trois utilisateurs Bob, Jen et Sam peuvent saisir des données textuelles di, d2, d3 sur leurs terminaux respectifs Ti, T2 et T3 et les envoyer vers l'unité de contrôle MCU. On entend ici par « données textuelles » une ou plusieurs données correspondant à un ou plusieurs caractères successifs formant une partie de texte, par exemple des caractères représentés par des données codées dans le format ASCII. De telles données peuvent être saisies sur le clavier d'un terminal usuel.The three users Bob, Jen and Sam can enter text data di, d 2 , d 3 on their respective terminals Ti, T 2 and T 3 and send them to the control unit MCU. Here, "textual data" is understood to mean one or more data corresponding to one or more successive characters forming a part of text, for example characters represented by data coded in the ASCII format. Such data can be entered on the keyboard of a usual terminal.
N'importe quel protocole de communication de données textuelles, tel que le protocole T. 140, SIP message ouAny textual data communication protocol, such as the T. 140 protocol, SIP message or
SIP info, peut être utilisé pour transmettre les données textuelles entre les terminaux et l'unité de contrôle, à partir du moment où les protocoles utilisés par les différents terminaux Ti, T2, T3 sont reconnus par l'unité de contrôle MCU. Ainsi, les différents utilisateurs n'ont pas besoin d'utiliser le même protocole de communication textuelle, dans la présente invention.SIP info, can be used to transmit the textual data between the terminals and the control unit, from the moment when the protocols used by the different terminals Ti, T 2 , T 3 are recognized by the control unit MCU. Thus, the different users do not need to use the same textual communication protocol in the present invention.
L'unité de contrôle MCU reçoit donc les données textuelles d'au moins un terminal, par exemple Ti, et génère alors à partir de celles-ci, au sein d'un moyen de traitement PROC, des données d'image Im qui sont destinées à être transmises à au moins un autre terminal, par exemple T2.The control unit MCU thus receives the textual data of at least one terminal, for example Ti, and then generates from these, within a processing means PROC, image data Im which are intended to be transmitted to at least one other terminal, for example T 2 .
Ainsi, si Bob envoie des données dl par le biais du terminal Ti, l'unité de contrôle MCU génère des données d'image Im destinées à être envoyées à Jen, par le biais du terminal T2, voire aussi à Sam par le biais du terminal T3. Préférentiellement , ces données d'image sont aussi envoyées au terminal Ti, afin que Bob puisse vérifier que ses données di saisies ont bien été intégrées au sein des données d'image Im.Thus, if Bob sends data d1 through the terminal Ti, the control unit MCU generates data image Im intended to be sent to Jen, through the terminal T 2 , or even to Sam through the terminal T 3 . Preferably, this image data is also sent to the terminal Ti, so that Bob can verify that his di se data have been integrated into the image data Im.
La génération des données d'image Im peut être effectuée, par exemple, en incrustant une partie de texte correspondant aux données textuelles di dans une partie d'une image source Im3. Cette image source Im3 peut être une simple image fixe, comme par exemple une image complètement noire, sur laquelle on incruste une partie de texte correspondant aux données textuelles di en caractères blancs. L'image source Im8 peut aussi consister en une succession d'images {Ims}i,..ι/k d'un flux vidéo, reçu par exemple depuis un média extérieur à l'unité de contrôle MCU et générant un tel flux vidéo, comme un programme télévisé par exemple.The generation of the image data Im can be performed, for example, by embedding a portion of text corresponding to the textual data di in a portion of a source image Im 3 . This source image Im 3 may be a simple still image, such as a completely black image, on which a portion of text corresponding to the textual data di in white characters is embedded. The source image Im 8 may also consist of a succession of images {Im s } i, ..ι / k of a video stream, received for example from a medium external to the control unit MCU and generating such video stream, like a TV program for example.
Avantageusement, les données d'image source Im3 sont issues des utilisateurs eux-mêmes. Par exemple, Bob, Jen et/ou Sam peuvent transmettre des données d'image respectives Imi , Im2 , Im3 , lesquelles vont servir à incruster une partie de texte correspondant aux données textuelles di, d2 et/ou d3 transmises.Advantageously, the source image data Im 3 come from the users themselves. For example, Bob, Jen and / or Sam can transmit respective image data Im 1 , Im 2 , Im 3 , which will be used to embed a portion of text corresponding to the text data di, d 2 and / or d 3 transmitted.
Dans un premier exemple, le terminal T1 transmet des données textuelles di, correspondant à un texte saisi par l'utilisateur Bob, ainsi que des données d'image Imi , correspondant par exemple à une photo de cet utilisateur Bob. Le moyen de traitement PROC utilise alors les données d'image Iirii en tant que données d'image source Im5, pour y incruster une partie du texte correspondant aux données textuelles di saisies par cet utilisateur Bob. Il génère alors des données d'image Im correspondant à cette photo de l'utilisateur Bob sur laquelle apparait le texte qu'il a saisi. Ces données d'image sont alors transmises à l'utilisateur Jen, voire par exemple à d'autres utilisateurs comme Sam, et possiblement aussi à l'utilisateur Bob comme décrit ci-avant.In a first example, the terminal T 1 transmits textual data di, corresponding to a text entered by the user Bob, as well as image data Imi, corresponding for example to a picture of this user. Bob. The processing means PROC then uses the image data Iirii as source image data Im 5 , in order to embed a part of the text corresponding to the textual data di input by this user Bob. It then generates image data Im corresponding to this picture of the user Bob on which appears the text he has entered. This image data is then transmitted to the user Jen, or even for example to other users like Sam, and possibly also to the user Bob as described above.
Dans un autre exemple, le terminal Ti transmet des données textuelles di, correspondant à un texte saisi par l'utilisateur Bob, ainsi qu'un flux vidéo constitué d'une suite de données d'image {Imi}i,...,k/ correspondant par exemple à l'acquisition vidéo d'une webcam appartenant à BOB. Le moyen de traitement PROC va alors utiliser les données d'image { Imχ } i k successivement en tant que données d'image source {Ims}i,...,k# pour incruster sur chacune de ces images une partie du texte correspondant aux données textuelles dl saisies par l'utilisateur Bob. Le moyen PROC génère alors un flux vidéo constitué de données d'image {Im}i,.../k successives correspondant à l'acquisition vidéo de la webcam de l'utilisateur Bob sur laquelle s'affiche le texte qu'il a saisi. Ce flux vidéo est alors transmis à l'utilisateur Jen, ainsi qu'à d'autres utilisateurs comme Sam par exemple, et possiblement à l'utilisateur Bob, encore une fois.In another example, the terminal Ti transmits textual data di, corresponding to a text entered by the user Bob, as well as a video stream consisting of a series of image data {Imi} i, ..., k / corresponding for example to the video acquisition of a webcam belonging to BOB. The processing means PROC will then use the image data {Imχ} ik successively as source image data {Im s } i, ..., k # to embed on each of these images a part of the corresponding text to the text data dl entered by the user Bob. The means PROC then generates a video stream consisting of successive image data {Im} i, ... / k corresponding to the video acquisition of the webcam of the user Bob on which the text he has displayed is displayed. grasped. This video stream is then transmitted to the user Jen, as well as to other users like Sam for example, and possibly to the user Bob, again.
Dans un exemple de réalisation, le texte correspondant aux données textuelles transmises est incrusté caractère par caractère, au fur et à mesure de l'arrivée des données textuelles auprès de l'unité de contrôle MCU. On parle alors d'un mode d'incrustation textuelle « temps réel », au fur et à mesure de la saisie des données textuelles. Un tel mode d'incrustation offre une grande interactivité entre les participants .In an exemplary embodiment, the text corresponding to the transmitted textual data is inlaid character by character, as the textual data arrive at the MCU control unit. This is called a "real-time" text inlay mode, as text data is entered. Such a mode of inlay offers a great interactivity between the participants.
On peut cependant imaginer un autre mode d'incrustation textuelle, dans lequel le moyen de traitement PROC attend d'avoir une phrase complète avant de l'afficher dans une image. Pour réaliser un tel mode d'incrustation « phrase par phrase », le moyen de traitement PROC peut comprendre une mémoire, de type buffer par exemple, servant à mémoriser les données textuelles reçues jusqu'à ce qu'une donnée indicative de la fin d'une phrase (comme par exemple la donnée ASCII correspondant à la touche « entrée » d'un clavier) soit reçue. Ce n'est qu'alors que le moyen de traitement PROC traite l'ensemble des données textuelles mémorisées et incruste la phrase entière sur l ' image source Im3.However, it is possible to imagine another mode of textual embedding, in which the processing means PROC expects to have a complete sentence before displaying it in an image. To achieve such a keying mode "sentence by sentence", the processing means PROC may comprise a memory, of buffer type for example, for storing the received textual data until a data indicative of the end of a sentence (such as the ASCII data corresponding to the "input" key of a keyboard) is received. It is only then that the processing means PROC processes all the stored text data and inserts the entire sentence on the source image Im 3 .
L'unité de contrôle MCU peut par ailleurs très bien recevoir simultanément des données textuelles dχ,d2,d3 provenant respectivement des utilisateurs Bob, Jen et Sam. Dans ce cas, le moyen de traitement PROC peut être amené à incruster simultanément, en temps réel, les parties de textes correspondant à ces différentes données au sein d'une même image à diffuser aux différents terminaux. On peut aussi imaginer, à l'instar de ce qui a été décrit précédemment, que le moyen de traitement PROC mémorise séparément les données textuelles provenant des utilisateurs Bob, Jen et/ou Sam, afin de n'afficher les textes correspondants que lorsqu'une phrase entière a été reçue de l'un d'entre eux. Cette mémorisation peut être faite au sein d'un buffer unique, commun à tous ces utilisateurs, ou de buffers dédiés respectivement à chacun des utilisateurs.The control unit MCU can also very well simultaneously receive text data dχ, d 2 , d 3 respectively from the users Bob, Jen and Sam. In this case, the processing means PROC can be made to incrust simultaneously, in real time, the text parts corresponding to these different data within the same image to be broadcast to different terminals. One can also imagine, as has been described previously, that the processing means PROC stores separately the textual data coming from the users Bob, Jen and / or Sam, in order to display the corresponding texts only when an entire sentence has been received from one of them. This storage can be done within a single buffer, common to all these users, or buffers dedicated respectively to each user.
On peut avantageusement afficher les différentes parties de texte, correspondant aux différentes données textuelles di,d2/d3 reçues, au sein d'une même zone située au centre de l'image source Ims . Les textes appartenant aux différents utilisateurs peuvent alors être différenciés en mentionnant une donnée spécifique, telle que le nom ou le prénom de l'utilisateur, à proximité du texte saisi par celui-ci. Un tel exemple est illustré à la figure 3A.It is advantageous to display the different parts of text, corresponding to the different textual data di, d 2 / d 3 received, within the same area located in the center of the source image Im s . The texts belonging to the different users can then be differentiated by mentioning a specific datum, such as the user's name or first name, near the text entered by the user. Such an example is illustrated in Figure 3A.
Dans cet exemple de la figure 3A où trois participants conversent, l'image source Im5 est une image composite constituée de trois images Imi,Im2,Im3 représentant chacune un des participants, Bob, Jen et Sam. Une zone centrale Z de texte est superposée sur cette image composite et sert à incruster les parties de texte correspondant à chacun des participants. Une telle présentation, en plus d'être homogène, permet d'avoir un aperçu rapide de la conversation d'un simple coup d'œil à cette unique zone centrale.In this example of FIG. 3A where three participants converse, the source image Im 5 is a composite image consisting of three images Im 1 , Im 2 , Im 3 each representing one of the participants, Bob, Jen and Sam. A central zone Z of Text is superimposed on this composite image and is used to embed the text parts corresponding to each participant. Such a presentation, in addition to being homogeneous, provides a quick overview of the conversation at a glance at this unique central area.
Afin d'obtenir une telle image composite, l'unité de contrôle MCU comprend un moyen de préparation PREP de l'image source recevant des données d'image Imx, Im2 et Im3 de chacun des terminaux T1, T2, T3. Ces données d'image peuvent être tout d'abord décodées au moyen de décodeurs respectifs DECODi , DECOD2 , DECOD3 , afin de s'affranchir des différents types de codage d'image utilisés pendant la transmission depuis les terminaux vers l'unité de contrôle MCU.In order to obtain such a composite image, the control unit MCU comprises a preparation means PREP of the source image receiving image data Im × , Im 2 and Im 3 of each of the terminals T 1 , T 2 , T 3 . This image data can be first decoded by decoders respective DECODi, DECOD 2 , DECOD 3 , in order to overcome the different types of image coding used during transmission from the terminals to the MCU control unit.
Ces données d'image ImI1Im2 et Im3 sont ensuite envoyées vers un moyen de mixage (MIX) qui les traite, afin par exemple de réaliser une image source Im8 composite, présentant trois images provenant respectivement des trois terminaux Ti, T2, T3, par exemple trois images des différents utilisateurs comme illustré sur la figure 3A. D'autres effets peuvent être envisagés, et réalisés par les moyens MIX et PROC, comme par exemple l'animation sur les caractères les plus récemment reçus pour plus de dynamisme .These image data ImI 1 Im 2 and Im 3 are then sent to a mixing means (MIX) which processes them, in order, for example, to produce a composite Im 8 source image, presenting three images coming respectively from the three terminals Ti, T 2 , T 3 , for example three images of different users as shown in Figure 3A. Other effects can be envisaged, and realized by means MIX and PROC, as for example the animation on the most recently received characters for more dynamism.
On peut aussi envisager, avantageusement, d'afficher les textes saisis par les utilisateurs dans une zone correspondant à leur image respective, et non plus seulement dans une zone centrale. Un tel exemple d' implémentation est illustré à la figure 3B.It is also advantageous to display the texts entered by the users in an area corresponding to their respective image, and no longer only in a central area. Such an example of implementation is illustrated in FIG. 3B.
Dans l'exemple de cette figure 3B, chaque participant a sa zone particulière Zx, Z2 ou Z3, dans laquelle s'affiche une image ou un flux vidéo qu'il aura transmis de son terminal par exemple, ainsi que les caractères qu'il aura saisi. Ce type de présentation présente, outre l'avantage de l'homogénéité, celui de différencier, visuellement et immédiatement, quel utilisateur a saisi un texte en particulier . La figure 4 va maintenant illustrer un système de visioconférence avec communication textuelle utilisant une unité de contrôle MCU selon un mode de réalisation préféré de l'invention.In the example of this FIG. 3B, each participant has his particular zone Z x , Z 2 or Z 3 , in which an image or a video stream that he has transmitted from his terminal for example, as well as the characters, will be displayed. he will have seized. This type of presentation has, in addition to the advantage of homogeneity, that of differentiating, visually and immediately, which user has entered a particular text. Figure 4 will now illustrate a videoconferencing system with text communication using an MCU control unit according to a preferred embodiment of the invention.
Dans le système de visioconférence avec communication textuelle de cette figure 4, les trois utilisateurs Bob, Jen et Sam utilisent les terminaux respectifs A, B, C pour communiquer entre eux, par l'intermédiaire d'une unité de contrôle MCU similaire à celle décrite ci-avant.In the videoconferencing system with text communication of this FIG. 4, the three users Bob, Jen and Sam use the respective terminals A, B, C to communicate with each other via an MCU control unit similar to that described. above.
Les terminaux A, B, C utilisent les canaux vidéo 21, 31, 41 et les canaux audio 22, 32, 42 pour organiser la visioconférence, suivi des protocoles établis. En ce qui concerne les données textuelles, le terminal A utilise le protocole T. 140, le terminal B le protocole SIP Message et le terminal C le protocole SIP Info.The terminals A, B, C use the video channels 21, 31, 41 and the audio channels 22, 32, 42 to organize the videoconference, followed by established protocols. Regarding the text data, the terminal A uses the protocol T. 140, the terminal B the SIP protocol Message and the terminal C the SIP Info protocol.
Avec une unité de contrôle multipoint classique, une conversation textuelle entre ces différents terminaux serait impossible, du fait des protocoles de communication textuelle différents, comme illustré précédemment à la figure IC. Mais ici, les canaux textuels 23, 33, 43 ne sont utilisés que dans le sens montant, i.e. des terminaux vers l'unité de contrôle MCU. L'unité de contrôle MCU incruste alors, de la manière décrite ci-avant, les différentes données textuelles reçues par les canaux textuels dans un flux vidéo à retransmettre vers les terminaux, dans le sens descendant, par les canaux vidéo 21, 31, 41. Le problème de compatibilité entre les protocoles textuels est ainsi résolu, de même que le problème de réception d'une pluralité de flux de texte provenant de sources différentes, et la conversation textuelle peut avoir lieu.With a conventional multipoint control unit, a text conversation between these different terminals would be impossible, because of the different textual communication protocols, as illustrated previously in Figure IC. But here, the textual channels 23, 33, 43 are only used in the uplink direction, ie terminals to the control unit MCU. The control unit MCU then increments, in the manner described above, the different textual data received by the textual channels in a video stream to retransmit to the terminals, in the downstream direction, by the video channels 21, 31, 41 The problem of compatibility between Textual protocols are thus solved, as is the problem of receiving a plurality of text streams from different sources, and the textual conversation can take place.
Enfin, la figure 5 illustre les étapes d'un procédé 100 de traitement de données textuelles selon un mode de réalisation préféré de l'invention.Finally, FIG. 5 illustrates the steps of a method 100 of textual data processing according to a preferred embodiment of the invention.
Au cours d'une première étape de saisie 110, des données textuelles di sont saisies sur au moins un terminal Ti, au moyen d'un clavier par exemple.During a first input step 110, textual data di are entered on at least one terminal Ti, by means of a keyboard for example.
De façon préférée, mais optionnelle, des données d'image source Iirii sont capturées sur ce même terminal Tx au cours d'une deuxième étape de capture 120. Ces données peuvent consister en une image unique, voire un flux vidéo, et être capturées au moyen d'une webcam par exemple.Preferably, but optionally, source image data Iirii are captured on the same terminal T x during a second capture step 120. This data can consist of a single image, or even a video stream, and be captured. by means of a webcam for example.
L'étape de capture 120 est indiquée comme suivant l'étape de saisie 110 dans la figure 5, mais ces deux étapes peuvent également être effectuées simultanément, ou dans l'ordre inverse où l'étape de capture de données d'image précède l'étape de saisie de données textuelles.The capture step 120 is indicated as following the input step 110 in FIG. 5, but these two steps can also be performed simultaneously, or in the reverse order where the image data capturing step precedes the step of entering textual data.
Les données textuelles saisies di, et éventuellement les données d'image capturées Imx, sont alors transmises par le terminal Tx et reçues par l'unité de contrôle MCU, au cours d'une étape de réception 130. S'ensuit une étape 140 de préparation de l'image source, dans laquelle les données d'image Imx sont traitées, formatées à un format spécifique, ou combinées à d'autres données d'image reçues d'autres terminaux pour former une image source composite. Cette étape est effectuée au sein du moyen de préparation PREP de l'unité de contrôle MCU. On obtient alors une image source Im5, voire un flux d'images source {Ims}i k, composé d'une succession d' images source .The entered text data di, and possibly the captured image data Im x , are then transmitted by the terminal T x and received by the control unit MCU, during a reception step 130. A source image preparation step 140 follows, in which the image data Im x is processed, formatted to a specific format, or combined with other image data received from other terminals to form an image. composite source image. This step is performed within the PREP preparation means of the MCU control unit. We then obtain a source image Im 5 , or even a source image stream {Im s } i k , composed of a succession of source images.
Au cours d'une étape d'incrustation 150, les données textuelles di sont alors incrustées dans l'image source Im5 ou le flux {Ims}X/...,k, préparée précédemment, dans un des modes de présentation ci-avant par exemple. On obtient alors une image Im, ou le flux d'images (Im)x k correspondant .During a keying step 150, the textual data di are then embedded in the source image Im 5 or the stream {Im s } X / ..., k , prepared previously, in one of the presentation modes ci. before, for example. An image Im, or the corresponding image stream (Im) xk, is then obtained.
Une fois ces données textuelles incrustées dans une image source ou un flux d'images source, l'image Im ou le flux d'images (Im)1 k est diffusé vers les terminaux des participants, au cours d'une étape de diffusion 160, au besoin en étant préalablement encodées par un moyen de codage COD adapté à ces terminaux.Once these text data are embedded in a source image or a source image stream, the image Im or the image stream (Im) 1k is broadcast to the participants' terminals during a broadcast step 160 , if necessary by being previously encoded by a coding means COD adapted to these terminals.
Bien entendu, l'invention n'est pas limitée aux exemples de réalisation ci-dessus décrits et représentés, à partir desquels on pourra prévoir d'autres modes et d'autres formes de réalisation, sans pour autant sortir du cadre de 1 ' invention. Of course, the invention is not limited to the embodiments described above and shown, from which we can provide other modes and other embodiments, without departing from the scope of the invention .

Claims

Revendications claims
1. Procédé de traitement de données textuelles, en contexte de télécommunication entre au moins un premier terminal (Ti) et un deuxième terminal (T2) , caractérisé en ce qu'il comporte, après réception (130) auprès d'un dispositif de traitement (MCU) de données textuelles (di) du premier terminal (Tx), la génération (150) de données d'image (Im) intégrant lesdites données textuelles (di) reçues, en vue d'une transmission (160) desdites données d'image (Im) au moins au deuxième terminal (T2) .1. A method for processing textual data, in a telecommunication context between at least a first terminal (Ti) and a second terminal (T 2 ), characterized in that it comprises, after reception (130) at a device of processing (MCU) of text data (di) of the first terminal (T x ), generating (150) image data (Im) integrating said received text data (di), for transmission (160) of said image data (Im) at least at the second terminal (T 2 ).
2. Procédé selon la revendication 1, caractérisé en ce que ledit dispositif de traitement (MCU) incruste au moins une partie d'un texte correspondant auxdites données textuelles (di) dans au moins une image source (Im "ss;2. Method according to claim 1, characterized in that said processing device (MCU) embeds at least a portion of a text corresponding to said textual data (di) in at least one source image (Im " s s;
3. Procédé selon la revendication 2, caractérisé en ce que ledit dispositif de traitement (MCU) reçoit en outre des données textuelles (d2) du deuxième terminal (T2) et incruste au moins une partie d'un texte correspondant auxdites données textuelles (d2) reçues du deuxième terminal (T2) dans ladite image source (Im8) .3. Method according to claim 2, characterized in that said processing device (MCU) furthermore receives textual data (d 2 ) from the second terminal (T 2 ) and embeds at least part of a text corresponding to said textual data. (d 2 ) received from the second terminal (T 2 ) in said source image (Im 8 ).
4. Procédé selon l'une des revendications 2 ou 3, caractérisé en ce qu'une partie au moins de l'image source (Im3) est communiquée du premier terminal (Tx) au dispositif de traitement (MCU) . 4. Method according to one of claims 2 or 3, characterized in that at least a portion of the source image (Im 3 ) is communicated from the first terminal (T x ) to the processing device (MCU).
5. Procédé selon la revendication 4, caractérisé en ce que l'image source (Im5) est une image composite dont une partie au moins est communiquée du deuxième terminal (T2) au dispositif de traitement (MCU) .5. Method according to claim 4, characterized in that the source image (Im 5 ) is a composite image of which at least a part is communicated from the second terminal (T 2 ) to the processing device (MCU).
6. Procédé selon l'une des revendications 2 à 5, caractérisé en ce que l'incrustation des données textuelles (di,d2) s'effectue dans une zone d'affichage (Z) définie dans ladite image source (Im3) .6. Method according to one of claims 2 to 5, characterized in that the incrustation of the textual data (di, d 2 ) is performed in a display area (Z) defined in said source image (Im 3 ) .
7. Procédé selon la revendication 6, dans lequel l'image source (Im5) comporte au moins une première zone d'affichage (Zi) dans laquelle s'affiche au moins une partie d'une première image (Imi) communiquée du premier terminal (T1) au dispositif de traitement (MCU) , ainsi qu'une deuxième zone d'affichage (Z2) dans laquelle s'affiche au moins une partie d'une deuxième image (Im2) communiquée du deuxième terminal (T2) au dispositif de traitement (MCU) , caractérisé en ce que ledit dispositif de traitement (MCU) incruste au moins une partie d'un texte correspondant auxdites données textuelles (di) provenant du premier terminal (Ti) dans la première zone d'affichage (Z1) et au moins une partie d'un texte correspondant auxdites données textuelles (d2) provenant du deuxième terminal (T2) dans la deuxième zone d'affichage (Z2) .The method according to claim 6, wherein the source image (Im 5 ) comprises at least a first display area (Zi) in which at least a portion of a first image (Imi) communicated from the first image is displayed. terminal (T 1 ) to the processing device (MCU), as well as a second display area (Z 2 ) in which at least a portion of a second, communicated image (Im 2 ) of the second terminal (T 2 ) to the processing device (MCU), characterized in that said processing device (MCU) embeds at least a part of a text corresponding to said textual data (di) coming from the first terminal (Ti) in the first zone of displaying (Z 1 ) and at least a part of a text corresponding to said textual data (d 2 ) coming from the second terminal (T 2 ) in the second display area (Z 2 ).
8. Dispositif de traitement de données textuelles (MCU), en contexte de télécommunication entre au moins un premier terminal (T1) et un deuxième terminal (T2) , caractérisé en ce qu'il comporte un moyen de traitement (PROC) pour, sur réception de données textuelles (di) d'un premier terminal (Tx), générer des données d'image (Im) intégrant lesdites données textuelles (dx) reçues, en vue d'une transmission desdites données d'image au moins à un deuxième terminal (T2) .8. Apparatus for processing textual data (MCU), in a telecommunication context between at least a first terminal (T 1 ) and a second terminal (T 2 ), characterized in that it comprises a processing means (PROC) for , sure receiving text data (di) from a first terminal (T x ), generating image data (Im) integrating said received text data (d x ), for transmission of said image data at least to a second terminal (T 2 ).
9. Dispositif de traitement de données textuelles (MCU) selon la revendication précédente, caractérisé en ce que ledit moyen de traitement (PROC) est apte à incruster au moins une partie d'un texte correspondant auxdites données textuelles (dx) dans au moins une image source (Im5) en vue de générer lesdites données d'image (Im) .9. Apparatus for processing textual data (MCU) according to the preceding claim, characterized in that said processing means (PROC) is able to embed at least a portion of a text corresponding to said textual data (d x ) in at least a source image (Im 5 ) for generating said image data (Im).
10. Dispositif de traitement de données textuelles (MCU) selon la revendication précédente, caractérisé en ce que ledit moyen de traitement (PROC) est en outre apte à incruster au moins une partie d'un texte correspondant à des données textuelles (d2) reçues du deuxième terminal (T2) dans ladite image source (Ims) en vue de générer lesdites données d'image (Im) .10. Apparatus for processing textual data (MCU) according to the preceding claim, characterized in that said processing means (PROC) is further able to embed at least a portion of a text corresponding to textual data (d 2 ) received from the second terminal (T 2 ) in said source image (Im s ) to generate said image data (Im).
11. Dispositif de traitement de données textuelles (MCU) selon l'une des revendications 9 ou 10, caractérisé en ce qu'il comporte un moyen de prétraitement (PREP) pour générer ladite image source (Im5) à partir de données d'image (Imx) reçues du premier terminal (Tx) .11. Apparatus for processing textual data (MCU) according to one of claims 9 or 10, characterized in that it comprises a preprocessing means (PREP) for generating said source image (Im 5 ) from data of image (Im x ) received from the first terminal (T x ).
12. Dispositif de traitement de données textuelles (MCU) selon la revendication précédente, caractérisé en ce que le moyen de prétraitement (PREP) comprend un moyen de mixage (MIX) pour générer ladite image source (Im5) sous la forme d'une image composite dont au moins une première partie est générée en fonction de données d'image (Imi) reçues du premier terminal (Ti) et au moins une deuxième partie est générée en fonction de données d'image (Im2) reçues du deuxième terminal (T2) .12. Textual data processing device (MCU) according to the preceding claim, characterized in that the preprocessing means (PREP) comprises a mixing means (MIX) for generating said source image (Im 5 ) under the shape of a composite image of which at least a first part is generated as a function of image data (Imi) received from the first terminal (Ti) and at least a second part is generated as a function of image data (Im 2 ) received from the second terminal (T 2 ).
13. Système de conversation vidéo-textuelle comprenant un dispositif de traitement de données textuelles (MCU) selon l'une des revendications 8 à 10, connecté à au moins deux terminaux (Ti, T2) aptes à envoyer des données textuelles (di,d2) audit dispositif de traitement (MCU) .13. Video-text conversation system comprising a textual data processing device (MCU) according to one of claims 8 to 10, connected to at least two terminals (Ti, T 2 ) able to send text data (di, d 2 ) to said processing device (MCU).
14. Système de conversation vidéo-textuelle comprenant un dispositif de traitement de données textuelles (MCU) selon l'une des revendications 11 à 12, connecté à au moins deux terminaux (Ti, T2) aptes à envoyer des données textuelles14. Video-text conversation system comprising a textual data processing device (MCU) according to one of claims 11 to 12, connected to at least two terminals (Ti, T 2 ) able to send textual data.
(di,d2) et des données d'image (Imi,Im2) audit dispositif de traitement (MCU) .(di, d 2 ) and image data (Im 1 , Im 2 ) to said processing device (MCU).
15. Programme informatique, pour la mise en œuvre du procédé selon l'une des revendications 1 à 7, téléchargeable via un réseau de télécommunication et/ou stocké dans une mémoire d'un dispositif de traitement et/ou stocké sur un support mémoire destiné à coopérer avec un dispositif de traitement. 15. Computer program for implementing the method according to one of claims 1 to 7, downloadable via a telecommunications network and / or stored in a memory of a processing device and / or stored on a memory medium for to cooperate with a treatment device.
EP09802187A 2008-12-22 2009-12-16 Method and device for processing text data Withdrawn EP2368167A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0858907 2008-12-22
PCT/FR2009/052559 WO2010072945A1 (en) 2008-12-22 2009-12-16 Method and device for processing text data

Publications (1)

Publication Number Publication Date
EP2368167A1 true EP2368167A1 (en) 2011-09-28

Family

ID=40897699

Family Applications (1)

Application Number Title Priority Date Filing Date
EP09802187A Withdrawn EP2368167A1 (en) 2008-12-22 2009-12-16 Method and device for processing text data

Country Status (4)

Country Link
US (1) US8848015B2 (en)
EP (1) EP2368167A1 (en)
JP (1) JP2012513693A (en)
WO (1) WO2010072945A1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5892021B2 (en) * 2011-12-26 2016-03-23 キヤノンマーケティングジャパン株式会社 CONFERENCE SERVER, CONFERENCE SYSTEM, CONFERENCE SERVER CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
JP6089516B2 (en) * 2012-09-11 2017-03-08 沖電気工業株式会社 Multipoint conference server, multipoint conference server program, and multipoint conference system
JP2016015009A (en) 2014-07-02 2016-01-28 ソニー株式会社 Information processing system, information processing terminal, and information processing method
CN108810443A (en) * 2017-04-28 2018-11-13 南宁富桂精密工业有限公司 Video pictures synthetic method and multipoint control unit
JP2019049854A (en) * 2017-09-10 2019-03-28 益満 大 Program and information processing system
US11562124B2 (en) * 2021-05-05 2023-01-24 Rovi Guides, Inc. Message modification based on message context
US11563701B2 (en) 2021-05-05 2023-01-24 Rovi Guides, Inc. Message modification based on message format
US11463389B1 (en) * 2021-05-05 2022-10-04 Rovi Guides, Inc. Message modification based on device compatability
US12015581B1 (en) * 2023-07-13 2024-06-18 Kyndryl, Inc. Selectively exclude recipients from an end-to-end encryption enabled group chat

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0898424A2 (en) * 1993-10-01 1999-02-24 Vicor, Inc. Common collaboration initiator in multimedia collaboration system
US6069622A (en) * 1996-03-08 2000-05-30 Microsoft Corporation Method and system for generating comic panels
US20020198716A1 (en) * 2001-06-25 2002-12-26 Kurt Zimmerman System and method of improved communication

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6253082A (en) * 1985-09-02 1987-03-07 Nippon Telegr & Teleph Corp <Ntt> Multi-terminal video conference system
WO2001067267A1 (en) * 2000-03-03 2001-09-13 Jones Lawrence R Picture communications system and associated network services
JP2002259313A (en) * 2001-03-01 2002-09-13 Square Co Ltd Electronic conference method and system for it
JP2003219047A (en) * 2002-01-18 2003-07-31 Matsushita Electric Ind Co Ltd Communication apparatus
JP2004128614A (en) 2002-09-30 2004-04-22 Toshiba Corp Image display controller and image display control program
JP3819852B2 (en) 2003-01-29 2006-09-13 富士通株式会社 COMMUNICATION SUPPORT METHOD, COMMUNICATION SUPPORT DEVICE, COMMUNICATION SUPPORT PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING COMMUNICATION SUPPORT PROGRAM
JP2004274342A (en) * 2003-03-07 2004-09-30 Cni Kk Video conference system
JP2004304601A (en) * 2003-03-31 2004-10-28 Toshiba Corp Tv phone and its data transmitting/receiving method
JP2005222431A (en) * 2004-02-09 2005-08-18 Fuji Xerox Co Ltd Cooperative work system
JP2005346252A (en) * 2004-06-01 2005-12-15 Nec Corp Information transmission system and information transmission method
US8123782B2 (en) 2004-10-20 2012-02-28 Vertiflex, Inc. Interspinous spacer
US20080005269A1 (en) 2006-06-29 2008-01-03 Knighton Mark S Method and apparatus to share high quality images in a teleconference
US8373799B2 (en) * 2006-12-29 2013-02-12 Nokia Corporation Visual effects for video calls
JP5211557B2 (en) 2007-06-15 2013-06-12 富士通株式会社 Web conference support program, recording medium recording the program, Web conference support device, and Web conference support method
KR101341504B1 (en) * 2007-07-12 2013-12-16 엘지전자 주식회사 Portable terminal and method for creating multi-media contents in the portable terminal

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0898424A2 (en) * 1993-10-01 1999-02-24 Vicor, Inc. Common collaboration initiator in multimedia collaboration system
US6069622A (en) * 1996-03-08 2000-05-30 Microsoft Corporation Method and system for generating comic panels
US20020198716A1 (en) * 2001-06-25 2002-12-26 Kurt Zimmerman System and method of improved communication

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KAZUO WATABE ET AL: "Distributed multiparty desktop conferencing system: MERMAID", PROCEEDINGS OF THE 1990 ACM CONFERENCE ON COMPUTER-SUPPORTED COOPERATIVE WORK , CSCW '90, 1 January 1990 (1990-01-01), New York, New York, USA, pages 27 - 38, XP055283211, ISBN: 978-0-89791-402-4, DOI: 10.1145/99332.99338 *
See also references of WO2010072945A1 *

Also Published As

Publication number Publication date
US20110249083A1 (en) 2011-10-13
JP2012513693A (en) 2012-06-14
WO2010072945A1 (en) 2010-07-01
US8848015B2 (en) 2014-09-30

Similar Documents

Publication Publication Date Title
EP2368167A1 (en) Method and device for processing text data
EP2255527B1 (en) Method for implementing rich video on mobile terminals
CA2284884C (en) Videoconference system
WO2006134055A1 (en) Method for managing execution by a server of an application providing at least one interactive multimedia service to at least one terminal, corresponding computer programme product and server
EP1856901B1 (en) Method and system for supplying information to participants in a telephone conversation
WO2004017636A1 (en) Method for real-time broadcasting of multimedia files during a videoconference, without interrupting communication, and man-machine interface therefor
WO2009147348A2 (en) Method and system for automatically storing a communication session
FR3092718A1 (en) Multiparty conference audio-video stream processing method, corresponding devices, system and program
EP2064900B1 (en) Method for transferring an audio stream between a plurality of terminals
EP1964363B1 (en) Method of transferring communication streams
FR3113447A1 (en) METHOD FOR CONNECTING TO A SECURE VIDEO-CONFERENCE BY STRONG AUTHENTICATION
EP2684353A1 (en) Device and method for the distributed mixing of data streams
WO2008046697A1 (en) Enrichment of the signalling in a communication session of “push to talk” type by inserting a business card
WO2007093616A1 (en) Method and device for managing at least one group of users, corresponding computer program product
WO2007015012A1 (en) Service for personalising communications by processing audio and/or video media flows
EP2064855B1 (en) Method of communicating between several terminals
WO2017103480A1 (en) System and method for performing a tour of the table during a remote meeting
FR2776457A1 (en) Control system for multi-point video conference facility
WO2021255375A1 (en) Access method and device for managing access to a secure communication session between participating communication terminals by a requesting communication terminal
FR3000357A1 (en) Method for transferring e.g. audio communication from e.g. smartphone to e.g. computer, involves receiving request for audio and/or video stream of communication and request for re-routing of stream from terminal to another terminal
FR2984651A1 (en) Method for broadcasting e.g. video conference data, stream on e.g. Internet network, involves selecting data to be broadcasted among temporary and recording data based on reception of request and communicating data stream in broadcast mode
EP2283631A1 (en) Optimized encoding resource negotiation between communication clients
FR2992808A1 (en) Multipoint conference management server, has control unit, where message for releasing action implementing considered elementary step is transmitted to control unit for each elementary step of sequence of elementary steps
FR2786348A1 (en) MULTIMEDIA DATA TRANSMISSION SYSTEM
EP1065590A1 (en) System Architecture for Multimedia Treatment

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20110519

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO SE SI SK SM TR

DAX Request for extension of the european patent (deleted)
RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: ORANGE

17Q First examination report despatched

Effective date: 20150910

RIC1 Information provided on ipc code assigned before grant

Ipc: H04L 12/58 20060101ALI20170712BHEP

Ipc: H04N 7/14 20060101ALI20170712BHEP

Ipc: G06F 15/16 20060101ALI20170712BHEP

Ipc: G06F 3/00 20060101ALI20170712BHEP

Ipc: H04L 12/18 20060101AFI20170712BHEP

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

RIN1 Information on inventor provided before grant (corrected)

Inventor name: ALLEGRO, STEPHANE

INTG Intention to grant announced

Effective date: 20170829

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20180109