WO2011159204A1 - Способ взаимодействия виртуальной мимики и/или виртуальной жестикуляции с сообщением - Google Patents

Способ взаимодействия виртуальной мимики и/или виртуальной жестикуляции с сообщением Download PDF

Info

Publication number
WO2011159204A1
WO2011159204A1 PCT/RU2011/000422 RU2011000422W WO2011159204A1 WO 2011159204 A1 WO2011159204 A1 WO 2011159204A1 RU 2011000422 W RU2011000422 W RU 2011000422W WO 2011159204 A1 WO2011159204 A1 WO 2011159204A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
person
specified
face
specified person
Prior art date
Application number
PCT/RU2011/000422
Other languages
English (en)
French (fr)
Inventor
Владимир Витальевич МИРОШНИЧЕНКО
Original Assignee
ПИЛКИН, Виталий Евгеньевич
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ПИЛКИН, Виталий Евгеньевич filed Critical ПИЛКИН, Виталий Евгеньевич
Priority to US13/699,508 priority Critical patent/US20130080147A1/en
Publication of WO2011159204A1 publication Critical patent/WO2011159204A1/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the technical field to which the invention relates The proposed group of five inventions relates to electronic technology and can be used to improve the quality of communication between people who speak different languages or use different languages, when they use technical means of video communication.
  • the inventor could not find analogues (prototypes) of the proposed group of five inventions in accessible sources of information.
  • the objective of the proposed technical solutions is to improve the quality of communication between people speaking different languages or using different languages, when they use technical means of video communication.
  • virtual facial expressions and / or virtual gestures are used: a) when a person speaks a speech message displayed on a different language, the virtual facial expressions used in this case correspond to a voice message delivered in another language; b) when translating the voice message of the person displayed on the display into sign language, the virtual facial expressions and / or gestures used in this case correspond or correspond to the message carried out in sign language; c) when translating a message carried out in sign language into another sign language, which (the message) is performed by the person displayed on the screen, and the virtual facial expressions and / or gestures used in this case correspond to or correspond to the message carried out in another sign language; d) when translating a message in a sign language, which is carried out by the person displayed on the screen, into a speech language, and the virtual facial expressions and / or gestures used in this case correspond or correspond to a message delivered in a speech language; e) when voicing a text message or when voicing a translation
  • a virtual facial expression is a facial expression that is displayed on the display as at least one virtual object.
  • multimedia objects are also referred to as virtual objects.
  • Virtual facial expressions are used in video clips, films, etc.
  • Virtual facial expressions are displayed on the display instead of displaying on the display part of the face or facial expressions of the person displayed on the display of a person or other living creature or other virtual image (for example, an image in the form of a person).
  • the real or part of the real facial expressions of a person can be displayed on the display in the background, that is, so that it is slightly noticeable on the display.
  • virtual facial expressions may constantly or periodically or temporarily, in whole or in part, include virtual images of those parts of a person’s face that are not involved in facial expressions.
  • a virtual facial expression may constantly or periodically or temporarily include a virtual image of at least one subject and / or at least one part of at least one subject.
  • Virtual gestures are gestures that are displayed on the display as at least one virtual object.
  • Virtual objects also include multimedia objects.
  • Virtual gestures are used in video clips, films, etc.
  • Virtual gestures are displayed on the display instead of the image on the display of at least one part of the human body.
  • the real or part of the real gestures of a person can also be displayed in the background in the background.
  • Virtual gestures can constantly or periodically or temporarily include a virtual image of at least one subject and / or at least one part of at least one subject.
  • Virtual images are images that are displayed on the display, which are images of existing or not existing people, existing or not existing animals, existing or not existing other living things.
  • Parameters of a person’s face these are the parameters of a person’s face, which include:
  • Body parameter - these are the parameters of the human body, which include:
  • PC 2 may be simultaneous translation PC 1 or PC 2 may be pronounced after completion of PC 1 or PC 2 may be pronounced partially during pronunciation of PC 1 and partially after pronunciation of PC 1.
  • a virtual facial expression of the person who is pronouncing or pronouncing PC 1 displayed on the display they can constantly or periodically or temporarily take into account: a) at least one face parameter of the person pronouncing or pronouncing PC 1, and / or b) at least one facial expression parameter of the specified person and / or c) weather conditions or at least one of the parameters of the weather conditions under which the face or part of the face of the specified person is located on the display, and / or d) the illumination or at least one of the parameters of the face illumination or parts of the face of the specified person when it is displayed on the display and / or e) the illumination or at least one of the illumination parameters of at least one subject and / or at least one part of at least one subject from among the objects fully or partially located on the face of the specified person when its display, and / or e) at least one object and / or at least one part of at least one object from among the objects fully or partially located on the face of the specified person, and / or g) at least one
  • the display may additionally display the person pronouncing or saying PC 1, and / or b) the display may additionally display the person pronouncing or pronouncing PC 1, in addition to the indicated additional display person on the display and / or to the specified person display on another display do not apply the specified virtual facial expressions.
  • At least one of the displays of the person pronouncing or pronouncing PC 1, placed on the display and / or on another display, can be performed at least during the pronunciation of PC 2.
  • the person who is speaking or pronouncing PC 1 is displayed continuously or periodically or temporarily may take into account: a) at least one parameter of the body of the specified person and / or b) at least one parameter of at least one part of the body of the specified person and / or c) at least one item and / or at least one part of at least one item from among objects located on the body or on a part of the body or near the body or part of the body of the specified person, and / or d) at least one item and / or at least one part of at least one item from among the items that the specified person uses to location on the body or on the part and the body or near the body or with a part of the body of the specified person, and / or e) weather conditions or at least one of the parameters of the weather conditions under which the specified person and / or part of the specified person is displayed on the display, and / or e ) illumination or at least one of the illumination parameters of the specified person and / or part of the specified person when displayed
  • the user of the display and / or the software of the electronic device to which the display is connected, and / or the user of another at least one electronic device connected to the specified display and / or the device through which the specified display is controlled, and / or the software of the electronic device connected to the specified display and / or to the device through which the specified display is controlled, and / or a person pronouncing or pronouncing PC 1 while having access at least one electronic device connected to the specified display and / or to the device through which the specified display is controlled can or can specify: a) PC 2 language and / or b) voice timbre and / or other known voice parameters that use when pronouncing the specified person PC 2, and / or c) the beginning and / or end of pronunciation PC 2 by the specified person and / or d) at least one display parameter on the display of virtual facial expressions of the specified person and / or e) the beginning and / or end of the display the display is sup total facial expressions of a specified person; and / or e
  • the display may set a designation indicating which speech language PC 2 is pronounced and / or PC 1 is pronounced or pronounced, and / or PC 1 and / or PC 2 are displayed as text.
  • the user of the display and / or the software of the electronic device to which the display is connected, and / or the user of another at least one electronic device connected to the specified display and / or the device through which the specified display is controlled, and / or the software of the electronic device connected to the specified display and / or to the device through which the specified display, and / or a person pronouncing or pronouncing PC 1 and at the same time having access to at least one electronic device connected to the specified display and / or to the device through which the specified display is controlled, can or can specify: a) the beginning and / or termination of the display of the text PC 1 and / or PC 2, and / or b) at least one parameter of the display of the text of the speech message PC 1 and / or PC 2.
  • the virtual facial expressions and / or virtual gestures of the person displayed on the display can also be three-dimensional (3D).
  • a method for the interaction of virtual facial expressions and / or virtual gestures with a message characterized in that when translating a voice message (hereinafter referred to as PC) or a message in sign language (hereinafter referred to as LSS 1) the person displayed on the display in sign language (hereinafter according to the text, the message in sign language, which is a translation of PC or ⁇ 1, is designated as ⁇ 2), and ⁇ 1 is different from ⁇ 2, use: 1) virtual gestures and virtual facial expressions, while: a) virtual gestures are displayed on the indicated display It is necessary to display on the display at least one arm and / or at least one part of at least one arm and / or at least one part of the body of the indicated person and / or at least one subject and / or at least one part of at least one subject completely or partially located on the body or part of the body or near the body or part of the body of the specified person, b) virtual facial expressions are displayed on the indicated display instead of displaying part of the face or facial expressions of the
  • the speech language in which the PC is carried out, and the sign language in which the LSS 2 is carried out, can be distributed in different territories.
  • SJS 2 can be a simultaneous translation of PC or SJS 2 can be a simultaneous translation of SJS 1 or SJS 2 can be performed after pronouncing a PC or SJS 2 can be performed after pronouncing an SJS 1 or SJS 2 can be performed partly during a PC pronunciation and partly after pronouncing PC or SJS 2 may be carried out partly during the implementation of LSS 1 and partly after the implementation of LSS 1.
  • the display may additionally display the person who pronounces or pronounced PC 1, or performing or carried out the LSS 1, and / or b) the other display may additionally display the person speaking or pronounced PC 1, or carrying out or implementing LSS 1, while the specified virtual facial expressions and / or the specified virtual tin do not apply to the indicated additional display of a person on the display and / or to the indicated display of a person on another display ulyatsiyu.
  • pronouncing or pronouncing PC 1 or carrying out or implementing SJL 1 they can constantly or periodically or temporarily take into account: a) at least one face parameter of the specified person and / or b) at least one facial expression parameter of the specified person and / or c) weather conditions or at least one of the parameters of the weather conditions under which the face or part of the face of the specified person is located when it is displayed, and / or d) the illumination or at least one of the parameters the illuminance of the face or part of the face of the specified person when it is displayed on the display and / or e) the illumination or at least one of the illumination parameters of at least one object and / or at least one part of at least one object from among the objects fully or partially located on the face the specified person when it is displayed on the display, and / or e) at least one item and / or at least one part of at least one item from among the items fully or partially located on the face of the specified person, and /
  • pronouncing or pronouncing PC 1 or carrying out or implementing SJL 1 may constantly or periodically or temporarily not take into account: a) at least one face parameter of the specified person and / or b) at least one parameter of facial expression of the specified person and / or c) weather conditions or at least one of the parameters of the weather conditions under which the face or part of the face of the specified person is located on the display, and / or d) the illumination or at least one of the parameter in the illumination of the face or part of the face of the specified person when it is displayed on the display and / or e) the illumination or at least one of the illumination parameters of at least one object and / or at least one part of at least one object from among the objects fully or partially located on the face of the specified person when it is displayed on the display, and / or e) at least one item and / or at least one part of at least one item from among the items fully or partially located on the face of the specified person, and /
  • ⁇ 1, constantly or periodically or temporarily can take into account: a) at least one parameter of the body of the specified person and / or b) at least one parameter of at least one part of the body of the specified person and / or c) at least one subject and / or at least one part of at least one object from among objects located on the body or on a part of the body or near the body or part of the body the specified person, and / or d) at least one item and / or at least one part of at least one item from among the items that the specified person uses to position them on the body or part of the body or near the body or part of the body of the specified person , and / or e) weather conditions or at least one of the weather conditions under which the specified person and / or part of the specified person is located on the display, and / or e) the illumination or at least one of the illumination parameters of the specified person and / whether a part of the specified person when it is displayed on the display and / or g) the illumination or at least one of the illumination parameters
  • a display user and / or user of at least one other electronic device connected to the indicated display and / or to the device through which the specified display is controlled, and / or a person, pronouncing or uttering PC 1 or performing or having implemented LSS 1 and at the same time having access to at least one electronic device connected to the indicated display and / or to the device by which the indicated display is controlled can or can specify: a) at least one the parameter of displaying the indicated virtual gestures and / or the specified virtual facial expressions and / or at least one specified virtual image on the display and / or b) the beginning and / or end of the display of the indicated virtual gestures and / or the specified virtual facial expressions and / or at least one specified virtual image and / or c) at least one parameter of at least one display on the display of the specified person and / or at least one specified virtual image and / or d) the location or places of display on the display of the indicated person and / or e) place of display on the display of at least one indicated virtual image;
  • a designation can be set indicating which language the PC is pronounced, and / or in which sign language they are used for SJS 1 and / or SJS 2, and / or in the form of text they can be displayed on a PC display.
  • the virtual facial expressions and / or virtual gestures of the person displayed on the display can also be three-dimensional (3D).
  • the specified technical result according to the third invention is achieved as follows: 3.1.
  • a method for the interaction of virtual facial expressions and / or virtual gestures with a message characterized in that when pronouncing a speech message (hereinafter referred to as PC), which is a translation into the speech language of the message in sign language, carried out or carried out by the person displayed on the display (hereinafter the specified message in sign language is designated as LSS), instead of displaying: a) parts of the face or facial expressions of the specified person or b) parts of the face or facial expressions of the specified person, as well as at least one subject and / or at least one part of at least one subject, out of the number of subjects fully or partially located on the face of the indicated person, the virtual facial expression that corresponds to the facial expression of the PC is displayed on the display.
  • PC pronouncing a speech message
  • LSS the specified message in sign language
  • the speech language in which the PC is carried out, and the sign language in which the LSS is carried out, can be distributed in the same territory.
  • the speech language in which the PC is carried out, and the sign language in which the LSS is carried out, can be distributed in different territories.
  • the PC may be a simultaneous translation of the CJF or the PC may be pronounced after the implementation of the CJF or the PC may be pronounced partially during the implementation of the CJF and partly after the implementation of the CJF.
  • the display may additionally display the person performing or having performed the LSS, and / or b) the other display may additionally display the person performing or having carried out the LSS, in addition to the indicated additional display of the person on the display and / or the specified virtual facial expressions and / or the indicated virtual gestures are not applied to the indicated human display on a different display.
  • a virtual facial expression of the person displayed on the display who is carrying out or having implemented the LSS, they can constantly or periodically or temporarily take into account: a) at least one face parameter of the specified person and / or b) at least one parameter of the facial expression of the specified person and / or c) weather conditions or at least one of the weather conditions under which the person is or a part of the face of the specified person when it is displayed on the display, and / or d) the illumination or at least one of the parameters of illumination of the face or part of the face of the specified person when it is displayed on the display and / or e) the illumination or at least one of the parameters of the light one item and / or at least one part of at least one item from among the items fully or partially located on the face of the specified person when it is displayed on the display, and / or e) at least one item and / or at least one part of at least one object from among the objects fully or partially located on the face of the specified person, and / or g) at least one
  • a virtual facial expression of the person displayed on the display who is carrying out or has carried out the LSS, they can constantly or periodically or temporarily not take into account: a) at least one parameter of the face of the specified person and / or b) at least one parameter of the facial expression of the specified person and / or c) weather conditions or at least one of the parameters of the weather conditions under which the face or part of the face of the specified person is located when it is displayed on the display, and / or d) the illumination or at least one of the parameters of the illumination of the face or part of the face person when it is displayed on the display and / or e) the illumination or at least one of the illumination parameters of at least one object and / or at least one part of at least one object from among the objects fully or partially located on the face of the specified person when it is displayed on the display, and / or e) at least one object and / or at least one part of at least one object from among the objects fully or partially located on the face of the specified person when it is displayed on the display, and
  • the display may set a designation indicating which language the PC is pronounced, and / or in which sign language they perform the LSS and / or the PC can be displayed as text.
  • the user of the display and / or software of the electronic device to which the display is connected, and / or the user of another at least one electronic device connected to the specified display and / or to the device through which the specified display is controlled, and / or the software of the electronic device connected to the specified display and / or to the device through which the specified display is controlled, and / or a person who carries out or has carried out the LSS and at the same time having access to at least one electronic device connected to the indicated display and / or to the device by which the indicated display is controlled, can or can set: a) the parameter or parameters of the relationship between the PC and the LSS and / or b) the voice timbre and / or other known parameters of the PC voice and / or c) the beginning and / or end of the PC and / or d) at least one parameter for displaying the virtual facial expressions of the specified person on the display and / or e) the beginning and / or end of the display of the specified virtual facial expressions and / or e
  • At least one of the displays displayed on the display and / or on the other display of the person performing or having performed the LSS can be performed at least during the pronunciation of the PC. 3.14. If the image of the person displayed on the display is three-dimensional (3D), then the virtual facial expressions and / or virtual gestures of the person displayed on the display can also be three-dimensional (3D).
  • a method of interaction between virtual facial expressions and / or virtual gestures with a message characterized in that: a) when voicing a text message (hereinafter referred to as TS), at least one real image of a person or at least one real image of a person and at least one virtual image of a person or b) when voicing a TS in a language other than the language of the specified TS, at least one real image of a person and / or at least one virtual image of a person and / or as at least one other real or virtual image; in this case, under subparagraphs a) and b) instead of displaying on the display: 1) parts of the face or facial expressions of the specified person; or 2) parts of the face or facial expressions of the specified person and at least one subject and / or at least one part of at least one subject objects fully or partially located on the face of the specified person, display a virtual facial expression, which corresponds to the facial expression of a speech message (hereinafter referred to as PC), through which the
  • a virtual facial expression of a person displayed on a display they can constantly or periodically or temporarily take into account: a) at least one facial parameter of a specified person and / or b) at least one facial expression parameter of a specified person and / or c) weather conditions or at least one of the parameters weather conditions under which the face or part of the face of the specified person is located when it is displayed on the display, and / or d) the illumination or at least one of the illumination parameters of the face or part of the face of the specified person when it is displayed on the display it and / or e) the illumination or at least one of the illumination parameters of at least one subject and / or at least one part of at least one subject from among the objects fully or partially located on the face of the specified person when it is displayed on the display, and / or f) at least one item and / or at least one part of at least one item from among the items completely or partially located on the face of the specified person, and / or g) at least one parameter of at least one item from among
  • a virtual facial expression of a person displayed on a display may constantly or periodically or temporarily not take into account: a) at least one face parameter of a specified person and / or b) at least one parameter of facial expression of a specified person and / or c) weather conditions or at least one of parameters of weather conditions under which the face or part of the face of the specified person is located when it is displayed on the display, and / or d) the illumination or at least one of the parameters of the illumination of the face or part of the face of the specified person when it is displayed on play and / or e) the illumination or at least one of the illumination parameters of at least one subject and / or at least one part of at least one subject from among the objects fully or partially located on the face of the specified person when it is displayed on the display, and / or f) at least one object and / or at least one part of at least one object from among the objects fully or partially located on the face of the specified person, and / or g) at least one parameter of at least one object
  • the vehicle by pronouncing a PC in a different speech language language in the PC can take into account the voice timbre and / or other known parameters of the voice displayed on the display of the specified person.
  • a vehicle by pronouncing a PC in a different speech language in a PC can take into account the voice timbre and / or other known parameters of the voice that does not belong to the person displayed on the display.
  • the electronic device connected to the specified display and / or the device through which the specified display is controlled can or can be set: a) the language into which the vehicle is translated, and / or b) the voice timbre and / or other known parameters of the human voice when pronouncing PC and / or c) the beginning and / or end of the translation of the vehicle and / or g) at least one parameter for displaying the virtual facial expressions of the specified person on the display and / or e) the beginning and / or end of the display on the virtual facial expressions of the specified person and / or e) as a mini
  • the display may set a designation indicating the vehicle language and / or the language into which the vehicle is translated.
  • the virtual facial expressions and / or virtual gestures of the person displayed on the display can also be three-dimensional (3D).
  • PC 2 Compared to PC 1, PC 2: a) can pronounce in whole or in part at a different speed and / or with a different loudness and / or with a different length of words and / or with a different emotionality and / or with a different diction and / or with a different intonation and / or with a different accent and / or using other well-known features of the pronunciation of voice messages and / or b) can be fully or partially voiced in song mode.
  • PC 2 can be pronounced after the pronunciation is complete PC 1 or PC 2 can be pronounced partially during the pronunciation of PC 1 and partially after the pronunciation is completed PC 1 or PC 2 can be pronounced during the pronunciation of PC 1.
  • a virtual facial expression of a person displayed on a display they can constantly or periodically or temporarily take into account: a) at least one face parameter of a specified person and / or b) at least one parameter of facial expression of a specified person and / or c) weather conditions or at least one of parameters of weather conditions under which the face or part of the face of the specified person is located when it is displayed on the display, and / or d) the illumination or at least one of the illumination parameters of the face or part of the face of the specified person when it is displayed on the display it and / or e) the illumination or at least one of the illumination parameters of at least one subject and / or at least one part of at least one subject from among the objects fully or partially located on the face of the specified person when it is displayed on the display, and / or f) at least one item and / or at least one part of at least one item from among the items completely or partially located on the face of the specified person, and / or g) at least one parameter of at least one item from
  • a virtual facial expression of a person displayed on a display may constantly or periodically or temporarily not take into account: a) at least one face parameter of a specified person and / or b) at least one parameter of facial expression of a specified person and / or c) weather conditions or at least one of parameters of weather conditions under which the face or part of the face of the specified person is located when it is displayed on the display, and / or d) the illumination or at least one of the parameters of the illumination of the face or part of the face of the specified person when it is displayed on play and / or e) the illumination or at least one of the illumination parameters of at least one subject and / or at least one part of at least one subject from among the objects fully or partially located on the face of the specified person when it is displayed on the display, and / or f) at least one object and / or at least one part of at least one object from among the objects fully or partially located on the face of the specified person, and / or g) at least one parameter of at least one object
  • the display may additionally display the person pronouncing or saying PC 1, and / or b) the display may additionally display the person pronouncing or pronouncing PC 1, in addition to the indicated additional display person on the display and / or to the specified person display on another display do not apply the specified virtual facial expressions.
  • At least one of the displays of the person pronouncing or pronouncing PC 1, placed on the display and / or on another display, can be performed at least during the pronunciation of PC 2.
  • the user of the display and / or software of the electronic device to which the display is connected, and / or the user of another at least one electronic device connected to the specified display and / or to the device through which the specified display is controlled, and / or the software of the electronic device connected to the specified display and / or to the device through which the specified display is controlled, and / or the person shown on the display and at the same time having access as a mini mum to one electronic device connected to the specified display and / or to the device through which the specified display is controlled, can or can set: a) the voice timbre and / or other known voice parameters that are used for pronunciation of PC 2, and / or b) the beginning and / or end of the pronunciation of PC 2 and / or c) at least one parameter for displaying the virtual facial expressions of the specified person on the display; and / or d) the beginning and / or end of the display on the virtual facial expressions of the specified person and / or e) at least one pair the meter for displaying the virtual gesture
  • a symbol may be indicated on the display indicating which speech language PC 2 is pronounced and / or PC 1 is pronounced or pronounced and / or PC 1 and / or PC 2 can be displayed as text.
  • the user of the display and / or software of the electronic device to which the display is connected, and / or the user of another at least one electronic device connected to the specified display and / or to the device through which the specified display is controlled, and / or the software of the electronic device connected to the specified the display and / or the device by which the specified display is controlled, and / or the person shown on the display and at the same time having access to at least one electronic device connected to the specified display and / or the device by which the specified display is controlled, can or can specify: a) the beginning and / or end of the display of the text PC 1 and / or PC 2, and / or b) at least one parameter for displaying the text of the speech message PC 1 and / or PC 2 on the display.
  • the virtual facial expressions and / or virtual gestures of the person displayed on the display can also be three-dimensional (3D).
  • the proposed technical solution improves the quality of communication between people speaking different languages or using different languages when they use technical means of video communication.

Abstract

Изобретение улучшает качество общения между людьми, использующими разные языки. В результате использования изобретения виртуальную мимику и/или виртуальную жестикуляцию, соответствующие сообщению, применяют при произношении на другом речевом языке речевого сообщения отображаемого на дисплее человека; при переводе речевого сообщения отображаемого на дисплее человека на жестовый язык; при переводе сообщения, осуществляемом на жестовом языке, на другой жестовый язык, которое осуществляет отображаемый на дисплее человек; при переводе сообщения на жестовом языке, которое осуществляет отображаемый на дисплее человек, на речевой язык; при озвучивании текстового сообщения или при озвучивании перевода на другой речевой язык текстового сообщения; при котором используют отображаемый на дисплее реальный образ человека или реальный образ человека и виртуальный образ человека или реальный образ человека и/или виртуальный образ человека и/или иной реальный или виртуальный образ; при замене речевого сообщения, произносимого или произнесенного отображаемым на дисплее человеком или иным человеком, на полностью или частично иное речевое сообщение или одинаковое по тексту речевое сообщение.

Description

Способ взаимодействия виртуальной мимики и/или виртуальной
жестикуляции с сообщением
Область техники, к которой относится изобретение Предлагаемая группа из пяти изобретений относится к электронной технике и может быть использована для улучшения качества общения между людьми, говорящих на разных языках или использующих разные языки, при использовании ими технических средств видеосвязи.
Уровень техники
Известна синхронизация виртуальной мимики с человеческой речью. Более подробная информация представлена на http://speechanimator.ru/. Недостатком указанного технического решения является то, что в нем не предусмотрена возможность замены мимики отображаемого на дисплее человека при произношении им речевого сообщения на виртуальную мимику, соответствующую речевому сообщению, которое является переводом на другой язык речевого сообщения, произносимого отображаемым на дисплее человеком.
Известен перевод речевого языка на жестовый язык и обратно или перевод с одного жестового языка на другой жестовый язык. Более подробная информация представлена на http://ru.wikipedia.org/ wiki/Жестовые языки. Для перевода речевого сообщения отображаемого на дисплее человека на жестовый язык на указанном дисплее отображают также сурдопереводчика, который переводит речевое сообщение на жестовый язык. Применяют также бегущую строку на дисплее текста речевого сообщения. Недостатком указанных способов перевода речевого сообщения на жестовый язык является то, что пользователю дисплея приходится отвлекать свое внимание на сурдопереводчика или на бегущую строку от отображаемого на дисплее человека, произносящего речевое сообщение. При переводе жестового языка, осуществляемого отображаемым на дисплее человеком, на речевой язык также требуется либо сурдопереводчик, которого необходимо отображать на указанном дисплее, либо бегущая строка, которую также размещают на дисплее. Недостатком указанных способов перевода жестового языка на речевой язык является то, что пользователю дисплея приходится отвлекать свое внимание на сурдопереводчика или на бегущую строку от отображаемого на дисплее человека, осуществляющего сообщение на жестовом языке.
Известна синхронизация виртуальной мимики со звуковым потоком. Более подробная информация представлена на http:// speechanimator. ги/. Недостатком указанного технического решения является то, что в нем не предусмотрена возможность синхронизации виртуальной мимики с озвучиванием текстового сообщения или с озвучиванием текстового сообщения на языке, отличном от языка текстового сообщения.
Автору изобретений не удалось найти в доступных источниках информации аналоги (прототипы) предлагаемой группы из пяти изобретений.
Сущность изобретения
Задачей предлагаемых технических решений является улучшение качества общения между людьми, говорящих на разных языках или использующих разные языки, при использовании ими технических средств видеосвязи.
В результате использования предлагаемой группы из пяти изобретений виртуальную мимику и/или виртуальную жестикуляцию применяют: а) при произношении на другом речевом языке речевого сообщения отображаемого на дисплее человека, причем используемая при этом виртуальная мимика соответствует речевому сообщению, произносимому на другом языке; б) при переводе речевого сообщения отображаемого на дисплее человека на жестовый язык, причем используемая при этом виртуальная мимика и/или жестикуляция соответствует или соответствуют сообщению, осуществляемому на жестовом языке; в) при переводе сообщения, осуществляемом на жестовом языке, на другой жестовый язык, которое (сообщение) осуществляет отображаемый на дисплее человек, причем используемая при этом виртуальная мимика и/или жестикуляция соответствует или соответствуют сообщению, осуществляемому на другом жестовом языке; г) при переводе сообщения на жестовом языке, которое осуществляет отображаемый на дисплее человек, на речевой язык, причем используемая при этом виртуальная мимика и/или жестикуляция соответствует или соответствуют сообщению, произносимому на речевом языке; д) при озвучивании текстового сообщения или при озвучивании перевода на другой речевой язык текстового сообщения, при котором (озвучивании) используют отображаемый на дисплее как минимум один реальный образ человека или как минимум один реальный образ человека и как минимум один виртуальный образ человека или как минимум один реальный образ человека и/или как минимум один виртуальный образ человека и/или как минимум один иной реальный или виртуальный образ, причем используемая при этом виртуальная мимика соответствует произношению речевого сообщения, посредством которого происходит указанное озвучивание; е) при полной или частичной замене речевого сообщения, произносимого или произнесенного отображаемым на дисплее человеком или иным человеком, на полностью или частично иное речевое сообщение или на полностью или частично одинаковое по тексту речевое сообщение, причем используемая при этом виртуальная мимика соответствует полностью или частично иному речевому сообщению.
Раскрытие изобретения
Для целей правильного понимания и трактования используемых в группе из пяти изобретений терминов была использована следующая терминология:
Виртуальная мимика - это мимика, которую отображают на дисплее в виде как минимум одного виртуального объекта. При этом, к виртуальным объектам относят и объекты мультимедиа. Виртуальную мимику применяют в видеоклипах, фильмах и т.д. Виртуальную мимику отображают на дисплее вместо отображения на дисплее части лица или мимики лица, отображаемого на дисплее человека или иного живого существа или иного виртуального образа (например, образа в виде человека). При отображении на дисплее виртуальной мимики реальную или часть реальной мимики человека могут отображать на дисплее в фоновом режиме, то есть таким образом, чтобы она была слегка заметна на дисплее. Соответствие виртуальной мимики речевому сообщению человека заключается в том, что движение виртуальных образов губ, мимических мышц, иных частей лица человека, входящих в виртуальную мимику, соответствуют или соответствуют приблизительно тем движениям указанных частей лица человека, которые указанный человек имел бы, если бы сам произносил указанное речевое сообщение. В контексте настоящего изобретения виртуальная мимика может постоянно или периодически или временно, полностью или частично, включать в себя виртуальные образы тех частей лица человека, которые не участвуют в мимике. В контексте данного изобретения виртуальная мимика может постоянно или периодически или временно включать в себя виртуальный образ как минимум одного предмета и/или как минимум одной части как минимум одного предмета.
Виртуальная жестикуляция - это жестикуляция, которую отображают на дисплее в виде как минимум одного виртуального объекта. К виртуальным объектам относят также объекты мультимедиа. Виртуальную жестикуляцию применяют в видеоклипах, фильмах и т.д. Виртуальную жестикуляцию отображают на дисплее вместо изображения на дисплее как минимум одной части тела человека. При этом, при отображении на дисплее виртуальной жестикуляции на дисплее в фоновом режиме могут отображать также реальную или часть реальной жестикуляции человека. Виртуальная жестикуляция может постоянно или периодически или временно включать в себя виртуальный образ как минимум одного предмета и/или как минимум одной части как минимум одного предмета. Виртуальные образы - это отображаемые на дисплее образы, которые представляют собой образы существующих или не существующих людей, существующих или не существующих животных, существующих или не существующих иных живых существ.
Параметры лица человека - это такие параметры лица человека, к которым относят:
• цвет кожи лица или цвет кожи как минимум одной части лица,
• строение лица,
• глаза, язык, дёсна, горло, нос, уши, щеки, лоб, подбородок,
· форму, размер лица или как минимум одной из частей лица,
• особенности кожного покрова лица, в том числе наличие или отсутствие пятен, пота, родинок, усов, бороды, волос, щетины, шрамов, морщин, ожогов, а также их конфигурация, размер, цвет и их расположение на лице человека,.
• особенности движения как минимум одной из мимических мышц лица, при произношении речевого сообщения или отдельного звука, слова,
• конфигурацию и размер мимических мышц лица,
• вид, строение, форму, размер, цвет, местоположение как минимум одного зуба,
• внешние проявления болезни на лице (фурункул, прыщ и пр.),
• иные известные параметры лица человека.
Параметр тела - это такие параметры тела человека, к которым относят:
• цвет кожи,
• цвет отдельных частей тела,
• строение тела или как минимум одной его части,
• форму, размер тела или как минимум одной из частей тела,
· особенности кожного покрова тела, в том числе наличие или отсутствие пятен, пота, родинок, шрамов, складок, ожогов на кожном покрове тела и их расположение на теле человека, а также их конфигурацию, размер, цвет,
• особенности движения как минимум одной из мышц тела,
• конфигурацию, размер мышц тела,
· иные известные параметры тела человека.
Указанный технический результат по первому изобретению достигается следующим образом:
1.1. Способ взаимодействия виртуальной мимики и/или виртуальной жестикуляции с сообщением, отличающийся тем, что при произношении речевого сообщения (далее по тексту - PC 2), являющегося переводом на другой речевой язык речевого сообщения (далее по тексту - PC 1) отображаемого на дисплее человека, вместо отображения на дисплее: а) части лица или мимики лица указанного человека или б) части лица или мимики лица указанного человека и как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, отображают виртуальную мимику, которая соответствует мимике произношения PC 2.
1.2. PC 2 может являться синхронным переводом PC 1 или PC 2 могут произносить после завершения PC 1 или PC 2 могут произносить частично во время произношения PC 1 и частично после произношения PC 1.
1.3. В виртуальной мимике отображаемого на дисплее человека, произносящего или произнесшего PC 1, постоянно или периодически или временно могут учитывать: а) как минимум один параметр лица человека, произносящего или произнесшего PC 1, и/или б) как минимум один параметр мимики лица указанного человека и/или в) погодные условия или как минимум один из параметров погодных условий, при которых находится лицо или часть лица указанного человека при его отображении на дисплее, и/или г) освещённость или как минимум один из параметров освещённости лица или части лица указанного человека при его отображении на дисплее и/или д) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека при его отображении на дисплее, и/или е) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или ж) как минимум один параметр как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или з) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица, и/или и) как минимум один параметр как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица.
1.4. В виртуальной мимике отображаемого на дисплее человека, произносящего или произнесшего PC 1 постоянно или периодически или временно могут не учитывать: а) как минимум один параметр лица человека, произносящего или произнесшего PC 1, и/или б) как минимум один параметр мимики лица указанного человека и/или в) погодных условий или как минимум одного параметра, относящегося к погодным условиям, при которых находится лицо или часть лица указанного человека при его отображении на дисплее и/или г) освещённости или как минимум одного параметра освещённости лица или части лица указанного человека при его отображении на дисплее и/или д) освещённости или как минимум одного параметра освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека при его отображении на дисплее, и/или е) как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или ж) как минимум одного параметра как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или з) как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица, при этом, указанные предметы и/или указанные части предметов учитывают в указанной виртуальной мимике.
1.5. Во время произношения PC 1 или PC 2: а) на дисплее дополнительно могут отображать человека, произносящего или произнесшего PC 1, и/или б) на ином дисплее дополнительно могут отображать человека, произносящего или произнесшего PC 1, при этом, к указанному дополнительному отображению человека на дисплее и/или к указанному отображению человека на ином дисплее не применяют указанную виртуальную мимику.
1.6. Как минимум одно из отображений человека, произносящего или произнесшего PC 1, размещенных на дисплее и/или на ином дисплее, могут осуществлять как минимум во время произношения PC 2.
1.7. Во время произношения PC 2 вместо отображения на дисплее как минимум одной части тела указанного человека, произносящего или произнёсшего PC 1, на дисплее могут отображать виртуальную жестикуляцию, при этом, к указанной части тела относят как минимум одну руку и/или как минимум одну часть как минимум одной руки указанного человека и/или как минимум одну иную часть тела указанного человека.
1.8. В виртуальной жестикуляции отображаемого на дисплее человека, произносящего или произнесшего PC 1, постоянно или периодически или временно могут учитывать: а) как минимум один параметр тела указанного человека и/или б) как минимум один параметр как минимум одной части тела указанного человека и/или в) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или г) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для их расположения на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или д) погодные условия или как минимум один из параметров погодных условий, при которых находится указанный человек и/или часть указанного человека при его отображении на дисплее, и/или е) освещённость или как минимум один из параметров освещённости указанного человека и/или часть указанного человека при его отображении на дисплее и/или ж) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека при его отображении на дисплее.
1.9. В виртуальной жестикуляции отображаемого на дисплее человека, произносящего или произнесшего PC 1, постоянно или периодически или временно могут не учитывать: а) как минимум один параметр тела человека, произносящего или произнесшего PC 1, и/или б) как минимум один параметр как минимум одной части тела указанного человека и/или в) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или г) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для их расположения на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или д) погодные условия или как минимум один из параметров погодных условий, при которых находится указанный человек и/или часть указанного человека при его отображении на дисплее и/или е) освещённость или как минимум один из параметров освещённости указанного человека и/или часть указанного человека при его отображении на дисплее и/или ж) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека при его отображении на дисплее. 1.10. Пользователь дисплея и/или программное обеспечение электронного устройства, к которому подключен дисплей, и/или пользователь иного как минимум одного электронного устройства, подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или программное обеспечение электронного устройства подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или человек, произносящий или произнёсший PC 1 и при этом имеющий доступ как минимум к одному электронному устройству, подключенному к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, может или могут задавать: а) язык PC 2 и/или б) тембр голоса и/или иные известные параметры голоса, которые используют при произношении указанным человеком PC 2, и/или в) начало и/или окончание произношения PC 2 указанным человеком и/или г) как минимум один параметр отображения на дисплее виртуальной мимики указанного человека и/или д) начало и/или окончание отображения на дисплее виртуальной мимики указанного человека и/или е) как минимум один параметр отображения на дисплее виртуальной жестикуляции указанного человека и/или ж) начало и/или окончание отображения на дисплее виртуальной жестикуляции указанного человека и/или з) как минимум один параметр как минимум одного отображения на дисплее указанного человека и/или и) место и/или размер отображения или места и/или размеры отображений на дисплее указанного человека и/или к) на каком из отображений указанного человека на дисплее применяют виртуальную мимику и/или виртуальную жестикуляцию и/или л) начало и/или окончание произношения PC 1, если указанный человек произносит PC 1 во время его отображения на дисплее, и/или м) как минимум один отображаемый на дисплее жест или перечень жестов указанного человека, которые заменяют виртуальной жестикуляцией.
1.11. На дисплее могут устанавливать обозначение, указывающее на каком речевом языке произносят PC 2, и/или произносят или произнесли PC 1, и/или в виде текста отображают PC 1 и/или PC 2.
1.12. Пользователь дисплея и/или программное обеспечение электронного устройства, к которому подключен дисплей, и/или пользователь иного как минимум одного электронного устройства, подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или программное обеспечение электронного устройства подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или человек, произносящий или произнёсший PC 1 и при этом имеющий доступ как минимум к одному электронному устройству, подключенному к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, может или могут задавать: а) начало и/или окончание отображения на дисплее текста PC 1 и/или PC 2, и/или б) как минимум один параметр отображения на дисплее текста речевого сообщения PC 1 и/или PC 2.
1.13. Если изображение отображаемого на дисплее человека является трехмерным (3D), то виртуальная мимика и/или виртуальная жестикуляция отображаемого на дисплее человека может быть также трехмерной (3D).
Указанный технический результат по второму изобретению достигается следующим образом:
2.1. Способ взаимодействия виртуальной мимики и/или виртуальной жестикуляции с сообщением, отличающийся тем, что при осуществлении перевода речевого сообщения (далее по тексту - PC) или сообщения на жестовом языке (далее по тексту - СЖЯ 1) отображаемого на дисплее человека на жестовый язык (далее по тексту сообщение на жестовом языке, являющееся переводом PC или СЖЯ 1, обозначают как СЖЯ 2), причем СЖЯ 1 отличен от СЖЯ 2, используют: 1) виртуальную жестикуляцию и виртуальную мимику, при этом: а) виртуальную жестикуляцию отображают на указанном дисплее вместо отображения на дисплее как минимум одной руки и/или как минимум одной части как минимум одной руки и/или как минимум одной части тела указанного человека и/или как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, б) виртуальную мимику отображают на указанном дисплее вместо отображения на дисплее части лица или мимики указанного человека или вместо отображения на дисплее части лица или мимики указанного человека и как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов полностью или частично расположенных на лице указанного человека; при этом, указанные виртуальная жестикуляция и виртуальная мимика, примененные к указанному человеку, соответствуют жестикуляции и мимике СЖЯ 2, и/или 2) отображаемый на дисплее как минимум один виртуальный образ, включающий виртуальную жестикуляцию и виртуальную мимику, которые соответствуют жестикуляции и мимике СЖЯ 2 и которые используют применительно к указанному виртуальному образу. 2.2. Речевой язык, на котором произносят PC, и жестовый язык, на котором осуществляют СЖЯ 2, могут быть распространены на одной и той же территории.
2.3. Речевой язык, на котором осуществляют PC, и жестовый язык, на котором осуществляют СЖЯ 2, могут быть распространены на отличных друг от друга территориях.
2.4. СЖЯ 2 может являться синхронным переводом PC или СЖЯ 2 может являться синхронным переводом СЖЯ 1 или СЖЯ 2 могут осуществлять после произношения PC или СЖЯ 2 могут осуществлять после осуществления СЖЯ 1 или СЖЯ 2 могут осуществлять частично во время произношения PC и частично после произношения PC или СЖЯ 2 могут осуществлять частично во время осуществления СЖЯ 1 и частично после осуществления СЖЯ 1.
2.5. Во время произношения PC или осуществления СЖЯ 1 или СЖЯ 2: а) на дисплее дополнительно могут отображать человека, произносящего или произнесшего PC 1, или осуществляющего или осуществившего СЖЯ 1, и/или б) на ином дисплее дополнительно могут отображать человека, произносящего или произнесшего PC 1, или осуществляющего или осуществившего СЖЯ 1, при этом, к указанному дополнительному отображению человека на дисплее и/или к указанному отображению человека на ином дисплее не применяют указанную виртуальную мимику и/или указанную виртуальную жестикуляцию.
2.6. В виртуальной мимике отображаемого на дисплее человека, произносящего или произнесшего PC 1 или осуществляющего или осуществившего СЖЯ 1 , постоянно или периодически или временно могут учитывать: а) как минимум один параметр лица указанного человека и/или б) как минимум один параметр мимики лица указанного человека и/или в) погодные условия или как минимум один из параметров погодных условий, при которых находится лицо или часть лица указанного человека при его отображении на дисплее, и/или г) освещённость или как минимум один из параметров освещённости лица или части лица указанного человека при его отображении на дисплее и/или д) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека при его отображении на дисплее, и/или е) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или ж) как минимум один параметр как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или з) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица, и/или и) как минимум один параметр как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица.
2.7. В виртуальной мимике отображаемого на дисплее человека, произносящего или произнесшего PC 1 или осуществляющего или осуществившего СЖЯ 1 , постоянно или периодически или временно могут не учитывать: а) как минимум один параметр лица указанного человека и/или б) как минимум один параметр мимики лица указанного человека и/или в) погодные условия или как минимум один из параметров погодных условий, при которых находится лицо или часть лица указанного человека при его отображении на дисплее, и/или г) освещённость или как минимум один из параметров освещённости лица или части лица указанного человека при его отображении на дисплее и/или д) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека при его отображении на дисплее, и/или е) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или ж) как минимум один параметр как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или з) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица, и/или и) как минимум один параметр как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица.
2.8. В виртуальной жестикуляции отображаемого на дисплее человека, произносящего или произнесшего PC 1 или осуществляющего или осуществившего
СЖЯ 1, постоянно или периодически или временно могут учитывать: а) как минимум один параметр тела указанного человека и/или б) как минимум один параметр как минимум одной части тела указанного человека и/или в) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или г) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для их расположения на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или д) погодные условия или как минимум один из параметров погодных условий, при которых находится указанный человек и/или часть указанного человека при его отображении на дисплее, и/или е) освещённость или как минимум один из параметров освещённости указанного человека и/или часть указанного человека при его отображении на дисплее и/или ж) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека при его отображении на дисплее.
2.9. В виртуальной жестикуляции отображаемого на дисплее человека, произносящего или произнесшего PC 1 или осуществляющего или осуществившего СЖЯ 1, постоянно или периодически или временно могут не учитывать: а) как минимум один параметр тела человека, произносящего или произнесшего PC 1 , и/или б) как минимум один параметр как минимум одной части тела указанного человека и/или в) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или г) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для их расположения на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или д) погодные условия или как минимум один из параметров погодных условий, при которых находится указанный человек и/или часть указанного человека при его отображении на дисплее, и/или е) освещённость или как минимум один из параметров освещённости указанного человека и/или часть указанного человека при его отображении на дисплее и/или ж) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека при его отображении на дисплее.
2.10. Пользователь дисплея и/или пользователь иного как минимум одного электронного устройства, подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или человек, произносящий или произнесший PC 1 или осуществляющий или осуществивший СЖЯ 1 и при этом имеющий доступ как минимум к одному электронному устройству, подключенному к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, может или могут задавать: а) как минимум один параметр отображения на дисплее указанной виртуальной жестикуляции и/или указанной виртуальной мимики и/или как минимум одного указанного виртуального образа и/или б) начало и/или окончание отображения на дисплее указанной виртуальной жестикуляции и/или указанной виртуальной мимики и/или как минимум одного указанного виртуального образа и/или в) как минимум один параметр как минимум одного отображения на дисплее указанного человека и/или как минимум одного указанного виртуального образа и/или г) место или места отображений на дисплее указанного человека и/или д) место отображения на дисплее как минимум одного указанного виртуального образа и/или е) на какой жестовый язык осуществить перевод СЖЯ 1.
2.11. На дисплее могут устанавливать обозначение, указывающее на каком языке произносят PC, и/или на каком жестовом языке осуществляют СЖЯ 1 и/или СЖЯ 2, и/или в виде текста могут отображать на дисплее PC.
2.12. Пользователь дисплея и/или программное обеспечение электронного устройства, к которому подключен дисплей, и/или пользователь иного как минимум одного электронного устройства, подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или программное обеспечение электронного устройства подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или человек, произносящий или произнесший PC 1 или осуществляющий или осуществивший СЖЯ 1 и при этом имеющий доступ как минимум к одному электронному устройству, подключенному к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, может или могут задавать начало и/или окончание отображения на дисплее текста PC и/или как минимум один параметр отображения на дисплее текста указанного PC.
2.13. Если изображение отображаемого на дисплее человека является трехмерным (3D), то виртуальная мимика и/или виртуальная жестикуляция отображаемого на дисплее человека может быть также трехмерной (3D).
Указанный технический результат по третьему изобретению достигается следующим образом: 3.1. Способ взаимодействия виртуальной мимики и/или виртуальной жестикуляции с сообщением, отличающийся тем, что при произношении речевого сообщения (далее по тексту - PC), которое является переводом на речевой язык сообщения на жестовом языке, осуществляемом или осуществленном отображаемым на дисплее человеком (далее по тексту указанное сообщение на жестовом языке обозначают как СЖЯ), вместо отображения на дисплее: а) части лица или мимики указанного человека или б) части лица или мимики указанного человека, а также как минимум одного предмета и/или как минимум одной части как минимум одного предмета, из числа предметов полностью или частично расположенных на лице указанного человека, на дисплее отображают виртуальную мимику, которая соответствует мимике произношения PC.
3.2. При отображении на дисплее человека, осуществляющего или осуществившего СЖЯ вместо отображения на дисплее как минимум одной части тела указанного человека на дисплее могут отображать виртуальную жестикуляцию, при этом, к указанной части тела относят как минимум одну руку и/или как минимум одну часть как минимум одной руки указанного человека и/или как минимум одну иную часть тела указанного человека.
3.3. Речевой язык, на котором осуществляют PC, и жестовый язык, на котором осуществляют СЖЯ, могут быть распространены на одной и той же территории.
3.4. Речевой язык, на котором осуществляют PC, и жестовый язык, на котором осуществляют СЖЯ, могут быть распространены на отличных друг от друга территориях.
3.5. PC может являться синхронным переводом СЖЯ или PC могут произносить после осуществления СЖЯ или PC могут произносить частично во время осуществления СЖЯ и частично после осуществления СЖЯ.
3.6. Во время произношения PC: а) на дисплее дополнительно могут отображать человека, осуществляющего или осуществившего СЖЯ, и/или б) на ином дисплее дополнительно могут отображать человека, осуществляющего или осуществившего СЖЯ, при этом, к указанному дополнительному отображению человека на дисплее и/или к указанному отображению человека на ином дисплее не применяют указанную виртуальную мимику и/или указанную виртуальную жестикуляцию.
3.7. В виртуальной мимике отображаемого на дисплее человека, осуществляющего или осуществившего СЖЯ, постоянно или периодически или временно могут учитывать: а) как минимум один параметр лица указанного человека и/или б) как минимум один параметр мимики лица указанного человека и/или в) погодные условия или как минимум один из параметров погодных условий, при которых находится лицо или часть лица указанного человека при его отображении на дисплее, и/или г) освещённость или как минимум один из параметров освещённости лица или части лица указанного человека при его отображении на дисплее и/или д) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека при его отображении на дисплее, и/или е) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или ж) как минимум один параметр как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или з) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица, и/или и) как минимум один параметр как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица.
3.8. В виртуальной мимике отображаемого на дисплее человека, осуществляющего или осуществившего СЖЯ, постоянно или периодически или временно могут не учитывать: а) как минимум один параметр лица указанного человека и/или б) как минимум один параметр мимики лица указанного человека и/или в) погодные условия или как минимум один из параметров погодных условий, при которых находится лицо или часть лица указанного человека при его отображении на дисплее, и/или г) освещённость или как минимум один из параметров освещённости лица или части лица указанного человека при его отображении на дисплее и/или д) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека при его отображении на дисплее, и/или е) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или ж) как минимум один параметр как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или з) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица, и/или и) как минимум один параметр как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица.
3.9. В виртуальной жестикуляции отображаемого на дисплее человека, осуществляющего или осуществившего СЖЯ, постоянно или периодически или временно могут учитывать: а) как минимум один параметр тела и/или б) как минимум один параметр как минимум одной части тела указанного человека и/или в) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или г) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для их расположения на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или д) погодные условия или как минимум один из параметров погодных условий, при которых находится указанный человек и/или часть указанного человека при его отображении на дисплее, и/или е) освещённость или как минимум один из параметров освещённости указанного человека и/или части указанного человека при его отображении на дисплее и/или ж) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека при его отображении на дисплее.
3.10. В виртуальной жестикуляции отображаемого на дисплее человека, осуществляющего или осуществившего СЖЯ, постоянно или периодически или временно могут не учитывать: а) как минимум один параметр тела указанного человека и/или б) как минимум один параметр как минимум одной части тела указанного человека и/или в) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или г) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для их расположения на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или д) погодные условия или как минимум один из параметров погодных условий, при которых находится указанный человек и/или часть указанного человека при его отображении на дисплее, и/или е) освещённость или как минимум один из параметров освещённости указанного человека и/или часть указанного человека при его отображении на дисплее и/или ж) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека при его отображении на дисплее.
3.11. На дисплее могут устанавливать обозначение, указывающее на каком языке произносят PC, и/или на каком жестовом языке осуществляют СЖЯ и/или в виде текста могут отображать PC.
3.12. Пользователь дисплея и/или программное обеспечение электронного устройства, к которому подключен дисплей, и/или пользователь иного как минимум одного электронного устройства, подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или программное обеспечение электронного устройства подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или человек, осуществляющий или осуществивший СЖЯ и при этом имеющий доступ как минимум к одному электронному устройству, подключенному к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, может или могут задавать: а) параметр или параметры взаимосвязи между PC и СЖЯ и/или б) тембр голоса и/или иные известные параметры голоса PC и/или в) начало и/или окончание PC и/или г) как минимум один параметр отображения виртуальной мимики указанного человека на дисплее и/или д) начало и/или окончание отображения на дисплее указанной виртуальной мимики и/или е) как минимум один параметр отображения на дисплее виртуальной жестикуляции указанного человека и/или ж) начало и/или окончание отображения на дисплее указанной виртуальной жестикуляции и/или и) место отображения на дисплее и/или размер отображения на дисплее как минимум одного из отображений указанного человека и/или к) на каком из отображений человека на дисплее применяют виртуальную мимику или одновременно виртуальную мимику и виртуальную жестикуляцию и/или л) как минимум один параметр отображения на дисплее текста PC.
3.13. Как минимум одно из размещенных на дисплее и/или на ином дисплее отображений человека, осуществляющего или осуществившего СЖЯ, могут осуществлять как минимум во время произношения PC. 3.14. Если изображение отображаемого на дисплее человека является трехмерным (3D), то виртуальная мимика и/или виртуальная жестикуляция отображаемого на дисплее человека может быть также трехмерной (3D).
Указанный технический результат по четвертому изобретению достигается следующим образом:
4.1. Способ взаимодействия виртуальной мимики и/или виртуальной жестикуляции с сообщением, отличающийся тем, что: а) при озвучивании текстового сообщения (далее по тексту - ТС) используют отображаемый на дисплее как минимум один реальный образ человека или как минимум один реальный образ человека и как минимум один виртуальный образ человека или б) при озвучивании ТС на языке отличном от языка указанного ТС используют отображаемый на дисплее как минимум один реальный образ человека и/или как минимум один виртуальный образ человека и/или как минимум один иной реальный или виртуальный образ; при этом, по подпунктам а) и б) вместо отображения на дисплее: 1) части лица или мимики указанного человека или 2) части лица или мимики указанного человека и как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, отображают виртуальную мимику, которая соответствует мимике произношения речевого сообщения (далее по тексту - PC), посредством которого происходит указанное озвучивание.
4.2. В виртуальной мимике отображаемого на дисплее человека постоянно или периодически или временно могут учитывать: а) как минимум один параметр лица указанного человека и/или б) как минимум один параметр мимики лица указанного человека и/или в) погодные условия или как минимум один из параметров погодных условий, при которых находится лицо или часть лица указанного человека при его отображении на дисплее, и/или г) освещённость или как минимум один из параметров освещённости лица или части лица указанного человека при его отображении на дисплее и/или д) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека при его отображении на дисплее, и/или е) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или ж) как минимум один параметр как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или з) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица, и/или и) как минимум один параметр как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица.
4.3. В виртуальной мимике отображаемого на дисплее человека постоянно или периодически или временно могут не учитывать: а) как минимум один параметр лица указанного человека и/или б) как минимум один параметр мимики лица указанного человека и/или в) погодные условия или как минимум один из параметров погодных условий, при которых находится лицо или часть лица указанного человека при его отображении на дисплее, и/или г) освещённость или как минимум один из параметров освещённости лица или части лица указанного человека при его отображении на дисплее и/или д) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека при его отображении на дисплее, и/или е) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или ж) как минимум один параметр как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или з) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица, и/или и) как минимум один параметр как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица.
4.4. Во время произношения PC вместо отображения на дисплее как минимум одной части тела указанного человека на дисплее могут отображать виртуальную жестикуляцию, при этом, к указанной части тела относят как минимум одну руку и/или как минимум одну часть как минимум одной руки указанного человека и/или как минимум одну иную часть тела указанного человека.
4.5. В виртуальной жестикуляции отображаемого на дисплее человека постоянно или периодически или временно могут учитывать: а) как минимум один параметр тела и/или б) как минимум один параметр как минимум одной части тела указанного человека и/или в) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или г) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для их расположения на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или д) погодные условия или как минимум один из параметров погодных условий, при которых находится указанный человек и/или часть указанного человека при его отображении на дисплее, и/или е) освещённость или как минимум один из параметров освещённости указанного человека и/или часть указанного человека при его отображении на дисплее и/или ж) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека при его отображении на дисплее.
4.6. В виртуальной жестикуляции отображаемого на дисплее человека постоянно или периодически или временно могут не учитывать: а) как минимум один параметр тела указанного человека и/или б) как минимум один параметр как минимум одной части тела указанного человека и/или в) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или г) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для их расположения на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или д) погодные условия или как минимум один из параметров погодных условий, при которых находится указанный человек и/или часть указанного человека при его отображении на дисплее, и/или е) освещённость или как минимум один из параметров освещённости указанного человека и/или часть указанного человека при его отображении на дисплее и/или ж) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека при его отображении на дисплее.
4.7. При озвучивании ТС посредством произношения PC и/или при озвучивании перевода на иной речевой язык ТС посредством произношения PC на ином речевом языке в PC могут учитывать тембр голоса и/или иные известные параметры голоса отображаемого на дисплее указанного человека.
4.8. При озвучивании ТС посредством произношения PC и/или при озвучивании перевода на иной речевой язык ТС посредством произношения PC на ином речевом языке в PC могут учитывать тембр голоса и/или иные известные параметры голоса, не принадлежащего отображаемому на дисплее человеку.
4.9. Пользователь дисплея и/или программное обеспечение электронного устройства, к которому подключен дисплей, и/или пользователь иного как минимум одного электронного устройства, подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или программное обеспечение электронного устройства, подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или отображаемый на дисплее человек и имеющий доступ как минимум к одному электронному устройству, подключенному к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, может или могут задавать: а) язык, на который переводят ТС, и/или б) тембр голоса и/или иные известные параметры голоса человека при произношении PC и/или в) начало и/или окончание перевода ТС и/или г) как минимум один параметр отображения на дисплее виртуальной мимики указанного человека и/или д) начало и/или окончание отображения на дисплее виртуальной мимики указанного человека и/или е) как минимум один параметр отображения на дисплее виртуальной жестикуляции указанного человека и/или ж) начало и/или окончание отображения на дисплее виртуальной жестикуляции указанного человека и/или з) как минимум один параметр отображения на дисплее указанного человека.
4.10. На дисплее могут устанавливать обозначение, указывающее язык ТС и/или язык, на который осуществляют перевод ТС.
4.11. Если изображение отображаемого на дисплее человека является трехмерным (3D), то виртуальная мимика и/или виртуальная жестикуляция отображаемого на дисплее человека может быть также трехмерной (3D).
Указанный технический результат по пятому изобретению достигается следующим образом:
5.1. Способ взаимодействия виртуальной мимики и/или виртуальной жестикуляции с сообщением, отличающийся тем, что при полной или частичной замене речевого сообщения (далее по тексту - PC 1), произносимого или произнесенного отображаемым на дисплее человеком или иным человеком, на полностью или частично иное речевое сообщение или на полностью или частично одинаковое по тексту речевое сообщение (далее по тексту - PC 2), вместо отображения на дисплее: а) части лица или мимики указанного человека или б) части лица или мимики указанного человека, а также как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, отображают виртуальную мимику, которая соответствует мимике при произношении PC 2.
5.2. По сравнению с PC 1 PC 2: а) могут произносить полностью или частично с иной скоростью и/или с иной громкостью и/или с иной протяженностью слов и/или с иной эмоциональностью и/или с иной дикцией и/или с иной интонацией и/или с иным акцентом и/или с использованием иных известных особенностей произношения речевых сообщений и/или б) полностью или частично могут озвучивать в режиме песни.
5.3. PC 2 могут произносить после завершения произношения PC 1 или PC 2 могут произносить частично во время произношения PC 1 и частично после завершения произношения PC 1 или PC 2 могут произносить во время произношения PC 1.
5.4. В виртуальной мимике отображаемого на дисплее человека, постоянно или периодически или временно могут учитывать: а) как минимум один параметр лица указанного человека и/или б) как минимум один параметр мимики лица указанного человека и/или в) погодные условия или как минимум один из параметров погодных условий, при которых находится лицо или часть лица указанного человека при его отображении на дисплее, и/или г) освещённость или как минимум один из параметров освещённости лица или части лица указанного человека при его отображении на дисплее и/или д) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека при его отображении на дисплее, и/или е) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или ж) как минимум один параметр как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или з) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица, и/или и) как минимум один параметр как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица.
5.5. В виртуальной мимике отображаемого на дисплее человека постоянно или периодически или временно могут не учитывать: а) как минимум один параметр лица указанного человека и/или б) как минимум один параметр мимики лица указанного человека и/или в) погодные условия или как минимум один из параметров погодных условий, при которых находится лицо или часть лица указанного человека при его отображении на дисплее, и/или г) освещённость или как минимум один из параметров освещённости лица или части лица указанного человека при его отображении на дисплее и/или д) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека при его отображении на дисплее, и/или е) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или ж) как минимум один параметр как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или з) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица, и/или и) как минимум один параметр как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица.
5.6. Во время произношения PC 1 или PC 2: а) на дисплее дополнительно могут отображать человека, произносящего или произнесшего PC 1, и/или б) на ином дисплее дополнительно могут отображать человека, произносящего или произнесшего PC 1, при этом, к указанному дополнительному отображению человека на дисплее и/или к указанному отображению человека на ином дисплее не применяют указанную виртуальную мимику.
5.7. Как минимум одно из отображений человека, произносящего или произнесшего PC 1, размещенных на дисплее и/или на ином дисплее, могут осуществлять как минимум во время произношения PC 2.
5.8. Во время произношения PC 2 вместо отображения на дисплее как минимум одной части тела указанного человека на дисплее могут отображать виртуальную жестикуляцию, при этом, к указанной части тела относят как минимум одну руку и/или как минимум одну часть как минимум одной руки указанного человека и/или как минимум одну иную часть тела указанного человека.
5.9. В виртуальной жестикуляции отображаемого на дисплее человека постоянно или периодически или временно могут учитывать: а) как минимум один параметр тела и/или б) как минимум один параметр как минимум одной части тела указанного человека и/или в) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или г) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для их расположения на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или д) погодные условия или как минимум один из параметров погодных условий, при которых находится указанный человек и/или часть указанного человека при его отображении на дисплее, и/или е) освещённость или как минимум один из параметров освещённости указанного человека и/или часть указанного человека при его отображении на дисплее и/или ж) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека при его отображении на дисплее.
5.10. В виртуальной жестикуляции отображаемого на дисплее человека постоянно или периодически или временно могут не учитывать: а) как минимум один параметр тела указанного человека и/или б) как минимум один параметр как минимум одной части тела указанного человека и/или в) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или г) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для их расположения на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или д) погодные условия или как минимум один из параметров погодных условий, при которых находится указанный человек и/или часть указанного человека при его отображении на дисплее, и/или е) освещённость или как минимум один из параметров освещённости указанного человека и/или часть указанного человека при его отображении на дисплее и/или ж) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека при его отображении на дисплее.
5.11. Пользователь дисплея и/или программное обеспечение электронного устройства, к которому подключен дисплей, и/или пользователь иного как минимум одного электронного устройства, подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или программное обеспечение электронного устройства подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или отображаемый на дисплее человек и при этом имеющий доступ как минимум к одному электронному устройству, подключенному к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, может или могут задавать: а) тембр голоса и/или иные известные параметры голоса, которые используют при произношении PC 2, и/или б) начало и/или окончание произношения PC 2 и/или в) как минимум один параметр отображения на дисплее виртуальной мимики указанного человека и/или г) начало и/или окончание отображения на дисплее виртуальной мимики указанного человека и/или д) как минимум один параметр отображения на дисплее виртуальной жестикуляции указанного человека и/или е) начало и/или окончание отображения на дисплее виртуальной жестикуляции указанного человека и/или ж) как минимум один параметр как минимум одного отображения на дисплее указанного человека и/или з) место и/или размер отображения или места и/или размеры отображений на дисплее указанного человека и/или и) на каком из отображений указанного человека на дисплее применяют виртуальную мимику и/или виртуальную жестикуляцию и/или к) начало и/или окончание произношения PC 1 и/или и) как минимум один отображаемый на дисплее жест или перечень жестов указанного человека, которые заменяют виртуальной жестикуляцией .
5.12. На дисплее могут устанавливать обозначение, указывающее, на каком речевом языке произносят PC 2 и/или произносят или произнесли PC 1 и/или в виде текста могут отображать PC 1 и/или PC 2.
5.13. Пользователь дисплея и/или программное обеспечение электронного устройства, к которому подключен дисплей, и/или пользователь иного как минимум одного электронного устройства, подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или программное обеспечение электронного устройства подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или отображенный на дисплее человек и при этом имеющий доступ как минимум к одному электронному устройству, подключенному к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, может или могут задавать: а) начало и/или окончание отображения на дисплее текста PC 1 и/или PC 2, и/или б) как минимум один параметр отображения на дисплее текста речевого сообщения PC 1 и/или PC 2.
5.14. Если изображение отображаемого на дисплее человека является трехмерным (3D), то виртуальная мимика и/или виртуальная жестикуляция отображаемого на дисплее человека может быть также трехмерной (3D).
Осуществление изобретения
Предлагаемая группа из пяти изобретений технически осуществима, поскольку из уровня техники известны технические средства, программное обеспечение, компоненты и материалы, которые позволяют виртуальную мимику и/или виртуальную жестикуляцию применять таким образом, чтобы: а) при произношении на другом речевом языке речевого сообщения отображаемого на дисплее человека используемая при этом виртуальная мимика соответствовала речевому сообщению, произносимому на другом языке; б) при переводе речевого сообщения отображаемого на дисплее человека на жестовый язык используемая при этом виртуальная мимика и/или жестикуляция соответствовала или соответствовали сообщению, осуществляемому на жестовом языке; в) при переводе сообщения, осуществляемом на жестовом языке, на другой жестовый язык, которое (сообщение) осуществляет отображаемый на дисплее человек, причем используемая при этом виртуальная мимика и/или жестикуляция соответствует или соответствуют сообщению, осуществляемому на другом жестовом языке; г) при переводе сообщения на жестовом языке, которое осуществляет отображаемый на дисплее человек, на речевой язык, используемая при этом виртуальная мимика и/или жестикуляция соответствовала или соответствовали сообщению, произносимому на речевом языке; д) при озвучивании текстового сообщения или при озвучивании перевода на другой речевой язык текстового сообщения, при котором (озвучивании) используют отображаемый на дисплее как минимум один реальный образ человека или как минимум один реальный образ человека и как минимум один виртуальный образ человека или как минимум один реальный образ человека и/или как минимум один виртуальный образ человека и/или как минимум один иной реальный или виртуальный образ, используемая при этом виртуальная мимика соответствовала произношению речевого сообщения, посредством которого происходит указанное озвучивание; е) при полной или частичной замене речевого сообщения, произносимого или произнесенного отображаемым на дисплее человеком или иным человеком, на полностью или частично иное речевое сообщение или на полностью или частично одинаковое по тексту речевое сообщение, используемая при этом виртуальная мимика соответствовала полностью или частично иному речевому сообщению.
Промышленная применимость
Предлагаемое техническое решение улучшает качество общения между людьми, говорящих на разных языках или использующих разные языки, при использовании ими технических средств видеосвязи.

Claims

Формула изобретения
1. Способ взаимодействия виртуальной мимики и/или виртуальной жестикуляции с сообщением, отличающийся тем, что при произношении речевого сообщения (далее по тексту - PC 2), являющегося переводом на другой речевой язык речевого сообщения (далее по тексту - PC 1) отображаемого на дисплее человека, вместо отображения на дисплее: а) части лица или мимики лица указанного человека или б) части лица или мимики лица указанного человека и как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, отображают виртуальную мимику, которая соответствует мимике произношения PC 2.
2. Способ по п.1, отличающийся тем, что PC 2: а) является синхронным переводом PC 1 или б) произносят после завершения PC 1 или в) произносят частично во время произношения PC 1 и частично после произношения PC 1.
3. Способ по п.1, отличающийся тем, что в виртуальной мимике отображаемого на дисплее человека, произносящего или произнесшего PC 1, постоянно или периодически или временно учитывают: а) как минимум один параметр лица человека, произносящего или произнесшего PC 1, и/или б) как минимум один параметр мимики лица указанного человека и/или в) погодные условия или как минимум один из параметров погодных условий, при которых находится лицо или часть лица указанного человека при его отображении на дисплее, и/или г) освещённость или как минимум один из параметров освещённости лица или части лица указанного человека при его отображении на дисплее и/или д) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека при его отображении на дисплее, и/или е) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или ж) как минимум один параметр как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или з) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица, и/или и) как минимум один параметр как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица.
4. Способ по п.1 или 3, отличающийся тем, что в виртуальной мимике отображаемого на дисплее человека, произносящего или произнесшего PC 1 постоянно или периодически или временно не учитывают: а) как минимум один параметр лица человека, произносящего или произнесшего PC 1, и/или б) как минимум один параметр мимики лица указанного человека и/или в) погодных условий или как минимум одного параметра, относящегося к погодным условиям, при которых находится лицо или часть лица указанного человека при его отображении на дисплее и/или г) освещённости или как минимум одного параметра освещённости лица или части лица указанного человека при его отображении на дисплее и/или д) освещённости или как минимум одного параметра освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека при его отображении на дисплее, и/или е) как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или ж) как минимум одного параметра как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или з) как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица, при этом, указанные предметы и/или указанные части предметов учитывают в указанной виртуальной мимике.
5. Способ по п.1, отличающийся тем, что во время произношения PC 1 или PC 2: а) на дисплее дополнительно отображают человека, произносящего или произнесшего PC 1, и/или б) на ином дисплее дополнительно отображают человека, произносящего или произнесшего PC 1, при этом, к указанному дополнительному отображению человека на дисплее и/или к указанному отображению человека на ином дисплее не применяют указанную виртуальную мимику.
6. Способ по п. 5, отличающийся тем, что как минимум одно из отображений человека, произносящего или произнесшего PC 1, размещенных на дисплее и/или на ином дисплее, осуществляют как минимум во время произношения PC 2.
7. Способ по п.1, отличающийся тем, что во время произношения PC 2 вместо отображения на дисплее как минимум одной части тела указанного человека, произносящего или произнёсшего PC 1, на дисплее отображают виртуальную жестикуляцию, при этом, к указанной части тела относят как минимум одну руку и/или как минимум одну часть как минимум одной руки указанного человека и/или как минимум одну иную часть тела указанного человека.
8. Способ по п. 7, отличающийся тем, что в виртуальной жестикуляции отображаемого на дисплее человека, произносящего или произнесшего PC 1, постоянно или периодически или временно учитывают: а) как минимум один параметр тела указанного человека и/или б) как минимум один параметр как минимум одной части тела указанного человека и/или в) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или г) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для их расположения на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или д) погодные условия или как минимум один из параметров погодных условий, при Которых находится указанный человек и/или часть указанного человека при его отображении на дисплее, и/или е) освещённость или как минимум один из параметров освещённости указанного человека и/или часть указанного человека при его отображении на дисплее и/или ж) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека при его отображении на дисплее.
9. Способ по п. 7 или 8, отличающийся тем, что в виртуальной жестикуляции отображаемого на дисплее человека, произносящего или произнесшего PC 1 , постоянно или периодически или временно не учитывают: а) как минимум один параметр тела человека, произносящего или произнесшего PC 1 , и/или б) как минимум один параметр как минимум одной части тела указанного человека и/или в) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или г) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для их расположения на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или д) погодные условия или как минимум один из параметров погодных условий, при которых находится указанный человек и/или часть указанного человека при его отображении на дисплее и/или е) освещённость или как минимум один из параметров освещённости указанного человека и/или часть указанного человека при его отображении на дисплее и/или ж) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека при его отображении на дисплее.
10. Способ по п.1 или 5 или 7, отличающийся тем, что пользователь дисплея и/или программное обеспечение электронного устройства, к которому подключен дисплей, и/или пользователь иного как минимум одного электронного устройства, подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или программное обеспечение электронного устройства подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или человек, произносящий или произнёсший PC 1 и при этом имеющий доступ как минимум к одному электронному устройству, подключенному к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, задает или задают: а) язык PC 2 и/или б) тембр голоса и/или иные известные параметры голоса, которые используют при произношении указанным человеком PC 2, и/или в) начало и/или окончание произношения PC 2 указанным человеком и/или г) как минимум один параметр отображения на дисплее виртуальной мимики указанного человека и/или д) начало и/или окончание отображения на дисплее виртуальной мимики указанного человека и/или е) как минимум один параметр отображения на дисплее виртуальной жестикуляции указанного человека и/или ж) начало и/или окончание отображения на дисплее виртуальной жестикуляции указанного человека и/или з) как минимум один параметр как минимум одного отображения на дисплее указанного человека и/или и) место и/или размер отображения или места и/или размеры отображений на дисплее указанного человека и/или к) на каком из отображений указанного человека на дисплее применяют виртуальную мимику и/или виртуальную жестикуляцию и/или л) начало и/или окончание произношения PC 1, если указанный человек произносит PC 1 во время его отображения на дисплее, и/или м) как минимум один отображаемый на дисплее жест или перечень жестов указанного человека, которые заменяют виртуальной жестикуляцией.
11. Способ по п.1, отличающийся тем, что на дисплее: а) устанавливают обозначение, указывающее на каком речевом языке произносят PC 2, и/или произносят или произнесли PC 1, и/или б) в виде текста отображают PC 1 и/или PC 2.
12. Способ по п. 11, отличающийся тем, что пользователь дисплея и/или программное обеспечение электронного устройства, к которому подключен дисплей, и/или пользователь иного как минимум одного электронного устройства, подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или программное обеспечение электронного устройства подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или человек, произносящий или произнёсший PC 1 и при этом имеющий доступ как минимум к одному электронному устройству, подключенному к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, задает или задают: а) начало и/или окончание отображения на дисплее текста PC 1 и/или PC 2, и/или б) как минимум один параметр отображения на дисплее текста речевого сообщения PC 1 и/или PC 2.
13. Способ по п. 1 или 7, отличающийся тем, что если изображение отображаемого на дисплее человека является трехмерным (3D), то виртуальная мимика и/или виртуальная жестикуляция отображаемого на дисплее человека также является трехмерной (3D).
14. Способ взаимодействия виртуальной мимики и/или виртуальной жестикуляции с сообщением, отличающийся тем, что при осуществлении перевода речевого сообщения (далее по тексту - PC) или сообщения на жестовом языке (далее по тексту - СЖЯ 1) отображаемого на дисплее человека на жестовый язык (далее по тексту сообщение на жестовом языке, являющееся переводом PC или СЖЯ 1, обозначают как СЖЯ 2), причем СЖЯ 1 отличен от СЖЯ 2, используют: 1) виртуальную жестикуляцию и виртуальную мимику, при этом: а) виртуальную жестикуляцию отображают на указанном дисплее вместо отображения на дисплее как минимум одной руки и/или как минимум одной части как минимум одной руки и/или как минимум одной части тела указанного человека и/или как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, б) виртуальную мимику отображают на указанном дисплее вместо отображения на дисплее части лица или мимики указанного человека или вместо отображения на дисплее части лица или мимики указанного человека и как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов полностью или частично расположенных на лице указанного человека; при этом, указанные виртуальная жестикуляция и виртуальная мимика, примененные к указанному человеку, соответствуют жестикуляции и мимике СЖЯ 2, и/или 2) отображаемый на дисплее как минимум один виртуальный образ, включающий виртуальную жестикуляцию и виртуальную мимику, которые соответствуют жестикуляции и мимике СЖЯ 2, и которые используют применительно к указанному виртуальному образу.
15. Способ по п.14, отличающийся тем, что речевой язык, на котором произносят PC, и жестовый язык, на котором осуществляют СЖЯ 2, распространены на одной и той же территории.
16. Способ по п.15, отличающийся тем, что речевой язык, на котором осуществляют PC, и жестовый язык, на котором осуществляют СЖЯ 2, распространены на отличных друг от друга территориях.
17. Способ по п.14, отличающийся тем, что СЖЯ 2: а) является синхронным переводом PC или б) является синхронным переводом СЖЯ 1 или в) осуществляют после произношения PC или г) осуществляют после осуществления СЖЯ 1 или д) осуществляют частично во время произношения PC и частично после произношения PC или е) осуществляют частично во время осуществления СЖЯ 1 и частично после осуществления СЖЯ 1.
18. Способ по п.14, отличающийся тем, что во время произношения PC или осуществления СЖЯ 1 или СЖЯ 2: а) на дисплее дополнительно отображают человека, произносящего или произнесшего PC 1, или осуществляющего или осуществившего СЖЯ 1 , и/или б) на ином дисплее дополнительно отображают человека, произносящего или произнесшего PC 1 , или осуществляющего или осуществившего СЖЯ 1 , при этом, к указанному дополнительному отображению человека на дисплее и/или к указанному отображению человека на ином дисплее не применяют указанную виртуальную мимику и/или указанную виртуальную жестикуляцию.
19. Способ по п.14, отличающийся тем, что в виртуальной мимике отображаемого на дисплее человека, произносящего или произнесшего PC 1 или осуществляющего или осуществившего СЖЯ 1 , постоянно или периодически или временно учитывают: а) как минимум один параметр лица указанного человека и/или б) как минимум один параметр мимики лица указанного человека и/или в) погодные условия или как минимум один из параметров погодных условий, при которых находится лицо или часть лица указанного человека при его отображении на дисплее, и/или г) освещённость или как минимум один из параметров освещённости лица или части лица указанного человека при его отображении на дисплее и/или д) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека при его отображении на дисплее, и/или е) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или ж) как минимум один параметр как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или з) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица, и/или и) как минимум один параметр как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица.
20. Способ по п.14 или 19, отличающийся тем, что в виртуальной мимике отображаемого на дисплее человека, произносящего или произнесшего PC 1 или осуществляющего или осуществившего СЖЯ 1, постоянно или периодически или временно не учитывают: а) как минимум один параметр лица указанного человека и/или б) как минимум один параметр мимики лица указанного человека и/или в) погодные условия или как минимум один из параметров погодных условий, при которых находится лицо или часть лица указанного человека при его отображении на дисплее, и/или г) освещённость или как минимум один из параметров освещённости лица или части лица указанного человека при его отображении на дисплее и/или д) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека при его отображении на дисплее, и/или е) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или ж) как минимум один параметр как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или з) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица, и/или и) как минимум один параметр как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица.
21. Способ по п. 14, отличающийся тем, что в виртуальной жестикуляции отображаемого на дисплее человека, произносящего или произнесшего PC 1 или осуществляющего или осуществившего СЖЯ 1, постоянно или периодически или временно учитывают: а) как минимум один параметр тела указанного человека и/или б) как минимум один параметр как минимум одной части тела указанного человека и/или в) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или г) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для их расположения на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или д) погодные условия или как минимум один из параметров погодных условий, при которых находится указанный человек и/или часть указанного человека при его отображении на дисплее, и/или е) освещённость или как минимум один из параметров освещённости указанного человека и/или часть указанного человека при его отображении на дисплее и/или ж) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека при его отображении на дисплее.
22. Способ по п. 14 или 21, отличающийся тем, что в виртуальной жестикуляции отображаемого на дисплее человека, произносящего или произнесшего PC 1 или осуществляющего или осуществившего СЖЯ 1, постоянно или периодически или временно не учитывают: а) как минимум один параметр тела человека, произносящего или произнесшего PC 1, и/или б) как минимум один параметр как минимум одной части тела указанного человека и/или в) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или г) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для их расположения на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или д) погодные условия или как минимум один из параметров погодных условий, при которых находится указанный человек и/или часть указанного человека при его отображении на дисплее, и/или е) освещённость или как минимум один из параметров освещённости указанного человека и/или часть указанного человека при его отображении на дисплее и/или ж) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека при его отображении на дисплее.
23. Способ по п. 14, отличающийся тем, что пользователь дисплея и/или пользователь иного как минимум одного электронного устройства, подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или человек, произносящий или произнесший PC 1 или осуществляющий или осуществивший СЖЯ 1 и при этом имеющий доступ как минимум к одному электронному устройству, подключенному к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, задаёт или задают: а) как минимум один параметр отображения на дисплее указанной виртуальной жестикуляции и/или указанной виртуальной мимики и/или как минимум одного указанного виртуального образа и/или б) начало и/или окончание отображения на дисплее указанной виртуальной жестикуляции и/или указанной виртуальной мимики и/или как минимум одного указанного виртуального образа и/или в) как минимум один параметр как минимум одного отображения на дисплее указанного человека и/или как минимум одного указанного виртуального образа и/или г) место или места отображений на дисплее указанного человека и/или д) место отображения на дисплее как минимум одного указанного виртуального образа и/или е) на какой жестовый язык осуществить перевод СЖЯ 1.
24. Способ по п.14, отличающийся тем, что на дисплее устанавливают обозначение, указывающее на каком языке произносят PC, и/или на каком жестовом языке осуществляют СЖЯ 1 и/или СЖЯ 2, и/или в виде текста отображают на дисплее PC.
25. Способ по п.24, отличающийся тем, что пользователь дисплея и/или программное обеспечение электронного устройства, к которому подключен дисплей, и/или пользователь иного как минимум одного электронного устройства, подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или программное обеспечение электронного устройства подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или человек, произносящий или произнесший PC 1 или осуществляющий или осуществивший СЖЯ 1 и при этом имеющий доступ как минимум к одному электронному устройству, подключенному к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, задает или задают начало и/или окончание отображения на дисплее текста PC и/или как минимум один параметр отображения на дисплее текста указанного PC.
26. Способ по п. 14, отличающийся тем, что если изображение отображаемого на дисплее человека является трехмерным (3D), то виртуальная мимика и/или виртуальная жестикуляция отображаемого на дисплее человека также является трехмерной (3D).
27. Способ взаимодействия виртуальной мимики и/или виртуальной жестикуляции с сообщением, отличающийся тем, что при произношении речевого сообщения (далее по тексту - PC), которое является переводом на речевой язык сообщения на жестовом языке, осуществляемом или осуществленном отображаемым на дисплее человеком (далее по тексту указанное сообщение на жестовом языке обозначают как СЖЯ), вместо отображения на дисплее: а) части лица или мимики указанного человека или б) части лица или мимики указанного человека, а также как минимум одного предмета и/или как минимум одной части как минимум одного предмета, из числа предметов полностью или частично расположенных на лице указанного человека, на дисплее отображают виртуальную мимику, которая соответствует мимике произношения PC.
28. Способ по п. 27, отличающийся тем, что при отображении на дисплее человека, осуществляющего или осуществившего СЖЯ вместо отображения на дисплее как минимум одной части тела указанного человека на дисплее отображают виртуальную жестикуляцию, при этом, к указанной части тела относят как минимум одну руку и/или как минимум одну часть как минимум одной руки указанного человека и/или как минимум одну иную часть тела указанного человека.
29. Способ по п.27, отличающийся тем, что речевой язык, на котором осуществляют PC, и жестовый язык, на котором осуществляют СЖЯ, распространены на одной и той же территории.
30. Способ по п.29, отличающийся тем, что речевой язык, на котором осуществляют PC, и жестовый язык, на котором осуществляют СЖЯ, распространены на отличных друг от друга территориях.
31. Способ по п.27, отличающийся тем, что PC: а) является синхронным переводом СЖЯ или б) произносят после осуществления СЖЯ или в) произносят частично во время осуществления СЖЯ и частично произносят после осуществления СЖЯ.
32. Способ по п.27 или 28, отличающийся тем, что во время произношения PC: а) на дисплее дополнительно отображают человека, осуществляющего или осуществившего СЖЯ, и/или б) на ином дисплее дополнительно отображают человека, осуществляющего или осуществившего СЖЯ, при этом, к указанному дополнительному отображению человека на дисплее и/или к указанному отображению человека на ином дисплее не применяют указанную виртуальную мимику и/или указанную виртуальную жестикуляцию.
33. Способ по п.27, отличающийся тем, что в виртуальной мимике отображаемого на дисплее человека, осуществляющего или осуществившего СЖЯ, постоянно или периодически или временно учитывают: а) как минимум один параметр лица указанного человека и/или б) как минимум один параметр мимики лица указанного человека и/или в) погодные условия или как минимум один из параметров погодных условий, при которых находится лицо или часть лица указанного человека при его отображении на дисплее, и/или г) освещённость или как минимум один из параметров освещённости лица или части лица указанного человека при его отображении на дисплее и/или д) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека при его отображении на дисплее, и/или е) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или ж) как минимум один параметр как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или з) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица, и/или и) как минимум один параметр как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица.
34. Способ по п.27 или 33, отличающийся тем, что в виртуальной мимике отображаемого на дисплее человека, осуществляющего или осуществившего СЖЯ, постоянно или периодически или временно не учитывают: а) как минимум один параметр лица указанного человека и/или б) как минимум один параметр мимики лица указанного человека и/или в) погодные условия или как минимум один из параметров погодных условий, при которых находится лицо или часть лица указанного человека при его отображении на дисплее, и/или г) освещённость или как минимум один из параметров освещённости лица или части лица указанного человека при его отображении на дисплее и/или д) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека при его отображении на дисплее, и/или е) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или ж) как минимум один параметр как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или з) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица, и/или и) как минимум один параметр как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица.
35. Способ по п. 28, отличающийся тем, что в виртуальной жестикуляции отображаемого на дисплее человека, осуществляющего или осуществившего СЖЯ, постоянно или периодически или временно учитывают: а) как минимум один параметр тела и/или б) как минимум один параметр как минимум одной части тела указанного человека и/или в) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или г) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для их расположения на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или д) погодные условия или как минимум один из параметров погодных условий, при которых находится указанный человек и/или часть указанного человека при его отображении на дисплее, и/или е) освещённость или как минимум один из параметров освещённости указанного человека и/или части указанного человека при его отображении на дисплее и/или ж) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека при его отображении на дисплее.
36. Способ по п. 27 или 28 или 35, отличающийся тем, что в виртуальной жестикуляции отображаемого на дисплее человека, осуществляющего или осуществившего СЖЯ, постоянно или периодически или временно не учитывают: а) как минимум один параметр тела указанного человека и/или б) как минимум один параметр как минимум одной части тела указанного человека и/или в) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или г) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для их расположения на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или д) погодные условия или как минимум один из параметров погодных условий, при которых находится указанный человек и/или часть указанного человека при его отображении на дисплее, и/или е) освещённость или как минимум один из параметров освещённости указанного человека и/или часть указанного человека при его отображении на дисплее и/или ж) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека при его отображении на дисплее.
37. Способ по п.27, отличающийся тем, что на дисплее устанавливают обозначение, указывающее на каком языке произносят PC, и/или на каком жестовом языке осуществляют СЖЯ и/или в виде текста отображают PC.
38. Способ по п.27 или 28 или 32, отличающийся тем, что пользователь дисплея и/или программное обеспечение электронного устройства, к которому подключен дисплей, и/или пользователь иного как минимум одного электронного устройства, подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или программное обеспечение электронного устройства подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или человек, осуществляющий или осуществивший СЖЯ и при этом имеющий доступ как минимум к одному электронному устройству, подключенному к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, задает или задают: а) параметр или параметры взаимосвязи между PC и СЖЯ и/или б) тембр голоса и/или иные известные параметры голоса PC и/или в) начало и/или окончание PC и/или г) как минимум один параметр отображения виртуальной мимики указанного человека на дисплее и/или д) начало и/или окончание отображения на дисплее указанной виртуальной мимики и/или е) как минимум один параметр отображения на дисплее виртуальной жестикуляции указанного человека и/или ж) начало и/или окончание отображения на дисплее указанной виртуальной жестикуляции и/или и) место отображения на дисплее и/или размер отображения на дисплее как минимум одного из отображений указанного человека и/или к) на каком из отображений человека на дисплее применяют виртуальную мимику или одновременно виртуальную мимику и виртуальную жестикуляцию и/или л) как минимум один параметр отображения на дисплее текста PC.
39. Способ по п.32, отличающийся тем, что как минимум одно из размещенных на дисплее и/или на ином дисплее отображений человека, осуществляющего или осуществившего СЖ , осуществляют как минимум во время произношения PC.
40. Способ по п. 27 или 28, отличающийся тем, что если изображение отображаемого на дисплее человека является трехмерным (3D), то виртуальная мимика и/или виртуальная жестикуляция отображаемого на дисплее человека также является трехмерной (3D).
41. Способ взаимодействия виртуальной мимики и/или виртуальной жестикуляции с сообщением, отличающийся тем, что: а) при озвучивании текстового сообщения (далее по тексту - ТС) используют отображаемый на дисплее как минимум один реальный образ человека или как минимум один реальный образ человека и как минимум один виртуальный образ человека или б) при озвучивании ТС на языке отличном от языка указанного ТС используют отображаемый на дисплее как минимум один реальный образ человека и/или как минимум один виртуальный образ человека и/или как минимум один иной реальный или виртуальный образ; при этом, по подпунктам а) и б) вместо отображения на дисплее: 1) части лица или мимики указанного человека или 2) части лица или мимики указанного человека и как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, отображают виртуальную мимику, которая соответствует мимике произношения речевого сообщения (далее по тексту - PC), посредством которого происходит указанное озвучивание.
42. Способ по п.41, отличающийся тем, что в виртуальной мимике отображаемого на дисплее человека постоянно или периодически или временно учитывают: а) как минимум один параметр лица указанного человека и/или б) как минимум один параметр мимики лица указанного человека и/или в) погодные условия или как минимум один из параметров погодных условий, при которых находится лицо или часть лица указанного человека при его отображении на дисплее, и/или г) освещённость или как минимум один из параметров освещённости лица или части лица указанного человека при его отображении на дисплее и/или д) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека при его отображении на дисплее, и/или е) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или ж) как минимум один параметр как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или з) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица, и/или и) как минимум один параметр как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица.
43. Способ по п.41 или 42, отличающийся тем, что в виртуальной мимике отображаемого на дисплее человека постоянно или периодически или временно не учитывают: а) как минимум один параметр лица указанного человека и/или б) как минимум один параметр мимики лица указанного человека и/или в) погодные условия или как минимум один из параметров погодных условий, при которых находится лицо или часть лица указанного человека при его отображении на дисплее, и/или г) освещённость или как минимум один из параметров освещённости лица или части лица указанного человека при его отображении на дисплее и/или д) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека при его отображении на дисплее, и/или е) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или ж) как минимум один параметр как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или з) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица, и/или и) как минимум один параметр как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица.
44. Способ по п.41, отличающийся тем, что во время произношения PC вместо отображения на дисплее как минимум одной части тела указанного человека на дисплее отображают виртуальную жестикуляцию, при этом, к указанной части тела относят как минимум одну руку и/или как минимум одну часть как минимум одной руки указанного человека и/или как минимум одну иную часть тела указанного человека.
45. Способ по п. 44, отличающийся тем, что в виртуальной жестикуляции отображаемого на дисплее человека постоянно или периодически или временно учитывают: а) как минимум один параметр тела и/или б) как минимум один параметр как минимум одной части тела указанного человека и/или в) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или г) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для их расположения на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или д) погодные условия или как минимум один из параметров погодных условий, при которых находится указанный человек и/или часть указанного человека при его отображении на дисплее, и/или е) освещённость или как минимум один из параметров освещённости указанного человека и/или часть указанного человека при его отображении на дисплее и/или ж) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека при его отображении на дисплее.
46. Способ по п. 44 или 45, отличающийся тем, что в виртуальной жестикуляции отображаемого на дисплее человека постоянно или периодически или временно не учитывают: а) как минимум один параметр тела указанного человека и/или б) как минимум один параметр как минимум одной части тела указанного человека и/или в) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или г) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для их расположения на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или д) погодные условия или как минимум один из параметров погодных условий, при которых находится указанный человек и/или часть указанного человека при его отображении на дисплее, и/или е) освещённость или как минимум один из параметров освещённости указанного человека и/или часть указанного человека при его отображении на дисплее и/или ж) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека при его отображении на дисплее.
47. Способ по п.41, отличающийся тем, что при озвучивании ТС посредством произношения PC и/или при озвучивании перевода на иной речевой язык ТС посредством произношения PC на ином речевом языке в PC учитывают тембр голоса и/или иные известные параметры голоса отображаемого на дисплее указанного человека.
48. Способ по п.41 или 47, отличающийся тем, что при озвучивании ТС посредством произношения PC и/или при озвучивании перевода на иной речевой язык ТС посредством произношения PC на ином речевом языке в PC учитывают тембр голоса и/или иные известные параметры голоса, не принадлежащего отображаемому на дисплее человеку.
49. Способ по п.41 или 44, отличающийся тем, что пользователь дисплея и/или программное обеспечение электронного устройства, к которому подключен дисплей, и/или пользователь иного как минимум одного электронного устройства, подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или программное обеспечение электронного устройства, подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или отображаемый на дисплее человек и имеющий доступ как минимум к одному электронному устройству, подключенному к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, задает или задают: а) язык, на который переводят ТС, и/или б) тембр голоса и/или иные известные параметры голоса человека при произношении PC и/или в) начало и/или окончание перевода ТС и/или г) как минимум один параметр отображения на дисплее виртуальной мимики указанного человека и/или д) начало и/или окончание отображения на дисплее виртуальной мимики указанного человека и/или е) как минимум один параметр отображения на дисплее виртуальной жестикуляции указанного человека и/или ж) начало и/или окончание отображения на дисплее виртуальной жестикуляции указанного человека и/или з) как минимум один параметр отображения на дисплее указанного человека.
50. Способ по п.41, отличающийся тем, что на дисплее: а) устанавливают обозначение, указывающее язык ТС и/или язык, на который осуществляют перевод ТС.
51. Способ по п. 41 или 44, отличающийся тем, что если изображение отображаемого на дисплее человека является трехмерным (3D), то виртуальная мимика и/или виртуальная жестикуляция отображаемого на дисплее человека также является трехмерной (3D).
52. Способ взаимодействия виртуальной мимики и/или виртуальной жестикуляции с сообщением, отличающийся тем, что при полной или частичной замене речевого сообщения (далее по тексту - PC 1), произносимого или произнесенного отображаемым на дисплее человеком или иным человеком, на полностью или частично иное речевое сообщение или на полностью или частично одинаковое по тексту речевое сообщение (далее по тексту - PC 2), вместо отображения на дисплее: а) части лица или мимики указанного человека или б) части лица или мимики указанного человека, а также как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, отображают виртуальную мимику, которая соответствует мимике при произношении PC 2.
53. Способ по п. 52, отличающийся тем, что по сравнению с PC 1 PC 2: а) произносят полностью или частично с иной скоростью и/или с иной громкостью и/или с иной протяженностью слов и/или с иной эмоциональностью и/или с иной дикцией и/или с иной интонацией и/или с иным акцентом и/или с использованием иных известных особенностей произношения речевых сообщений и/или б) полностью или частично озвучивают в режиме песни.
54. Способ по п. 52, отличающийся тем, что PC 2: а) произносят после завершения произношения PC 1 или б) произносят частично во время произношения PC 1 и частично после завершения произношения PC 1 или в) произносят во время произношения PC 1.
55. Способ по п. 52, отличающийся тем, что в виртуальной мимике отображаемого на дисплее человека, постоянно или периодически или временно учитывают: а) как минимум один параметр лица указанного человека и/или б) как минимум один параметр мимики лица указанного человека и/или в) погодные условия или как минимум один из параметров погодных условий, при которых находится лицо или часть лица указанного человека при его отображении на дисплее, и/или г) освещённость или как минимум один из параметров освещённости лица или части лица указанного человека при его отображении на дисплее и/или д) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека при его отображении на дисплее, и/или е) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или ж) как минимум один параметр как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или з) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица, и/или и) как минимум один параметр как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица.
56. Способ по п.52 или 55, отличающийся тем, что в виртуальной мимике отображаемого на дисплее человека постоянно или периодически или временно не учитывают: а) как минимум один параметр лица указанного человека и/или б) как минимум один параметр мимики лица указанного человека и/или в) погодные условия или как минимум один из параметров погодных условий, при которых находится лицо или часть лица указанного человека при его отображении на дисплее, и/или г) освещённость или как минимум один из параметров освещённости лица или части лица указанного человека при его отображении на дисплее и/или д) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека при его отображении на дисплее, и/или е) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или ж) как минимум один параметр как минимум одного предмета из числа предметов, полностью или частично расположенных на лице указанного человека, и/или з) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица, и/или и) как минимум один параметр как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, которые указанный человек использует для ношения на лице или закрывания своего лица или части лица.
57. Способ по п. 52, отличающийся тем, что во время произношения PC 1 или PC 2: а) на дисплее дополнительно отображают человека, произносящего или произнесшего PC 1, и/или б) на ином дисплее дополнительно отображают человека, произносящего или произнесшего PC 1, при этом, к указанному дополнительному отображению человека на дисплее и/или к указанному отображению человека на ином дисплее не применяют указанную виртуальную мимику.
58. Способ по п. 57, отличающийся тем, что как минимум одно из отображений человека, произносящего или произнесшего PC 1, размещенных на дисплее и/или на ином дисплее, осуществляют как минимум во время произношения PC 2.
59. Способ по п.52, отличающийся тем, что во время произношения PC 2 вместо отображения на дисплее как минимум одной части тела указанного человека на дисплее отображают виртуальную жестикуляцию, при этом, к указанной части тела относят как минимум одну руку и/или как минимум одну часть как минимум одной руки указанного человека и/или как минимум одну иную часть тела указанного человека.
60. Способ по п. 59, отличающийся тем, что в виртуальной жестикуляции отображаемого на дисплее человека постоянно или периодически или временно учитывают: а) как минимум один параметр тела и/или б) как минимум один параметр как минимум одной части тела указанного человека и/или в) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или г) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для их расположения на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или д) погодные условия или как минимум один из параметров погодных условий, при которых находится указанный человек и/или часть указанного человека при его отображении на дисплее, и/или е) освещённость или как минимум один из параметров освещённости указанного человека и/или часть указанного человека при его отображении на дисплее и/или ж) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека при его отображении на дисплее.
61. Способ по п. 60, отличающийся тем, что в виртуальной жестикуляции отображаемого на дисплее человека постоянно или периодически или временно не учитывают: а) как минимум один параметр тела указанного человека и/или б) как минимум один параметр как минимум одной части тела указанного человека и/или в) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или г) как минимум один предмет и/или как минимум одну часть как минимум одного предмета из числа предметов, которые указанный человек использует для их расположения на теле или на части тела или рядом с телом или с частью тела указанного человека, и/или д) погодные условия или как минимум один из параметров погодных условий, при которых находится указанный человек и/или часть указанного человека при его отображении на дисплее, и/или е) освещённость или как минимум один из параметров освещённости указанного человека и/или часть указанного человека при его отображении на дисплее и/или ж) освещённость или как минимум один из параметров освещённости как минимум одного предмета и/или как минимум одной части как минимум одного предмета из числа предметов, расположенных на теле или на части тела или рядом с телом или с частью тела указанного человека при его отображении на дисплее.
62. Способ по п.52 или 53 или 57 или 59, отличающийся тем, что пользователь дисплея и/или программное обеспечение электронного устройства, к которому подключен дисплей, и/или пользователь иного как минимум одного электронного устройства, подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или программное обеспечение электронного устройства подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или отображаемый на дисплее человек и при этом имеющий доступ как минимум к одному электронному устройству, подключенному к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, задает или задают: а) тембр голоса и/или иные известные параметры голоса, которые используют при произношении PC 2, и/или б) начало и/или окончание произношения PC 2 и/или в) как минимум один параметр отображения на дисплее виртуальной мимики указанного человека и/или г) начало и/или окончание отображения на дисплее виртуальной мимики указанного человека и/или д) как минимум один параметр отображения на дисплее виртуальной жестикуляции указанного человека и/или е) начало и/или окончание отображения на дисплее виртуальной жестикуляции указанного человека и/или ж) как минимум один параметр как минимум одного отображения на дисплее указанного человека и/или з) место и/или размер отображения или места и/или размеры отображений на дисплее указанного человека и/или и) на каком из отображений указанного человека на дисплее применяют виртуальную мимику и/или виртуальную жестикуляцию и/или к) начало и/или окончание произношения PC 1 и/или и) как минимум один отображаемый на дисплее жест или перечень жестов указанного человека, которые заменяют виртуальной жестикуляцией.
63. Способ по п.52, отличающийся тем, что на дисплее: а) устанавливают обозначение, указывающее, на каком речевом языке произносят PC 2 и/или произносят или произнесли PC 1, и/или б) в виде текста отображают PC 1 и/или PC 2.
64. Способ по п. 63, отличающийся тем, что пользователь дисплея и/или программное обеспечение электронного устройства, к которому подключен дисплей, и/или пользователь иного как минимум одного электронного устройства, подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или программное обеспечение электронного устройства подключенного к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, и/или отображенный на дисплее человек и при этом имеющий доступ как минимум к одному электронному устройству, подключенному к указанному дисплею и/или к устройству, посредством которого происходит управление указанным дисплеем, задает или задают: а) начало и/или окончание отображения на дисплее текста PC 1 и/или PC 2, и/или б) как минимум один параметр отображения на дисплее текста речевого сообщения PC 1 и/или PC 2.
65. Способ по п. 52 или 59, отличающийся тем, что если изображение отображаемого на дисплее человека является трехмерным (3D), то виртуальная мимика и/или виртуальная жестикуляция отображаемого на дисплее человека также является трехмерной (3D).
PCT/RU2011/000422 2010-06-17 2011-06-16 Способ взаимодействия виртуальной мимики и/или виртуальной жестикуляции с сообщением WO2011159204A1 (ru)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/699,508 US20130080147A1 (en) 2010-06-17 2011-06-16 Method of interaction of virtual facial gestures with message

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
RU2010124351/08A RU2010124351A (ru) 2010-06-17 2010-06-17 Взаимодействие виртуальной мимики и/или виртуальной жестикуляции с сообщением
RU2010124351 2010-06-17

Publications (1)

Publication Number Publication Date
WO2011159204A1 true WO2011159204A1 (ru) 2011-12-22

Family

ID=45348408

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/RU2011/000422 WO2011159204A1 (ru) 2010-06-17 2011-06-16 Способ взаимодействия виртуальной мимики и/или виртуальной жестикуляции с сообщением

Country Status (3)

Country Link
US (1) US20130080147A1 (ru)
RU (1) RU2010124351A (ru)
WO (1) WO2011159204A1 (ru)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108427910A (zh) * 2018-01-30 2018-08-21 浙江凡聚科技有限公司 深层神经网络ar手语翻译学习方法、客户端及服务器

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020007276A1 (en) * 2000-05-01 2002-01-17 Rosenblatt Michael S. Virtual representatives for use as communications tools
RU42905U1 (ru) * 2004-10-05 2004-12-20 Наздратенко Андрей Евгеньевич Система для обнаружения эмоций
US20090012788A1 (en) * 2007-07-03 2009-01-08 Jason Andre Gilbert Sign language translation system
CN201425791Y (zh) * 2009-03-05 2010-03-17 无敌科技(西安)有限公司 一种声音、口形及手语同步播放装置
RU2008137398A (ru) * 2008-09-19 2010-03-27 Юрий Константинович Низиенко (RU) Способ организации синхронного перевода устной речи с одного языка на другой посредством электронной приемопередающей системы и электронный переводчик для его осуществения
US20100141662A1 (en) * 2007-02-05 2010-06-10 Amegoworld, Ltd. Communication network and devices for text to speech and text to facial animation conversion

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5734923A (en) * 1993-09-22 1998-03-31 Hitachi, Ltd. Apparatus for interactively editing and outputting sign language information using graphical user interface
AU2571900A (en) * 1999-02-16 2000-09-04 Yugen Kaisha Gm&M Speech converting device and method
US7225224B2 (en) * 2002-03-26 2007-05-29 Fujifilm Corporation Teleconferencing server and teleconferencing system
US8494859B2 (en) * 2002-10-15 2013-07-23 Gh, Llc Universal processing system and methods for production of outputs accessible by people with disabilities
US20060087510A1 (en) * 2004-09-01 2006-04-27 Nicoletta Adamo-Villani Device and method of keyboard input and uses thereof
US20090058860A1 (en) * 2005-04-04 2009-03-05 Mor (F) Dynamics Pty Ltd. Method for Transforming Language Into a Visual Form
US7746986B2 (en) * 2006-06-15 2010-06-29 Verizon Data Services Llc Methods and systems for a sign language graphical interpreter

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020007276A1 (en) * 2000-05-01 2002-01-17 Rosenblatt Michael S. Virtual representatives for use as communications tools
RU42905U1 (ru) * 2004-10-05 2004-12-20 Наздратенко Андрей Евгеньевич Система для обнаружения эмоций
US20100141662A1 (en) * 2007-02-05 2010-06-10 Amegoworld, Ltd. Communication network and devices for text to speech and text to facial animation conversion
US20090012788A1 (en) * 2007-07-03 2009-01-08 Jason Andre Gilbert Sign language translation system
RU2008137398A (ru) * 2008-09-19 2010-03-27 Юрий Константинович Низиенко (RU) Способ организации синхронного перевода устной речи с одного языка на другой посредством электронной приемопередающей системы и электронный переводчик для его осуществения
CN201425791Y (zh) * 2009-03-05 2010-03-17 无敌科技(西安)有限公司 一种声音、口形及手语同步播放装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
AVTOMATICHESKAYA RECHEVAYA MIMIKA., 20 April 2008 (2008-04-20), Retrieved from the Internet <URL:http://speechanimator.ru> [retrieved on 20111006] *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108427910A (zh) * 2018-01-30 2018-08-21 浙江凡聚科技有限公司 深层神经网络ar手语翻译学习方法、客户端及服务器
CN108427910B (zh) * 2018-01-30 2021-09-21 浙江凡聚科技有限公司 深层神经网络ar手语翻译学习方法、客户端及服务器

Also Published As

Publication number Publication date
US20130080147A1 (en) 2013-03-28
RU2010124351A (ru) 2011-12-27

Similar Documents

Publication Publication Date Title
Keevallik Coordinating the temporalities of talk and dance
Swerts et al. Facial expression and prosodic prominence: Effects of modality and facial area
Nomikou et al. Language does something: Body action and language in maternal input to three-month-olds
Kappelhoff et al. Embodied meaning construction: Multimodal metaphor and expressive movement in speech, gesture, and feature film
Majlesi Matching gestures–Teachers’ repetitions of students’ gestures in second language learning classrooms
Attina et al. A pilot study of temporal organization in Cued Speech production of French syllables: rules for a Cued Speech synthesizer
US20160321953A1 (en) Pronunciation learning support system utilizing three-dimensional multimedia and pronunciation learning support method thereof
Yang et al. Vowel development in an emergent Mandarin-English bilingual child: A longitudinal study
WO2011083978A3 (ko) 캐릭터의 발화와 감정표현 제공 시스템 및 방법
Aly et al. Multimodal adapted robot behavior synthesis within a narrative human-robot interaction
Schneps et al. Pushing the speed of assistive technologies for reading
Jesse et al. Prosodic temporal alignment of co-speech gestures to speech facilitates referent resolution.
Wong et al. Allophonic variations in visual speech synthesis for corrective feedback in CAPT
WO2011159204A1 (ru) Способ взаимодействия виртуальной мимики и/или виртуальной жестикуляции с сообщением
Wang et al. On the use of an articulatory talking head for second language pronunciation training: the case of Chinese learners of French
Krivokapic et al. A kinematic analysis of prosodic structure in speech and manual gestures.
Wrembel Cross-modal reinforcements in phonetics teaching and learning: an overview of innovative trends in pronunciation pedagogy
JP6963668B1 (ja) ソリューション提供システム
Irwin et al. An analysis of British regional accent and contextual cue effects on speechreading performance
Ratko et al. Gestural characterisation of vowel length contrasts in Australian English
Ying et al. L2 English learners' recognition of words spoken in familiar versus unfamiliar English accents.
Eng et al. Can co-speech hand gestures facilitate learning of non-native tones?
Jesse et al. Pointing gestures do not influence the perception of lexical stress
Wik et al. Can visualization of internal articulators support speech perception?
Gibert et al. Evaluating a virtual speech cuer

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11796038

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13699508

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11796038

Country of ref document: EP

Kind code of ref document: A1