JP2023072111A - Information processing apparatus, control program, control method, and information processing system - Google Patents
Information processing apparatus, control program, control method, and information processing system Download PDFInfo
- Publication number
- JP2023072111A JP2023072111A JP2021184439A JP2021184439A JP2023072111A JP 2023072111 A JP2023072111 A JP 2023072111A JP 2021184439 A JP2021184439 A JP 2021184439A JP 2021184439 A JP2021184439 A JP 2021184439A JP 2023072111 A JP2023072111 A JP 2023072111A
- Authority
- JP
- Japan
- Prior art keywords
- operator
- image
- voice
- avatar
- ratio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
この発明は、情報処理装置、制御プログラム、制御方法および情報処理システムに関し、特にたとえば、利用者と操作者がチャットまたはトークでコミュニケーションを行う、情報処理装置、制御プログラム、制御方法および情報処理システムに関する。 The present invention relates to an information processing device, a control program, a control method, and an information processing system, and more particularly to an information processing device, a control program, a control method, and an information processing system in which a user and an operator communicate by chat or talk. .
この種の従来の情報処理装置の一例が特許文献1に開示されている。特許文献1に開示されるコミュニケーションシステムでは、テレイグジスタンスモードが設定された状態で、オペレータ端末は、オペレータの表情およびジェスチャを座標データに変換し、応答音声データと共に応対端末へ送信する。応対端末は、オペレータ端末から送られた座標データに基づいてアバターを生成することで、オペレータの表情およびジェスチャがアバターの表情および仕草に反映されたキャラクタ応対情報を生成し、ユーザに向けて表示する。
An example of this type of conventional information processing apparatus is disclosed in Japanese Unexamined Patent Application Publication No. 2002-200012. In the communication system disclosed in
上記の特許文献1では、オペレータ端末において、キャラクタ応対情報に基づくアバター画像が表示部に表示されるが、表示部の画面は2次元であるため、アバター画像が3次元CG画像データを用いて生成されたとしても、アバターは平面的に表示され、アバターの存在感を示すためには、改善の余地がある。
In the
それゆえに、この発明の主たる目的は、新規な、情報処理装置、制御プログラム、制御方法および情報処理システムを提供することである。 SUMMARY OF THE INVENTION Therefore, a primary object of the present invention is to provide a novel information processing apparatus, control program, control method, and information processing system.
また、この発明の他の目的は、存在感を増したアバターを表示できる、情報処理装置、制御プログラム、制御方法および情報処理システムを提供することである。 Another object of the present invention is to provide an information processing device, a control program, a control method, and an information processing system capable of displaying an avatar with increased presence.
第1の発明は、操作者が発話した音声と、当該操作者が発話したときの所定の情報を操作者側端末から受信する受信手段、受信手段によって受信された音声を出力する音出力手段、受信手段によって受信された所定の情報に基づいて操作者に対応するアバターの画像を、受信手段によって受信された音声を出力していない通常時の大きさに対して拡大または縮小する比率を算出する比率算出手段、および音出力手段によって音声を出力するときに、比率算出手段によって算出された比率で描画したアバターの画像をディスプレイに表示する画像表示手段を備える、情報処理装置である。 A first invention comprises a receiving means for receiving a voice uttered by an operator and predetermined information when the operator utters the voice from an operator-side terminal, a sound output means for outputting the voice received by the receiving means, A ratio for enlarging or reducing the image of the avatar corresponding to the operator based on the predetermined information received by the receiving means is calculated with respect to the normal size received by the receiving means when no sound is output. The information processing apparatus is provided with image display means for displaying, on a display, an image of an avatar drawn at the ratio calculated by the ratio calculation means when sound is output by the ratio calculation means and the sound output means.
第2の発明は、第1の発明に従属し、画像表示手段は、通常時にアバターの画像が収まる枠画像をさらに表示し、枠画像の前面にアバターの画像を表示する。 A second invention is according to the first invention, wherein the image display means further displays a frame image in which the image of the avatar normally fits, and displays the image of the avatar in front of the frame image.
第3の発明は、第1または第2の発明に従属し、所定の情報は、操作者が発話した音声の音量であり、比率算出手段は、音量に基づいて比率を算出する。 A third invention is according to the first invention, wherein the predetermined information is the volume of the voice uttered by the operator, and the ratio calculating means calculates the ratio based on the volume.
第4の発明は、第1または第2の発明に従属し、所定の情報は、操作者が発話したときの当該操作者の首の動きであり、比率算出手段は、操作者の首の動きに基づいて比率を算出する。 A fourth invention is according to the first or second invention, wherein the predetermined information is a movement of the operator's neck when the operator speaks, and the ratio calculating means comprises: Calculate the ratio based on
第5の発明は、操作者が発話した音声と、当該操作者が発話したときの所定の情報に基づいて算出した比率を操作者側端末から受信する受信手段、受信手段によって受信された音声を出力する音出力手段、および音出力手段によって音声を出力するときに、受信手段よって受信された比率で描画したアバターの画像をディスプレイに表示する画像表示手段を備え、比率は、操作者に対応するアバターの画像を、受信手段によって受信された音声を出力していない通常時の大きさに対して拡大または縮小する比率である、情報処理装置である。 According to a fifth aspect of the present invention, there is provided a receiving means for receiving, from an operator-side terminal, a ratio of the voice uttered by the operator and the ratio calculated based on predetermined information when the operator uttered the voice, and the voice received by the receiving means. Sound output means for outputting, and image display means for displaying on a display an image of the avatar drawn at the ratio received by the receiving means when the sound is output by the sound output means, the ratio corresponding to the operator. The information processing device is a ratio for enlarging or reducing an image of an avatar with respect to a normal size when sound received by a receiving means is not output.
第6の発明は、操作者が発話した音声と、当該操作者が発話したときの所定の情報に基づいて算出した比率で描画したアバターの画像を受信する受信手段、受信手段によって受信された音声を出力する音出力手段、および音出力手段によって音声を出力するときに、受信手段よって受信されたアバターの画像をディスプレイに表示する画像表示手段を備え、比率は、操作者に対応するアバターの画像を、受信手段によって受信された音声を出力していない通常時の大きさに対して拡大または縮小する比率である、情報処理装置である。 A sixth aspect of the present invention is a receiving means for receiving a voice uttered by an operator and an image of an avatar drawn at a ratio calculated based on predetermined information when the operator uttered the voice, and a voice received by the receiving means. and image display means for displaying on a display the image of the avatar received by the receiving means when the sound output means outputs the sound, the ratio being the image of the avatar corresponding to the operator is a ratio of enlarging or reducing the sound received by the receiving means to the normal time when the sound is not output.
第7の発明は、操作者が発話した音声と、当該操作者が発話したときの所定の情報を操作者側端末から受信する受信手段、受信手段によって受信された音声を操作者と対話する利用者が使用する利用者側端末に出力する音出力手段、受信手段によって受信された所定の情報に基づいて操作者に対応するアバターの画像を、受信手段によって受信された音声を操作者と対話する利用者が使用する利用者側端末に出力していない通常時の大きさに対して拡大または縮小する比率を算出する比率算出手段、および音出力手段によって音声を出力するときに、比率算出手段によって算出された比率で描画したアバターの画像を利用者側端末に出力する画像出力手段を備える、情報処理装置である。 A seventh aspect of the present invention is a receiving means for receiving a voice uttered by an operator and predetermined information when the operator utters the voice from an operator-side terminal, and a use for interacting with the operator using the voice received by the receiving means. Sound output means for outputting to the user side terminal used by the operator, based on the predetermined information received by the receiving means, the image of the avatar corresponding to the operator and the voice received by the receiving means are interacted with the operator. Ratio calculation means for calculating the ratio of enlargement or reduction with respect to the normal size that is not output to the user terminal used by the user; The information processing apparatus includes image output means for outputting an image of the avatar drawn at the calculated ratio to a user terminal.
第8の発明は、操作者が入力したテキストまたは発話した音声を受信する受信手段、受信手段によって受信されたテキストまたは音声を出力する出力手段、および操作者に対応するアバターの画像をディスプレイに表示する画像表示手段を備え、画像表示手段は、受信手段によって受信されたテキストまたは音声を出力していない通常時に枠画像に収まる態様でアバターの画像をディスプレイに表示し、出力手段によってテキストまたは音声を出力するときに枠画像からはみ出す態様でアバターの画像をディスプレイに表示する、情報処理装置である。 An eighth invention includes receiving means for receiving text or voice uttered by an operator, output means for outputting the text or voice received by the receiving means, and displaying an image of an avatar corresponding to the operator on a display. The image display means displays the image of the avatar on the display in a manner that fits in the frame image in a normal time when the text or voice received by the receiving means is not output, and the output means outputs the text or voice. An information processing device that displays an image of an avatar on a display in such a manner as to protrude from a frame image when outputting.
第9の発明は、情報処理装置で実行される制御プログラムであって、情報処理装置のプロセッサに、操作者が発話した音声と、当該操作者が発話したときの所定の情報を操作者側端末から受信する受信ステップ、受信ステップにおいて受信した音声を出力する音出力ステップ、受信ステップにおいて受信した所定の情報に基づいて操作者に対応するアバターの画像を、受信ステップにおいて受信した音声を出力していない通常時の大きさに対して拡大または縮小する比率を算出する比率算出ステップ、および音出力ステップにおいて音声を出力するときに、比率算出ステップにおいて算出した比率で描画したアバターの画像をディスプレイに表示する画像表示ステップを実行させる、制御プログラムである。 A ninth aspect of the present invention is a control program executed by an information processing device, which transmits a voice uttered by an operator and predetermined information when the operator uttered to a processor of the information processing device. a sound output step of outputting the voice received in the receiving step; an image of an avatar corresponding to the operator based on predetermined information received in the receiving step; and outputting the voice received in the receiving step. When outputting sound in the ratio calculation step of calculating the ratio of enlargement or reduction with respect to the normal size, and the sound output step, the avatar image drawn at the ratio calculated in the ratio calculation step is displayed on the display It is a control program that causes an image display step to be executed.
第10の発明は、情報処理装置で実行される制御プログラムであって、情報処理装置のプロセッサに、操作者が発話した音声と、当該操作者が発話したときの所定の情報に基づいて算出した比率を操作者側端末から受信する受信ステップ、受信ステップにおいて受信した音声を出力する音出力ステップ、および音出力ステップにおいて音声を出力するときに、受信ステップにおいて受信した比率で描画したアバターの画像をディスプレイに表示する画像表示ステップを実行させ、比率は、操作者に対応するアバターの画像を、受信ステップにおいて受信した音声を出力していない通常時の大きさに対して拡大または縮小する比率である、制御プログラムである。 A tenth aspect of the present invention is a control program executed by an information processing device, wherein a processor of the information processing device calculates based on a voice uttered by an operator and predetermined information when the operator utters the voice. A reception step of receiving the ratio from the operator-side terminal, a sound output step of outputting the sound received in the reception step, and when outputting the sound in the sound output step, an avatar image drawn at the ratio received in the reception step. The image display step for displaying on the display is executed, and the ratio is the ratio for enlarging or reducing the image of the avatar corresponding to the operator with respect to the normal size when the voice received in the receiving step is not output. , is the control program.
第11の発明は、情報処理装置で実行される制御プログラムであって、情報処理装置のプロセッサに、操作者が発話した音声と、当該操作者が発話したときの所定の情報に基づいて算出した比率で描画したアバターの画像を受信する受信ステップ、受信ステップにおいて受信した音声を出力する音出力ステップ、および音出力ステップにおいて音声を出力するときに、受信ステップにおいて受信したアバターの画像をディスプレイに表示する画像表示ステップを実行させ、比率は、操作者に対応するアバターの画像を、受信ステップにおいて受信した音声を出力していない通常時の大きさに対して拡大または縮小する比率である、制御プログラムである。 An eleventh aspect of the present invention is a control program executed by an information processing device, wherein a processor of the information processing device calculates based on a voice uttered by an operator and predetermined information when the operator utters the voice. a receiving step of receiving an avatar image drawn at a ratio; a sound output step of outputting the sound received in the receiving step; and displaying the avatar image received in the receiving step on a display when outputting the sound in the sound outputting step. and the ratio is the ratio of enlarging or reducing the image of the avatar corresponding to the operator with respect to the normal size when the sound received in the receiving step is not output, the control program is.
第12の発明は、情報処理装置で実行される制御プログラムであって、情報処理装置のプロセッサに、操作者が発話した音声と、当該操作者が発話したときの所定の情報を操作者側端末から受信する受信ステップ、受信ステップにおいて受信した音声を操作者と対話する利用者が使用する利用者側端末に出力する音出力ステップ、受信ステップにおいて受信した所定の情報に基づいて操作者に対応するアバターの画像を、受信ステップにおいて受信した音声を操作者と対話する利用者が使用する利用者側端末に出力していない通常時の大きさに対して拡大または縮小する比率を算出する比率算出ステップ、および音出力ステップにおいて音声を出力するときに、比率算出ステップにおいて算出した比率で描画したアバターの画像を利用者側端末に出力する画像出力ステップを実行させる、制御プログラムである。 A twelfth aspect of the invention is a control program executed by an information processing device, which transmits a voice uttered by an operator and predetermined information when the operator uttered to a processor of the information processing device. a receiving step for receiving from, a sound output step for outputting the voice received in the receiving step to a user-side terminal used by the user who interacts with the operator, and responding to the operator based on the predetermined information received in the receiving step A ratio calculation step for calculating the ratio of the avatar image to be enlarged or reduced with respect to the normal size when the voice received in the reception step is not output to the user-side terminal used by the user who interacts with the operator. , and an image output step of outputting an image of the avatar drawn at the ratio calculated in the ratio calculation step to the user-side terminal when outputting sound in the sound output step.
第13の発明は、情報処理装置で実行される制御プログラムであって、情報処理装置のプロセッサに、操作者が入力したテキストまたは発話した音声を受信する受信ステップ、受信ステップにおいて受信したテキストまたは音声を出力する出力ステップ、および操作者に対応するアバターの画像をディスプレイに表示する画像表示ステップを実行させ、画像表示ステップは、受信ステップにおいて受信したテキストまたは音声を出力していない通常時に枠画像に収まる態様でアバターの画像をディスプレイに表示し、出力ステップにおいてテキストまたは音声を出力するときに枠画像からはみ出す態様でアバターの画像をディスプレイに表示する、制御プログラムである。 A thirteenth aspect of the present invention is a control program executed by an information processing device, comprising: a receiving step for receiving text or voice uttered by an operator; and an image display step of displaying the image of the avatar corresponding to the operator on the display. A control program for displaying an image of an avatar on a display in such a manner that the avatar image fits in the display, and displaying the image of the avatar on the display in a manner that protrudes from the frame image when text or voice is output in an output step.
第14の発明は、ディスプレイを備える情報処理装置の制御方法であって、(a)操作者が発話した音声と、当該操作者が発話したときの所定の情報を操作者側端末から受信するステップ、(b)ステップ(a)において受信した音声を出力するステップ、(c)ステップ(a)において受信した所定の情報に基づいて操作者に対応するアバターの画像を、ステップ(a)において受信した音声を出力していない通常時の大きさに対して拡大または縮小する比率を算出するステップ、および(d)ステップ(b)において音声を出力するときに、ステップ(c)において算出した比率で描画したアバターの画像をディスプレイに表示するステップを含む、制御方法である。 A fourteenth aspect of the invention is a control method for an information processing apparatus having a display, comprising: (a) a step of receiving, from an operator-side terminal, voice uttered by an operator and predetermined information when the operator uttered the voice; (b) a step of outputting the voice received in step (a); (c) an image of an avatar corresponding to the operator based on the predetermined information received in step (a); (d) drawing at the ratio calculated in step (c) when outputting sound in step (b); and displaying an image of the avatar on the display.
第15の発明は、ディスプレイを備える情報処理装置の制御方法であって、(a)操作者が発話した音声と、当該操作者が発話したときの所定の情報に基づいて算出した比率を操作者側端末から受信するステップ、(b)ステップ(a)において受信した音声を出力するステップ、および(c)ステップ(b)において音声を出力するときに、ステップ(a)において受信した比率で描画したアバターの画像をディスプレイに表示するステップを含み、比率は、操作者に対応するアバターの画像を、ステップ(b)において音声を出力していない通常時の大きさに対して拡大または縮小する比率である、制御プログラムである。 A fifteenth aspect of the invention is a control method for an information processing apparatus having a display, comprising: (b) outputting the voice received in step (a); and (c) rendering the voice at the ratio received in step (a) when outputting the voice in step (b). The step of displaying the avatar image on the display is included, and the ratio is the ratio of enlarging or reducing the avatar image corresponding to the operator to the normal size when sound is not output in step (b). There is a control program.
第16の発明は、ディスプレイを備える情報処理装置の制御方法であって、(a)操作者が発話した音声と、当該操作者が発話したときの所定の情報に基づいて算出した比率で描画したアバターの画像を受信するステップ、(b)ステップ(a)において受信した音声を出力するステップ、および(c)ステップ(b)において音声を出力するときに、ステップ(a)において受信したアバターの画像をディスプレイに表示するステップを含み、比率は、操作者に対応するアバターの画像を、ステップ(b)において音声を出力していない通常時の大きさに対して拡大または縮小する比率である、制御方法である。 A sixteenth aspect of the invention is a control method for an information processing apparatus having a display, wherein: (a) drawing is performed with a ratio calculated based on a voice uttered by an operator and predetermined information when the operator utters the voice; (b) outputting the sound received in step (a); and (c) when outputting the sound in step (b), the image of the avatar received in step (a). is displayed on the display, and the ratio is the ratio of enlarging or reducing the image of the avatar corresponding to the operator to the size of the normal time when no sound is output in step (b), the control The method.
第17の発明は、情報処理装置の制御方法であって、(a)操作者が発話した音声と、当該操作者が発話したときの所定の情報を操作者側端末から受信するステップ、(b)ステップ(a)において受信した音声を操作者と対話する利用者が使用する利用者側端末に出力するステップ、(c)ステップ(a)において受信した所定の情報に基づいて操作者に対応するアバターの画像を、ステップ(a)において受信した音声を操作者と対話する利用者が使用する利用者側端末に出力していない通常時の大きさに対して拡大または縮小する比率を算出するステップ、および(d)ステップ(b)において音声を出力するときに、ステップ(c)において算出した比率で描画したアバターの画像を利用者側端末に出力するステップを含む、制御方法ある。 A seventeenth aspect of the invention is a control method for an information processing apparatus, comprising: (a) a step of receiving, from an operator-side terminal, a voice uttered by an operator and predetermined information when the operator uttered the utterance; ) step of outputting the voice received in step (a) to a user-side terminal used by the user who interacts with the operator; (c) responding to the operator based on the predetermined information received in step (a); A step of calculating the ratio of enlargement or reduction of the avatar image to the normal size when the voice received in step (a) is not output to the user-side terminal used by the user who interacts with the operator. and (d) a step of outputting an image of the avatar drawn at the ratio calculated in step (c) to the user terminal when outputting the sound in step (b).
第18の発明は、情報処理装置の制御方法であって、(a)操作者が入力したテキストまたは発話した音声を受信するステップ、(b)ステップ(a)において受信したテキストまたは音声を出力するステップ、および(c)操作者に対応するアバターの画像をディスプレイに表示するステップを含み、ステップ(c)は、ステップ(a)において受信したテキストまたは音声を出力していない通常時に枠画像に収まる態様でアバターの画像をディスプレイに表示し、ステップ(b)においてテキストまたは音声を出力するときに枠画像からはみ出す態様でアバターの画像をディスプレイに表示する、制御方法である。 An eighteenth aspect of the invention is a control method for an information processing apparatus, comprising: (a) a step of receiving text or voice uttered by an operator; and (b) outputting the text or voice received in step (a). and (c) displaying an image of an avatar corresponding to the operator on a display, wherein step (c) fits in the frame image during normal times when the text or voice received in step (a) is not output. and displaying the avatar image on the display in a manner that protrudes from the frame image when text or voice is output in step (b).
第19の発明は、サーバと、サーバと通信可能に接続された利用者側端末および操作者側端末を備える情報処理システムであって、操作者が発話した音声と、当該操作者が発話したときの所定の情報を操作者側端末から受信する受信手段、受信手段によって受信された音声を出力する音出力手段、所定の情報に基づいて操作者に対応するアバターの画像を、受信手段によって受信された音声を出力していない通常時の大きさに対して拡大または縮小する比率を算出する比率算出手段、および音出力手段によって音声を出力するときに、比率算出手段によって算出された比率で描画したアバターの画像を利用者側端末のディスプレイに表示する画像表示手段を備える、情報処理システムである。 A nineteenth invention is an information processing system comprising a server, a user-side terminal and an operator-side terminal communicably connected to the server, wherein a voice uttered by an operator and when the operator utters a voice receiving means for receiving predetermined information from the terminal on the operator side; sound output means for outputting the voice received by the receiving means; A ratio calculation means for calculating a ratio of enlargement or reduction with respect to the normal size when the sound is not output, and when the sound is output by the sound output means, the drawing is performed at the ratio calculated by the ratio calculation means. An information processing system comprising image display means for displaying an image of an avatar on a display of a user terminal.
この発明によれば、存在感を増したアバターを表示することができる。 According to this invention, an avatar with increased presence can be displayed.
この発明の上述の目的、その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of the embodiments with reference to the drawings.
<第1実施例>
図1を参照して、この第1実施例の情報処理システム10は利用者側端末12を含み、利用者側端末12は、ネットワーク14を介して、操作者側端末16およびサーバ18に通信可能に接続される。
<First embodiment>
Referring to FIG. 1, an
利用者側端末12は、サーバ18によって提供される所定のサービスを利用する利用者によって使用され、操作者側端末16は、利用者に応対する操作者によって使用される。
The user-
利用者側端末12は、情報処理装置であり、一例として、スマートフォンであり、ブラウザ機能を備えている。他の実施例では、利用者側端末12として、タブレットPC、ノート型PCまたはデスクトップ型PCなどの汎用の端末を用いることもできる。
The user-
ネットワーク14は、インターネットを含むIP網(または、IPネットワーク)と、このIP網にアクセスするためのアクセス網(または、アクセスネットワーク)とから構成される。アクセス網としては、公衆電話網、携帯電話網、有線LAN、無線LAN、CATV(Cable Television)等を用いることができる。
The
操作者側端末16は、利用者側端末12とは異なる他の情報処理装置であり、一例として、ノート型PCまたはデスクトップ型PCであるが、他の実施例では、スマートフォンまたはタブレットPCなどの汎用の端末を用いることもできる。
The operator-
サーバ18は、利用者側端末12および操作者側端末16とは異なるその他の情報処理装置であり、汎用のサーバを用いることができる。したがって、サーバ18は、CPU18aおよび記憶部(HDD、ROMおよびRAMを含む)18bを備えるとともに、通信インタフェースおよび入出力インタフェースなどのコンポーネントを備える。第1実施例では、サーバ18は、所定のサービスを提供するサイトを運営するために設けられる。
The
図2は図1に示した利用者側端末12の電気的な構成を示すブロック図である。図2に示すように、利用者側端末12はCPU20を含み、CPU20は、内部バスを介して、記憶部22、通信インタフェース(以下、「通信I/F」という)24および入出力インタフェース(以下、「入出力I/F」という)26に接続される。
FIG. 2 is a block diagram showing the electrical configuration of the
CPU20は、利用者側端末12の全体的な制御を司る。ただし、CPU20に代えて、CPU機能、GPU(Graphics Processing Unit)機能等の複数の機能を含むSoC(System-on-a-chip)を設けてもよい。記憶部22は、HDD、ROMおよびRAMを含む。ただし、HDDに代えて、または、HDD、ROMおよびRAMに加えて、SSD等の不揮発性メモリが使用されてもよい。
The
通信I/F24は、CPU20の制御の下、ネットワーク14を介して、操作者側端末16およびサーバ18などの外部のコンピュータとの間で、制御信号およびデータの送受信を行うために有線インタフェースを有する。ただし、通信I/F24としては、無線LANまたはBluetooth(登録商標)等の無線インタフェースを使用することもできる。
The communication I/
入出力I/F26には、入力装置28、表示装置30、マイク32およびスピーカ34が接続されている。入力装置28は、タッチパネルおよびハードウェアのボタンである。タッチパネルは、汎用のタッチパネルであり、静電容量方式、電磁誘導方式、抵抗膜方式、赤外線方式など、任意の方式のものを用いることができる。後述する操作者側端末16についても同様である。
An
ただし、利用者側端末12として、ノート型PCまたはデスクトップ型PCが用いられる場合には、入力装置28として、キーボードおよびコンピュータマウスが使用される。
However, when a notebook PC or desktop PC is used as the user-
また、表示装置30は、LCDまたは有機ELディスプレイである。上記のタッチパネルは、表示装置30の表示面上に設けられてもよいし、タッチパネルが表示装置30と一体的に形成されたタッチディスプレイが設けられてもよい。このことは、後述する操作者側端末16についても同様である。
Also, the
入出力I/F26は、マイク32で検出された利用者の音声をデジタルの音声データに変換してCPU20に出力するとともに、CPU20によって出力される音声データをアナログの音声信号に変換してスピーカ34から出力させる。ただし、CPU20から出力される音声データは、操作者側端末16から受信した音声データである。また、入出力I/F26は、入力装置28から入力された操作データ(または、操作情報)をCPU20に出力するとともに、CPU20によって生成された画像データを表示装置30に出力して、画像データに対応する画面または画像を表示装置30に表示させる。ただし、外部のコンピュータ(たとえば、操作者側端末16またはサーバ18)から受信した画像データがCPU20によって出力される場合もある。
The input/output I/
なお、図2に示す利用者側端末12の電気的な構成は一例であり、限定される必要はない。他の実施例では、利用者側端末12はカメラを備えていてもよい。
Note that the electrical configuration of the user-
また、利用者側端末12がスマートフォンである場合には、携帯電話通信網、または、携帯電話網および公衆電話網を介して、通話するための通話回路を備えるが、第1実施例では、そのような通話は行わないため、図示は省略してある。このことは、後述する操作者側端末16がスマートフォンである場合についても同じである。
Further, when the user-
図3は図1に示した操作者側端末16の電気的な構成を示すブロック図である。図3に示すように、操作者側端末16はCPU50を含み、CPU50は、内部バスを介して、記憶部52、通信I/F54および入出力I/F56に接続される。
FIG. 3 is a block diagram showing the electrical configuration of the operator-
CPU50は、操作者側端末16の全体的な制御を司る。ただし、CPU50に代えて、CPU機能、GPU機能等の複数の機能を含むSoCを設けてもよい。記憶部52は、HDD、ROMおよびRAMを含む。ただし、HDDに代えて、または、HDD、ROMおよびRAMに加えて、SSD等の不揮発性メモリが使用されてもよい。
The
通信I/F54は、CPU50の制御の下、ネットワーク14を介して、利用者側端末12およびサーバ18などの外部のコンピュータとの間で、制御信号およびデータの送受信を行うために有線インタフェースを有する。ただし、通信I/F54としては、無線LANまたはBluetooth(登録商標)等の無線インタフェースを使用することもできる。
The communication I/
入出力I/F56には、入力装置58および表示装置60、マイク62およびスピーカ64が接続されている。マイク62およびスピーカ64は、操作者が利用者との間で音声通話するために使用するマイク付きのヘッドセットを構成する。
An
また、入力装置58としては、キーボードおよびコンピュータマウスが用いられる。ただし、操作者側端末16として、スマートフォンまたはタブレットPCが用いられる場合には、入力装置58として、タッチパネルおよびハードウェアのボタンが設けられる。また、表示装置60は、LCDまたは有機ELディスプレイである。
A keyboard and a computer mouse are used as the
入出力I/F56は、マイク62で検出された操作者の音声をデジタルの音声データに変換してCPU50に出力するとともに、CPU50によって出力される音声データをアナログの音声信号に変換してスピーカ64から出力させる。ただし、第1実施例では、CPU50から出力される音声データは、利用者側端末12から受信した音声データである。また、入出力I/F56は、入力装置58から入力された操作データ(または、操作情報)をCPU50に出力するとともに、CPU50によって生成された画像データを表示装置60に出力して、画像データに対応する画像を表示装置60に表示させる。
The input/output I/
なお、図3に示す操作者側端末16の電気的な構成は一例であり、限定される必要はない。他の実施例では、操作者側端末16はカメラを備えていてもよい。
Note that the electrical configuration of the operator-
このような情報処理システム10では、利用者が利用者側端末12を使用して、サーバ18が提供する所定のサービスのウェブ画面100を見ている場合に、所定の条件を満たすと、操作者(オペレータ)とチャットまたはトークでコミュニケーションできる、アプリケーション(以下、単に「アプリ」という)が起動される。
In such an
一例として、所定のサービスは、オンラインショッピングであるが、チャットまたはトークで、利用者の問い合わせに対して対応(応答)することができる、任意のオンラインサービスである。 As an example, the predetermined service is online shopping, but it is any online service that can respond (response) to user inquiries through chat or talk.
図4は、ウェブ画面100の前面に、アプリの選択画面110が表示された場合の一例を示す。ただし、ウェブ画面100は、ウェブブラウザを起動し、所定のURLを入力することにより、表示装置30に表示される。ウェブ画面100は、所定のサービスのウェブサイト(または、ウェブページ)の画面である。図4では、或るオンラインショッピングのウェブ画面100の例が示される。また、選択画面110は、アプリが起動されたときなどに表示される初期画面である。
FIG. 4 shows an example when an
上述したように、アプリは、所定の条件を満たす場合に、起動される。この第1実施例では、所定の条件は、所定のサービスのウェブ画面(第1実施例では、ウェブ画面100)を表示した状態において、利用者がアプリの起動(または、実行)を指示したこと、利用者の操作が第1所定時間(この第1実施例では、30秒)以上無いこと、当該ウェブ画面において同じ位置または似たような場所(近くの位置)を指示していること、所定のサービスにおいて複数回(たとえば、3回)同じウェブ画面に戻ってくることである。 As described above, an application is activated when a predetermined condition is satisfied. In the first embodiment, the predetermined condition is that the user instructs to start (or execute) the application while the web screen of the predetermined service (the web screen 100 in the first embodiment) is displayed. , the user does not operate for more than a first predetermined time (30 seconds in this first embodiment), the same position or a similar place (nearby position) is indicated on the web screen, a predetermined is to return to the same web screen multiple times (for example, three times) in the service.
なお、図4では、ウェブ画面100が、利用者側端末12がスマートフォンである場合の表示装置60に表示された例を示してある。また、ウェブ画面100は一例であり、オンラインショッピング以外の他のサービスについての画面が表示される場合もある。
Note that FIG. 4 shows an example in which the web screen 100 is displayed on the
選択画面110には、画面の上部に、表示枠112が設けられ、表示枠112の下方に、ボタン114、ボタン116およびボタン118が縦に並んで設けられる。
A
表示枠112はアバターの画像120を表示するための枠画像である。この第1実施例では、アバターの画像120はチャットまたはトークの相手(対話の相手)である操作者の分身となるキャラクタであり、予め設定されている。したがって、アバターの画像120は、人間を模したキャラクタであり、この第1実施例では、頭部および首についての画像である。
A
ただし、アバターの画像120は、動物またはロボットを模したキャラクタ、アニメキャラクタ、ゲームキャラクタなどの画像でもよい。また、アバターの画像120は、キャラクタの上半身または全身についての画像でもよい。
However, the
また、この第1実施例では、アバターの画像120は、チャットまたはトークする場合に、操作者のチャットにおける応答内容の表示またはトークにおける応答内容(または、発話内容)の音声の出力に合せて発話するまたは発話動作を行う。この第1実施例では、アバターの画像120は頭部および首が表示されるため、発話動作では、アバターの画像120の口唇部がチャットにおける応答内容のテキストの表示またはトークにおける応答内容の音声の出力に合わせて動かされる。したがって、アバターが実際にしゃべっているように表現される。
In addition, in the first embodiment, when chatting or talking, the
アバターの画像120は、応答内容の音声を出力していない状態、すなわち、アバターが発話していないまたは発話動作を行っていない状態(以下、「通常時」という)において、表示枠112に収まる大きさで表示(または、描画)される。
The
また、選択画面110においては、アバターは、自然の動作(以下、「無意識動作」という)を行う。無意識動作の代表的な例としては、瞬きや呼吸が該当する。また、このような生理的な動作のみならず、癖による動作も無意識動作に含まれる。たとえば、癖による動作としては、髪の毛を触る動作、顔を触る動作および爪を噛む動作などが該当する。ただし、選択画面110が表示されると、アバターの画像120は、最初に、静止した状態で表示され、続いて、利用者に対して挨拶する(たとえば、お辞儀する)ように表示される。
Also, on the
したがって、選択画面110においては、静止した状態のアバターの画像120が表示された後に、無意識動作または挨拶の動作を行うアバターの画像120が表示される。本願発明の本質的な内容ではないため、詳細な説明は省略するが、一例として、静止した状態のアバターの画像120の表示は、予め記憶され静止した状態の画像データを出力(または、再生)することにより行われる。また、無意識動作および挨拶するときの動作を行うアバターの画像120の表示については、予め記憶された動画(アニメーション)データを再生することにより行われる。
Therefore, in the
ボタン114は、利用者が操作者とチャットするためのボタンである。チャットとは、テキストのやり取りによってリアルタイムに話をすることを意味し、この第1実施例では、利用者および操作者の操作によって、利用者側端末12と操作者側端末16の間で、テキストデータが送受信される。
ボタン116は、利用者が操作者とトークするためのボタンである。トークとは、音声のやり取りによってリアルタイムに話をすることを意味し、この第1実施例では、利用者および操作者の発話によって、利用者側端末12と操作者側端末16の間で、音声データが送受信される。
ボタン118は、アプリを終了するためのボタンである。ボタン118がオンされると、アプリが終了され、選択画面110が非表示される。
A
図5はウェブ画面100の前面にチャット画面130が表示された状態の一例を示す。選択画面110においてボタン114がオンされると、図5に示すようなチャット画面130が表示される。
FIG. 5 shows an example of a state in which a
チャット画面130には、画面の上部に、表示枠132が設けられ、表示枠132内にアバターの画像120が表示される。また、表示枠132の下方には、表示枠134および表示枠136が縦に並んで設けられ、表示枠136の下方に、ボタン138が設けられる。
A
表示枠134は、操作者の応答内容を表示するための枠画像である。操作者の応答内容は、利用者の問い合わせ(または、質問)に対して応答(または、回答)する具体的な内容であるが、利用者に対する挨拶および利用者に対する問いかけなども含まれる。つまり、操作者側端末16から送信されたテキストデータが表示枠134に表示される。詳細な説明は省略するが、チャットの場合には、操作者側端末16から送信されたテキストデータは、操作者が入力装置58を用いてキー入力した内容についてのデータである。
The
表示枠136は、利用者の問い合わせ(質問)内容を表示するための枠画像である。チャットの場合には、利用者の質問内容は、利用者側端末12の入力装置28を用いて入力される。図5では省略するが、スマートフォンやタブレットPCでは、チャット画面130とは別にソフトウェアキーボードが表示され、ソフトウェアキーボードを用いて文字(テキスト)をタッチ入力したり、文字の入力が完了したこと(質問内容の送信)の指示をタッチ入力したりすることができる。質問内容の送信が指示されると、質問内容のテキストデータが操作者側端末16に送信される。したがって、操作者側端末16の表示装置60に質問内容のテキストが表示される。図示は省略するが、チャットにおいては、操作者側端末16の表示装置60に、応答内容と質問内容を表示可能なチャット画面が表示される。
The
ボタン138は、チャットを終了するためのボタンである。ボタン138がオンされると、チャットを終了し、チャット画面130が非表示され、選択画面110がウェブ画面100の前面に表示される。
A
図6はウェブ画面100の前面にトーク画面150が表示された状態の一例を示す。選択画面110においてボタン116がオンされると、図6に示すようなトーク画面150が表示される。
FIG. 6 shows an example of a state in which a
トーク画面150には、画面の上部に、表示枠152が設けられ、表示枠152内にアバターの画像120が表示される。また、トーク画面150には、表示枠152の下方であり、画面の下部に、ボタン154が設けられる。
A
詳細な説明は省略するが、トークの場合には、操作者側端末16から送信される音声データは、操作者がマイク62を通して入力した音声についてのデータである。操作者側端末16から送信された音声データは、利用者側端末12で受信され、スピーカ34から出力される。
Although detailed description is omitted, in the case of talk, the voice data transmitted from the operator-
また、トークの場合には、利用者側端末12から送信される音声データは、利用者がマイク32を通して入力した音声についてのデータである。また、利用者側端末12から送信された音声データは、操作者側端末16で受信され、スピーカ64から出力される。
In the case of talk, the voice data transmitted from the user-
ボタン154は、トークを終了するためのボタンである。ボタン154がオンされると、トークを終了し、トーク画面150が非表示され、選択画面110がウェブ画面100の前面に表示される。
A
上記のように、操作者の音声に対応する音声データは、利用者側端末12のスピーカ64から出力されるが、このとき、アバターは発話動作を行う。この第1実施例では、アバターの画像120は、スピーカ64から出力される音声にリップシンクされる。したがって、アバターの画像120が喋っているように表現される。
As described above, voice data corresponding to the voice of the operator is output from the
また、操作者側端末16では、操作者がマイク62を通して音声を入力したときに、その音声の音量を検出し、検出した音量についてのデータ(以下、「音量データ」)を、音声データに付加して、利用者側端末12に送信する。
When the operator inputs voice through the
ただし、音量データは、マイク62で検出された音声の音量の第2所定時間(この第1実施例では、1/10秒程度)分の平均値についてのデータであり、第2所定時間毎に算出される。ただし、平均値は一例であり、第2所定時間における音量の最大値でもよい。
However, the volume data is data about the average value of the volume of the voice detected by the
利用者側端末12は、操作者側端末16から受信した音声データに付加された音量データに基づいてアバターの画像120の大きさを決定するための比率pを算出する。ただし、比率pは、通常時におけるアバターの画像120の大きさを1(100%)とした場合の変化後の大きさの割合である。この第1実施例では、比率pは操作者の音声の音量が所定値よりも大きい場合に数1に従って算出される。また、第1実施例では、操作者の音声の音量が所定値よりも大きい場合において、音量が大きくなるにつれてアバターの画像120の大きさが大きくされる。ただし、音量が小さく、比率pが1よりも小さい場合には、アバターの画像120の大きさが通常時よりも小さくされる。
The user-
ただし、mは操作者の音声の音量であり、Mは予め設定した音量の最大値であり、Pは音量が最大値である場合の比率(たとえば、1.4)である。また、比率pの最小値は0.8に設定され、この最小値よりも小さい値になる場合の音量が所定値以下である。なお、比率pの初期値は1であり、比率pが算出されない場合には、初期値のままである。 Here, m is the volume of the operator's voice, M is the preset maximum volume, and P is the ratio (for example, 1.4) when the volume is at the maximum value. Also, the minimum value of the ratio p is set to 0.8, and the volume when the value is smaller than this minimum value is equal to or less than the predetermined value. Note that the initial value of the ratio p is 1, and remains the initial value when the ratio p is not calculated.
[数1]
p=P(m/M)
図7(A)は通常時におけるアバターの画像120を表示したトーク画面150の一例を示し、図7(B)は比率p=1.4で通常時から拡大したアバターの画像120を表示したトーク画面150の一例を示し、図7(C)は比率p=0.8で通常時から縮小したアバターの画像120を表示したトーク画面150の一例を示す。
[Number 1]
p=P(m/M)
FIG. 7(A) shows an example of a
詳細な説明は省略するが、トーク画面150(選択画面110およびチャット画面130も同様)では、アバターの画像120とアバターの画像120以外の画像(画面の表示枠、画面の背景、画面内の表示枠およびボタンの画像)は別のレイヤーで描画され、アバターの画像120が描画されたレイヤーが、アバターの画像120以外の画像が描画されたレイヤーの前面に配置される。
Although detailed description is omitted, on the talk screen 150 (the same applies to the
また、仮想空間において、通常時における、仮想カメラ(視点)の位置およびアバターの位置は予め決定されており、アバターの画像120を拡大または縮小する場合には、比率pに応じて、仮想カメラの位置または/およびアバターの位置が移動され、仮想カメラとアバターの距離が変更される。 Also, in the virtual space, the position of the virtual camera (viewpoint) and the position of the avatar are determined in advance in normal times. The position and/or position of the avatar is moved and the distance between the virtual camera and the avatar is changed.
ただし、他の実施例では、アバターの画像120を拡大または縮小する場合には、描画するアバターの画像120の大きさを拡大または縮小してもよいし、仮想カメラの画角を拡大または縮小してもよい。
However, in other embodiments, when enlarging or reducing the
図7(A)に示すように、通常時では、アバターの画像120は、上述したように、表示枠152に収まる所定の大きさで表示される。通常時では、アバターの頭部と首が表示される。
As shown in FIG. 7A, normally, the
図7(B)に示すように、アバターの画像120が拡大して表示されると、アバターの画像120は表示枠152からはみ出すことがある。したがって、2次元の画面に表示されたアバターの画像120が3次元の現実空間に飛び出そうとしているように見える。
As shown in FIG. 7B , when the
図7(C)に示すように、アバターの画像120が縮小して表示されると、アバターの画像120は利用者から離れる(または、遠ざかる)ように見える。
As shown in FIG. 7(C), when the
図示は省略するが、比率pは0.8以上1.4以下の間で算出されるため、アバターの画像120は、表示枠152からはみ出さないで、表示枠152内で拡大される場合もある。
Although illustration is omitted, since the ratio p is calculated between 0.8 and 1.4, the
このように、アバターの画像120が発話動作を行う場合には、音量に応じて算出した比率pに応じてアバターの画像120を拡大または縮小するので、奥行き感を表現することができ、2次元の画面に表示されているにも関わらず、立体感が得られる。つまり、存在感を増したアバターの画像120を表示することができる。
In this way, when the
また、拡大したアバターの画像120が表示枠152(枠画像)からはみ出すように表示される場合には、3次元の現実空間に飛び出そうとしているように見える。この場合にも、存在感を増したアバターの画像120を表示することができる。
Also, when the
図8は利用者側端末12に内蔵される記憶部(ここでは、RAM)22のメモリマップ300の一例を示す。RAMは、CPU20のワーク領域およびバッファ領域として使用される。図8に示すように、記憶部22は、プログラム記憶領域302およびデータ記憶領域304を含む。プログラム記憶領域302には、この実施例の制御プログラムが記憶されている。
FIG. 8 shows an example of a memory map 300 of the storage unit (here, RAM) 22 built into the user-
制御プログラムは、起動判断プログラム302a、メイン処理プログラム302b、操作検出プログラム302c、通信プログラム302d、画像生成プログラム302e、画像出力プログラム302f、アバター制御プログラム302g、比率算出プログラム302h、音検出プログラム302iおよび音出力プログラム302jなどを含む。上述した第1実施例のアプリは、メイン処理プログラム302b、操作検出プログラム302c、通信プログラム302d、画像生成プログラム302e、画像出力プログラム302f、アバター制御プログラム302g、比率算出プログラム302h、音検出プログラム302iおよび音出力プログラム302jを含む。
The control programs include an
ただし、アプリは、利用者側端末12が端末本体の機能として備える、操作検出プログラム、通信プログラム、画像生成プログラム、画像出力プログラム、音検出プログラムおよび音出力プログラムを利用することもできる。
However, the application can also use an operation detection program, a communication program, an image generation program, an image output program, a sound detection program, and a sound output program that the user-
起動判断プログラム302aは、この第1実施例のアプリを起動するかどうかを判断するためのプログラムである。メイン処理プログラム302bは、この第1実施例のアプリのメインルーチンの処理(全体的な処理)を実行するためのプログラムである。
The
操作検出プログラム302cは、利用者の操作に従って入力装置28から入力される操作データ304aを検出し、データ記憶領域304に記憶するためのプログラムである。
The
通信プログラム302dは、外部の機器、この第1実施例では、所定のサービスを提供するサイトを運営するためのサーバおよび操作者側端末16と有線または無線で通信(データの送信および受信)するためのプログラムである。
The
画像生成プログラム302eは、表示装置30に表示するための各種の画面の全部または一部に対応する画像データを、画像生成データ304dを用いて生成するためのプログラムである。
The
画像出力プログラム302fは、画像生成プログラム302eに従って生成した画像データを表示装置30に出力するためのプログラムである。
The
アバター制御プログラム302gは、アバターを動作させるためのプログラムである。この第1実施例では、CPU20は、アバター制御プログラム302gに従って、アバターに発話動作をさせたり、アバターに無意識動作をさせたり、アバターに挨拶の動作(挨拶の音声出力を含む)をさせたりする。
The
比率算出プログラム302hは、操作者の音声の音量に基づいて比率pを算出するためのプログラムである。また、第1実施例では、比率算出プログラム302hは、操作者の音声の音量が所定値よりも大きいかどうかを判断し、音量が所定値よりも大きい場合に、比率pを算出することを決定するためのプログラムでもある。
The
音検出プログラム302iは、マイク32から入力される操作者の音声を検出するためのプログラムである。
The sound detection program 302 i is a program for detecting the operator's voice input from the
音出力プログラム302jは、受信した操作者の音声データを出力するためのプログラムである。
The
図示は省略するが、プログラム記憶領域302には、利用者側端末12のオペレーティングシステムなどのミドルウェア、ブラウザ機能を実行するためのプログラム、本願のアプリ以外の他のアプリケーション・プログラムも記憶される。
Although not shown, the
また、データ記憶領域304には、操作データ304a、送信データ304b、受信データ304c、画像生成データ304dおよび比率データ304eなどが記憶される。
The
操作データ304aは、操作検出プログラム302cに従って検出された操作データである。送信データ304bは、操作者側端末16に送信するデータであり、チャットにおける利用者の質問内容についてのテキストデータおよびトークにおける利用者の質問内容についての音声データである。受信データ304cは、操作者側端末16から送信され、受信したデータであり、チャットにおける操作者の応答内容についてのテキストデータおよびトークにおける操作者の応答内容についての音声データである。
The
画像生成データ304dは、利用者側端末12の表示装置30に表示される各種の画面を生成するためのデータであり、アバターの画像120を生成するためのデータを含む。また、アバターの画像120を生成するためのデータは、アバターの画像120の静止した状態の画像データ、無意識動作および挨拶の動作についてのアニメーションデータを含む。比率データ304eは、比率pについてのデータである。比率pの初期値は1であり、比率算出プログラム302hに従って算出された比率pで更新される。また、操作者の音声を出力していないとき、すなわち、アバターが発話または発話動作を行っていないとき、比率pはリセットされ、初期値に戻される。
The
図示は省略するが、データ記憶領域304には、制御処理を実行するために必要な他のデータが記憶されたり、タイマ(カウンタ)およびフラグが設けられたりする。
Although not shown, the
また、図示は省略するが、操作者側端末16は利用者側端末12との間でチャットまたはトークを行うため、操作者側端末16の記憶部(ここでは、RAM)52には、利用者側端末12の記憶部22に記憶されるプログラムおよびデータと同様のプログラムおよびデータが記憶される。
Although not shown, the operator-
具体的には、操作者側端末16の記憶部52のプログラム記憶領域には、メイン処理プログラム、操作検出プログラム、通信プログラム、画像生成プログラム、画像出力プログラム、音検出プログラム、音量検出プログラムおよび音出力プログラムなどが記憶される。
Specifically, the program storage area of the
メイン処理プログラムは、チャットまたはトークでコミュニケーションを行う操作者側端末16のアプリケーションのメインルーチンの処理(全体的な処理)を実行するためのプログラムである。
The main processing program is a program for executing the main routine processing (overall processing) of the application of the
操作検出プログラムは、操作者の操作に従って入力装置58から入力される操作データを検出し、記憶部52のデータ記憶領域に記憶するためのプログラムである。
The operation detection program is a program for detecting operation data input from the
通信プログラムは、外部の機器、この第1実施例では、利用者側端末12およびサーバ18と有線または無線で通信するためのプログラムである。
The communication program is a program for wired or wireless communication with external devices, in this first embodiment, the
画像生成プログラムは、表示装置60に表示するための各種の画面に対応する画像データを、画像生成データを用いて生成するためのプログラムである。
The image generation program is a program for generating image data corresponding to various screens to be displayed on the
画像出力プログラムは、画像生成プログラムに従って生成した画像データを表示装置60に出力するためのプログラムである。
The image output program is a program for outputting image data generated according to the image generation program to the
ただし、操作者側端末16では、チャットまたはトークを選択したり、アバターの画像を表示したりする必要はない。このため、選択画面110のような画面は表示されず、チャット画面130およびトーク画面150のような画面では、利用者のアバターの画像は表示されない。ただし、利用者のアバターの画像が表示されるようにしてもよい。
However, the operator-
音検出プログラムは、マイク62から入力される操作者の音声を検出するためのプログラムである。
The sound detection program is a program for detecting the operator's voice input from the
音量検出プログラムは、音量検出プログラムに従って検出された音声の音量を検出するためのプログラムである。上述したように、音量は、マイク62で検出された音声の音量の第2所定時間(この第1実施例では、1/10秒程度)分の平均値であり、第2所定時間毎に算出される。
The volume detection program is a program for detecting the volume of voice detected according to the volume detection program. As described above, the volume is the average value of the volume of the voice detected by the
音出力プログラムは、受信した利用者の音声データを出力するためのプログラムである。 The sound output program is a program for outputting received voice data of the user.
また、記憶部52のデータ記憶領域には、送信データ、受信データ、画像生成データ、音声データおよび音量データなどが記憶される。
The data storage area of the
操作データは、操作検出プログラムに従って検出された操作データである。送信データは、利用者側端末12に送信するデータであり、チャットにおける操作者の応答についてのテキストデータおよびトークにおける操作者の応答についての音声データである。第1実施例では、音声データに音量データが付加される。受信データは、利用者側端末12から送信され、受信したデータであり、チャットにおける利用者の質問についてのテキストデータおよびトークにおける利用者の質問についての音声データである。
The operation data is operation data detected according to the operation detection program. The transmission data is data to be transmitted to the user-
画像生成データは、操作者側端末16の表示装置60に表示される各種の画面を生成するためのデータである。音声データは、音検出プログラムに従って検出された操作者の音声に対応するデータである。音量データは、音量検出プログラムに従って検出された音量に対応するデータである。
The image generation data is data for generating various screens displayed on the
なお、記憶部52には、利用者とチャットまたはトークを実行するために必要な他のプログラムおよびデータも記憶される。
Note that the
図9-図11は、利用者側端末12のCPU20の制御処理を示すフロー図である。図示は省略するが、CPU20は、制御処理と並行して、操作データの検出処理を実行するとともに、操作者側端末16からのデータを受信する処理を実行する。
9 to 11 are flowcharts showing control processing of the
図9に示すように、利用者側端末12のCPU20は、制御処理を開始すると、ステップS1で、アプリの起動条件を満たすかどうかを判断する。上述したように、CPU20は、所定のサービスのウェブ画面(第1実施例では、ウェブ画面100)を表示した状態において、利用者がアプリの起動(または、実行)を指示した場合、利用者の操作が第1所定時間(たとえば、30秒)以上無い場合、当該ウェブ画面において同じ位置または似たような場所(近くの位置)を指示している場合、所定のサービスにおいて複数回(たとえば、3回)同じウェブ画面に戻ってくる場合に、アプリの起動条件を満たすと判断する。
As shown in FIG. 9, when the control process is started, the
ステップS1で“NO”であれば、つまり、アプリの起動条件を満たしていない場合には、ステップS1に戻る。一方、ステップS1で“YES”であれば、つまり、アプリの起動条件を満たしていれば、ステップS3で、アプリを起動する。なお、制御処理において、ステップS3以降がアプリのメインルーチンの処理である。 If "NO" in step S1, that is, if the application activation condition is not satisfied, the process returns to step S1. On the other hand, if "YES" in step S1, that is, if the application activation condition is satisfied, the application is activated in step S3. In the control process, steps after step S3 are the process of the main routine of the application.
続くステップS5では、図4に示したような選択画面110をウェブ画面100の前面に表示する。ステップS5では、CPU20は、選択画面110についての画像データを生成し、生成した画像データを表示装置30に出力する。以下、画面を表示する場合について同様である。
In subsequent step S5, the
上述したように、アプリを起動した当初では、すなわち、アプリを起動して最初に選択画面110を表示するときに、CPU20は、静止した状態のアバターの画像120を表示した後に、アニメーションデータを再生し、アバターに挨拶の動作を行わせる。
As described above, when the application is initially started, that is, when the
次のステップS7では、アバターの画像120に待機動作を実行させる。上述したように、CPU20は、無意識動作を行わせる。ただし、CPU20は、選択画面110において利用者の操作が無い場合において、数秒または数十秒毎にアバターに無意識動作を実行させる。
In the next step S7, the
続いて、ステップS9で、ボタン操作が有るかどうかを判断する。ここでは、CPU20は、操作データ304aを参照して、選択画面110のボタン114またはボタン116がオンされたかどうかを判断する。なお、図示は省略するが、ボタン118がオンされた場合には、選択画面110を閉じて(非表示して)、アプリを終了する。
Subsequently, in step S9, it is determined whether or not there is a button operation. Here,
ステップS9で“NO”であれば、つまり、ボタン操作が無ければ、ステップS7に戻る。一方、ステップS9で“YES”であれば、つまり、ボタン操作が有れば、ステップS11で、チャットかどうかを判断する。ここでは、CPU20は、ボタン114のオンであるかを判断する。
If "NO" in step S9, that is, if there is no button operation, the process returns to step S7. On the other hand, if "YES" in step S9, that is, if there is a button operation, it is determined in step S11 whether or not there is a chat. Here, the
ステップS11で“NO”であれば、つまり、ボタン116のオンであれば、図11に示すステップS31に進む。一方、ステップS11で“YES”であれば、つまり、ボタン114のオンであれば、図10に示すステップS13で、図5に示したようなチャット画面130をウェブ画面100の前面に表示する。
If "NO" in step S11, that is, if
なお、利用者側端末12にハードウェアのキーボードが接続されていない場合には、ソフトウェアキーボードも表示される。また、チャット画面130が表示されるときに、選択画面110が非表示される。
If a hardware keyboard is not connected to the
次のステップS15では、質問内容の入力かどうかを判断する。ここでは、CPU20は、質問内容(テキスト)のキー入力があるかどうかを判断する。ステップS15で“YES”であれば、つまり、質問内容の入力であれば、ステップS17で、入力した質問内容を表示枠136に表示して、ステップS15に戻る。一方、ステップS15で“NO”であれば、つまり、質問内容の入力でなければ、ステップS19で、質問内容の送信かどうかを判断する。ここでは、CPU20は、質問内容が確定されたかどうかを判断する。
In the next step S15, it is determined whether or not the question content is input. Here, the
ステップS19で“YES”であれば、つまり、質問内容の送信であれば、ステップS21で、質問内容のテキストデータを操作者側端末16に送信して、ステップS23に進む。一方、ステップS19で“NO”であれば、つまり、質問内容の送信でなければ、ステップS23に進む。
If "YES" in the step S19, that is, if the content of the question is to be transmitted, the text data of the content of the question is transmitted to the operator-
ステップS23では、応答内容のテキストデータを受信したかどうかを判断する。ステップS23で“NO”であれば、つまり、応答内容のテキストデータを受信していなければ、ステップS27に進む。一方、ステップS23で“YES”であれば、つまり、応答内容のテキストデータを受信すれば、ステップS25で、応答内容の表示に合せてアバターを発話させて、ステップS27に進む。ステップS25では、CPU20は、応答内容を表示枠134に一文字ずつテキストで表示し、その表示に合せてアバターが喋るように口唇部を変化させて発話動作を行うアバターの画像120を表示枠132に表示する。なお、応答内容をすべて表示枠134に表示すると、質問内容を入力可能とするために、表示枠136の文字列がすべて消去(つまり、非表示)される。
In step S23, it is determined whether the text data of the content of the response has been received. If "NO" in step S23, that is, if the text data of the response content has not been received, the process proceeds to step S27. On the other hand, if "YES" in step S23, that is, if the text data of the response content is received, in step S25, the avatar is made to speak in accordance with the display of the response content, and the process proceeds to step S27. In step S25, the
ステップS27では、チャットの終了かどうかを判断する。ここでは、CPU20は、ボタン138がオンされたり、操作者側端末16からチャットの終了が指示されたりしたかどうかを判断する。
In step S27, it is determined whether or not the chat has ended. Here, the
ステップS27で“NO”であれば、つまり、チャットの終了でなければ、ステップS15に戻る。一方、ステップS27で“YES”であれば、つまり、チャットの終了であれば、ステップS29で、チャット画面130を閉じて、図9に示したステップS5に戻る。
If "NO" in step S27, that is, if the chat has not ended, the process returns to step S15. On the other hand, if "YES" in step S27, that is, if the chat ends, the
また、上述したように、ステップS11で“NO”であれば、図11に示すステップS31で、図6に示したようなトーク画面150をウェブ画面100の前面に表示する。なお、トーク画面150が表示されるときに、選択画面110が非表示される。また、トーク画面150が表示されるときに、すなわち、トークが開始されるときに、比率pが初期値(p=1)に設定される。
Also, as described above, if "NO" in step S11, the
続くステップS33では、音声の入力かどうかを判断する。ここでは、CPU20は、マイク32で音声を検出したかどうかを判断する。ステップS33で“NO”であれば、つまり、音声の入力でなければ、ステップS37に進む。一方、ステップS33で“YES”であれば、つまり、音声の入力であれば、ステップS35で、入力された音声に対応する音声データ(すなわち、質問内容の音声データ)を操作者側端末16に送信して、ステップS37に進む。
In the subsequent step S33, it is determined whether or not there is voice input. Here, the
ステップS37では、応答内容の音声データを受信したかどうかを判断する。ステップS37で“YES”であれば、つまり、応答内容の音声データを受信すれば、ステップS39で、後述する比率算出処理(図12参照)を実行して、ステップS41で、応答内容の音声データを出力し、ステップS43で、比率pに応じた大きさで、応答内容の音声データに合せて発話動作を行うアバターの画像120の画像データを生成し、出力して、ステップS33に戻る。したがって、スピーカ34から操作者の音声が出力されるとともに、トーク画面150において、比率pに応じた大きさで、喋っているように表現されるアバターの画像120が表示される。
In step S37, it is determined whether or not voice data of the content of the response has been received. If "YES" in step S37, that is, if voice data of response content is received, in step S39, ratio calculation processing (see FIG. 12), which will be described later, is executed, and in step S41, voice data of response content is , and in step S43, the image data of the
また、ステップS37で“NO”であれば、つまり、応答内容の音声データを受信していなければ、ステップS45で、比率pをリセットし、つまり、比率データ304eが示す比率pを初期値(1)に設定し、ステップS47で、通常の大きさでアバターを表示して、ステップS49に進む。つまり、操作者の音声を出力しない場合には、アバターの画像120の大きさが通常時の大きさに戻される。
If "NO" in step S37, that is, if the voice data of the response content has not been received, in step S45, the ratio p is reset, that is, the ratio p indicated by the
ステップS49では、トークの終了かどうかを判断する。ここでは、CPU20は、ボタン154がオンされたり、操作者側端末16からトークの終了が指示されたりしたかどうかを判断する。
In step S49, it is determined whether or not the talk has ended. Here, the
ステップS49で“NO”であれば、つまり、トーク終了でなければ、ステップS33に戻る。一方、ステップS49で“YES”であれば、つまり、トーク終了であれば、ステップS51で、トーク画面150を閉じて、ステップS5に戻る。
If "NO" in step S49, that is, if the talk has not ended, the process returns to step S33. On the other hand, if "YES" in step S49, that is, if the talk is finished, the
図12は、図11に示したステップS39の比率算出処理を示すフロー図である。図12に示すように、CPU20は、比率算出処理を開始すると、ステップS71で、音量が所定値よりも大きいかどうかを判断する。ここでは、CPU20は、受信した音声データに付加された音量データが示す音量が所定値を超えているかどうかを判断する。
FIG. 12 is a flowchart showing the ratio calculation process in step S39 shown in FIG. As shown in FIG. 12, when starting the ratio calculation process, the
ステップS71で“NO”であれば、つまり、音量が所定値以下であれば、比率算出処理を終了して、図9-図11に示した制御処理にリターンする。一方、ステップS71で“YES”であれば、つまり、音量が所定値よりも大きければ、ステップS73で、数1に従って比率pを算出する。
If "NO" in step S71, that is, if the sound volume is equal to or less than the predetermined value, the ratio calculation process is ended and the process returns to the control process shown in FIGS. 9-11. On the other hand, if "YES" in step S71, that is, if the volume is greater than the predetermined value, in step S73, the ratio p is calculated according to
続いて、ステップS75で、算出した比率pを記憶し、つまり、算出した比率pで比率データ304eを更新し、比率算出処理を終了して、制御処理にリターンする。
Subsequently, in step S75, the calculated ratio p is stored, that is, the
第1実施例によれば、アバターの画像を通常時よりも拡大または縮小して表示することで、奥行き感を表現することができ、2次元の画面に表示されているにも関わらず、立体感が得られる。つまり、存在感を増したアバターを表示することができる。 According to the first embodiment, by displaying the avatar image enlarged or reduced more than usual, it is possible to express a sense of depth. you get a feeling. That is, it is possible to display an avatar with increased presence.
また、第1実施例によれば、拡大したアバターの画像が枠画像からはみ出すように表示される場合には、3次元の現実空間に飛び出そうとしているように見える。つまり、存在感を増したアバターを表示することができる。 Further, according to the first embodiment, when the enlarged avatar image is displayed so as to protrude from the frame image, it looks like it is about to jump out into the three-dimensional real space. That is, it is possible to display an avatar with increased presence.
上記の第1実施例では、利用者側端末12で比率pを算出するようにしたが、これに限定される必要はない。操作者側端末16で比率pを算出し、比率pのデータを音声データに付加して利用者側端末12に送信するようにしてもよい。この場合、操作者側端末16では、CPU50は、操作者の音声を検出したときに、図12に示した比率算出処理を実行し、音声データに比率Pのデータを付加して利用者側端末12に送信する。一方、利用者側端末12では、比率pを算出する必要がないため、ステップS39の処理が省略され、ステップS43では、受信した音声データに付加された比率pのデータが示す比率pに応じた大きさで、応答内容の音声データに合せて発話動作を行うアバターの画像120の画像データを生成し、出力する。
In the first embodiment described above, the ratio p is calculated by the
なお、第1実施例では、操作者の音声データの音量に基づいてアバターを拡大または縮小するようにしたが、これに限定される必要はない。他の実施例では、操作者が発話するときの目の開き具合に基づいてアバターを拡大または縮小するようにしてもよい。ただし、操作者の目の開き具合は、操作者の顔画像を撮影し、撮影した顔画像から抽出した複数の特徴点のうち、操作者の目の上瞼と下瞼についての特徴点の距離を算出することにより、検出することができる。たとえば、操作者が発話していないときの目の開き具合と、操作者が発話しているときの目の開き具合との差に基づいて比率pが算出される。 In addition, in the first embodiment, the avatar is enlarged or reduced based on the volume of the voice data of the operator, but it is not necessary to be limited to this. In another embodiment, the avatar may be scaled up or down based on how the operator's eyes open when speaking. However, the degree of opening of the operator's eyes is determined by photographing the operator's face image, and out of a plurality of feature points extracted from the photographed face image, the distance between the feature points for the upper eyelid and lower eyelid of the operator's eye. can be detected by calculating For example, the ratio p is calculated based on the difference between the eye openness when the operator is not speaking and the eye openness when the operator is speaking.
また、第1実施例では、操作者の音声の音量が所定値よりも大きい場合において、音量が大きくなるにつれてアバターの画像120の大きさが大きくされるようにしたが、音量が大きくなるにつれてアバターの画像120の大きさが小さくされるようにしてもよい。この場合、音量が小さく、比率pが1よりも小さい場合に、アバターの画像120の大きさが通常時よりも大きくされる。
In addition, in the first embodiment, when the volume of the voice of the operator is higher than a predetermined value, the size of the
さらに、第1実施例では、チャットおよびトークにおいては、利用者側端末12と操作者側端末16がネットワーク14を介して通信するようにしたが、サーバ18を介して通信するようにしてもよい。かかる場合には、サーバ18が操作者の音声データに付加された音量データが示す音量に基づいて比率pを算出し、サーバ18は、音声データに算出た比率pのデータを付加して、利用者側端末12に送信するようにしてもよい。
Furthermore, in the first embodiment, in chat and talk, the
<第2実施例>
第2実施例は、トークにおいて、操作者の音声の音量に基づいて比率pを算出することに変えて、操作者が発話するときの操作者の首の動きに基づいて比率pを算出するようにした以外は、第1実施例と同じであるため、重複した説明は省略する。
<Second embodiment>
In the second embodiment, in the talk, instead of calculating the ratio p based on the volume of the operator's voice, the ratio p is calculated based on the movement of the operator's neck when the operator speaks. Since it is the same as the first embodiment except that it is changed, redundant description is omitted.
図13は第2実施例の操作者側端末16の電気的な構成を示すブロック図である。図13に示すように、第2実施例の操作者側端末16は、センサインタフェース(センサI/F)66および慣性センサ68をさらに備えている。
FIG. 13 is a block diagram showing the electrical configuration of the operator-
センサI/F66には、慣性センサ68が接続されている。この第2実施例では、慣性センサ68として、角速度センサが用いられる。慣性センサ68は、マイク62およびスピーカ64で構成するヘッドセットに設けられ、操作者の首の縦方向および横方向の動き(この第2実施例では、頷き動作および首振り動作)を検出する。したがって、操作者の首の縦方向の動きを検出するための軸周りと、操作者の首の横方向の動きを検出するための軸周りの角速度を検出可能な角速度センサが用いられる。一例として、操作者の首の縦方向の動きを検出するための軸は、操作者の両耳を通る直線に平行な軸である。また、一例として、操作者の首の横方向の動きを検出するための軸は、操作者の頭頂部を通り延長方向に延びる軸である。
An
ただし、慣性センサ68としては、3軸の加速度センサを用いるようにしてもよい。この場合、操作者の顔の正面方向、頭部の横方向および頭部の縦方向のそれぞれに延びる軸の加速度が検出される。
However, as the
第2実施例では、トークにおいては、操作者の音声に対応する音声データに、操作者が発話するときに、慣性センサ68で検出された角速度のデータ(後述する「首の動きデータ」)が付加され、利用者側端末12に送信される。
In the second embodiment, in the talk, angular velocity data ("neck movement data" to be described later) detected by the
ただし、首の動きデータは、慣性センサ68で検出された第3所定時間(この第2実施例では、1/10秒程度)分の複数の角速度の平均値についてのデータであり、第3所定時間毎に算出される。ただし、平均値は一例であり、第3所定時間における音量の最大値でもよい。また、第3所定時間は第2所定時間と同じでなくてもよい。
However, the neck movement data is data on the average value of a plurality of angular velocities detected by the
利用者側端末12は操作者側端末16から音声データを受信すると、受信した音声データに付加された慣性データに応じてアバターの画像120を拡大または縮小する。
When the user-
この第2実施例では、操作者の首の縦方向の動きに基づいてアバターの画像120が拡大され、操作者の首の横方向の動きに基づいてアバターの画像120の大きさが縮小される。ただし、これは一例であり、操作者の首の縦方向の動きに基づいてアバターの画像120の大きさが縮小され、操作者の首の横方向の動きに基づいてアバターの画像120の大きさが拡大されてもよい。
In this second embodiment, the
図14(A)は操作者が頷く場合(つまり、顔を下に向けるように操作者の首が動いた場合)の比率pの算出方法を説明するための図であり、図14(B)は操作者が首を振る場合(つまり、顔を右に向けるように操作者の首が動いた場合)の比率pの算出方法を説明するための図である。 FIG. 14A is a diagram for explaining a method of calculating the ratio p when the operator nods (that is, when the operator's neck moves to face downward), and FIG. 4 is a diagram for explaining a method of calculating the ratio p when the operator shakes his head (that is, when the operator's neck moves so as to turn his face to the right); FIG.
この第2実施例では、操作者の首の動きについてのデータ(以下、「首の動きデータ」という)を用いて、仮想空間においてアバターの首を動かし、それによって得られる数値(パラメータ)に基づいて比率pが算出される。図14(A)および図14(B)では、アバターの頭部および首の画像を示してあるが、実際には、計算のみが実行され、比率pを算出するためにアバターの画像120が描画される必要はない。
In this second embodiment, data about the movement of the operator's neck (hereinafter referred to as "neck movement data") is used to move the neck of the avatar in the virtual space, and based on the numerical values (parameters) obtained by this movement, , the ratio p is calculated. Although FIGS. 14A and 14B show images of the avatar's head and neck, in reality only calculations are performed and the avatar's
したがって、計算においては、アバターの頭部のモデルは、球または楕円球で設定され、球または楕円球において、アバターの目の位置に相当する位置に、アバターの眼球に相当する大きさの球体が設定される。首については、頷く場合の回転軸Xと首を振る場合の回転軸Yのみが設定される。 Therefore, in the calculation, the model of the avatar's head is set as a sphere or an elliptical sphere, and in the sphere or elliptical sphere, spheres of a size corresponding to the avatar's eyeballs are placed at positions corresponding to the positions of the avatar's eyes. set. For the head, only the rotation axis X for nodding and the rotation axis Y for shaking the head are set.
図14(A)および図14(B)では、左側に記載したアバターの頭部および首の画像は、首を動かしていない状態、すなわち、アバターが仮想カメラに対して正対した状態を示す。ただし、図14(A)では、アバターを横から見た図であり、図14(B)では、アバターを上から見た図である。図示は省略するが、図14(A)および図14(B)では、仮想カメラは、アバターの正面方向であり、所定距離だけ隔てた位置に配置される。また、仮想カメラおよびアバターの上下方向の位置は、仮想カメラの視線がアバターの頭部の中心を通るように設定される。 In FIGS. 14A and 14B, the images of the avatar's head and neck shown on the left side show a state in which the neck is not moved, that is, the avatar faces the virtual camera. However, FIG. 14A is a side view of the avatar, and FIG. 14B is a top view of the avatar. Although illustration is omitted, in FIGS. 14(A) and 14(B), the virtual camera is in the front direction of the avatar and is arranged at a position separated by a predetermined distance. Also, the vertical positions of the virtual camera and the avatar are set so that the line of sight of the virtual camera passes through the center of the avatar's head.
図14(A)に示すように、操作者が頷く場合には、回転軸Xを中心に、アバターの頭部および眼球が前方に(仮想カメラ側に)回転される。アバターの眼球のうち、仮想カメラ側に最も突出した部分(点)を含み、仮想カメラの視線と直交する面を基準面とし、首の動きの前後における基準面の移動距離dを用いて比率pを算出する。図14(A)に示すように、操作者が頷く場合には、基準面は移動距離dだけ仮想カメラ側に近づく。 As shown in FIG. 14A, when the operator nods, the head and eyeballs of the avatar are rotated forward (toward the virtual camera) around the rotation axis X. As shown in FIG. Among the eyeballs of the avatar, the plane that includes the part (point) that protrudes most toward the virtual camera side and is perpendicular to the line of sight of the virtual camera is taken as a reference plane, and the moving distance d of the reference plane before and after the movement of the neck is used to calculate the ratio p. Calculate As shown in FIG. 14A, when the operator nods, the reference plane moves closer to the virtual camera by the moving distance d.
また、図14(B)に示すように、操作者が首を振る場合には、回転軸Yを中心に、アバターの頭部および眼球が右向き(図示しないが、左向きでもよい)に回転される。アバターの両目の眼球のうち、仮想カメラ側に最も突出した部分(点)を結ぶ直線の中点を含み、仮想カメラの視線と直交する面を基準面とし、首の動きの前後における移動距離dを用いて比率pを算出する。図14(B)に示すように、操作者が首を振る場合には、基準面は移動距離dだけ仮想カメラから遠ざかる。 Also, as shown in FIG. 14B, when the operator shakes his/her head, the head and eyeballs of the avatar are rotated rightward (not shown, but may be leftward) around the rotation axis Y. . The reference plane is a plane perpendicular to the line of sight of the virtual camera that includes the midpoint of a straight line that connects the points (points) of the avatar's eyeballs that protrude most toward the virtual camera. to calculate the ratio p. As shown in FIG. 14B, when the operator shakes his/her head, the reference plane moves away from the virtual camera by a moving distance d.
ただし、移動距離dは、仮想カメラに対する基準面の移動量の絶対値である。 However, the movement distance d is the absolute value of the movement amount of the reference plane with respect to the virtual camera.
第2実施例では、操作者が頷く場合には、数2に従って比率pが算出され、操作者が首を振る場合には、数3に従って比率pが算出される。ただし、数2および数3において、Dは基準面の最大移動距離であり、Pは最大移動距離の場合の比率(拡大率:1.4)であり、Qは最大距離の場合の比率(縮小率:0.8)る。ただし、最大移動距離Dは、頷く場合には、操作者の顔が水平になるまで頷いたときの移動距離dであり、首を振る場合には、操作者の顔が真横になるまで首を振ったときの移動距離dである。ただし、操作者が頷く場合には、アバターの画像120を拡大する(すなわち、p>1である)ため、数2では、移動距離dはD/Pよりも大きい。また、操作者が首を振る場合には、アバターの画像120を縮小する(すなわち、p<1である)ため、数3では、移動距離dはDQよりも大きい。
In the second embodiment, the ratio p is calculated according to
[数2]
p=P(d/D)
ただし、D/P<d≦Dである。
[Number 2]
p=P(d/D)
However, D/P<d≦D.
[数3]
p=Q(D/d)
ただし、DQ<d≦Dである。
[Number 3]
p=Q(D/d)
However, DQ<d≦D.
このように、第2実施例では、音量データに代えて、操作者の音声データに操作者の首の動きデータが付加される点と、第1実施例で示した比率算出処理の一部が第1実施例とは異なる。ただし、首の動きデータには、頷きか首振りかを識別する情報も含まれている。 Thus, in the second embodiment, instead of the volume data, the operator's neck movement data is added to the operator's voice data, and part of the ratio calculation processing shown in the first embodiment is performed. It differs from the first embodiment. However, the neck movement data also includes information that identifies whether the person is nodding or shaking his/her head.
したがって、第2実施例では、操作者側端末16の記憶部52のプログラム記憶領域では、音量検出プログラムに代えて首の動きを検出するための動き検出プログラムが記憶される。また、第2実施例では、操作者側端末16の記憶部52のデータ記憶領域では、音量データに代えて首の動きデータが記憶される。
Therefore, in the second embodiment, a motion detection program for detecting neck motion is stored in the program storage area of the
動き検出プログラムは、音検出プログラムに従って利用者の音声を検出しているときに、慣性センサ68で検出された角速度に対応する角速度データを記憶部52のデータ記憶部に記憶するためのプログラムである。また、首の動きデータは、動き検出プログラムに従って検出された操作者の首の動きについてのデータである。
The motion detection program is a program for storing angular velocity data corresponding to the angular velocity detected by the
図15に示すように、第2実施例の比率算出処理では、ステップS71の処理に代えて、ステップS71aの処理が実行される。CPU20は、ステップS71aで、操作者の首の動きを示すパラメータ(この第2実施例では、移動距離d)が所定の範囲内であるかどうかを判断する。つまり、操作者が頷く場合には、移動距離dが数2に記載した範囲内であるかどうかを判断する。また、操作者が首を振る場合には、移動距離dが数3に記載した範囲内であるかどうかを判断する。
As shown in FIG. 15, in the ratio calculation process of the second embodiment, the process of step S71a is executed instead of the process of step S71. In step S71a, the
ステップS71aで“NO”であれば、つまり、操作者の首の動きを示すパラメータが所定の範囲内でなければ、比率算出処理を終了して、制御処理にリターンする。一方、ステップS71aで“YES”であれば、つまり、操作者の首の動きを示すパラメータが所定の範囲内であれば、ステップS73で、比率pを算出する。ただし、操作者が頷く場合には、CPU20は、数2に従って比率p(第2実施例では、拡大率)を算出する。また、操作者が首を振る場合には、CPU20は、数3に従って比率p(第2実施例では、縮小率)を算出する。
If "NO" in step S71a, that is, if the parameter indicating the motion of the operator's neck is not within the predetermined range, the ratio calculation process is terminated and the process returns to the control process. On the other hand, if "YES" in step S71a, that is, if the parameter indicating the motion of the operator's neck is within a predetermined range, the ratio p is calculated in step S73. However, when the operator nods, the
続いて、ステップS75で、算出した比率pを記憶し、つまり、算出した比率pで比率データ304eを更新し、比率算出処理を終了して、制御処理にリターンする。
Subsequently, in step S75, the calculated ratio p is stored, that is, the
第2実施例においても、アバターの画像を通常時よりも拡大または縮小して表示することで、奥行き感を表現することができ、2次元の画面に表示されているにも関わらず、立体感が得られる。つまり、存在感を増したアバターを表示することができる。 In the second embodiment as well, by displaying the avatar image enlarged or reduced more than usual, it is possible to express a sense of depth. is obtained. That is, it is possible to display an avatar with increased presence.
また、第2実施例においても、拡大したアバターの画像が枠画像からはみ出すように表示される場合には、3次元の現実空間に飛び出そうとしているように見える。つまり、存在感を増したアバターを表示することができる。 Also in the second embodiment, when the enlarged avatar image is displayed so as to protrude from the frame image, it looks like it is about to jump out into the three-dimensional real space. That is, it is possible to display an avatar with increased presence.
なお、第2実施例では、3次元の仮想空間において、アバターの頭部モデルを設定し、操作者の首の動きに基づいてアバターの首を動かし、それによって得られる数値(パラメータ)に基づいて比率pを算出するようにしたが、これに限定される必要はない。他の例では、2次元の仮想空間において、アバターの頭部モデルを円または楕円で設定し、頷く場合と首を横に振る場合に分けて、2次元で計算してもよい。つまり、図14(A)および図14(B)に示したように、それぞれに分けて計算される。この場合、基準面に代えて基準線が設定され、移動距離dが算出される。 In the second embodiment, the avatar's head model is set in a three-dimensional virtual space, the avatar's neck is moved based on the movement of the operator's neck, and numerical values (parameters) obtained thereby are used. Although the ratio p is calculated, it is not necessary to be limited to this. In another example, the head model of the avatar may be set as a circle or an ellipse in a two-dimensional virtual space, and two-dimensional calculations may be performed separately for nodding and shaking the head. That is, as shown in FIGS. 14(A) and 14(B), they are calculated separately. In this case, a reference line is set instead of the reference plane, and the moving distance d is calculated.
また、第2実施例では、操作者の首の動きを頷く場合と振る場合とに分けて比率pを算出するようにしてあるが、他の実施例では、単に、操作者の首の動きで、つまり、各軸周りの角速度の大きさ(最大値または平均値)で、比率pを算出するようにしてもよい。 Further, in the second embodiment, the ratio p is calculated by dividing the motion of the operator's neck into the case of nodding and the case of shaking the operator's neck. , that is, the ratio p may be calculated based on the magnitude (maximum value or average value) of the angular velocities around each axis.
また、第2実施例では、チャットおよびトークにおいては、利用者側端末12と操作者側端末16がネットワーク14を介して通信するようにしたが、サーバ18を介して通信するようにしてもよい。かかる場合には、サーバ18が操作者の音声データに付加された首の動きデータが示す操作者の首の動きに基づいて比率pを算出し、サーバ18は、音声データに算出た比率pのデータを付加して、利用者側端末12に送信するようにしてもよい。
In addition, in the second embodiment, in chat and talk, the
さらに、第2実施例では、慣性センサで操作者の首の動きを検出するようにしたが、これに限定される必要はない。他の例では、操作者の顔の向きに基づいて首の動きを検出するようにしてもよい。かかる場合には、慣性センサに代えて、イメージセンサ(CCDカメラすなわちWebカメラ)が操作者の顔を撮影可能な位置に設けられる。一例として、表示装置60の上部にCCDカメラが設けられ、CCDカメラ(または、表示装置60)に正対する操作者の顔画像の向きを基準として、現在の顔の向きが現在の顔画像に基づいて算出され、現在の顔の向きに基づいて操作者の首の動きが推定される。ただし、顔の向きは、顔画像から抽出した複数の顔の特徴点の動きで検出することができる。
Furthermore, in the second embodiment, the motion of the operator's neck is detected by the inertial sensor, but it is not necessary to be limited to this. In another example, neck movement may be detected based on the orientation of the operator's face. In such a case, instead of the inertial sensor, an image sensor (CCD camera, ie web camera) is provided at a position where the operator's face can be photographed. As an example, a CCD camera is provided above the
<第3実施例>
第3実施例では、操作者側端末16でアバターの画像120に対応する画像データを生成するようにした以外は第1実施例と同じであるため、重複した説明は省略する。
<Third embodiment>
The third embodiment is the same as the first embodiment except that the
簡単に説明すると、第3実施例は、少なくともトークにおいて、操作者側端末16で、アバターの画像120に対応する画像データを生成し、生成した画像データを利用者側端末12に送信し、利用者側端末12は受信した画像データを用いてアバターの画像120をトーク画面150に表示する。
Briefly, in the third embodiment, at least in the talk, the operator-
第3実施例では、トークにおいて、操作者が発話すると、操作者側端末16は、操作者が発話した音声およびその音量を検出し、操作者の音声の音量が所定値よりも大きい場合に数1に従って比率pを算出する。上述したように、操作者の音声の音量が所定値以下である場合には、比率pは算出されず、初期値(p=1)のままである。
In the third embodiment, when the operator speaks in a talk, the operator-
続いて、操作者側端末16は、比率pに応じた大きさで、操作者の応答内容の音声に合せて発話動作を行うアバターの画像120の画像データを生成する。
Subsequently, the operator-
なお、アバターの画像120の画像データを生成する方法は、第1実施例で説明した方法と同じである。
The method of generating the image data of the
操作者側端末16は、検出した音声の音声データと生成した画像データを利用者側端末12に送信する。利用者側端末12は、音声データおよび画像データを受信し、音声データの出力に合せて、画像データを用いてトーク画面150のアバターの画像120を表示する。つまり、利用者側端末12では、スピーカ34から操作者の音声が出力されるとともに、トーク画面150において、比率pに応じた大きさで、喋っているように表現されるアバターの画像120が表示される。
The
したがって、第3実施例では、操作者側端末16の記憶部(RAM)52に、図8に示したアバター制御プログラム302gおよび比率算出プログラム302hと同じプログラムがさらに記憶される。このため、第3実施例では、利用者側端末12において、比率算出プログラム302hおよび比率データ304eが削除される。また、操作者側端末16の記憶部52のデータ記憶領域には、図8に示した比率データ304eと同じデータがさらに記憶される。
Therefore, in the third embodiment, the same programs as the
また、第3実施例の操作者側端末16では、トークにおいて、利用者側端末12から送信された音声データを受信して、出力したり、操作者の音声データおよび音量データを検出して、音声データを利用者側端末12に送信したりする処理に加えて、アバターの画像120の画像データを生成する処理(以下、「アバターの画像生成処理」という)が実行される。
Further, in the operator-
具体的には、操作者側端末16は、操作者が発話した音声の音量に基づいて比率pを算出し、算出した比率pに応じた大きさで、応答内容の音声データに合せて発話動作を行うアバターの画像120の画像データを生成する。
Specifically, the operator-
操作者側端末は、検出した音声データと生成した画像データを、利用者側端末12に送信する。また、第3実施例では、操作者側端末16がアバターの画像120の画像データを生成するため、音量データは音声データに付加されない。
The operator-side terminal transmits the detected audio data and the generated image data to the user-
以下、具体的な処理について説明する。図16は、第3実施例における利用者側端末12のCPU20の制御処理の一部を示すフロー図である。図17は、第3実施例における操作者側端末16のCPU50のアバターの画像生成処理を示すフロー図である。以下、CPU20の制御処理について説明するとともに、CPU50のアバターの画像生成処理について説明するが、既に説明した処理については説明を省略する。
Specific processing will be described below. FIG. 16 is a flowchart showing part of the control processing of the
図16に示すように、利用者側端末12のCPU20は、ステップS33で“NO”である場合に、または、ステップS35の処理を実行した場合に、ステップS91で、応答内容の音声データおよび画像データを受信したかどうかを判断する。
As shown in FIG. 16, the
ステップS91で“NO”であれば、つまり、応答内容の音声データおよび画像データを受信していない場合には、ステップS47に進む。一方、ステップS91で“YES”であれば、つまり、応答内容の音声データおよび画像データを受信した場合には、ステップS93で、応答内容の音声データの出力に合せて画像データを出力して、ステップS33に戻る。したがって、操作者の音声が利用者側端末12で出力されるとともに、出力された音声に合せて、比率pに応じた大きさのアバターが喋る動作を行う画像が表示される。
If "NO" in step S91, that is, if voice data and image data of the response content have not been received, the process proceeds to step S47. On the other hand, if "YES" in step S91, that is, if voice data and image data of the response content have been received, in step S93, the image data is output in accordance with the output of the voice data of the response content, Return to step S33. Therefore, the operator's voice is output from the user-
次に、図17を参照して、操作者側端末16のCPU50のアバターの画像生成処理について説明するが、既に説明した処理内容についての説明は省略する。なお、アバターの画像生成処理は、操作者の音声がマイク62で検出された場合に実行される。
Next, avatar image generation processing of the
図17に示すように、CPU50は、アバターの画像生成処理を開始すると、ステップS111で、音量が所定値よりも大きいかどうかを判断する。ステップS111で“NO”であれば、つまり、音量が所定値以下であれば、ステップS115に進む。一方、ステップS111で“YES”であれば、つまり、音量が所定値よりも大きければ、ステップS113で、数1に従って比率pを算出して、ステップS115に進む。
As shown in FIG. 17, when the avatar image generation process is started, the
ステップS115では、比率pに応じた大きさで、応答内容の音声データに合せて発話動作を行うアバターの画像120の画像データを生成して、アバターの画像生成処理を終了する。
In step S115, the image data of the
このように生成された画像データが、応答内容の音声データとともに、利用者側端末12に送信される。
The image data generated in this manner is transmitted to the user-
第3実施例においても、アバターの画像を通常時よりも拡大または縮小して表示することで、奥行き感を表現することができ、2次元の画面に表示されているにも関わらず、立体感が得られる。つまり、存在感を増したアバターを表示することができる。 In the third embodiment as well, by displaying the avatar image enlarged or reduced more than usual, it is possible to express a sense of depth. is obtained. That is, it is possible to display an avatar with increased presence.
また、第3実施例においても、拡大したアバターの画像が枠画像からはみ出すように表示される場合には、3次元の現実空間に飛び出そうとしているように見える。つまり、存在感を増したアバターを表示することができる。 Also in the third embodiment, when the enlarged avatar image is displayed so as to protrude from the frame image, it looks like it is about to jump out into the three-dimensional real space. That is, it is possible to display an avatar with increased presence.
なお、第3実施例では、操作者の音声の音量に基づいてアバターの画像120を拡大または縮小するようにしたが、これに限定される必要はない。操作者の目の開き具合に基づいてアバターの画像120を拡大または縮小するようにしてもよい。
In addition, in the third embodiment, the
また、第3実施例では、第2実施例で示したように、操作者の首の動きに基づいてアバターの画像120を拡大または縮小するようにしてもよい。この場合、図17に示したアバターの画像生成処理において、操作者が発話するときの音声データのみならず、操作者の首の動きデータが検出される。また、図17に示したステップS111の処理に代えて、操作者の首の動きを示すパラメータ(第3実施例では、移動距離d)が所定の範囲内であるかどうかを判断する処理が実行される。つまり、操作者が頷く場合には、移動距離dが数2に記載した範囲内であるかどうかを判断する。また、操作者が首を振る場合には、移動距離dが数3に記載した範囲内であるかどうかを判断する。操作者の首の動きを示すパラメータが所定の範囲内でなければ、ステップS115に進み、操作者の首の動きを示すパラメータが所定の範囲内であれば、ステップS113で、数2または数3に従って比率pを算出して、ステップS115に進む。
Also, in the third embodiment, as shown in the second embodiment, the
<第4実施例>
第4実施例では、サーバ18側で制御処理を実行するようにした以外は、第1実施例と同じであるため、重複した説明は省略する。
<Fourth embodiment>
The fourth embodiment is the same as the first embodiment except that the control processing is executed on the
上述したように、第4実施例では、サーバ18が制御処理を実行するため、制御処理に関しては、利用者側端末12は入出力装置として機能する。したがって、利用者側端末12は、制御処理において、利用者の操作または入力に応じた操作データおよび利用者の音声に応じた音声データをサーバ18に送信し、サーバ18が送信した画像データ、テキストデータおよび音声データを出力する。
As described above, in the fourth embodiment, the
第4実施例の情報処理システム10では、第1実施例で説明したアプリはサーバ18に記憶されており、サーバ18で実行される。
In the
したがって、第4実施例では、サーバ18の記憶部(RAM)18bのプログラム記憶領域には、図8に示した起動判断プログラム302a、メイン処理プログラム302b、通信プログラム302d、画像生成プログラム302e、画像出力プログラム302f、アバター制御プログラム302g、比率算出プログラム302hおよび音出力プログラム302jと同じプログラムが記憶される。ただし、第4実施例では、画像出力プログラム302fは、画像生成プログラム302eに従って生成した画像データを利用者側端末12に出力(または、送信)する。また、音出力プログラム302jは、受信した操作者の応答内容の音声データを利用者側端末12に出力(または、送信)する。
Therefore, in the fourth embodiment, the program storage area of the storage unit (RAM) 18b of the
また、サーバ18の記憶部(RAM)18bのデータ記憶領域には、送信データ、受信データ、画像生成データおよび比率データが記憶される。送信データは、利用者側端末12に送信するデータであり、ウェブ画面100、選択画面110、チャット画面130、トーク画面150の画像データ、アバターの画像120の画像データ、チャットにおける利用者の質問内容についてのテキストデータ、チャットにおける操作者の応答内容についてのテキストデータおよびトークにおける利用者の質問内容についての音声データおよび操作者の応答内容についての音声データである。受信データは、操作者側端末16から送信され、受信したデータであり、チャットにおける操作者の応答内容についてのテキストデータおよびトークにおける操作者の応答内容についての音声データ(第4実施例では、音量データが付加された音声データ)である。
A data storage area of a storage unit (RAM) 18b of the
画像生成データは、利用者側端末12の表示装置30に表示される各種の画面を生成するためのデータであり、アバターの画像120を生成するためのデータを含む。また、アバターの画像120を生成するためのデータは、アバターの画像120についての静止した状態の画像データ、無意識動作および挨拶の動作についてのアニメーションデータを含む。比率データは、比率pについてのデータである。
The image generation data is data for generating various screens displayed on the
また、第4実施例では、サーバ18が制御処理を実行するため、利用者側端末12では、起動判断プログラム302a、アバター制御プログラム302gおよび比率算出プログラム302hを省略することができる。同様に、利用者側端末12には、比率データ304eは記憶されない。
In addition, in the fourth embodiment, since the
具体的には、サーバ18のCPU18aが図18-図20に示す制御処理を実行する。以下、図18-図20を用いてサーバ18のCPU18aが実行する制御処理について説明するが、既に説明した内容と重複する内容については簡単に説明することにする。
Specifically, the
図18に示すように、サーバ18のCPU18aは、制御処理を開始すると、ステップS201で、アプリの起動条件を満たすかどうかを判断する。ステップS201で“NO”であれば、ステップS201に戻る。一方、ステップS201で“YES”であれば、ステップS203で、アプリを起動する。
As shown in FIG. 18, when the control process is started, the
続くステップS205では、図4に示したような選択画面110を利用者側端末12に表示する。つまり、CPU18aは、図4に示したような選択画面110の画像データを生成して利用者側端末12に出力(または、送信)する。したがって、利用者側端末12の表示装置30において、選択画面110がウェブ画面100の前面に表示される。以下、利用者側端末12に画面が表示される場合について同様である。
In subsequent step S205, the
ただし、アプリを起動した当初では、CPU18aは、静止した状態のアバターの画像120を表示枠112に表示する選択画面110の画像データを生成して利用者側端末12に送信し、次いで、アバターに挨拶の動作を行わせるためのアニメーションデータを利用者側端末12に出力する。
However, when the application is first started, the
次のステップS207では、アバターの画像120に待機動作を実行させる。ここでは、CPU18aは、アバターに無意識動作を行わせるためのアニメーションデータを利用者側端末12に送信する。ただし、CPU18aは、選択画面110において利用者の操作が無い場合において、数秒または数十秒毎にアバターに無意識動作を行わせるためのアニメーションデータを送信する。
In the next step S207, the
続いて、ステップS209で、ボタン操作が有るかどうかを判断する。ここでは、CPU18aは、選択画面110のボタン114またはボタン116がオンされたことを示す操作データを利用者側端末12から受信したかどうかを判断する。なお、図示は省略するが、ボタン118がオンされたことを示す操作データを受信した場合には、選択画面110を閉じる(非表示する)ことを利用者側端末12に指示して、アプリを終了する。
Subsequently, in step S209, it is determined whether or not there is a button operation. Here, the
ステップS209で“NO”であれば、ステップS207に戻る。一方、ステップS209で“YES”であれば、ステップS211で、チャットかどうかを判断する。ここでは、CPU18aは、操作データがボタン114のオンを示すかどうかを判断する。
If "NO" in step S209, the process returns to step S207. On the other hand, if "YES" in step S209, it is determined in step S211 whether or not it is a chat. Here, the
ステップS211で“NO”であれば、つまり、ボタン116のオンであれば、図20に示すステップS231に進む。一方、ステップS211で“YES”であれば、つまり、ボタン114のオンであれば、図19に示すステップS213で、図5に示したようなチャット画面130を利用者側端末12に表示する。つまり、CPU18aは、図5に示したようなチャット画面130の画像データを生成して利用者側端末12に送信する。
If "NO" in step S211, that is, if
したがって、利用者側端末12の表示装置30では、選択画面110が非表示され、ウェブ画面100の前面にチャット画面130が表示される。
Therefore, the
次のステップS215では、質問内容の入力かどうかを判断する。ここでは、CPU18aは、質問内容(テキスト)のキー入力を示す操作データを利用者側端末12から受信したかどうかを判断する。
In the next step S215, it is determined whether or not the content of the question is input. Here, the
ステップS215で“YES”であれば、ステップS217で、操作データが示すキー入力に対応する文字または文字列を表示枠136にテキストで表示する画像データを生成して利用者側端末12に送信して、ステップS215に戻る。
If "YES" in step S215, then in step S217 image data for displaying characters or character strings corresponding to the key input indicated by the operation data as text in
したがって、利用者側端末12では、チャット画面130の表示枠136に、利用者が入力した質問内容についての文字または文字列が順次表示される。
Therefore, on the user-
一方、ステップS215で“NO”であれば、ステップS219で、質問内容の送信かどうかを判断する。ここでは、CPU18aは、質問内容が確定したこと(または、質問内容を送信すること)を示す操作データを利用者側端末12から受信したかどうかを判断する。
On the other hand, if "NO" in step S215, it is determined in step S219 whether or not the content of the question is to be transmitted. Here, the
ステップS219で“YES”であれば、ステップS221で、質問内容のテキストデータを操作者側端末16に送信して、ステップS223に進む。ただし、質問内容のテキストデータは、今回の質問において、利用者が入力した文字または文字列を時系列に並べたデータである。一方、ステップS219で“NO”であれば、ステップS223に進む。
If "YES" in step S219, then in step S221 the text data of the question content is transmitted to the
ステップS223では、応答内容のテキストデータを操作者側端末16から受信したかどうかを判断する。ステップS223で“NO”であれば、ステップS227に進む。一方、ステップS223で“YES”であれば、ステップS225で、応答内容の表示に合せてアバターを発話させて、ステップS227に進む。ステップS225では、CPU18aは、応答内容を表示枠134に一文字ずつテキストで表示する画像データを生成して利用者側端末12に送信するとともに、その表示に合せて喋るように口唇部を変化させて発話動作を行うアバターの画像120の画像データを生成して利用者側端末12に送信する。
In step S223, it is determined whether the text data of the content of the response has been received from the operator-
したがって、利用者側端末12では、チャット画面130の表示枠134に応答内容が一文字ずつ表示されるとともに、その応答内容の表示に合せて発話動作を行うアバターの画像120が表示枠132に表示される。
Accordingly, on the user-
ステップS227では、チャットの終了かどうかを判断する。ここでは、CPU18aは、ボタン138のオンを示す操作データを受信したり、操作者側端末16からチャットの終了を指示する操作データを受信したりしたかどうかを判断する。
In step S227, it is determined whether or not the chat has ended. Here, the
ステップS227で“NO”であれば、ステップS215に戻る。一方、ステップS227で“YES”であれば、ステップS229で、チャット画面130を閉じることを利用者側端末12に指示して、図18に示したステップS205に戻る。
If "NO" in step S227, the process returns to step S215. On the other hand, if "YES" in step S227, the
また、上述したように、ステップS211で“NO”であれば、図20に示すステップS231で、図6に示したようなトーク画面150を利用者側端末12に表示する。つまり、CPU18aは、図6に示したようなトーク画面150の画像データを生成して利用者側端末12に送信する。
Also, as described above, if "NO" in step S211, the
したがって、利用者側端末12の表示装置30では、選択画面110が非表示され、ウェブ画面100の前面にトーク画面150が表示される。
Therefore, on the
続くステップS233では、利用者の質問内容の音声データを利用者側端末12から受信したかどうかを判断する。ステップS233で“NO”であれば、つまり、質問内容の音声データを受信していなければ、ステップS237に進む。一方、ステップS233で“YES”であれば、つまり、質問内容の音声データを受信すれば、ステップS235で、質問内容の音声データを操作者側端末16に送信して、ステップS237に進む。
In the following step S233, it is determined whether or not voice data of the content of the user's question has been received from the user-
つまり、サーバ18は受信した質問内容の音声データを操作者側端末16に送信する。したがって、操作者側端末16では、スピーカ64から利用者の音声が出力される。一方、操作者側端末16は、操作者の応答内容の音声データに音量データを付加して、サーバ18に送信する。
In other words, the
ステップS237では、操作者の応答内容の音声データを受信したかどうかを判断する。ステップS237で“YES”であれば、つまり、操作者の応答内容の音声データを受信すれば、ステップS239で、図12に示した比率算出処理を実行して、ステップS241で、比率pに応じた大きさで、応答内容の音声データに合せて発話動作を行うアバターの画像120の画像データを生成する。
In step S237, it is determined whether or not voice data of the content of the operator's response has been received. If "YES" in step S237, that is, if the voice data of the operator's response content is received, in step S239 the ratio calculation process shown in FIG. 12 is executed, and in step S241 The image data of the
ただし、ステップS241で生成されるアバターの画像120の画像データは、第3実施例(ステップS115)と同様であり、比率pに応じた大きさで、操作者の音声にリップシンクして発話動作を行うアバターの画像120についての画像データである。
However, the image data of the
次のステップS243では、受信した応答内容の音声データとステップS241で生成した画像データを利用者側端末12に送信して、ステップS233に戻る。したがって、利用者側端末12では、応答内容の音声がスピーカ34から出力されるとともに、トーク画面150において、比率pに応じた大きさで、応答内容の音声にリップシンクして発話動作を行うアバターの画像120が表示枠152に表示される。
In the next step S243, the voice data of the received response content and the image data generated in step S241 are transmitted to the user-
また、ステップS237で“NO”であれば、ステップS245で、比率pをリセットして、ステップS247で、通常の大きさでアバターの画像120の画像データを利用者側端末12に送信して、ステップS249に進む。したがって、利用者側端末12では、操作者の音声の出力が終了すると、アバターの画像120の大きさが通常時の大きさに戻される。
If "NO" in step S237, the ratio p is reset in step S245, and the image data of the
ステップS249では、トークの終了かどうかを判断する。ここでは、CPU18aは、利用者側端末12からボタン154のオンを示す操作データを受信したり、操作者側端末16からトークの終了を指示する操作データを受信したりしたかどうかを判断する。
In step S249, it is determined whether or not the talk has ended. Here, the
ステップS249で“NO”であれば、ステップS233に戻る。一方、ステップS249で“YES”であれば、ステップS251で、トーク画面150を閉じることを利用者側端末12に指示して、ステップS205に戻る。
If "NO" in step S249, the process returns to step S233. On the other hand, if "YES" in step S249, the
第4実施例においても、アバターの画像を通常時よりも拡大または縮小して表示することで、奥行き感を表現することができ、2次元の画面に表示されているにも関わらず、立体感が得られる。つまり、存在感を増したアバターを表示することができる。 In the fourth embodiment as well, by displaying the avatar image enlarged or reduced more than usual, it is possible to express a sense of depth. is obtained. That is, it is possible to display an avatar with increased presence.
また、第4実施例においても、拡大したアバターの画像が枠画像からはみ出すように表示される場合には、3次元の現実空間に飛び出そうとしているように見える。つまり、存在感を増したアバターを表示することができる。 Also in the fourth embodiment, when the enlarged avatar image is displayed so as to protrude from the frame image, it looks like it is about to jump out into the three-dimensional real space. That is, it is possible to display an avatar with increased presence.
なお、第4実施例では、トークにおける利用者の質問内容の音声は、利用者側端末12からサーバ18を介して操作者側端末16に送信されるが、第1実施例と同様に、利用者側端末12から操作者側端末16に送信されるようにしてもよい。
In the fourth embodiment, the voice of the user's question in the talk is transmitted from the
また、第4実施例では、第2実施例で示したように、操作者の首の動きに基づいてアバターの画像120を拡大または縮小するようにしてもよい。この場合、操作者側端末16は、首の動きデータを付加した音声データをサーバ18に送信する。そして、ステップS45で、図15に示した第2実施例の比率算出処理を実行する。
Also, in the fourth embodiment, as shown in the second embodiment, the
上述の各実施例で示したように、情報処理システム10においては、比率pを、利用者側端末12、操作者側端末16またはサーバ18のいずれかで算出することができる。また、情報処理システム10においては、アバターの画像120を、利用者側端末12、操作者側端末16またはサーバ18のいずれかで生成することができる。
As shown in the above embodiments, in the
また、上述の各実施例では、比率pに応じた大きさのアバターの画像120を表示するとともに、応答内容の音声に合わせて発話動作を行うアバターの画像120を表示するようにしたが、発話動作を行わずに、比率pに応じた大きさでアバターの画像120を表示するだけでも、アバターの存在感を増すことができる。
In addition, in each of the above-described embodiments, the
さらに、上述の各実施例では、比率pに応じた大きさのアバターの画像120を表示するようにしたが、比率pを算出せずに、操作者の音声を出力するときに、アバターの画像120を表示枠152からはみ出す大きさに拡大するようにしてもよい。たとえば、アバターの画像120が通常時の1.4倍の大きさにされる。ただし、これは一例であり、表示枠152からはみ出す大きさにされればよい。具体的には、第1実施例および第2実施例では、図11に示すステップS39およびS45が削除され、ステップS43で、CPU20は、1.4倍に拡大した大きさで、応答内容の音声データに合せて発話動作を行うアバー他の画像データを生成および出力する。また、第3実施例では、図17に示すステップS111およびS113が削除され、ステップS115で、CPU50は、1.4倍に拡大した大きさで、応答内容の音声データに合せて発話動作を行うアバー他の画像データを生成する。さらに、第4実施例では、図20に示すステップS239およびS245が削除され、ステップS241において、CPU18aは、1.4倍に拡大した大きさで、応答内容の音声データに合せて発話動作を行うアバターの画像120の画像データを生成する。
Furthermore, in each of the above-described embodiments, the
このように、比率pを算出しない場合には、操作者側端末16は、操作者の音声の音声データのみを利用者側端末12またはサーバ18に送信し、音量データまたは首の動きデータを送信する必要はなく、音量データまたは首の動きデータを検出する必要もない。
Thus, when the ratio p is not calculated, the
また、比率pを算出しない場合には、操作者の音声を検出したときの音声の音量または操作者の首の動きは関係無いため、チャットにおいて、操作者の応答内容のテキストを表示するときに、アバターの画像120を表示枠152からはみ出す大きさに拡大するようにしてもよい。このようにしても、存在感を増したアバターを表示することができる。具体的には、第1実施例、第2実施例および第3実施例において、図10に示すステップS25において、CPU20は、応答内容を表示枠134に一文字ずつテキストで表示し、1.4倍に拡大した大きさで、その表示に合せてアバターが喋るように口唇部を変化させて発話動作を行うアバターの画像120を表示枠132に表示する。ただし、この場合の「通常時」は、応答内容のテキストを表示していない状態を含む。
Further, when the ratio p is not calculated, the volume of the voice when the operator's voice is detected or the movement of the operator's neck is irrelevant. , the
さらに、比率pを算出しない場合には、アバターの画像120の大きさを拡大することに代えて、アバターの画像120を変化(または、変形)させることで、アバターの画像120を表示枠132または表示枠152からはみ出して表示することもできる。一例として、図21に示すように、アバターの手と頭部の一部を、枠画像(表示枠152)からはみ出したアバターの画像120を表示することができる。このようにしても、アバターが3次元の現実空間に飛び出そうとしているように見える。つまり、存在感を増したアバターを表示することができる。
Furthermore, when the ratio p is not calculated, instead of enlarging the size of the
ただし、比率pを算出する場合であり、かつ、比率pが1よりも大きい場合には、比率pの大きさに比例して、表示枠152からはみ出す度合が大きくなるように、アバターの画像120を変化させるようにしてもよい。
However, when the ratio p is calculated and the ratio p is greater than 1, the
以上のように、アバターの画像120を拡大または縮小したり、アバターの画像120を変化(または、変形)させたりして、アバターの態様を変化させることで、存在感を増したアバターを表示することができる。
As described above, the
また、比率pを算出せずに、アバターの画像120を拡大したり変化させたりして、アバターの態様を変化させる場合にも、上述したように、発話動作を行わずに、存在感を増したアバターを表示することができる。
In addition, even if the aspect of the avatar is changed by enlarging or changing the
なお、上述の各実施例では、チャットでは、操作者との間でテキストをやり取りするようにしたが、利用者側端末は、ネットワーク(クラウド)上のチャットサービスサーバにアクセスし、チャットボットとメッセージをやり取りするようにしてもよい。 In each of the above-described embodiments, in the chat, text is exchanged with the operator. may be exchanged.
また、上述の各実施例では、トーク画面において、アバターの画像は、アバターの頭部および首についての画像であり、操作者の音声を出力する場合に、その音量または操作者の首の動きに応じて、アバターの頭部および首の画像を拡大または縮小するようにしたが、アバターの上半身または全身の画像を表示する場合には、アバターの上半身または全身の画像を拡大または縮小するようにしてもよい。この場合には、アバターの発話動作には、上半身または全身を用いた身振り手振りも含まれる。 Further, in each of the above-described embodiments, the image of the avatar on the talk screen is an image of the head and neck of the avatar. The image of the avatar's head and neck is enlarged or reduced accordingly, but when displaying the image of the upper body or the whole body of the avatar, the image of the upper body or the whole body of the avatar is enlarged or reduced. good too. In this case, the speech action of the avatar includes gestures using the upper body or the whole body.
さらに、上述の各実施例では、操作者側端末から送信される音声データに含まれる音量データまたは首の動きデータのように、操作者が発話したときの所定の情報に基づいて、利用者側端末で比率を算出するようにしたが、比率は操作者側端末で算出してもよい。かかる場合には、操作者側端末は、音声データに、算出した比率データを付加して、利用者側端末に送信する。利用者側端末では、受信した音声データに付加された比率データ示す比率でアバターの画像を表示(描画)する。このように、操作者側端末から送信する音声データに比率データを付加する場合には、この比率データが所定の情報である。 Furthermore, in each of the above-described embodiments, based on predetermined information when the operator speaks, such as volume data or neck movement data included in voice data transmitted from the operator-side terminal, the user-side Although the ratio is calculated by the terminal, the ratio may be calculated by the operator's terminal. In such a case, the operator side terminal adds the calculated ratio data to the voice data and transmits it to the user side terminal. The user-side terminal displays (renders) the image of the avatar at the ratio indicated by the ratio data added to the received voice data. In this way, when the ratio data is added to the voice data transmitted from the operator side terminal, this ratio data is the predetermined information.
さらにまた、上述の各実施例では、操作者の音声を利用者側端末のスピーカからそのまま出力するようにしたが、操作者の音声を変換した音声を出力するようにしてもよい。 Furthermore, in each of the above-described embodiments, the operator's voice is directly output from the speaker of the user-side terminal, but the operator's voice may be converted to be output.
また、上述の各実施例では、チャットまたはトークを実行可能なアプリについて説明したが、これに限定される必要はない。トーク(つまり、音声のやり取り)のみを実行可能なアプリでもよい。また、他の例では、ウェブ会議またはビデオ通話を行う場合にも適用でき、ウェブ会議またはビデオ通話においてアバターの画像を表示する場合に、対応する人間が発話する音声の音量または発話するときの当該人間の首の動きに応じた比率pで拡大または縮小される。つまり、本願発明は、或る人間が発話する音声を当該或る人間と対話する他の人間が使用する端末で出力するとともに、当該或る人間に対応するアバターの画像を当該他の人間が使用する端末に表示する場合に適用可能である。 Also, in each of the above-described embodiments, an application capable of executing chat or talk has been described, but it is not necessary to be limited to this. An application capable of executing only talk (that is, exchange of voice) may be used. In another example, it can also be applied when conducting a web conference or video call, and when displaying an avatar image in a web conference or video call, the volume of the voice spoken by the corresponding person or the volume of the voice when speaking It is enlarged or reduced by a ratio p according to the movement of the human neck. In other words, the present invention outputs a voice uttered by a certain person to a terminal used by another person who interacts with the certain person, and outputs an avatar image corresponding to the certain person to the other person. This is applicable when displaying on a terminal that
さらに、上述の各実施例では、起動条件を満たす場合に、アプリを起動するようにしたが、ウェブ画面が表示されるときに、アプリを起動するようにしてもよい。 Furthermore, in each of the embodiments described above, the application is started when the activation condition is satisfied, but the application may be activated when the web screen is displayed.
なお、上述の各実施例で示したフロー図の各ステップは同じ結果が得られる場合には、処理する順番を変更することが可能である。 It should be noted that the order of processing can be changed if the steps in the flowcharts shown in the above-described embodiments yield the same result.
また、上述の各実施例で挙げた各種の画面、角度などの具体的数値はいずれも単なる例示であり、必要に応じて適宜変更可能である。たとえば、トークの場合には、トーク画面を表示することに代えて、アバターの画像および表示枠(枠が像)のみを表示することも可能である。 Further, the various screens, angles, and other specific numerical values given in each of the above-described embodiments are merely examples, and can be appropriately changed as necessary. For example, in the case of talk, instead of displaying the talk screen, it is possible to display only the image of the avatar and the display frame (the frame is an image).
10 …情報処理システム
12 …利用者側端末
14 …ネットワーク
16 …操作者側端末
18 …サーバ
18a、20、50 …CPU
18b、22、52 …記憶部
24、54 …通信I/F
26、56 …入出力I/F
28、58 …入力装置
30、60 …表示装置
32、62 …マイク
34、64 …スピーカ
66 …センサI/F
68 …慣性センサ
DESCRIPTION OF
18b, 22, 52...
26, 56 ... input/output I/F
28, 58 ...
68 ... inertial sensor
Claims (19)
前記受信手段によって受信された前記音声を出力する音出力手段、
前記受信手段によって受信された所定の情報に基づいて前記操作者に対応するアバターの画像を、前記受信手段によって受信された前記音声を出力していない通常時の大きさに対して拡大または縮小する比率を算出する比率算出手段、および
前記音出力手段によって前記音声を出力するときに、前記比率算出手段によって算出された比率で描画した前記アバターの画像をディスプレイに表示する画像表示手段を備える、情報処理装置。 Receiving means for receiving the voice uttered by the operator and predetermined information when the operator uttered from the operator-side terminal;
sound output means for outputting the sound received by the receiving means;
Based on the predetermined information received by the receiving means, the image of the avatar corresponding to the operator is enlarged or reduced relative to the normal size when the voice received by the receiving means is not output. ratio calculation means for calculating a ratio; and image display means for displaying, on a display, an image of the avatar drawn at the ratio calculated by the ratio calculation means when the sound is output by the sound output means. processing equipment.
前記比率算出手段は、前記音量に基づいて前記比率を算出する、請求項1または2記載の情報処理装置。 the predetermined information is the volume of the voice uttered by the operator;
3. The information processing apparatus according to claim 1, wherein said ratio calculating means calculates said ratio based on said volume.
前記比率算出手段は、前記操作者の首の動きに基づいて前記比率を算出する、請求項1または2記載の情報処理装置。 the predetermined information is movement of the operator's neck when the operator speaks;
3. The information processing apparatus according to claim 1, wherein said ratio calculating means calculates said ratio based on a movement of said operator's neck.
前記受信手段によって受信された前記音声を出力する音出力手段、および
前記音出力手段によって前記音声を出力するときに、前記受信手段よって受信された比率で描画したアバターの画像をディスプレイに表示する画像表示手段を備え、
前記比率は、前記操作者に対応する前記アバターの画像を、前記受信手段によって受信された前記音声を出力していない通常時の大きさに対して拡大または縮小する比率である、情報処理装置。 Receiving means for receiving, from an operator-side terminal, a ratio calculated based on the voice uttered by the operator and predetermined information when the operator uttered the voice;
sound output means for outputting the sound received by the reception means; and an image for displaying on a display the image of the avatar drawn at the ratio received by the reception means when the sound is output by the sound output means. comprising display means,
The information processing apparatus, wherein the ratio is a ratio for enlarging or reducing the image of the avatar corresponding to the operator with respect to a normal size when the voice received by the receiving means is not output.
前記受信手段によって受信された前記音声を出力する音出力手段、および
前記音出力手段によって前記音声を出力するときに、前記受信手段よって受信された前記アバターの画像をディスプレイに表示する画像表示手段を備え、
前記比率は、前記操作者に対応する前記アバターの画像を、前記受信手段によって受信された前記音声を出力していない通常時の大きさに対して拡大または縮小する比率である、情報処理装置。 Receiving means for receiving the voice uttered by the operator and the image of the avatar drawn at a ratio calculated based on predetermined information when the operator uttered the voice;
sound output means for outputting the sound received by the reception means; and image display means for displaying the image of the avatar received by the reception means on a display when the sound output means outputs the sound. prepared,
The information processing apparatus, wherein the ratio is a ratio for enlarging or reducing the image of the avatar corresponding to the operator with respect to a normal size when the voice received by the receiving means is not output.
前記受信手段によって受信された前記音声を前記操作者と対話する利用者が使用する利用者側端末に出力する音出力手段、
前記受信手段によって受信された所定の情報に基づいて前記操作者に対応するアバターの画像を、前記受信手段によって受信された前記音声を前記操作者と対話する利用者が使用する利用者側端末に出力していない通常時の大きさに対して拡大または縮小する比率を算出する比率算出手段、および
前記音出力手段によって前記音声を出力するときに、前記比率算出手段によって算出された比率で描画した前記アバターの画像を前記利用者側端末に出力する画像出力手段を備える、情報処理装置。 Receiving means for receiving the voice uttered by the operator and predetermined information when the operator uttered from the operator-side terminal;
sound output means for outputting the voice received by the receiving means to a user-side terminal used by a user who interacts with the operator;
An image of the avatar corresponding to the operator based on the predetermined information received by the receiving means is transferred to a user terminal used by the user who interacts with the operator by transmitting the voice received by the receiving means. Ratio calculation means for calculating a ratio of enlargement or reduction with respect to the normal size when not being output; An information processing apparatus comprising image output means for outputting an image of the avatar to the user terminal.
前記受信手段によって受信された前記テキストまたは前記音声を出力する出力手段、および
前記操作者に対応するアバターの画像をディスプレイに表示する画像表示手段を備え、
前記画像表示手段は、前記受信手段によって受信された前記テキストまたは前記音声を出力していない通常時に枠画像に収まる態様で前記アバターの画像を前記ディスプレイに表示し、前記出力手段によって前記テキストまたは前記音声を出力するときに前記枠画像からはみ出す態様で前記アバターの画像を前記ディスプレイに表示する、情報処理装置。 Receiving means for receiving text or voice uttered by an operator;
An output means for outputting the text or the voice received by the receiving means, and an image display means for displaying an image of an avatar corresponding to the operator on a display,
The image display means displays the image of the avatar on the display in a manner that fits within a frame image in a normal time when the text or the voice received by the receiving means is not output, and the output means outputs the text or the voice. An information processing apparatus that displays an image of the avatar on the display in such a manner as to protrude from the frame image when outputting a sound.
前記情報処理装置のプロセッサに、
操作者が発話した音声と、当該操作者が発話したときの所定の情報を操作者側端末から受信する受信ステップ、
前記受信ステップにおいて受信した前記音声を出力する音出力ステップ、
前記受信ステップにおいて受信した所定の情報に基づいて前記操作者に対応するアバターの画像を、前記受信ステップにおいて受信した前記音声を出力していない通常時の大きさに対して拡大または縮小する比率を算出する比率算出ステップ、および
前記音出力ステップにおいて前記音声を出力するときに、前記比率算出ステップにおいて算出した比率で描画した前記アバターの画像をディスプレイに表示する画像表示ステップを実行させる、制御プログラム。 A control program executed by an information processing device,
In the processor of the information processing device,
a receiving step of receiving, from the operator-side terminal, the voice uttered by the operator and predetermined information when the operator uttered the voice;
a sound output step of outputting the sound received in the receiving step;
A ratio to enlarge or reduce the image of the avatar corresponding to the operator based on the predetermined information received in the receiving step with respect to the size received in the receiving step during a normal time when the voice is not output. and an image display step of displaying an image of the avatar drawn at the ratio calculated in the ratio calculation step on a display when outputting the sound in the sound output step.
前記情報処理装置のプロセッサに、
操作者が発話した音声と、当該操作者が発話したときの所定の情報に基づいて算出した比率を操作者側端末から受信する受信ステップ、
前記受信ステップにおいて受信した前記音声を出力する音出力ステップ、および
前記音出力ステップにおいて前記音声を出力するときに、前記受信ステップにおいて受信した比率で描画したアバターの画像をディスプレイに表示する画像表示ステップを実行させ、
前記比率は、前記操作者に対応する前記アバターの画像を、前記受信ステップにおいて受信した前記音声を出力していない通常時の大きさに対して拡大または縮小する比率である、制御プログラム。 A control program executed by an information processing device,
In the processor of the information processing device,
a receiving step of receiving, from the operator-side terminal, the voice uttered by the operator and the ratio calculated based on predetermined information when the operator uttered the voice;
a sound output step of outputting the voice received in the receiving step; and an image display step of displaying, on a display, an image of the avatar drawn at the ratio received in the receiving step when outputting the voice in the sound output step. and
The control program, wherein the ratio is a ratio for enlarging or reducing the image of the avatar corresponding to the operator with respect to a normal size when the voice received in the receiving step is not output.
前記情報処理装置のプロセッサに、
操作者が発話した音声と、当該操作者が発話したときの所定の情報に基づいて算出した比率で描画したアバターの画像を受信する受信ステップ、
前記受信ステップにおいて受信した前記音声を出力する音出力ステップ、および
前記音出力ステップにおいて前記音声を出力するときに、前記受信ステップにおいて受信した前記アバターの画像をディスプレイに表示する画像表示ステップを実行させ、
前記比率は、前記操作者に対応する前記アバターの画像を、前記受信ステップにおいて受信した前記音声を出力していない通常時の大きさに対して拡大または縮小する比率である、制御プログラム。 A control program executed by an information processing device,
In the processor of the information processing device,
a receiving step of receiving the voice uttered by the operator and the image of the avatar drawn at a ratio calculated based on predetermined information when the operator uttered the voice;
a sound output step of outputting the voice received in the receiving step; and an image display step of displaying the image of the avatar received in the receiving step on a display when outputting the voice in the sound output step. ,
The control program, wherein the ratio is a ratio for enlarging or reducing the image of the avatar corresponding to the operator with respect to a normal size when the voice received in the receiving step is not output.
前記情報処理装置のプロセッサに、
操作者が発話した音声と、当該操作者が発話したときの所定の情報を操作者側端末から受信する受信ステップ、
前記受信ステップにおいて受信した前記音声を前記操作者と対話する利用者が使用する利用者側端末に出力する音出力ステップ、
前記受信ステップにおいて受信した所定の情報に基づいて前記操作者に対応するアバターの画像を、前記受信ステップにおいて受信した前記音声を前記操作者と対話する利用者が使用する利用者側端末に出力していない通常時の大きさに対して拡大または縮小する比率を算出する比率算出ステップ、および
前記音出力ステップにおいて前記音声を出力するときに、前記比率算出ステップにおいて算出した比率で描画した前記アバターの画像を前記利用者側端末に出力する画像出力ステップを実行させる、制御プログラム。 A control program executed by an information processing device,
In the processor of the information processing device,
a receiving step of receiving, from the operator-side terminal, the voice uttered by the operator and predetermined information when the operator uttered the voice;
A sound output step of outputting the voice received in the receiving step to a user-side terminal used by a user who interacts with the operator;
outputting an image of an avatar corresponding to the operator based on the predetermined information received in the receiving step, and outputting the voice received in the receiving step to a user terminal used by a user who interacts with the operator; a ratio calculation step of calculating a ratio of enlargement or reduction with respect to the normal size when not in use; and when outputting the voice in the sound output step, the avatar drawn at the ratio calculated in the ratio calculation step A control program for executing an image output step of outputting an image to the user-side terminal.
前記情報処理装置のプロセッサに、
操作者が入力したテキストまたは発話した音声を受信する受信ステップ、
前記受信ステップにおいて受信した前記テキストまたは前記音声を出力する出力ステップ、および
前記操作者に対応するアバターの画像をディスプレイに表示する画像表示ステップを実行させ、
前記画像表示ステップは、前記受信ステップにおいて受信した前記テキストまたは前記音声を出力していない通常時に枠画像に収まる態様で前記アバターの画像を前記ディスプレイに表示し、前記出力ステップにおいて前記テキストまたは前記音声を出力するときに前記枠画像からはみ出す態様で前記アバターの画像を前記ディスプレイに表示する、制御プログラム。 A control program executed by an information processing device,
In the processor of the information processing device,
a receiving step for receiving the text entered by the operator or the voice spoken by the operator;
executing an output step of outputting the text or the voice received in the receiving step, and an image display step of displaying an image of the avatar corresponding to the operator on a display;
In the image display step, the image of the avatar is displayed on the display in a manner that fits within a frame image in a normal time when the text or the voice received in the receiving step is not output, and in the output step, the text or the voice is displayed. is displayed on the display in such a manner that the image of the avatar protrudes from the frame image when the is output.
(a)操作者が発話した音声と、当該操作者が発話したときの所定の情報を操作者側端末から受信するステップ、
(b)前記ステップ(a)において受信した前記音声を出力するステップ、
(c)前記ステップ(a)において受信した所定の情報に基づいて前記操作者に対応するアバターの画像を、前記ステップ(a)において受信した前記音声を出力していない通常時の大きさに対して拡大または縮小する比率を算出するステップ、および
(d)前記ステップ(b)において前記音声を出力するときに、前記ステップ(c)において算出した比率で描画した前記アバターの画像を前記ディスプレイに表示するステップを含む、制御方法。 A control method for an information processing device having a display,
(a) a step of receiving a voice uttered by an operator and predetermined information when said operator uttered from an operator-side terminal;
(b) outputting the audio received in step (a);
(c) based on the predetermined information received in step (a), the image of the avatar corresponding to the operator is displayed at a normal size when the voice received in step (a) is not output; and (d) displaying the avatar image drawn at the ratio calculated in step (c) on the display when outputting the sound in step (b). A control method, including the step of
(a)操作者が発話した音声と、当該操作者が発話したときの所定の情報に基づいて算出した比率を操作者側端末から受信するステップ、
(b)前記ステップ(a)において受信した前記音声を出力するステップ、および
(c)前記ステップ(b)において前記音声を出力するときに、前記ステップ(a)において受信した比率で描画したアバターの画像を前記ディスプレイに表示するステップを含み、
前記比率は、前記操作者に対応する前記アバターの画像を、前記ステップ(b)において前記音声を出力していない通常時の大きさに対して拡大または縮小する比率である、制御プログラム。 A control method for an information processing device having a display,
(a) a step of receiving from the operator-side terminal a ratio calculated based on the voice uttered by the operator and predetermined information when the operator uttered;
(b) outputting the audio received in step (a); and (c) rendering the avatar at the ratio received in step (a) when outputting the audio in step (b). displaying an image on the display;
The control program, wherein the ratio is a ratio for enlarging or reducing the image of the avatar corresponding to the operator with respect to a normal size when the sound is not output in step (b).
(a)操作者が発話した音声と、当該操作者が発話したときの所定の情報に基づいて算出した比率で描画したアバターの画像を受信するステップ、
(b)前記ステップ(a)において受信した前記音声を出力するステップ、および
(c)前記ステップ(b)において前記音声を出力するときに、前記ステップ(a)において受信した前記アバターの画像をディスプレイに表示するステップを含み、
前記比率は、前記操作者に対応する前記アバターの画像を、前記ステップ(b)において前記音声を出力していない通常時の大きさに対して拡大または縮小する比率である、制御方法。 A control method for an information processing device having a display,
(a) a step of receiving a voice uttered by an operator and an image of an avatar drawn at a ratio calculated based on predetermined information when the operator uttered;
(b) outputting the audio received in step (a); and (c) displaying an image of the avatar received in step (a) when outputting the audio in step (b). including steps to display in
The control method, wherein the ratio is a ratio for enlarging or reducing the image of the avatar corresponding to the operator with respect to a normal size when the sound is not output in step (b).
(a)操作者が発話した音声と、当該操作者が発話したときの所定の情報を操作者側端末から受信するステップ、
(b)前記ステップ(a)において受信した前記音声を前記操作者と対話する利用者が使用する利用者側端末に出力するステップ、
(c)前記ステップ(a)において受信した所定の情報に基づいて前記操作者に対応するアバターの画像を、前記ステップ(a)において受信した前記音声を前記操作者と対話する利用者が使用する利用者側端末に出力していない通常時の大きさに対して拡大または縮小する比率を算出するステップ、および
(d)前記ステップ(b)において前記音声を出力するときに、前記ステップ(c)において算出した比率で描画した前記アバターの画像を前記利用者側端末に出力するステップを含む、制御方法。 A control method for an information processing device,
(a) a step of receiving a voice uttered by an operator and predetermined information when said operator uttered from an operator-side terminal;
(b) a step of outputting the voice received in step (a) to a user-side terminal used by a user who interacts with the operator;
(c) the image of the avatar corresponding to the operator based on the predetermined information received in step (a) is used by the user who interacts with the operator using the voice received in step (a); (d) when outputting the voice in step (b), the step (c) A control method, including a step of outputting the image of the avatar drawn at the ratio calculated in the above to the user-side terminal.
(a)操作者が入力したテキストまたは発話した音声を受信するステップ、
(b)前記ステップ(a)において受信した前記テキストまたは前記音声を出力するステップ、および
(c)前記操作者に対応するアバターの画像をディスプレイに表示するステップを含み、
前記ステップ(c)は、前記ステップ(a)において受信した前記テキストまたは前記音声を出力していない通常時に枠画像に収まる態様で前記アバターの画像を前記ディスプレイに表示し、前記ステップ(b)において前記テキストまたは前記音声を出力するときに前記枠画像からはみ出す態様で前記アバターの画像を前記ディスプレイに表示する、制御方法。 A control method for an information processing device,
(a) receiving operator-inputted text or spoken audio;
(b) outputting the text or the voice received in step (a); and (c) displaying an image of an avatar corresponding to the operator on a display;
The step (c) displays the image of the avatar on the display in such a manner that it fits within a frame image during a normal time when the text or the voice received in the step (a) is not output, and in the step (b) A control method, wherein the image of the avatar is displayed on the display in such a manner as to protrude from the frame image when the text or the voice is output.
操作者が発話した音声と、当該操作者が発話したときの所定の情報を操作者側端末から受信する受信手段、
前記受信手段によって受信された前記音声を出力する音出力手段、
前記所定の情報に基づいて前記操作者に対応するアバターの画像を、前記受信手段によって受信された前記音声を出力していない通常時の大きさに対して拡大または縮小する比率を算出する比率算出手段、および
前記音出力手段によって前記音声を出力するときに、前記比率算出手段によって算出された比率で描画した前記アバターの画像を前記利用者側端末のディスプレイに表示する画像表示手段を備える、情報処理システム。 An information processing system comprising a server, and a user-side terminal and an operator-side terminal communicably connected to the server,
Receiving means for receiving the voice uttered by the operator and predetermined information when the operator uttered from the operator-side terminal;
sound output means for outputting the sound received by the receiving means;
A ratio calculation for calculating a ratio for enlarging or reducing an image of the avatar corresponding to the operator based on the predetermined information with respect to a normal size when the voice received by the receiving means is not output. and image display means for displaying the image of the avatar drawn at the ratio calculated by the ratio calculation means on the display of the user-side terminal when the sound is output by the sound output means. processing system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021184439A JP2023072111A (en) | 2021-11-12 | 2021-11-12 | Information processing apparatus, control program, control method, and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021184439A JP2023072111A (en) | 2021-11-12 | 2021-11-12 | Information processing apparatus, control program, control method, and information processing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023072111A true JP2023072111A (en) | 2023-05-24 |
Family
ID=86424520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021184439A Pending JP2023072111A (en) | 2021-11-12 | 2021-11-12 | Information processing apparatus, control program, control method, and information processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023072111A (en) |
-
2021
- 2021-11-12 JP JP2021184439A patent/JP2023072111A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11398067B2 (en) | Virtual reality presentation of body postures of avatars | |
CN112379812B (en) | Simulation 3D digital human interaction method and device, electronic equipment and storage medium | |
US11100694B2 (en) | Virtual reality presentation of eye movement and eye contact | |
JP7095602B2 (en) | Information processing equipment, information processing method and recording medium | |
CN102789313B (en) | User interaction system and method | |
WO2015188614A1 (en) | Method and device for operating computer and mobile phone in virtual world, and glasses using same | |
KR101894573B1 (en) | Smart phone interface management system by 3D digital actor | |
CN116210218A (en) | Systems, methods, and graphical user interfaces for using spatialized audio during a communication session | |
JP7193015B2 (en) | Communication support program, communication support method, communication support system, terminal device and non-verbal expression program | |
WO2018139203A1 (en) | Information processing device, information processing method, and program | |
JP2021108030A (en) | Computer program, server device and method | |
WO2022252866A1 (en) | Interaction processing method and apparatus, terminal and medium | |
US20220262080A1 (en) | Interfaces for presenting avatars in three-dimensional environments | |
KR20150128386A (en) | display apparatus and method for performing videotelephony using the same | |
JPWO2018216355A1 (en) | Information processing apparatus, information processing method, and program | |
JP2019106220A (en) | Program executed by computer to provide virtual space via head mount device, method, and information processing device | |
JP2023072111A (en) | Information processing apparatus, control program, control method, and information processing system | |
JP2023072110A (en) | Information processing device, control program and control method | |
JP7371820B1 (en) | Animation operation method, animation operation program and animation operation system | |
WO2023210164A1 (en) | Animation operation method, animation operation program, and animation operation system | |
JP7418709B2 (en) | Computer programs, methods and server devices | |
WO2023080105A1 (en) | Online terminal and program | |
JP2023131824A (en) | Information processing device, control program, and control method | |
JP2022147921A (en) | Pseudo contact presentation system, control program and control method | |
JP2023131825A (en) | Information processing device, control program, and control method |