JP2012050791A - Character display device, character display method, and program - Google Patents

Character display device, character display method, and program Download PDF

Info

Publication number
JP2012050791A
JP2012050791A JP2010198089A JP2010198089A JP2012050791A JP 2012050791 A JP2012050791 A JP 2012050791A JP 2010198089 A JP2010198089 A JP 2010198089A JP 2010198089 A JP2010198089 A JP 2010198089A JP 2012050791 A JP2012050791 A JP 2012050791A
Authority
JP
Japan
Prior art keywords
character
orientation
volume
sound
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010198089A
Other languages
Japanese (ja)
Inventor
Yuichi Asami
祐一 浅見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2010198089A priority Critical patent/JP2012050791A/en
Publication of JP2012050791A publication Critical patent/JP2012050791A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a character display device and the like suitable for a player to enjoy conversation while visually attracting the user by controlling characters to move according to user's voice.SOLUTION: In the character display device 200, a storage part 201 stores a direction of a character to be disposed in a virtual space; a display part 202 displays on a screen an image where the character is disposed in the virtual space in the stored direction; a detecting part 203 detects voice from the user; a determination part 204 determines a change in direction of the character based on the volume of the detected voice; and an updating part 205 updates the stored direction by the determined change.

Description

本発明は、キャラクターにユーザの音声に応じた動作をさせることで、ユーザの視覚に訴えながら、快適に会話を楽しむに好適なキャラクター表示装置、キャラクター表示方法、ならびに、プログラムに関する。   The present invention relates to a character display device, a character display method, and a program suitable for enjoying a conversation comfortably while appealing to the user's vision by causing a character to perform an action according to the user's voice.

従来から、ゲームやチャット、ソーシャルネットワークサービス等の分野においては、ユーザが、自身を投影した仮想世界内でのキャラクター(「アバター」と呼ばれることもある。)を選択、設定し、その姿を自分の端末や他人の端末に表示させて、ユーザに親しみを感じさせる手法が広く使われている。   Traditionally, in the fields of games, chats, social network services, etc., users select and set a character (sometimes called an “avatar”) in the virtual world onto which they are projected. The method of making a user feel familiar by displaying on other terminals and other people's terminals is widely used.

この場合、キャラクターの形状や姿勢、表情を変化させて、そこにキャラクターが表示されていることをユーザに認知させやすくするのと同時に、ユーザにより臨場感や親近感を持たせる手法が開発されている。   In this case, a method has been developed to change the character's shape, posture, and facial expression, making it easier for the user to recognize that the character is displayed there, and at the same time giving the user a sense of realism and familiarity. Yes.

例えば、特許文献1には、ユーザの無意識的な動作、すなわち緊張していたり興奮していたりというような状況で現れるマウスやコントローラの微小な変化を捉えて、上記のキャラクターの動きに反映させることで、ユーザとキャラクターを密接に結び付け、まるでキャラクターに生きているかのような印象を付与する技術が開示されている。   For example, Patent Document 1 captures a minute change of a mouse or a controller that appears in an unconscious movement of a user, that is, a situation where the user is nervous or excited, and reflects it in the movement of the character. Thus, a technique is disclosed in which a user and a character are closely linked to give the character an impression of being alive.

特開2008−233946号公報JP 2008-233946 A

一方で、上記のようなアバターが用いられる場面は、ネットワークゲームやWebチャットなどにおいて、互いに離れた複数のユーザ同士がネットワーク上で会話をするような場面であることが多い。すなわち、ゲームのモニタなどにアバターを表示させることで、ユーザ同士の会話に、親しみやすさを付加することができる。   On the other hand, scenes where avatars such as those described above are used are often scenes where a plurality of users who are separated from each other have a conversation on the network in a network game, web chat, or the like. That is, by displaying an avatar on a game monitor or the like, friendliness can be added to the conversation between users.

このようなアバターを用いてユーザ同士が会話をする際に、ユーザが会話をするときの音声に応じた動作をアバターにとらせたい、との要望がある。すなわち、離れた場所にいるユーザ同士の会話は、通常音声のみ、あるいは文字のみに頼って行われるが、ユーザが話をする動作に応じた動作をアバターにとらせることで、ユーザの視覚に訴えつつ、より臨場感を持って会話を行うことができるようになると考えられる。   When users have a conversation with each other using such an avatar, there is a demand for the avatar to take an action corresponding to the voice when the user has a conversation. In other words, conversations between users at remote locations are usually performed only by voice or characters, but appealing to the user's vision by letting the avatar take actions according to the actions that the user speaks. However, it will be possible to have more realistic conversations.

本発明は、上記のような課題を解決するもので、キャラクターにユーザの音声に応じた動作をさせることで、ユーザの視覚に訴えながら、快適に会話を楽しむのに好適なキャラクター表示装置、キャラクター表示方法、ならびに、プログラムを提供することを目的とする。   SUMMARY OF THE INVENTION The present invention solves the above-described problems. A character display device and character suitable for comfortably enjoying conversation while appealing to the user's vision by causing the character to perform an action according to the user's voice. It is an object to provide a display method and a program.

上記目的を達成するため、本発明の第1の観点に係るキャラクター表示装置は、記憶部、表示部、検知部、決定部、更新部を備える。   In order to achieve the above object, a character display device according to a first aspect of the present invention includes a storage unit, a display unit, a detection unit, a determination unit, and an update unit.

記憶部では、仮想空間内に配置されるキャラクターの向きが記憶される。   In the storage unit, the direction of the character arranged in the virtual space is stored.

すなわち、例えば3次元の仮想空間を用意し、その中の所定の位置にキャラクターを配置する。そのときにキャラクターは、例えば、正面向き、正面から左へ30°の向き、正面から右へ45°の向き、といった向きに配置され、記憶部にはその向きが記憶される。   That is, for example, a three-dimensional virtual space is prepared, and characters are arranged at predetermined positions in the virtual space. At that time, the characters are arranged in, for example, a front direction, a 30 ° direction from the front to the left, and a 45 ° direction from the front to the right, and the direction is stored in the storage unit.

表示部は、キャラクターが記憶された向きで仮想空間内に配置された様子を表す画像を、画面に表示する。   The display unit displays an image representing a state in which the character is arranged in the virtual space in the stored direction on the screen.

すなわち、記憶部に記憶された向きが左向きならば、仮想空間内に左向きに配置されたキャラクターの様子を表す画像を生成して、モニタなどの画面に表示する。同様に、記憶部に記憶された向きが正面向きならば、仮想空間内に正面向きに配置されたキャラクターの様子を表す画像を、また、記憶された向きが右向きならば、仮想空間内に右向きに配置されたキャラクターの様子を表す画像を、画面に表示する。   That is, if the orientation stored in the storage unit is leftward, an image representing the state of the character placed leftward in the virtual space is generated and displayed on a screen such as a monitor. Similarly, if the orientation stored in the storage unit is front-facing, an image showing the state of the character placed in front in the virtual space is displayed. If the stored orientation is right-facing, the image is directed right in the virtual space. An image representing the state of the character placed in is displayed on the screen.

検知部は、ユーザからの音声を検知する。   The detection unit detects voice from the user.

すなわち、マイクロフォンなどの音を電気信号に変換する機器を用いて、ユーザが発した声や音を捉える。ここで、ユーザ以外からの声やその他の小さな雑音に反応しないよう、所定の閾音量を設けて、捉えられた音声が閾音量を超えた場合にのみ検知するようにしてもよい。   That is, a voice or sound uttered by a user is captured using a device that converts sound such as a microphone into an electrical signal. Here, a predetermined threshold volume may be provided so as not to react to voices from other than the user and other small noises, and detection may be performed only when the captured sound exceeds the threshold volume.

決定部は、検知された音声の音量に基づいて、キャラクターの向きの変化を決定する。   The determining unit determines a change in the direction of the character based on the detected sound volume.

すなわち、検知部によって検知された音声から、所定のサンプリング周期で平均された音量を取得する。そして、取得された音量から、所定の変換式に基づいて、キャラクターの向きの変化を決定する。ここで、「向きの変化」とは、仮想空間内に配置されるキャラクターの向きが変化する変化の量のことである。例えば、キャラクターが仮想空間内に正面から左へ30°の向きに配置されている状態から左へ45°の向きに配置されている状態へ変化するとき、「向きの変化」は、両者の差である「左へ15°」ということになる。このような向きの変化は、典型的には、検知された音声が大きければ大きいほど、大きい量にすることが通常である。   That is, the sound volume averaged at a predetermined sampling period is acquired from the sound detected by the detection unit. Then, a change in the direction of the character is determined from the acquired volume based on a predetermined conversion formula. Here, the “change in direction” is the amount of change in which the direction of the character arranged in the virtual space changes. For example, when a character changes from a state in which the character is arranged in the 30 ° direction to the left from the front in the virtual space to a state in which the character is arranged in the 45 ° direction to the left, the “change in direction” That is, “15 ° to the left”. Such a change in direction is typically set to a larger amount as the detected voice is larger.

更新部は、決定された変化により、記憶された向きを更新する。   The update unit updates the stored orientation according to the determined change.

すなわち、決定部によって決定された変化により、記憶部に記憶されている仮想空間内のキャラクターの向きを更新する。例えば、決定された変化が正面から左へ90°という向きの変化であるならば、正面から左へ90°の向きに配置されたキャラクターが、改めて記憶部に記憶されることになる。また、決定された変化が正面から右へ30°という向きの変化であるならば、正面から右へ30°の向きに配置されたキャラクターが、改めて記憶部に記憶されることになる。   That is, the direction of the character in the virtual space stored in the storage unit is updated based on the change determined by the determination unit. For example, if the determined change is a change in the direction of 90 ° from the front to the left, the character arranged in the direction of 90 ° from the front to the left is newly stored in the storage unit. If the determined change is a change in the direction of 30 ° from the front to the right, the character arranged in the direction of 30 ° from the front to the right is newly stored in the storage unit.

このような構成により、ユーザが発した音声に基づいて、表示されているキャラクターの向きが変化する。その結果、ユーザは、音声に反応するキャラクターの画像を見ながら、親近感・臨場感を持って会話を楽しむことができるようになる。   With such a configuration, the direction of the displayed character changes based on the voice uttered by the user. As a result, the user can enjoy a conversation with a sense of familiarity and presence while viewing an image of a character that reacts to voice.

また、本発明のキャラクター表示装置において、
検知部は、モノラルマイクにより音声を検知し、
キャラクターの向きが取りうる範囲は、正面向きと、左右いずれかの所定角度の横向きと、の間であり、
決定部は、検知された音声の音量が大きければ大きいほど、キャラクターの向きが正面向きに近づくように、変化を決定する、
ことも可能である。
In the character display device of the present invention,
The detector detects the sound with a monaural microphone,
The range that the character can take is between the front direction and the horizontal direction of either the left or right angle,
The determination unit determines the change such that the larger the volume of the detected voice is, the closer the character's direction is to the front.
It is also possible.

ここで、モノラルマイクとは、左右どちらの方向から音声を検知したのかを判別できない、あるいは判別しないマイクを意味する。すなわち、ここでのモノラルマイクは、例えば音声検知部位を1箇所の位置に有するもので、左の方向から音声を検知しても、右の方向から音声を検知しても、両者を区別しないものである。   Here, the monaural microphone means a microphone that cannot or cannot determine whether the sound is detected from the left or right direction. That is, the monaural microphone here has, for example, a voice detection part at one position, and does not distinguish between the voice detection from the left direction and the voice detection from the right direction. It is.

このとき例えば、キャラクターの向きが取りうる範囲を、正面向きと、正面から左30°の横向きと、の間とあらかじめ定めた場合を考える。この場合、音声が検知されていないときにはキャラクターは仮想空間内に正面から左30°の横向きに配置されており、モノラルマイクによって音声が検知され始めると、キャラクターの向きは、左30°の横向きから徐々に正面向きに変化し始める。そして、検知された音声が大きくなればなるほど、左30°の横向きから、左20°、左10°、左0°(すなわち正面)の向きへと順に変化していく。   At this time, for example, consider a case where the range that the character can take is predetermined between the front direction and the horizontal direction 30 ° left from the front. In this case, when no sound is detected, the character is arranged in the horizontal direction 30 ° left from the front in the virtual space, and when the sound starts to be detected by the monaural microphone, the character direction is changed from the horizontal direction 30 ° to the left. Gradually begin to change to the front. Then, as the detected voice increases, the direction changes from the horizontal direction of 30 ° left to the direction of 20 ° left, 10 ° left, and 0 ° left (that is, front).

また、本発明のキャラクター表示装置において、
検知部は、ステレオマイクにより音声を検知し、
決定部は、ステレオマイクにより検知された音声の左右の音量の差に基づいて、キャラクターの向きの変化を決定する、
ことも可能である。
In the character display device of the present invention,
The detection unit detects the sound with a stereo microphone,
The determination unit determines a change in the direction of the character based on a difference between left and right sound volumes detected by the stereo microphone.
It is also possible.

ここで、ステレオマイクとは、左右どちらの方向から音声を検知したのかを判別できるマイクを意味する。すなわち、ここでのステレオマイクは、例えば左右2箇所の位置にそれぞれ独立に音声を検知する部位を有したり、あるいは位置は1箇所でも左右それぞれの方向から音声を検知する部位を有していたりすることで、左の部位(マイク)で検知した音声と右の部位(マイク)で検知した音声とを区別できる。   Here, the stereo microphone means a microphone that can determine whether the sound is detected from the left or right direction. That is, the stereo microphone here has, for example, a part for detecting sound independently at two positions on the left and right, or a part for detecting sound from the left and right directions even at one position. By doing so, it is possible to distinguish between the sound detected by the left part (microphone) and the sound detected by the right part (microphone).

このとき例えば、ユーザがステレオマイクに正対して音声を発すれば、ステレオマイクの左右のマイクで同じ音量の音声が検知される。また、ユーザがステレオマイクの左側から音声を発すれば、ステレオマイクの左側のマイクの音量は、右側のマイクの音量よりも大きくなり、一方で、ユーザがステレオマイクの右側から音声を発すれば、ステレオマイクの右側のマイクの音量は、左側のマイクの音量よりも大きくなる。ここでの決定部は、このような左右の音量の差に基づいて、キャラクターの向きの変化を決定する。   At this time, for example, if the user speaks directly to the stereo microphone, the sound of the same volume is detected by the left and right microphones of the stereo microphone. Also, if the user emits sound from the left side of the stereo microphone, the volume of the left microphone of the stereo microphone will be higher than that of the right microphone, while if the user emits sound from the right side of the stereo microphone. The volume of the right microphone of the stereo microphone is larger than the volume of the left microphone. Here, the determining unit determines the change in the direction of the character based on the difference between the left and right volume.

また、本発明のキャラクター表示装置において、
キャラクターの向きが取りうる範囲は、正面向きを含む左右それぞれの所定角度の横向きの間であり、
決定部は、
(a)ステレオマイクにより検知された音声の左右の音量の差が小さければ小さいほど、キャラクターの向きが正面向きに近づき、
(b)ステレオマイクにより検知された音声の左の音量が、右の音量よりも大きければ大きいほど、キャラクターの向きが左の所定角度の横向きに近づき、
(c)ステレオマイクにより検知された音声の右の音量が、左の音量よりも大きければ大きいほど、キャラクターの向きが右の所定角度の横向きに近づく、
ように変化を決定する、
ことも可能である。
In the character display device of the present invention,
The range that the character's orientation can take is between the horizontal orientation of the left and right angles including the front orientation,
The decision part
(A) The smaller the difference between the left and right volume of the sound detected by the stereo microphone, the closer the character is to the front,
(B) The higher the left volume of the sound detected by the stereo microphone is, the closer the character is to the left side at a predetermined angle,
(C) The larger the right volume of the sound detected by the stereo microphone is, the closer the character's orientation is to the right side at a predetermined angle.
To determine the change,
It is also possible.

すなわち、
(a)ステレオマイクにより検知された音声の左右の音量の差が小さいということは、ユーザはステレオマイクの左右のマイクから等距離の位置にいる、すなわちユーザはステレオマイクに正対しているという状況であると通常考えられる。したがって本発明のキャラクター表示装置は、そのようなユーザとステレオマイクとの位置関係を模擬して、キャラクターの向きを正面向きに近づける。
一方で、
(b)ステレオマイクにより検知された音声の左の音量が、右の音量よりも大きいということは、ユーザはステレオマイクの左側のマイクに近い位置にいる、すなわちユーザはステレオマイクの左側から話をしているという状況であると通常考えられる。したがって本発明のキャラクター表示装置は、そのようなユーザとステレオマイクとの位置関係を模擬して、キャラクターの向きを左の所定角度の横向き、例として左45°あるいは左30°などの角度の横向きに近づける。
さらにまた、
(c)ステレオマイクにより検知された音声の右の音量が、左の音量よりも大きいということは、ユーザはステレオマイクの右側のマイクに近い位置にいる、すなわちユーザはステレオマイクの右側から話をしているという状況であると通常考えられる。したがって本発明のキャラクター表示装置は、そのようなユーザとステレオマイクとの位置関係を模擬して、キャラクターの向きを右の所定角度の横向き、例として右45°あるいは右30°などの角度の横向きに近づける。
That is,
(A) The fact that the difference between the left and right sound volumes detected by the stereo microphone is small means that the user is at an equal distance from the left and right microphones of the stereo microphone, that is, the user is facing the stereo microphone. Usually considered. Therefore, the character display device of the present invention simulates the positional relationship between the user and the stereo microphone, and brings the character direction closer to the front direction.
On the other hand,
(B) The left volume of the sound detected by the stereo microphone is larger than the right volume, which means that the user is close to the left microphone of the stereo microphone, that is, the user speaks from the left side of the stereo microphone. It is usually considered that the situation is. Therefore, the character display device of the present invention simulates the positional relationship between the user and the stereo microphone, and turns the character sideways at a predetermined angle on the left side, for example, sideways at an angle such as 45 ° left or 30 ° left. Move closer to.
Furthermore,
(C) The right volume of the sound detected by the stereo microphone is larger than the left volume, which means that the user is close to the right microphone of the stereo microphone, that is, the user speaks from the right side of the stereo microphone. It is usually considered that the situation is. Therefore, the character display device of the present invention simulates the positional relationship between such a user and a stereo microphone, and turns the character sideways at a predetermined angle on the right, for example, sideways at an angle such as 45 ° to the right or 30 ° to the right. Move closer to.

また、本発明のキャラクター表示装置において、
決定部は、
(p)検知された音声から所定の第1の区間長によって平均化された、第1の音量に基づいて、キャラクターの左右の向きの変化を決定し、
(q)検知された音声から所定の第2の区間長によって平均化された、第2の音量に基づいて、キャラクターの上下の向きの変化を決定する、
ことも可能である。
In the character display device of the present invention,
The decision part
(P) determining a left-right orientation change of the character based on a first volume averaged from a detected voice by a predetermined first section length;
(Q) determining a change in the vertical direction of the character based on a second sound volume averaged from the detected voice by a predetermined second section length;
It is also possible.

すなわち、決定部は、検知部によって検知された音声から音量を取得する際に、2つの異なる区間長、すなわちサンプリング周期によって平均化し、それぞれから2種類の音量を取得する。例えば、所定の第1の区間長よりも、所定の第2の区間長を長い区間長に定めたときを考える。このとき、
(p)ユーザの音声に高い周波数の成分が多く含まれていた場合、すなわちユーザの音声に高音成分が多く含まれていた場合に、第1の音量は大きくなる。そして、第1の音量に基づいて、キャラクターの左右の向きの変化を決定する。例えば、第1の音量が大きければ大きいほど、キャラクターの左右の向きを大きく変化させるように決定する。
一方で、
(q)ユーザの音声に低い周波数の成分が多く含まれていた場合、すなわちユーザの音声に低音成分が多く含まれていた場合に、第2の音量は大きくなる。そして、第2の音量に基づいて、キャラクターの上下の向きの変化を決定する。例えば、第2の音量が大きければ大きいほど、キャラクターの上下の向きを大きく変化させるように決定する。
That is, when acquiring the sound volume from the sound detected by the detection unit, the determination unit averages two different section lengths, that is, sampling periods, and acquires two types of sound volume from each. For example, consider a case where the predetermined second section length is set to a longer section length than the predetermined first section length. At this time,
(P) When the user's voice contains many high frequency components, that is, when the user's voice contains many high-frequency components, the first volume increases. Then, based on the first volume, a change in the left / right orientation of the character is determined. For example, the larger the first volume, the larger the left / right direction of the character is determined to change.
On the other hand,
(Q) When the user's voice contains many low frequency components, that is, when the user's voice contains many low frequency components, the second volume increases. Then, based on the second volume, a change in the vertical direction of the character is determined. For example, the larger the second volume is, the larger the vertical direction of the character is determined to change.

このような構成により、本発明のキャラクター表示装置は、1人のユーザが発した1つの音声から、画面内のキャラクターの異なる2つの向きの変化をさせることができる。その結果として、画面内のキャラクターにより複雑な動作をとらせ、臨場感や親近感を高めることができる。   With such a configuration, the character display device of the present invention can change two different directions of characters in the screen from one voice uttered by one user. As a result, more complex actions can be taken by the characters in the screen, and the presence and familiarity can be enhanced.

また、本発明のキャラクター表示装置において、
更新部は、キャラクターの視線を正面に向けたまま、記憶された向きを更新する、
ことも可能である。
In the character display device of the present invention,
The update unit updates the stored orientation while keeping the character's line of sight toward the front.
It is also possible.

すなわち、キャラクターの向きが変化し、正面を向かずに横を向いているキャラクターが画面に表示される状況では、画面を見ているユーザにとっては、キャラクターがユーザに語りかけているように感じられないことが多くなると考えられる。そこで、本発明のキャラクター表示装置は、キャラクターが横を向いても、キャラクターの視線を常に正面に向けるようにする。その結果、横を向いているキャラクターにも、ユーザに語りかけるような画面を表示することができるようになる。   In other words, in a situation where the character's orientation changes and a character that faces sideways instead of facing the front is displayed on the screen, the user who looks at the screen does not feel that the character is speaking to the user It is thought that things will increase. Therefore, the character display device of the present invention always keeps the character's line of sight toward the front even when the character is turned sideways. As a result, it is possible to display a screen that speaks to the user even on the character facing sideways.

また、本発明のキャラクター表示装置において、
更新部は、角加速度が所定の閾値を超えないように、記憶された向きを更新する、
ことも可能である。
In the character display device of the present invention,
The update unit updates the stored orientation so that the angular acceleration does not exceed a predetermined threshold.
It is also possible.

すなわち、仮想空間内で固定された向きに配置されていたキャラクターが、更新部によって別の向きに変化する際、急に大きく変化すると、生成されるキャラクター表示画面をみているプレイヤに不自然さ・不快さを与えることになりやすいと考えられる。これを避けるために、向きが変化する際の角加速度に所定の閾値を設けて、滑らかに向きを変化させることで、ユーザが快適にキャラクター表示画面を見ることができるようにする。   In other words, if a character placed in a fixed orientation in the virtual space changes suddenly when it is changed to a different orientation by the update unit, it will be unnatural for the player viewing the generated character display screen. It is likely to be uncomfortable. In order to avoid this, a predetermined threshold value is provided for the angular acceleration when the direction changes, and the direction can be changed smoothly so that the user can comfortably view the character display screen.

上記目的を達成するため、本発明の第2の観点に係るキャラクター表示方法は、記憶部、表示部、検知部、決定部、更新部を備えたキャラクター表示装置が実行するキャラクター表示方法であって、表示工程、検知工程、決定工程、更新工程を備える。   In order to achieve the above object, a character display method according to a second aspect of the present invention is a character display method executed by a character display device including a storage unit, a display unit, a detection unit, a determination unit, and an update unit. A display process, a detection process, a determination process, and an update process.

記憶部には、仮想空間内に配置されるキャラクターの向きが記憶される。
表示工程では、表示部が、キャラクターが記憶された向きで仮想空間内に配置された様子を表す画像を、画面に表示する。
検知工程では、検知部が、ユーザからの音声を検知する。
決定工程では、決定部が、検知された音声の音量に基づいて、キャラクターの向きの変化を決定する。
更新工程では、更新部が、決定された変化により、記憶された向きを更新する。
The storage unit stores the orientations of characters arranged in the virtual space.
In the display step, the display unit displays an image representing a state in which the character is arranged in the virtual space in the stored direction on the screen.
In the detection step, the detection unit detects voice from the user.
In the determining step, the determining unit determines a change in the character direction based on the detected sound volume.
In the update process, the update unit updates the stored orientation according to the determined change.

上記目的を達成するため、本発明の第3の観点に係るプログラムは、コンピュータを、上記のキャラクター表示装置として機能させ、コンピュータに、上記のキャラクター表示方法の各工程を実行させるように構成する。   In order to achieve the above object, a program according to a third aspect of the present invention is configured to cause a computer to function as the above character display device and to cause the computer to execute each step of the above character display method.

また、本発明のプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読み取り可能な情報記憶媒体に記録することができる。   The program of the present invention can be recorded on a computer-readable information storage medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory.

上記プログラムは、プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配付・販売することができる。また、上記情報記憶媒体は、コンピュータとは独立して配付・販売することができる。   The program can be distributed and sold via a computer communication network independently of the computer on which the program is executed. The information storage medium can be distributed and sold independently from the computer.

本発明によれば、キャラクターにユーザの音声に応じた動作をさせることで、ユーザの視覚に訴えながら、快適に会話を楽しむのに好適なキャラクター表示装置、キャラクター表示方法、ならびに、プログラムを提供することができる。   According to the present invention, a character display device, a character display method, and a program suitable for enjoying a conversation comfortably while appealing to the user's vision by causing the character to perform an operation according to the user's voice are provided. be able to.

本発明の実施形態に係るキャラクター表示装置が実現される典型的な情報処理装置の概要構成を示す模式図である。It is a mimetic diagram showing an outline composition of a typical information processor with which a character display concerning an embodiment of the present invention is realized. 本発明のキャラクター表示装置に係る概要構成を示す模式図である。It is a schematic diagram which shows the general | schematic structure which concerns on the character display apparatus of this invention. キャラクター表示装置の表示画面の構成例を示した図である。It is the figure which showed the structural example of the display screen of a character display apparatus. キャラクター表示装置の仮想空間内の様子を表した図である。It is a figure showing the mode in the virtual space of a character display apparatus. ユーザからの音声に基づいてキャラクター画像の向きが変化する様子を表した図である。It is a figure showing a mode that the direction of a character image changes based on the audio | voice from a user. 仮想空間内における仮想キャラクターの向きが変化する様子を表した図である。It is a figure showing a mode that the direction of the virtual character in virtual space changes. 実施形態1における、検知した音声の音量と、キャラクターの向きを定める角度との関係を示したグラフである。4 is a graph showing a relationship between a detected sound volume and an angle for determining the direction of a character in the first embodiment. 実施形態1のキャラクター表示装置に係る処理の流れを示すフローチャートである。3 is a flowchart illustrating a flow of processing according to the character display device of the first embodiment. (a)は、モノラルマイクに向けて異なる方向からユーザが発声している様子を表した図である。(b)は、ステレオマイクに向けて異なる方向からユーザが発声している様子を表した図である。(A) is a figure showing a mode that a user is uttering from a different direction toward a monaural microphone. (B) is a figure showing a mode that a user is uttering from a different direction toward a stereo microphone. (a)、(b)ともに、実施形態2のキャラクター表示装置において、左方向から音声が検知されたときの、仮想空間と表示画面の様子を示した図である。(A), (b) is the figure which showed the mode of the virtual space and a display screen when an audio | voice is detected from the left direction in the character display apparatus of Embodiment 2. FIG. (a)、(b)ともに、実施形態2のキャラクター表示装置において、右方向から音声が検知されたときの、仮想空間と表示画面の様子を示した図である。(A), (b) is the figure which showed the mode of the virtual space and a display screen when an audio | voice is detected from the right direction in the character display apparatus of Embodiment 2. FIG. 実施形態2における、検知した音声の音量と、キャラクターの向きを定める角度との関係を示したグラフである。10 is a graph showing a relationship between a detected sound volume and an angle for determining a character direction in the second embodiment. 実施形態2のキャラクター表示装置に係る処理の流れを示すフローチャートである。10 is a flowchart illustrating a flow of processing according to the character display device of the second embodiment. (a)、(b)ともに、実施形態3において、ユーザからの音声に基づいてキャラクター画像が変化する様子を表した図である。(A), (b) is a figure showing signs that a character image changes based on a voice from a user in Embodiment 3. (a)は、実施形態3における、第1の音量とキャラクターの左右の向きを定める角度との関係を示した図である。(b)は、実施形態3における、第2の音量とキャラクターの上下の向きを定める角度との関係を示した図である。(A) is the figure which showed the relationship between the 1st volume in Embodiment 3, and the angle which determines the left-right direction of a character. (B) is the figure which showed the relationship between the 2nd volume in Embodiment 3, and the angle which determines the up-and-down direction of a character. 実施形態3のキャラクター表示装置に係る処理の流れを示すフローチャートである。14 is a flowchart illustrating a flow of processing according to the character display device of the third embodiment.

以下に本発明の実施形態を説明する。以下では、理解を容易にするため、ゲーム用の情報処理装置を利用して本発明が実現される実施形態を説明するが、以下に説明する実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。したがって、当業者であればこれらの各要素を均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。   Embodiments of the present invention will be described below. In the following, for ease of understanding, an embodiment in which the present invention is realized using a game information processing device will be described. However, the embodiment described below is for explanation, and the present invention is described. It does not limit the range. Therefore, those skilled in the art can employ embodiments in which these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.

(実施形態1)
図1は、本発明の実施形態に係るキャラクター表示装置が実現される典型的な情報処理装置の概要構成を示す模式図である。以下、本図を参照して説明する。
(Embodiment 1)
FIG. 1 is a schematic diagram showing a schematic configuration of a typical information processing device in which a character display device according to an embodiment of the present invention is realized. Hereinafter, a description will be given with reference to FIG.

情報処理装置100は、CPU(Central Processing Unit)101と、ROM 102と、RAM(Random Access Memory)103と、インターフェース104と、コントローラ105と、外部メモリ106と、画像処理部107と、DVD−ROM(Digital Versatile Disc ROM)ドライブ108と、NIC(Network Interface Card)109と、音声処理部110と、マイク111と、を備える。   The information processing apparatus 100 includes a CPU (Central Processing Unit) 101, a ROM 102, a RAM (Random Access Memory) 103, an interface 104, a controller 105, an external memory 106, an image processing unit 107, and a DVD-ROM. (Digital Versatile Disc ROM) drive 108, NIC (Network Interface Card) 109, audio processing unit 110, and microphone 111.

ゲーム用のプログラムおよびデータを記憶したDVD−ROMをDVD−ROMドライブ108に装着して、情報処理装置100の電源を投入することにより、当該プログラムが実行され、本実施形態のキャラクター表示装置等が実現される。   A DVD-ROM storing a game program and data is loaded into the DVD-ROM drive 108, and the information processing apparatus 100 is turned on to execute the program. Realized.

CPU 101は、情報処理装置100全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。また、CPU 101は、レジスタ(図示せず)という高速アクセスが可能な記憶域に対してALU(Arithmetic Logic Unit)(図示せず)を用いて加減乗除等の算術演算や、論理和、論理積、論理否定等の論理演算、ビット和、ビット積、ビット反転、ビットシフト、ビット回転等のビット演算などを行うことができる。さらに、マルチメディア処理対応のための加減乗除等の飽和演算や、三角関数等、ベクトル演算などを高速に行えるように、CPU 101自身が構成されているものや、コプロセッサを備えて実現するものがある。   The CPU 101 controls the overall operation of the information processing apparatus 100 and is connected to each component to exchange control signals and data. Further, the CPU 101 uses arithmetic operations such as addition / subtraction / multiplication / division, logical sum, logical product, etc. using an ALU (Arithmetic Logic Unit) (not shown) for a storage area called a register (not shown) that can be accessed at high speed. , Logic operations such as logical negation, bit operations such as bit sum, bit product, bit inversion, bit shift, and bit rotation can be performed. In addition, the CPU 101 itself is configured so that saturation operations such as addition / subtraction / multiplication / division for multimedia processing, vector operations such as trigonometric functions, etc. can be performed at a high speed, and those provided with a coprocessor. There is.

ROM 102には、電源投入直後に実行されるIPL(Initial Program Loader)が記録され、これが実行されることにより、DVD−ROMに記録されたプログラムをRAM 103に読み出してCPU 101による実行が開始される。また、ROM 102には、情報処理装置100全体の動作制御に必要なオペレーティングシステムのプログラムや各種のデータが記録される。   The ROM 102 records an IPL (Initial Program Loader) that is executed immediately after the power is turned on, and when this is executed, the program recorded on the DVD-ROM is read out to the RAM 103 and execution by the CPU 101 is started. The The ROM 102 stores an operating system program and various data necessary for operation control of the entire information processing apparatus 100.

RAM 103は、データやプログラムを一時的に記憶するためのもので、DVD−ROMから読み出したプログラムやデータ、その他ゲームの進行やチャット通信に必要なデータが保持される。また、CPU 101は、RAM 103に変数領域を設け、当該変数に格納された値に対して直接ALUを作用させて演算を行う、また、RAM 103に格納された値を一旦レジスタに格納してからレジスタに対して演算を行い、演算結果をメモリに書き戻す、などの処理を行う。   The RAM 103 is for temporarily storing data and programs, and holds programs and data read from the DVD-ROM and other data necessary for game progress and chat communication. In addition, the CPU 101 provides a variable area in the RAM 103, performs an operation by directly operating the ALU on the value stored in the variable, and temporarily stores the value stored in the RAM 103 in a register. Performs an operation on the register and writes the result back to the memory.

インターフェース104を介して接続されたコントローラ105は、ユーザがゲーム実行の際に行う操作入力を受け付ける。   The controller 105 connected via the interface 104 receives an operation input performed when the user executes the game.

インターフェース104を介して着脱自在に接続された外部メモリ106には、ゲーム等のプレイ状況(過去の成績等)を示すデータ、ゲームの進行状態を示すデータ、ネットワーク対戦の場合のチャット通信のログ(記録)のデータなどが書き換え可能に記憶される。ユーザは、コントローラ105を介して指示入力を行うことにより、これらのデータを適宜外部メモリ106に記録することができる。   The external memory 106 detachably connected via the interface 104 stores data indicating game play status (past results, etc.), data indicating the progress of the game, and log of chat communication in a network battle ( Data) is stored in a rewritable manner. The user can record these data in the external memory 106 as appropriate by inputting an instruction via the controller 105.

DVD−ROMドライブ108に装着されるDVD−ROMには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データが記録される。CPU 101の制御によって、DVD−ROMドライブ108は、これに装着されたDVD−ROMに対する読み出し処理を行って、必要なプログラムやデータを読み出し、これらはRAM 103等に一時的に記憶される。   A DVD-ROM mounted on the DVD-ROM drive 108 stores a program for realizing the game and image data and audio data associated with the game. Under the control of the CPU 101, the DVD-ROM drive 108 performs a reading process on the DVD-ROM loaded therein, reads out necessary programs and data, and these are temporarily stored in the RAM 103 or the like.

画像処理部107は、DVD−ROMから読み出されたデータをCPU 101や画像処理部107が備える画像演算プロセッサ(図示せず)によって加工処理した後、これを画像処理部107が備えるフレームメモリ(図示せず)に記録する。フレームメモリに記録された画像情報は、所定の同期タイミングでビデオ信号に変換され画像処理部107に接続されるモニタ(図示せず)へ出力される。これにより、各種の画像表示が可能となる。   The image processing unit 107 processes the data read from the DVD-ROM by an image arithmetic processor (not shown) included in the CPU 101 or the image processing unit 107, and then processes the processed data on a frame memory ( (Not shown). The image information recorded in the frame memory is converted into a video signal at a predetermined synchronization timing and output to a monitor (not shown) connected to the image processing unit 107. Thereby, various image displays are possible.

画像演算プロセッサは、2次元の画像の重ね合わせ演算やαブレンディング等の透過演算、各種の飽和演算を高速に実行できる。   The image calculation processor can execute a two-dimensional image overlay calculation, a transmission calculation such as α blending, and various saturation calculations at high speed.

また、仮想3次元空間に配置され、各種のテクスチャ情報が付加されたポリゴン情報を、Zバッファ法によりレンダリングして、所定の視点位置から仮想3次元空間に配置されたポリゴンを所定の視線の方向へ俯瞰したレンダリング画像を得る演算の高速実行も可能である。   Also, polygon information arranged in the virtual three-dimensional space and added with various texture information is rendered by the Z buffer method, and the polygon arranged in the virtual three-dimensional space from the predetermined viewpoint position is determined in the direction of the predetermined line of sight It is also possible to perform high-speed execution of operations for obtaining rendered images.

さらに、CPU 101と画像演算プロセッサが協調動作することにより、文字の形状を定義するフォント情報にしたがって、文字列を2次元画像としてフレームメモリへ描画したり、各ポリゴン表面へ描画したりすることが可能である。フォント情報は、ROM 102に記録されているが、DVD−ROMに記録された専用のフォント情報を利用することも可能である。   Further, the CPU 101 and the image arithmetic processor cooperate to draw a character string as a two-dimensional image in the frame memory or draw it on the surface of each polygon according to the font information that defines the character shape. Is possible. The font information is recorded in the ROM 102, but it is also possible to use dedicated font information recorded in the DVD-ROM.

NIC 109は、情報処理装置100をインターネット等のコンピュータ通信網(図示せず)に接続するためのものであり、LAN(Local Area Network)を構成する際に用いられる10BASE−T/100BASE−T規格にしたがうものや、電話回線を用いてインターネットに接続するためのアナログモデム、ISDN(Integrated Services Digital Network)モデム、ADSL(Asymmetric Digital Subscriber Line)モデム、ケーブルテレビジョン回線を用いてインターネットに接続するためのケーブルモデム等と、これらとCPU 101との仲立ちを行うインターフェース(図示せず)により構成される。   The NIC 109 is used to connect the information processing apparatus 100 to a computer communication network (not shown) such as the Internet, and is based on the 10BASE-T / 100BASE-T standard used when configuring a LAN (Local Area Network). To connect to the Internet using an analog modem, ISDN (Integrated Services Digital Network) modem, ADSL (Asymmetric Digital Subscriber Line) modem, cable television line A cable modem or the like and an interface (not shown) that mediates between these and the CPU 101 are configured.

音声処理部110は、DVD−ROMから読み出した音声データをアナログ音声信号に変換し、これに接続されたスピーカ(図示せず)から出力させる。また、CPU 101の制御の下、ゲームの進行の中で発生させるべき効果音や楽曲データを生成し、これに対応した音声をスピーカから出力させる。   The audio processing unit 110 converts audio data read from the DVD-ROM into an analog audio signal and outputs the analog audio signal from a speaker (not shown) connected thereto. Further, under the control of the CPU 101, sound effects and music data to be generated during the progress of the game are generated, and sound corresponding to this is output from the speaker.

音声処理部110では、DVD−ROMに記録された音声データがMIDIデータである場合には、これが有する音源データを参照して、MIDIデータをPCMデータに変換する。また、ADPCM形式やOgg Vorbis形式等の圧縮済音声データである場合には、これを展開してPCMデータに変換する。PCMデータは、そのサンプリング周波数に応じたタイミングでD/A(Digital/Analog)変換を行って、スピーカに出力することにより、音声出力が可能となる。   When the audio data recorded on the DVD-ROM is MIDI data, the audio processing unit 110 refers to the sound source data included in the audio data and converts the MIDI data into PCM data. If the compressed audio data is in ADPCM format or Ogg Vorbis format, it is expanded and converted to PCM data. The PCM data can be output by performing D / A (Digital / Analog) conversion at a timing corresponding to the sampling frequency and outputting it to a speaker.

さらに、情報処理装置100には、インターフェース104を介してマイク111を接続することができる。この場合、マイク111からのアナログ信号に対しては、適当なサンプリング周波数でA/D変換を行い、PCM形式のディジタル信号として、音声処理部110でのミキシング等の処理ができるようにする。   Furthermore, a microphone 111 can be connected to the information processing apparatus 100 via the interface 104. In this case, the analog signal from the microphone 111 is subjected to A / D conversion at an appropriate sampling frequency so that processing such as mixing in the sound processing unit 110 can be performed as a PCM format digital signal.

情報処理装置100をカラオケ装置として利用する場合には、DVD−ROMから読み出した音声データ、もしくは、NIC 109を介してコンピュータ通信網から取得した音声データを伴奏データとし、マイク111から入力された音声データを歌唱データとして、伴奏データと歌唱データを音声処理部110がミキシングし、スピーカから出力する。また、スピーカにかえて、ヘッドホン(図示せず)やイヤフォン(図示せず)を用いて、音声を出力させることもできる。   When the information processing apparatus 100 is used as a karaoke apparatus, audio data read from a DVD-ROM or audio data acquired from a computer communication network via the NIC 109 is used as accompaniment data, and audio input from the microphone 111 is used. The voice processing unit 110 mixes the accompaniment data and the singing data with the data as the singing data, and outputs it from the speaker. Moreover, it is possible to output sound using headphones (not shown) or earphones (not shown) instead of the speakers.

このほか、情報処理装置100は、ハードディスク等の大容量外部記憶装置を用いて、ROM 102、RAM 103、外部メモリ106、DVD−ROMドライブ108に装着されるDVD−ROM等と同じ機能を果たすように構成してもよい。   In addition, the information processing apparatus 100 uses a large-capacity external storage device such as a hard disk so as to perform the same function as the ROM 102, the RAM 103, the external memory 106, the DVD-ROM mounted on the DVD-ROM drive 108, and the like. You may comprise.

また、ユーザからの文字列の編集入力を受け付けるためのキーボードや、各種の位置の指定および選択入力を受け付けるためのマウスなどを接続する形態も採用することができる。また、本実施形態の情報処理装置100にかえて、汎用のパーソナルコンピュータを利用することもできる。   Further, it is possible to adopt a form in which a keyboard for accepting a character string editing input from a user, a mouse for accepting various position designations and selection inputs, and the like are connected. In addition, a general-purpose personal computer can be used instead of the information processing apparatus 100 of the present embodiment.

以上で説明した情報処理装置100は、いわゆる「コンシューマ向けテレビゲーム装置」に相当するものであるが、仮想空間を表示するような画像処理を行うものであれば本発明を実現することができる。したがって、携帯電話、携帯ゲーム機器、カラオケ装置、一般的なビジネス用コンピュータなど、種々の計算機上で本発明を実現することが可能である。   The information processing apparatus 100 described above corresponds to a so-called “consumer video game apparatus”, but the present invention can be realized as long as it performs image processing to display a virtual space. Therefore, the present invention can be realized on various computers such as a mobile phone, a portable game device, a karaoke apparatus, and a general business computer.

例えば、一般的なコンピュータは、上記情報処理装置100と同様に、CPU、RAM、ROM、DVD−ROMドライブ、及び、NICを備え、情報処理装置100よりも簡易な機能を備えた画像処理部を備え、外部記憶装置としてハードディスクを有する他、フレキシブルディスク、光磁気ディスク、磁気テープ等が利用できるようになっている。また、コントローラ105ではなく、キーボードやマウスなどを入力装置として利用する。   For example, a general computer includes an CPU, a RAM, a ROM, a DVD-ROM drive, and an NIC as in the information processing apparatus 100, and an image processing unit having a simpler function than the information processing apparatus 100. In addition to having a hard disk as an external storage device, a flexible disk, a magneto-optical disk, a magnetic tape, and the like can be used. Further, not the controller 105 but a keyboard or a mouse is used as an input device.

図2は、本発明のキャラクター表示装置に係る概要構成を示す模式図である。本発明のキャラクター表示装置200は、典型的には上述した情報処理装置100によって実現される。以下、本図を参照して概要構成を説明する。   FIG. 2 is a schematic diagram showing a schematic configuration according to the character display device of the present invention. The character display device 200 of the present invention is typically realized by the information processing device 100 described above. Hereinafter, the general configuration will be described with reference to this figure.

キャラクター表示装置200は、記憶部201、表示部202、検知部203、決定部204、更新部205を備える。   The character display device 200 includes a storage unit 201, a display unit 202, a detection unit 203, a determination unit 204, and an update unit 205.

記憶部201では、仮想空間内に配置されるキャラクターの向きが記憶される。   In the storage unit 201, the direction of the character arranged in the virtual space is stored.

すなわち、本実施形態では3次元の仮想空間を用意し、そこに所定の向きでキャラクターを配置する。所定の向きは、後述する更新部205によって更新され、そのつど更新された向きに配置されたキャラクターが記憶部201に記憶される。例えば、RAM 103等が、このような記憶部201として機能する。   That is, in this embodiment, a three-dimensional virtual space is prepared, and characters are arranged there in a predetermined direction. The predetermined orientation is updated by the update unit 205 described later, and the character arranged in the updated orientation is stored in the storage unit 201 each time. For example, the RAM 103 or the like functions as such a storage unit 201.

表示部202は、キャラクターが記憶された向きで仮想空間内に配置された様子を表す画像を、画面に表示する。   The display unit 202 displays an image representing a state in which the character is arranged in the virtual space in the stored direction on the screen.

すなわち、記憶部201に記憶された向きで仮想空間内に配置されたキャラクターを、同じく仮想空間内の所定の位置に配置された仮想カメラから見た画像を生成し、その画像をキャラクター表示装置200の画面に表示する。例えば、画像処理部107が、このような表示部202として機能する。   That is, an image obtained by viewing a character arranged in the virtual space in the orientation stored in the storage unit 201 from a virtual camera arranged in a predetermined position in the virtual space is generated, and the image is displayed on the character display device 200. On the screen. For example, the image processing unit 107 functions as such a display unit 202.

検知部203は、ユーザからの音声を検知する。   The detection unit 203 detects voice from the user.

すなわち、ユーザから発せられた音声を入力として受け付け、受け付けられた音声を決定部204へ供給する。例えば、インターフェース104に接続されたマイク111が、このような検知部203として機能する。   That is, a voice uttered by the user is accepted as an input, and the accepted voice is supplied to the determination unit 204. For example, the microphone 111 connected to the interface 104 functions as such a detection unit 203.

決定部204は、検知された音声の音量に基づいて、キャラクターの向きの変化を決定する。   The determination unit 204 determines the change in the character direction based on the detected sound volume.

すなわち、検知部203によってユーザから検知された音声から、所定のサンプリング周波数により音量を取得する。そして、取得された音量をもとに、仮想空間内のキャラクターの向きを変化させる量を決定する。例えば、CPU 101がRAM103等と協働することにより、このような決定部204として機能する。   That is, the sound volume is acquired from the sound detected by the detection unit 203 from the user at a predetermined sampling frequency. Then, based on the acquired volume, an amount for changing the direction of the character in the virtual space is determined. For example, the CPU 101 functions as such a determination unit 204 in cooperation with the RAM 103 or the like.

更新部205は、決定された変化により、記憶された向きを更新する。   The update unit 205 updates the stored orientation according to the determined change.

すなわち、決定部204によって決定された変化を受け取り、記憶部201に記憶されているキャラクターの向きを更新する。例えば、CPU 101がRAM103等と協働することにより、このような更新部205として機能する。   In other words, the change determined by the determination unit 204 is received, and the direction of the character stored in the storage unit 201 is updated. For example, the CPU 101 functions as such an update unit 205 in cooperation with the RAM 103 or the like.

図3は、本発明のキャラクター表示装置200に係る表示画面の構成例を示した図である。表示部202は、典型的には本図に示すような表示画面300を、情報処理装置100の画像表示部107を通じてモニタに表示する。   FIG. 3 is a diagram showing a configuration example of a display screen according to the character display device 200 of the present invention. The display unit 202 typically displays a display screen 300 as shown in the figure on the monitor through the image display unit 107 of the information processing apparatus 100.

本図に示すように、表示画面300には、キャラクター画像301とメッセージウィンドウ302の画像が含まれ、必要に応じて仮想世界を構成するその他の背景画像(本図では、キャラクター画像301が立っている道路や、その道路に沿って配置されている家の画像)が表示されている。これらの画像の生成には、通常のゲームやチャットシステム等に用いられるものと同様のグラフィックス技術を適用することが可能である。   As shown in this figure, the display screen 300 includes a character image 301 and an image of a message window 302. If necessary, other background images (in this figure, the character image 301 stands up) constituting the virtual world. And images of houses arranged along the road). For the generation of these images, it is possible to apply the same graphics technique as that used in ordinary games and chat systems.

キャラクター画像301は、仮想世界内でのユーザのいわゆる分身であり、特に離れた場所にいるユーザ同士がネットワーク上でコミュニケーションをとる場合に、表示画面300にキャラクター画像301を表示することで相手のユーザにとって親しみを感じさせ、円滑なコミュニケーションを行えるようにするためのものである。本図では表示画面300内にキャラクター画像301は1体しか表示されていないが、多数のユーザがネットワーク上でコミュニケーションをしている場合などにおいては、多数のユーザのそれぞれに対応した多数のキャラクター画像301が表示画面300内に配置されていてもよい。   The character image 301 is a so-called alternation of users in the virtual world. When users in remote locations communicate with each other on the network, the character image 301 is displayed on the display screen 300 to display the other user. It is intended to make people feel friendly and to be able to communicate smoothly. In this figure, only one character image 301 is displayed on the display screen 300. However, when a large number of users are communicating on the network, a large number of character images corresponding to each of the large number of users are displayed. 301 may be arranged in the display screen 300.

メッセージウィンドウ302は、ユーザ同士がネットワーク上でコミュニケーションをとる際のメッセージを、文字で表示する。表示されるメッセージは、検知部203によって検知されたユーザの音声を解析して、文字へと変換することにより生成されるものであってもよいし、検知部203によって検知されたユーザの音声とは別に、ユーザがキーボードなどの入力装置で入力されたメッセージであってもよい。また本実施形態では、必ずしもメッセージウィンドウ302は表示されなくてもよく、ユーザ同士が音声とキャラクター画像301の動作のみでコミュニケーションをとる形態であってもよい。   The message window 302 displays a message when the users communicate with each other on the network in characters. The displayed message may be generated by analyzing the user's voice detected by the detection unit 203 and converting it into characters, or the user's voice detected by the detection unit 203 Alternatively, it may be a message input by the user using an input device such as a keyboard. In the present embodiment, the message window 302 may not necessarily be displayed, and the users may communicate with each other only by the operation of the voice and the character image 301.

このような表示画面300におけるキャラクター画像301を生成するために、本実施形態のキャラクター表示装置200は、記憶部201内に3次元の仮想空間を用意し、当該仮想空間内に仮想キャラクターと仮想カメラを配置して、仮想カメラから撮影された仮想キャラクターの様子を表す画像を生成し、表示画面300内に表示する。以下、図4を参照して説明する。   In order to generate such a character image 301 on the display screen 300, the character display device 200 of this embodiment prepares a three-dimensional virtual space in the storage unit 201, and a virtual character and a virtual camera in the virtual space. Is generated, and an image representing the state of the virtual character photographed from the virtual camera is generated and displayed in the display screen 300. Hereinafter, a description will be given with reference to FIG.

図4は、本発明のキャラクター表示装置200に係る仮想空間内の様子を表した図である。本図は、3次元の仮想空間400内に配置された仮想キャラクター401の上方向から見た仮想空間400の様子を表している。仮想空間400内には仮想カメラ402がさらに配置され、仮想キャラクター401の方へ向けられている。   FIG. 4 is a diagram showing a state in the virtual space according to the character display device 200 of the present invention. This figure shows a state of the virtual space 400 viewed from above the virtual character 401 arranged in the three-dimensional virtual space 400. A virtual camera 402 is further arranged in the virtual space 400 and is directed toward the virtual character 401.

この仮想カメラ402は、図3の表示画面300に表示されていたキャラクター画像301を生成するために用いられるもので、表示部202は、仮想カメラ402から見た仮想キャラクター401の様子をもとに画像を生成し、それを図3における表示画面300に表示する。すなわち、例えば、仮想空間400内の仮想キャラクター401が、仮想カメラ402に対して正面を向くように配置されていれば、仮想カメラ402は正面向きのキャラクター画像301を生成して表示画面300に表示する。また、仮想空間400内の仮想キャラクター401が、仮想カメラ402に対して左を向くように配置されていれば、仮想カメラ402は左を向いたキャラクター画像301を生成して表示画面300に表示する。さらに、仮想空間400内の仮想キャラクター401が、仮想カメラ402に対して右を向くように配置されていれば、仮想カメラ402は右を向いたキャラクター画像301を生成して表示画面300に表示する。   The virtual camera 402 is used to generate the character image 301 displayed on the display screen 300 in FIG. 3, and the display unit 202 is based on the state of the virtual character 401 viewed from the virtual camera 402. An image is generated and displayed on the display screen 300 in FIG. That is, for example, if the virtual character 401 in the virtual space 400 is arranged to face the virtual camera 402, the virtual camera 402 generates a front-facing character image 301 and displays it on the display screen 300. To do. If the virtual character 401 in the virtual space 400 is arranged so as to face left with respect to the virtual camera 402, the virtual camera 402 generates a character image 301 facing left and displays it on the display screen 300. . Further, if the virtual character 401 in the virtual space 400 is arranged so as to face right with respect to the virtual camera 402, the virtual camera 402 generates a character image 301 facing right and displays it on the display screen 300. .

具体的に図4では、仮想キャラクター401は、仮想カメラ402の方向を0°(正面向き)として、仮想カメラ402から仮想キャラクター401へ向かって左へ所定角度403の横向きを向いて配置されている。すなわち、仮想カメラ402によって、仮想キャラクター401が左を向いた様子が映し出されており、これをもとにして生成されたキャラクター画像301は、図3のように、表示画面300を見ているユーザから向かって左方向に横を向いている状態となる。   Specifically, in FIG. 4, the virtual character 401 is arranged with the direction of the virtual camera 402 being 0 ° (front direction) and facing leftward from the virtual camera 402 toward the virtual character 401 by a predetermined angle 403. . In other words, the virtual camera 402 projects the virtual character 401 to the left, and the character image 301 generated based on the virtual character 401 is viewed by the user viewing the display screen 300 as shown in FIG. It will be in the state which has turned to the left direction toward from.

本実施形態ではこのように、仮想空間400内において様々な方向を向いた仮想キャラクター401の様子をもとにして、表示画面300内のキャラクター画像301を生成する。そして、このような仮想キャラクター401の向きは、検知部203によってユーザからの音声が検知されると変化する。以下、図5および図6を参照して説明する。   In this embodiment, the character image 301 in the display screen 300 is generated based on the state of the virtual character 401 in various directions in the virtual space 400 as described above. The orientation of the virtual character 401 changes when the detection unit 203 detects voice from the user. Hereinafter, a description will be given with reference to FIGS. 5 and 6.

図5は、ユーザからの音声に基づいてキャラクター画像301の向きが変化する様子を表した図である。本図の表示画面300内には、図3と同じように、キャラクター画像301、メッセージウィンドウ302、およびその他の背景画像が表示されている。さらに本図では、このような表示画面300を表示しているキャラクター表示装置200の表示部202には、モノラルマイク502が接続されており、表示画面300を見ているユーザ501が、モノラルマイク502に向かって「Hello!!」と発声している状況が示されている。   FIG. 5 is a diagram showing how the orientation of the character image 301 changes based on the voice from the user. In the display screen 300 of this figure, a character image 301, a message window 302, and other background images are displayed as in FIG. Furthermore, in this figure, a monaural microphone 502 is connected to the display unit 202 of the character display device 200 displaying such a display screen 300, and a user 501 who is viewing the display screen 300 can view the monaural microphone 502. The situation where he says “Hello !!” is shown.

すなわち、ここではキャラクター表示装置200の検知部203は、モノラルマイク502によってユーザ501からの音声を検知する。なお、図5でのモノラルマイク502は、表示部202に有線で接続されているように書かれているが、必ずしもこれに限られず、無線通信によって接続されるものであってもよい。   That is, here, the detection unit 203 of the character display device 200 detects the sound from the user 501 with the monaural microphone 502. Note that the monaural microphone 502 in FIG. 5 is written as being connected to the display unit 202 by wire, but is not limited thereto, and may be connected by wireless communication.

そして、図5では、ユーザ501がモノラルマイク502に発声するのに伴って、表示画面300内に表示されているキャラクター画像301の向きが、左向きから正面向きに変化している様子が示されている。すなわち、キャラクター画像301は、図3では左を向いていたのに対して、本図では表示画面300を見ているユーザ501に対して、正面を向くように変化している。   FIG. 5 shows that the orientation of the character image 301 displayed in the display screen 300 is changed from the left direction to the front direction as the user 501 speaks to the monaural microphone 502. Yes. That is, while the character image 301 is facing left in FIG. 3, the character image 301 changes so as to face the front with respect to the user 501 who is viewing the display screen 300 in this figure.

なお、図5のメッセージウィンドウ302内には、ユーザ501が発声した「Hello!!」という音声に基づいて、「Hello!!」という会話内容304が表示されている。このような会話内容304は、例えば、ユーザ501がモノラルマイク502に向かって語りかけた音声を解析して、文字へと変換することによって表示される。   In the message window 302 of FIG. 5, the conversation content 304 “Hello !!” is displayed based on the voice “Hello !!” uttered by the user 501. Such conversation content 304 is displayed by, for example, analyzing voice spoken by the user 501 toward the monaural microphone 502 and converting it into characters.

さらに、図6は、仮想空間400内における仮想キャラクター401の向きが変化する様子を表した図である。本図は、図4と同様に、3次元の仮想空間400内に配置された仮想キャラクター401の上方向から見た仮想空間400の様子を表している。ただし、仮想キャラクター401は、図4では仮想カメラ402に対して所定角度403だけ左を向いていたのに対し、本図では仮想カメラ402に対して正面向きに変化している。   Furthermore, FIG. 6 is a diagram illustrating a state in which the orientation of the virtual character 401 in the virtual space 400 changes. This figure represents the state of the virtual space 400 viewed from above the virtual character 401 arranged in the three-dimensional virtual space 400, as in FIG. However, the virtual character 401 is turned to the left by a predetermined angle 403 with respect to the virtual camera 402 in FIG.

すなわち、図6は、図5のようにユーザ501が発した音声を、検知部203、すなわちモノラルマイク502が検知するのに伴って、仮想空間400内の仮想キャラクター401の向きが正面向きに変化する様子を示している。そして、仮想カメラ402が、このように正面向きに変化した仮想キャラクター401の様子を映し出して、表示部202が、図5のような正面向きのキャラクター画像301を生成して表示画面300内に表示する。   That is, FIG. 6 shows that the voice of the user 501 as shown in FIG. 5 is detected by the detection unit 203, that is, the monaural microphone 502, and the orientation of the virtual character 401 in the virtual space 400 changes to the front. It shows how to do. Then, the virtual camera 402 displays the state of the virtual character 401 that has been changed to the front direction as described above, and the display unit 202 generates a front-side character image 301 as shown in FIG. To do.

このように、本実施形態では、モノラルマイク502によって音声が検知されていない状態では、仮想キャラクター401は、図4のように仮想カメラ402に対して左へ所定角度403の横向きに配置され、それを反映して表示画面300内には、図3のように左を向いたキャラクター画像301が表示される。一方で、モノラルマイク502によって音声が検知されると、仮想キャラクター401は、図6のように仮想カメラ402に対して正面を向くように変化し、それを反映して表示画面300内には、図5のように正面を向いたキャラクター画像301が表示される。   As described above, in the present embodiment, in a state in which no sound is detected by the monaural microphone 502, the virtual character 401 is arranged sideways at a predetermined angle 403 with respect to the virtual camera 402 as shown in FIG. The character image 301 facing left is displayed in the display screen 300 as shown in FIG. On the other hand, when sound is detected by the monaural microphone 502, the virtual character 401 changes to face the virtual camera 402 as shown in FIG. A character image 301 facing the front is displayed as shown in FIG.

ここで、本実施形態では、仮想キャラクター401およびキャラクター画像301の向きは、まったくランダムに変化するのではなく、モノラルマイク502によって検知された音声の音量に基づいて変化する。具体的に、本実施形態では、仮想空間400内の仮想キャラクター401の向きの取りうる範囲を、仮想カメラ402に対して正面向きと、正面から左方向へ所定角度403の横向きと、の間とする。そして、キャラクター表示装置200の検知部203は、モノラルマイク502によってユーザ501からの音声を検知し、決定部204は、検知部203により検知された音声の音量が大きければ大きいほど、仮想キャラクター401の向きが正面向きに近づくように、すなわち表示画面300内に表示されているキャラクター画像301の向きが正面向きに近づくように、変化を決定する。このような音量と向きとの関係を、以下の図7を参照して詳細を説明する。   Here, in the present embodiment, the orientations of the virtual character 401 and the character image 301 do not change at random, but change based on the sound volume detected by the monaural microphone 502. Specifically, in the present embodiment, the range in which the orientation of the virtual character 401 in the virtual space 400 can be taken is between the front orientation with respect to the virtual camera 402 and the lateral orientation of the predetermined angle 403 from the front to the left. To do. Then, the detection unit 203 of the character display device 200 detects the voice from the user 501 with the monaural microphone 502, and the determination unit 204 increases the volume of the voice detected by the detection unit 203 as the volume of the virtual character 401 increases. The change is determined so that the direction approaches the front direction, that is, the direction of the character image 301 displayed in the display screen 300 approaches the front direction. The relationship between the sound volume and the direction will be described in detail with reference to FIG. 7 below.

図7は、本実施形態における、検知部203が検知した音声の音量と、仮想キャラクター401の向きを定める角度との関係を示したグラフである。本図では、横軸に検知した音声の音量、縦軸に仮想キャラクター401の向きを定める角度をとり、右側ほど検知した音量が大きくなり、上側ほど仮想キャラクター401の向きが大きく左を向いているということを表している。   FIG. 7 is a graph showing the relationship between the volume of the sound detected by the detection unit 203 and the angle that determines the direction of the virtual character 401 in this embodiment. In this figure, the abscissa indicates the detected sound volume, the ordinate indicates the angle that determines the orientation of the virtual character 401, the detected volume increases toward the right, and the orientation of the virtual character 401 increases toward the left. It represents that.

本図のグラフでは、検知された音声の音量が0のとき、仮想キャラクター401の向きを定める角度は、あらかじめ定められた左向きの所定角度403である。そして、検知された音声の音量が徐々に大きくなるにしたがって、仮想キャラクター401の向きを定める角度は、徐々に正面向きに近づいていく。そして検知された音声の音量が 所定の閾音量に達すると、角度は0°に達し、仮想キャラクター401は仮想カメラ402に対して真正面を向く。本図のグラフでは、さらに所定の閾音量以上の音量の音声を検知した場合にも、正面向きのままとなる。   In the graph of this figure, when the volume of the detected voice is 0, the angle that determines the orientation of the virtual character 401 is a predetermined leftward predetermined angle 403. Then, as the volume of the detected voice gradually increases, the angle that determines the direction of the virtual character 401 gradually approaches the front direction. When the detected sound volume reaches a predetermined threshold volume, the angle reaches 0 °, and the virtual character 401 faces the virtual camera 402 directly in front. In the graph of this figure, even when a sound having a sound volume equal to or higher than a predetermined threshold sound volume is detected, it remains in the front direction.

すなわち、本実施形態では、ユーザ501が何も音声を検知していないと、キャラクター画像301は図3のように左を向いて表示されているが、ユーザ501がモノラルマイク502に向かって声を発すると、キャラクター画像301は徐々にその向きを変える。そして、検知された音声の音量が大きければ大きいほど、キャラクター画像301の向きを正面に近づける。そして最終的に、検知された音量が所定の閾音量に達すると、図5のようにキャラクター画像301は正面を向くことになる。   That is, in this embodiment, if the user 501 detects no sound, the character image 301 is displayed facing left as shown in FIG. 3, but the user 501 speaks to the monaural microphone 502. When emitted, the character image 301 gradually changes its orientation. Then, the greater the volume of the detected voice, the closer the orientation of the character image 301 is to the front. Finally, when the detected volume reaches a predetermined threshold volume, the character image 301 turns to the front as shown in FIG.

なお、図3〜図7では、音声が検知されていない状態では、仮想キャラクター401は左向きの所定角度403を向いている状態であったが、本実施形態ではこれに限られず、例えば、右向きであっても、左斜め下向きであってもよいものとする。   In FIGS. 3 to 7, the virtual character 401 is facing the predetermined angle 403 facing left when no sound is detected. However, the present embodiment is not limited to this. For example, the virtual character 401 is facing right. Even if it exists, it may be left diagonally downward.

本実施形態では、さらに、仮想キャラクター401の向きを変化させる際に、表示画面300内におけるキャラクター画像301の視線を正面に向けたまま変化させる。すなわち、更新部205は、キャラクター画像301の視線を正面に向けたまま、記憶部201に記憶された向きを更新する。   In the present embodiment, when the orientation of the virtual character 401 is changed, the line of sight of the character image 301 in the display screen 300 is changed while facing the front. That is, the update unit 205 updates the orientation stored in the storage unit 201 while keeping the line of sight of the character image 301 facing the front.

具体的に、図4および図6での仮想空間400内の仮想キャラクター401において、仮想瞳404を別途用意する。そして、更新部205が仮想キャラクター401の向きを更新しても、仮想瞳404だけは常に仮想カメラ402の方向を向いているように位置を調整する。具体的に、図4では仮想キャラクター401は仮想カメラ402に対して所定角度403だけ左方向を向いており、図6では仮想キャラクター401は仮想カメラ402に対して正対しているが、どちらの図においても仮想瞳404は仮想カメラ402の方向を向いている。   Specifically, a virtual pupil 404 is separately prepared in the virtual character 401 in the virtual space 400 in FIGS. 4 and 6. Then, even if the updating unit 205 updates the direction of the virtual character 401, the position is adjusted so that only the virtual pupil 404 is always facing the direction of the virtual camera 402. Specifically, in FIG. 4, the virtual character 401 is directed leftward by a predetermined angle 403 with respect to the virtual camera 402, and in FIG. 6, the virtual character 401 is directly facing the virtual camera 402. The virtual pupil 404 also faces the virtual camera 402 in FIG.

そのような仮想キャラクター401と仮想瞳404を見ている仮想カメラ402によって生成された画像が、図3および図5の表示画面300内に表示される。具体的に、図3では、キャラクター画像301は、体全体は左方向を向いているが、瞳画像303だけは正面を向いている状態となっている。すなわち、キャラクター画像301の視線は正面を向いている。一方で、図5においては、キャラクター画像301は、体全体も正面を向いているし、瞳画像303も正面を向いている。   An image generated by the virtual camera 402 looking at the virtual character 401 and the virtual pupil 404 is displayed in the display screen 300 of FIGS. 3 and 5. Specifically, in FIG. 3, the character image 301 is in a state in which the entire body faces leftward, but only the pupil image 303 faces front. That is, the line of sight of the character image 301 faces the front. On the other hand, in FIG. 5, the character image 301 has the whole body facing the front, and the pupil image 303 is also facing the front.

このように、本実施形態では、仮想瞳404の位置を調整することで、キャラクター画像301の体全体の向きにかかわらず、瞳画像303が常に正面を向くようにする。その結果として、離れた場所にいるユーザ同士が、相手ユーザに対応するキャラクター画像301を見ながら会話をしているときに、キャラクター画像301が横を向いていても、相手が自分を無視して他の方向を向いているのではなく、自分の方を向いて会話をしているように見せることができ、会話を行っている臨場感を増すことができる。   As described above, in the present embodiment, by adjusting the position of the virtual pupil 404, the pupil image 303 always faces the front regardless of the orientation of the entire body of the character image 301. As a result, when users in remote locations are having a conversation while looking at the character image 301 corresponding to the other user, even if the character image 301 is facing sideways, the other party ignores himself / herself. Instead of facing in the other direction, you can make it look like you are talking to yourself, and you can increase the sense of presence in the conversation.

本実施形態では、さらに、仮想キャラクター401の向きを変化させる際に、角加速度が所定の閾値を超えないように変化させる。すなわち、更新部205は、角加速度が所定の閾値を超えないように、記憶部201に記憶された向きを更新する。   In the present embodiment, when the orientation of the virtual character 401 is changed, the angular acceleration is changed so as not to exceed a predetermined threshold. That is, the update unit 205 updates the orientation stored in the storage unit 201 so that the angular acceleration does not exceed a predetermined threshold.

すなわちここでは、向きがある方向に固定されていた仮想キャラクター401の向きが変化し始めるときや、向きが変化し終わるときに、特に焦点があてられている。すなわち、急に大きな角速度で仮想キャラクター401の向きが動き出したり、急にストップしたりするよりは、滑らかに、いわゆる粘性をもった動きで向きが変化した方が、表示画面300のキャラクター301を見ているユーザにとって、より自然に感じられると考えられる。そのため、本実施形態では、仮想キャラクター401の向きが変化する角加速度に、所定の上限閾値を設ける。   In other words, the focus is particularly given here when the orientation of the virtual character 401 that has been fixed in a certain direction begins to change or when the orientation ends. That is, the direction of the virtual character 401 suddenly starts to move at a large angular velocity or suddenly stops, and the direction of the character 301 on the display screen 300 is more smoothly changed when the direction changes with a so-called viscous movement. It is thought that it feels more natural to the user who is. Therefore, in this embodiment, a predetermined upper limit threshold is provided for the angular acceleration at which the orientation of the virtual character 401 changes.

図8は、本発明の実施形態1のキャラクター表示装置200に係る処理の流れを示すフローチャートである。ここまで説明してきた本実施形態におけるキャラクター表示装置200において実現される処理の流れまとめて、以下に説明する。   FIG. 8 is a flowchart showing a flow of processing according to the character display device 200 of Embodiment 1 of the present invention. The processing flow realized in the character display device 200 in the present embodiment described so far will be summarized below.

本処理が開始されると、キャラクター表示装置200のCPU 101は、記憶部201に記憶される情報等、RAM 103に用意される各種の情報の初期化を行う(ステップS801)。   When this process is started, the CPU 101 of the character display device 200 initializes various information prepared in the RAM 103, such as information stored in the storage unit 201 (step S801).

ついで、キャラクター表示装置200は、所定角度403の左向きのキャラクター画像301を、表示画面300に表示する(ステップS802)。ここでは、表示部202が、表示画面300に表示すべき画像を生成し、所定の周期で行われる垂直同期割り込みを待ってから、その画像を、表示画面300に表示する。具体的には、図4に示したように、仮想空間400内に仮想キャラクター401を、仮想カメラ402に対して左に所定角度403だけ横を向いた状態で配置し、表示部202が、その仮想カメラ402から見た画像を生成し、図3に示したような左を向いたキャラクター画像301を、その他の画像とともに表示画面300に表示する。   Next, the character display device 200 displays a leftward character image 301 having a predetermined angle 403 on the display screen 300 (step S802). Here, the display unit 202 generates an image to be displayed on the display screen 300, waits for a vertical synchronization interrupt performed at a predetermined cycle, and then displays the image on the display screen 300. Specifically, as shown in FIG. 4, a virtual character 401 is arranged in the virtual space 400 in a state where the virtual character 401 is directed to the left by a predetermined angle 403 with respect to the virtual camera 402, and the display unit 202 An image viewed from the virtual camera 402 is generated, and a character image 301 facing left as shown in FIG. 3 is displayed on the display screen 300 together with other images.

そして、キャラクター表示装置200は、ユーザ501から音声を検知したかどうかを判定する(ステップS803)。すなわち、検知部203が、ユーザ501から発せられた音声を受け付け、検知する。ここで検知されなかったと判定された場合(ステップS803;NO)、本フローチャートの処理はステップS802へ戻り、所定角度403の横向きのキャラクター画像301を、表示画面300に表示する処理を行う。すなわち、検知部203によって音声が検知されない限り、本実施形態のキャラクター表示装置200は、所定角度403の横向きの、すなわち初期の向きのキャラクター画像301を表示し続けることになる。   And the character display apparatus 200 determines whether the audio | voice was detected from the user 501 (step S803). That is, the detection unit 203 receives and detects a voice emitted from the user 501. If it is determined that no detection has been made (step S803; NO), the process of this flowchart returns to step S802, and a process of displaying a horizontally oriented character image 301 at a predetermined angle 403 on the display screen 300 is performed. That is, as long as no sound is detected by the detection unit 203, the character display device 200 according to the present embodiment continues to display the character image 301 in the horizontal direction of the predetermined angle 403, that is, in the initial direction.

一方、検知部203によって音声を検知したと判定された場合(ステップS803;YES)、キャラクター表示装置200は、検知された音声の音量に基づき、仮想キャラクター401の向きの変化を決定する(ステップS804)。すなわち、決定部204が、検知された音声から音量を取得し、その音量の値をもとに、仮想空間400内における仮想キャラクター401の向きを変化させるべき角度を求める。   On the other hand, when it is determined that the sound is detected by the detection unit 203 (step S803; YES), the character display device 200 determines a change in the orientation of the virtual character 401 based on the detected sound volume (step S804). ). That is, the determination unit 204 obtains a volume from the detected voice, and obtains an angle at which the direction of the virtual character 401 in the virtual space 400 should be changed based on the volume value.

本実施形態では、向きを変化させるべき角度は、図7に示した音量と角度の関係から求められる。すなわち、音量が大きければ大きいほど、向きは所定角度403の横向きから正面向きへと近づき、最終的に所定の閾音量以上を検知すると、仮想キャラクター401は仮想カメラ402に対して真正面を向くようになる。   In the present embodiment, the angle whose direction should be changed is obtained from the relationship between the volume and the angle shown in FIG. That is, as the volume increases, the direction approaches from the lateral direction of the predetermined angle 403 to the front direction, and when a predetermined threshold volume or higher is finally detected, the virtual character 401 faces the virtual camera 402 directly in front. Become.

さらに本実施形態におけるキャラクター表示装置200は、決定された変化により、仮想キャラクター401の向きを更新する(ステップS805)。すなわち、決定部204によって決定された仮想キャラクター401の向きの変化させる角度だけ、更新部205が、実際に仮想空間400内の仮想キャラクター401の向きを更新する。例えば、決定部204によって仮想キャラクター401の向きを正面向きに変化させることが決定された場合には、図5に示したように、仮想キャラクター401は仮想カメラ402に対して正面を向くように向きを変化させられる。   Furthermore, the character display device 200 according to the present embodiment updates the orientation of the virtual character 401 according to the determined change (step S805). That is, the update unit 205 actually updates the orientation of the virtual character 401 in the virtual space 400 by the angle that changes the orientation of the virtual character 401 determined by the determination unit 204. For example, when it is determined by the determining unit 204 that the orientation of the virtual character 401 is changed to the front direction, the virtual character 401 is oriented so as to face the virtual camera 402 as shown in FIG. Can be changed.

ここで本実施形態では、仮想キャラクター401の向きを更新する際、角加速度が所定の閾値を超えたかどうかを判定する(ステップS806)。すなわち、後述するステップS809において、向きの更新されたキャラクター画像301が、所定の垂直同期割り込みを待って表示画面300に表示されるが、そこで表示される向きの変化が、それまでに表示されていた向きの変化から比べて、変化の度合い(角加速度)が大きすぎないかを判定する。   Here, in the present embodiment, when the orientation of the virtual character 401 is updated, it is determined whether or not the angular acceleration has exceeded a predetermined threshold (step S806). That is, in step S809, which will be described later, the character image 301 whose direction has been updated is displayed on the display screen 300 after waiting for a predetermined vertical synchronization interrupt, and the change in the direction displayed there has been displayed so far. It is determined whether the degree of change (angular acceleration) is too large compared to the change in orientation.

そして、超えたと判定された場合(ステップS806;YES)、更新部205は、角加速度が所定の閾値を超えないように調整し直して、向きを更新する(ステップS807)。すなわちここでは、ステップS805にて更新した向きよりも、単位時間当たりにおいて少ない角度変化をさせるような更新をすることになる。その後、ステップS808の処理へ移行する。一方で、角加速度が所定の閾値を超えないと判定された場合は(ステップS806;NO)、ここでは何も行わず、次のステップS808の処理へ進む。   And when it determines with having exceeded (step S806; YES), the update part 205 adjusts so that angular acceleration may not exceed a predetermined threshold value, and updates direction (step S807). That is, here, the update is performed such that the angle is changed less per unit time than the direction updated in step S805. Thereafter, the process proceeds to step S808. On the other hand, when it is determined that the angular acceleration does not exceed the predetermined threshold (step S806; NO), nothing is performed here, and the process proceeds to the next step S808.

そして本実施形態ではさらに、キャラクター画像301の視線が正面を向くように、仮想キャラクター401の仮想瞳404の位置を調整する(ステップS808)。すなわち、更新部205が、仮想空間400内の仮想キャラクター401における仮想瞳404の位置を調整することで、仮想キャラクター401がどの方向を向いていても、仮想カメラ402へ視線を向けるようにする。   In the present embodiment, the position of the virtual pupil 404 of the virtual character 401 is further adjusted so that the line of sight of the character image 301 faces the front (step S808). That is, the update unit 205 adjusts the position of the virtual pupil 404 in the virtual character 401 in the virtual space 400 so that the line of sight is directed toward the virtual camera 402 no matter which direction the virtual character 401 is facing.

そして、更新された向きのキャラクター画像301を表示画面300に表示する(ステップS809)。ここではステップS802と同様に、表示部202が、表示画面300に表示すべき画像を生成し、所定の周期で行われる垂直同期割り込みを待ってから、その画像を、表示画面300に表示する。具体的には、表示部202が、ここまでの処理において更新された仮想空間400内の仮想キャラクター401の様子を表す画像を生成して、表示画面300に表示する。   Then, the updated character image 301 is displayed on the display screen 300 (step S809). Here, as in step S <b> 802, the display unit 202 generates an image to be displayed on the display screen 300, waits for a vertical synchronization interrupt performed at a predetermined cycle, and then displays the image on the display screen 300. Specifically, the display unit 202 generates an image representing the state of the virtual character 401 in the virtual space 400 updated in the processing so far, and displays the image on the display screen 300.

その後、本実施形態のキャラクター表示装置200の処理は、ステップS803へと戻り、再びユーザ501から音声を検知したかどうかを判定する。すなわち、ユーザ501からの音声を検知部203が検知している限り、本実施形態のキャラクター表示装置200は、ステップS804〜S809までの処理を、垂直同期ごとに繰り返すことになる。一方で、ステップS803において音声を検知しなければ、処理はステップS802へ戻り、所定角度403の横向きの、すなわち初期の向きのキャラクター画像301を表示し直すことになる。   Thereafter, the process of the character display device 200 according to the present embodiment returns to step S803, and determines again whether or not voice is detected from the user 501. That is, as long as the detection unit 203 detects the sound from the user 501, the character display device 200 according to the present embodiment repeats the processing from step S804 to S809 for each vertical synchronization. On the other hand, if no sound is detected in step S803, the process returns to step S802, and the character image 301 in the horizontal direction of the predetermined angle 403, that is, in the initial direction is displayed again.

このような構成により、本実施形態におけるキャラクター表示装置200は、ユーザ501からの音声の音量に基づいて、表示画面300内に表示されるキャラクター画像301の向きを変化させ、音量が大きければ大きいほど正面向きに近づける。すなわち、ユーザ501がモノラルマイク502に向かって発声すると、ユーザ501に対応付けられたキャラクター画像301が、横向きから正面向きへ変化する。   With such a configuration, the character display device 200 according to the present embodiment changes the direction of the character image 301 displayed in the display screen 300 based on the volume of the sound from the user 501, and the larger the volume, Move closer to the front. That is, when the user 501 speaks to the monaural microphone 502, the character image 301 associated with the user 501 changes from the horizontal direction to the front direction.

その結果、離れた場所にいるユーザ同士がコミュニケーションをとる際に、ユーザは、音声のみ、あるいは音声と文字のみによって会話をするのではなく、音声に反応して向きを変えるキャラクター画像301を見ながら、会話を楽しむことができるようになる。   As a result, when users in distant places communicate with each other, the user does not talk only by voice or voice and characters, but looks at the character image 301 that changes direction in response to the voice. You will be able to enjoy the conversation.

(実施形態2)
次に、本発明の実施形態2について説明する。実施形態1では、モノラルマイク502により検知したユーザ501の音声の音量が大きければ大きいほど、表示画面300内に表示されるキャラクター画像301の向きを正面に近づけた。本実施形態では、ステレオマイクによってユーザの音声を検知し、検知されたステレオマイクの左右の音声の音量の差に基づいて、表示画面300内に表示されるキャラクター画像301の向きを変化させる。すなわち、本実施形態では、検知部203は、ステレオマイクにより音声を検知し、決定部204は、ステレオマイクにより検知された音声の左右の音量の差に基づいて、仮想キャラクター401の向きの変化を決定する。
(Embodiment 2)
Next, Embodiment 2 of the present invention will be described. In the first embodiment, as the sound volume of the user 501 detected by the monaural microphone 502 is larger, the direction of the character image 301 displayed in the display screen 300 is closer to the front. In the present embodiment, the user's voice is detected by the stereo microphone, and the direction of the character image 301 displayed in the display screen 300 is changed based on the detected difference in volume between the left and right voices of the stereo microphone. In other words, in the present embodiment, the detection unit 203 detects the sound with the stereo microphone, and the determination unit 204 changes the direction of the virtual character 401 based on the difference between the left and right sound volumes detected by the stereo microphone. decide.

図9は、モノラルマイクとステレオマイクの比較を説明するため、マイクに向けて異なる方向からユーザが発声している様子を表した図である。とくに、図9(a)は、モノラルマイク502に対して、また図9(b)は、ステレオマイク503に対して、ユーザ501が左の位置510aと右の位置510bとの間で位置を変化させて発声している様子を表した図である。   FIG. 9 is a diagram illustrating a state in which the user utters from different directions toward the microphone in order to explain the comparison between the monaural microphone and the stereo microphone. In particular, FIG. 9A shows the position of the user 501 changing between the left position 510a and the right position 510b with respect to the monaural microphone 502 and FIG. It is the figure showing a mode that it was made to utter.

図9(a)のように、モノラルマイク502によって音声を検知する場合は、ユーザ501の位置による変化を捉えることはできない。すなわち、例えば、ユーザ501が左の位置510aから音声を発した場合と、右の位置510bから音声を発した場合とで、どちらもモノラルマイク502から同じ距離を離れて同じ大きさで音声を発しているとすると、どちらの場合でも同じ音量の音声が検知されるだけであり、その差異は検知されない。そのため、モノラルマイク502を用いていた実施形態1におけるキャラクター表示装置200は、左の方向から検知した音声であっても、あるいは右の方向から検知した音声であっても、検知された音声の音量に基づいて、同様に仮想キャラクター401の向きを変化させた。   As shown in FIG. 9A, when the sound is detected by the monaural microphone 502, a change due to the position of the user 501 cannot be captured. That is, for example, when the user 501 makes a sound from the left position 510a and when the user utters a sound from the right position 510b, both of them make a sound with the same magnitude at the same distance from the monaural microphone 502. If this is the case, only the sound of the same volume is detected in either case, and the difference is not detected. For this reason, the character display device 200 according to the first embodiment using the monaural microphone 502 can detect the volume of the detected sound, whether the sound is detected from the left direction or the sound detected from the right direction. Similarly, the orientation of the virtual character 401 is changed.

一方で、図9(b)では、ステレオマイク503は左のマイク504aと右のマイク504bという、左右2箇所にマイクを有している。そのため、検知された音声が、例えばユーザ501が左の位置510aから発した音声なのか、ユーザ501が右の位置510bから発した音声なのか、を判別することができるようになる。具体的には、ユーザ501が左の位置510aからステレオマイク503に向かって発声しているときは、左のマイク504aで検知された音声の音量は、右のマイク504bで検知された音声の音量よりも大きくなる。あるいは一方で、ユーザ501が右の位置510bからステレオマイク503に向かって発声しているときは、右のマイク504bで検知された音声の音量は、左のマイク504aで検知された音声の音量よりも大きくなる。また、図9(b)には示されていないが、ユーザ501がステレオマイク503に対して正面から発声しているときは、左右のマイク504a,504bでは同じ音量が検知されることになる。   On the other hand, in FIG.9 (b), the stereo microphone 503 has a microphone in two places, the left microphone 504a and the right microphone 504b. Therefore, it is possible to determine whether the detected sound is, for example, the sound that the user 501 utters from the left position 510a or the sound that the user 501 utters from the right position 510b. Specifically, when the user 501 is uttering from the left position 510a toward the stereo microphone 503, the volume of the sound detected by the left microphone 504a is the volume of the sound detected by the right microphone 504b. Bigger than. On the other hand, when the user 501 is uttering from the right position 510b to the stereo microphone 503, the sound volume detected by the right microphone 504b is greater than the sound volume detected by the left microphone 504a. Also grows. Although not shown in FIG. 9B, when the user 501 is speaking from the front with respect to the stereo microphone 503, the left and right microphones 504a and 504b detect the same volume.

なお、図9(b)でのステレオマイク503は、左右の異なる2箇所に左のマイク504aと右のマイク504bを配置したが、本実施形態におけるステレオマイク503はこれに限られず、左方向からの音声を捉えるマイクと右方向からの音声を捉えるマイクを1箇所に配置するタイプのものであってもよい。   9B, the left microphone 504a and the right microphone 504b are arranged at two different positions on the left and right, but the stereo microphone 503 in the present embodiment is not limited to this, and the left microphone 503a can be viewed from the left. It may be of a type in which a microphone that captures the sound of the above and a microphone that captures the sound from the right direction are arranged in one place.

また、図9(a)および図9(b)において、左の位置510aにいるユーザ501と、右の位置510bにいるユーザ501とは、同一のユーザ501が位置を変えて発声していることを前提として説明したが、異なるユーザ501が同時に発声しているとしてもよい。後者の場合でも上記と同様に、モノラルマイク502は、検知された音声がどちらの位置にいるユーザ501からのものであるのかを判別することはできないし、ステレオマイク503は、左右のマイク504a,504bにおいて検知された音声の音量の差によって、どちらの位置にいるユーザ501からの音声であるかを判別することができる。   In FIGS. 9A and 9B, the user 501 at the left position 510a and the user 501 at the right position 510b are uttered by the same user 501 changing positions. However, different users 501 may utter at the same time. Even in the latter case, similarly to the above, the monaural microphone 502 cannot determine which position the detected sound is from the user 501, and the stereo microphone 503 has left and right microphones 504 a, It is possible to determine in which position the voice is from the user 501 based on the difference in volume of the voice detected in 504b.

本実施形態では、このような左右のマイク504a,504bで得られる音量の差を利用して、表示画面300内のキャラクター画像301の左右の向きを変化させる。そのために、実施形態1と同様に、記憶部201内に仮想空間400を用意して、その中に仮想キャラクター401を配置し、仮想キャラクター401の左右の向きを、左右のマイク504a,504bで得られる音量の差に基づいて変化させる。ここでの仮想キャラクター401の向きは、実施形態1では正面向きと所定角度403の左向きとの間を変化したが、本実施形態では、正面向きから左右どちらの方向にも変化する。   In the present embodiment, the left and right orientations of the character image 301 in the display screen 300 are changed using the difference in volume obtained by the left and right microphones 504a and 504b. Therefore, as in the first embodiment, a virtual space 400 is prepared in the storage unit 201, a virtual character 401 is arranged therein, and the left and right orientations of the virtual character 401 are obtained by the left and right microphones 504a and 504b. It is changed based on the difference in volume that is generated. Here, the orientation of the virtual character 401 changes between the front orientation and the left orientation of the predetermined angle 403 in the first embodiment, but in this embodiment, the orientation changes from the front orientation to the left and right directions.

より具体的に、本実施形態では、仮想キャラクター401の向きが取りうる範囲は、正面向きを含む左右それぞれの所定角度403の横向きの間であり、決定部204は、
(a)ステレオマイク503により検知された音声の左右の音量の差が小さければ小さいほど、仮想キャラクター401の向きが正面向きに近づき、
(b)ステレオマイク503により検知された音声の左の音量が、右の音量よりも大きければ大きいほど、仮想キャラクター401の向きが左の所定角度403の横向きに近づき、
(c)ステレオマイク503により検知された音声の右の音量が、左の音量よりも大きければ大きいほど、仮想キャラクター401の向きが右の所定角度403の横向きに近づく、
ように変化を決定する。以下、図10Aおよび図10Bを参照して説明する。
More specifically, in the present embodiment, the range that the orientation of the virtual character 401 can take is between the horizontal orientations of the left and right predetermined angles 403 including the front orientation,
(A) The smaller the difference between the left and right volume of the sound detected by the stereo microphone 503, the closer the virtual character 401 is to the front,
(B) As the left volume of the sound detected by the stereo microphone 503 is larger than the right volume, the direction of the virtual character 401 approaches the horizontal direction of the left predetermined angle 403,
(C) The larger the right volume of the sound detected by the stereo microphone 503 is, the closer the virtual character 401 is to the horizontal direction of the predetermined angle 403 on the right.
To determine the change. Hereinafter, a description will be given with reference to FIGS. 10A and 10B.

図10Aは、本実施形態のキャラクター表示装置200において、左方向から音声が検知されたときの、仮想空間400(図10A(a))と表示画面300(図10A(b))の様子を示した図である。一方で、図10Bは、本実施形態のキャラクター表示装置200において、右方向から音声が検知されたときの、仮想空間400(図10B(a))と表示画面300(図10B(b))の様子を示した図である。図10Aおよび図10Bにおける仮想空間400、そして表示画面300は、実施形態1において説明したものと同様の構成要素からなっている。ただし、ここでは表示画面300を表示しているキャラクター表示装置200の表示部202には、ステレオマイク503が接続されており、表示画面300を見ているユーザ501が、ステレオマイク503に向かって「Hello!!」と発声している状況が示されている。そして、ステレオマイク503によって検知された音声に基づいて、仮想キャラクター401、およびキャラクター画像301のとりうる向きが左右に変化している。   FIG. 10A shows a state of the virtual space 400 (FIG. 10A (a)) and the display screen 300 (FIG. 10A (b)) when sound is detected from the left direction in the character display device 200 of the present embodiment. It is a figure. On the other hand, FIG. 10B shows a virtual space 400 (FIG. 10B (a)) and a display screen 300 (FIG. 10B (b)) when sound is detected from the right direction in the character display device 200 of the present embodiment. It is the figure which showed a mode. The virtual space 400 and the display screen 300 in FIGS. 10A and 10B are composed of the same components as those described in the first embodiment. However, here, the stereo microphone 503 is connected to the display unit 202 of the character display device 200 displaying the display screen 300, and the user 501 who is viewing the display screen 300 is directed toward the stereo microphone 503. The situation is saying “Hello !!”. Then, based on the sound detected by the stereo microphone 503, the possible orientations of the virtual character 401 and the character image 301 change to the left and right.

まず、図10A(b)では、ユーザ501は、ステレオマイク503の左側から、「Hello!!」と発声している。この状況では、ステレオマイク503の左のマイク504aによって検知された音量は、右のマイク504bによって検知された音量よりも大きくなる。そのため、図10A(a)における仮想キャラクター401の向きは、仮想カメラ402に対して左を向く。そして、この左を向いた仮想キャラクター401をもとにして生成された表示画面300内のキャラクター画像301は、図10A(b)に示されるように、左を向く。   First, in FIG. 10A (b), the user 501 utters “Hello !!” from the left side of the stereo microphone 503. In this situation, the volume detected by the left microphone 504a of the stereo microphone 503 is larger than the volume detected by the right microphone 504b. Therefore, the orientation of the virtual character 401 in FIG. 10A (a) is directed to the left with respect to the virtual camera 402. Then, the character image 301 in the display screen 300 generated based on the virtual character 401 facing left is turned left as shown in FIG. 10A (b).

一方で、図10B(b)では、ユーザ501は、ステレオマイク503の右側から、「Hello!!」と発声している。この状況では、ステレオマイク503の右のマイク504bによって検知された音量は、左のマイク504aによって検知された音量よりも大きくなる。そのため、図10B(a)における仮想キャラクター401の向きは、仮想カメラ402に対して右を向く。そして、この右を向いた仮想キャラクター401をもとにして生成された表示画面300内のキャラクター画像301は、図10B(b)に示されるように、右を向く。   On the other hand, in FIG. 10B (b), the user 501 utters “Hello !!” from the right side of the stereo microphone 503. In this situation, the volume detected by the right microphone 504b of the stereo microphone 503 is larger than the volume detected by the left microphone 504a. Therefore, the orientation of the virtual character 401 in FIG. 10B (a) is directed to the right with respect to the virtual camera 402. Then, the character image 301 in the display screen 300 generated based on the virtual character 401 facing right is turned right as shown in FIG. 10B (b).

すなわち、ユーザ501がステレオマイク503の左側から会話をすると、キャラクター画像301も左を向き、あたかもキャラクターも左側から会話をしているように見せかけることができる。同様に、ユーザ501がステレオマイク503の右側から会話をすると、キャラクター画像301も右を向き、あたかもキャラクターも右側から会話をしているように見せかけることができる。   That is, when the user 501 has a conversation from the left side of the stereo microphone 503, the character image 301 can also turn to the left, and it can appear as if the character is having a conversation from the left side. Similarly, when the user 501 has a conversation from the right side of the stereo microphone 503, the character image 301 can be turned to the right, as if the character is having a conversation from the right side.

なお、本実施形態では、実施形態1と同様に、仮想キャラクター401の向きを変化させる際に、表示画面300内におけるキャラクター画像301の視線を正面に向けたまま変化させてもよい。すなわち、図10A(a)および図10B(a)における仮想キャラクター401の中に仮想瞳404を用意し、仮想キャラクター401が仮想カメラ402に対して左あるいは右を向いても、仮想瞳404は仮想カメラ402の方向を向くように配置する。その結果、図10A(b)および図10B(b)において、表示画面300内に表示されるキャラクター画像301は、体全体の向きにかかわらず、瞳画像303を正面に向けたまま、すなわち視線を正面に向けたままとなる。   In the present embodiment, as in the first embodiment, when the orientation of the virtual character 401 is changed, the line of sight of the character image 301 in the display screen 300 may be changed while facing the front. That is, the virtual pupil 404 is prepared in the virtual character 401 in FIG. 10A (a) and FIG. 10B (a), and the virtual pupil 404 is virtual even if the virtual character 401 faces left or right with respect to the virtual camera 402. It arrange | positions so that the direction of the camera 402 may face. As a result, in FIG. 10A (b) and FIG. 10B (b), the character image 301 displayed in the display screen 300 remains with the pupil image 303 facing forward, that is, the line of sight regardless of the orientation of the entire body. It remains facing the front.

図11は、本実施形態における、検知した音声の音量と、仮想キャラクター401の向きを定める角度との関係を示したグラフである。図10Aおよび図10Bにおいて説明されたような、検知された音声に基づく仮想キャラクター401の向きの変化を、本図を参照してより定量的に説明する。   FIG. 11 is a graph showing the relationship between the detected sound volume and the angle that determines the orientation of the virtual character 401 in the present embodiment. The change in the orientation of the virtual character 401 based on the detected voice as described in FIGS. 10A and 10B will be described more quantitatively with reference to this drawing.

図11では、横軸に、ステレオマイク503で検知された左右の音量の差を、右のマイク504bの音量から左のマイク504aの音量を引いた値でとっており、グラフの右側ほど右のマイク504bの音量が左のマイク504aの音量より大きくなり、左側ほど左のマイク504aの音量が右のマイク504bの音量より大きくなる。また、縦軸に、仮想キャラクター401の向きを定める角度を示しており、仮想キャラクター401の向きは、グラフの上側ほど左向きの度合いが大きくなり、下側ほど右向きの度合いが大きくなる。本実施形態での仮想キャラクター401は、ステレオマイク503によって検知された左右の音量をもとに、本図のような角度の向きをとる。   In FIG. 11, the horizontal axis shows the difference between the left and right volume detected by the stereo microphone 503 as a value obtained by subtracting the volume of the left microphone 504a from the volume of the right microphone 504b. The volume of the microphone 504b is larger than the volume of the left microphone 504a, and the volume of the left microphone 504a is larger than the volume of the right microphone 504b toward the left side. The vertical axis indicates the angle that determines the orientation of the virtual character 401. The orientation of the virtual character 401 increases toward the left as the upper side of the graph, and increases toward the right as the lower side. The virtual character 401 in the present embodiment takes an angle direction as shown in this figure based on the left and right sound volumes detected by the stereo microphone 503.

すなわちまず、左右のマイク504a,504bで検知された音量に差がないときは、仮想キャラクター401の向きを定める角度は0°、すなわち正面向きになる。一方で、左のマイク504aで検知された音量が、右のマイク504bで検知された音量よりも大きくなると、仮想キャラクター401の向きは、その音量の差に比例した角度で、左向きになる。逆に、右のマイク504bで検知された音量が、左のマイク504aで検知された音量よりも大きくなると、仮想キャラクター401の向きは、その音量の差に比例した角度で、右向きになる。そして、左右の音量の差が所定の閾音量に達すると、仮想キャラクター401の向きは、所定角度403の左向きあるいは右向きとなる。本実施形態では、音量の差がそれ以上となっても仮想キャラクター401の向きは所定角度403の左向きあるいは右向きのままとなる。   That is, first, when there is no difference in volume detected by the left and right microphones 504a and 504b, the angle that determines the orientation of the virtual character 401 is 0 °, that is, the front direction. On the other hand, when the volume detected by the left microphone 504a is larger than the volume detected by the right microphone 504b, the orientation of the virtual character 401 turns to the left at an angle proportional to the volume difference. Conversely, when the volume detected by the right microphone 504b is larger than the volume detected by the left microphone 504a, the virtual character 401 turns to the right at an angle proportional to the volume difference. When the left and right volume difference reaches a predetermined threshold volume, the virtual character 401 is directed leftward or rightward at a predetermined angle 403. In the present embodiment, the virtual character 401 remains left or right at a predetermined angle 403 even when the difference in volume is greater.

このような構成によって、ユーザ501がステレオマイク503に向かって話しかける方向を反映させて、表示画面300に表示されるキャラクター画像301の向きを変化させることができる。   With such a configuration, the direction of the character image 301 displayed on the display screen 300 can be changed by reflecting the direction in which the user 501 speaks toward the stereo microphone 503.

図12は、本発明の実施形態2のキャラクター表示装置200に係る処理の流れを示すフローチャートである。ここまで説明してきた本実施形態における処理の流れをまとめて、以下に説明する。本フローチャートは、実施形態1におけるフローチャート(図8)のものと基本的には同じであるが、図8におけるステップS802とステップS804の処理(図12にて点線で囲われた部分)において違いがある。   FIG. 12 is a flowchart showing a process flow according to the character display device 200 of the second embodiment of the present invention. The flow of processing in the present embodiment that has been described so far will be described below. This flowchart is basically the same as that of the flowchart (FIG. 8) in the first embodiment, but there is a difference in the processing of step S802 and step S804 in FIG. 8 (portion surrounded by a dotted line in FIG. 12). is there.

すなわち本実施形態のキャラクター表示装置200は、本処理が開始され、各種の情報の初期化を行った(ステップS801)後、表示部202が、正面向きのキャラクター画像301を、垂直同期割り込みを待った後で、表示画面300に表示する(ステップS1201)。すなわち、検知部203によって音声が検知されていない状況において、実施形態1では所定角度403の横向きのキャラクター画像301を表示画面300に表示したが、本実施形態で表示するキャラクター画像301は正面向きとなる。   That is, the character display device 200 according to the present embodiment starts this processing and initializes various types of information (step S801), and then the display unit 202 waits for a vertical synchronization interrupt for the front-facing character image 301. Later, it is displayed on the display screen 300 (step S1201). In other words, in the situation where no sound is detected by the detection unit 203, the horizontal character image 301 of the predetermined angle 403 is displayed on the display screen 300 in the first embodiment, but the character image 301 displayed in the present embodiment is front-facing. Become.

さらに本実施形態では、検知部203が、ユーザ501から音声を検知したかどうかを判定し(ステップS803)、検知されたと判定された場合(ステップS803;YES)、決定部204が、検知された音声の左右の音量の差に基づき、仮想キャラクター401の向きの変化を決定する(ステップS1202)。すなわち、実施形態1ではモノラルマイク502で検知された音声の音量に基づいて向きを決定したのに対して、本実施形態では、ステレオマイク503で検知された音声の左右の音量の差に基づいて向きを決定する。このとき、図11に示した左右の音量の差と仮想キャラクター401の向きを定める角度との関係を用いる。   Furthermore, in the present embodiment, the detection unit 203 determines whether or not a voice has been detected from the user 501 (step S803), and when it is determined that it has been detected (step S803; YES), the determination unit 204 has been detected. A change in the orientation of the virtual character 401 is determined based on the difference between the left and right sound volumes (step S1202). That is, in the first embodiment, the direction is determined based on the volume of the sound detected by the monaural microphone 502, whereas in this embodiment, the direction is determined based on the difference between the left and right sound volumes detected by the stereo microphone 503. Determine the orientation. At this time, the relationship between the difference between the left and right volume shown in FIG. 11 and the angle that determines the orientation of the virtual character 401 is used.

本実施形態ではその後、実施形態1と同様に、更新部205が仮想キャラクター401の向きを更新し、表示部202が更新された向きのキャラクター画像301を、垂直同期を待って表示画面300に表示するまでの処理(ステップS805〜S809)を行い、ステップS803へ戻って、検知部203による音声の検知の判定を再び行う。   In this embodiment, thereafter, as in the first embodiment, the update unit 205 updates the orientation of the virtual character 401, and the display unit 202 displays the updated character image 301 on the display screen 300 after vertical synchronization. The processing up to (steps S805 to S809) is performed, and the process returns to step S803, and the detection of the voice by the detection unit 203 is performed again.

そして、ユーザ501からの音声が検知されている間は、垂直同期ごとに、ステップS1202、およびステップS805〜S809までの処理を繰り返して、左右の向きを更新したキャラクター画像301を表示画面300に表示することになる。   While the voice from the user 501 is detected, the processing from step S1202 and steps S805 to S809 is repeated for each vertical synchronization, and the character image 301 whose left and right orientations are updated is displayed on the display screen 300. Will do.

このような構成により、本実施形態におけるキャラクター表示装置200は、ステレオマイク503が検知した左のマイク504aの音量が大きいと、表示画面300内のキャラクター画像301が左を向き、右のマイク504bの音量が大きいと、キャラクター画像301は右を向く。すなわち、ステレオマイク503に対するユーザ501の相対的な位置を反映した向きを、ユーザ501に対応付けられたキャラクター画像301にとらせることができる。   With such a configuration, when the volume of the left microphone 504a detected by the stereo microphone 503 is large, the character image 301 in the display screen 300 faces the left and the character display device 200 in this embodiment faces the right microphone 504b. When the volume is large, the character image 301 turns to the right. In other words, the direction reflecting the relative position of the user 501 with respect to the stereo microphone 503 can be taken in the character image 301 associated with the user 501.

その結果、離れた場所にいるユーザ同士がコミュニケーションをとる際に、相手がどちらの方向から話しているのかを確認しながら会話を進めることができるようになり、ユーザは、より臨場感を持ってスムーズに会話を楽しむことができるようになる。   As a result, when users in remote locations communicate with each other, the user can proceed with the conversation while confirming from which direction the other party is speaking, and the user has a more realistic feeling. You will be able to enjoy the conversation smoothly.

(実施形態3)
次に、本発明の実施形態3について説明する。実施形態1および2では、モノラルマイク502もしくはステレオマイク503によって検知されたユーザからの音声の音量に基づいて、表示画面300内のキャラクター画像301の左右の向きが変化した。本実施形態では、ユーザの音声から2種類の音量を取得し、それぞれに基づいて、キャラクター画像301の左右の向きだけでなく、上下の向きも変化させる。
(Embodiment 3)
Next, a third embodiment of the present invention will be described. In the first and second embodiments, the left and right orientations of the character image 301 in the display screen 300 are changed based on the volume of the voice from the user detected by the monaural microphone 502 or the stereo microphone 503. In the present embodiment, two types of volumes are acquired from the user's voice, and not only the left and right direction of the character image 301 but also the vertical direction is changed based on each.

すなわち、これまでの実施形態1および2では、検知部203によって検知された音声から、決定部204が音量を取得するときには、音声を所定の区間長によって平均化することで取得した。本実施形態では、異なる2つの時間長、すなわち所定の第1の区間長と所定の第2の区間長とによって別々に平均化し、それぞれ第1の音量と第2の音量の2つの音量を得る。   That is, in Embodiments 1 and 2 so far, when the determination unit 204 acquires the sound volume from the sound detected by the detection unit 203, the sound is acquired by averaging the sound by a predetermined section length. In the present embodiment, two different time lengths, that is, a predetermined first section length and a predetermined second section length are averaged separately to obtain two volumes of a first volume and a second volume, respectively. .

例えば本実施形態では、所定の第1の区間長を、所定の第2の区間長よりも、長い区間長にとる。この場合、所定の第1の区間長によって平均化された第1の音量は、ユーザから発せられた音声に周波数の低い成分、すなわち低い音の成分がより多く含まれていた場合に、大きくなる。これに対して、所定の第2の区間長によって平均化された第2の音量は、ユーザから発せられた音声に周波数の高い成分、すなわち高い音の成分がより多く含まれていた場合に、大きくなる。   For example, in the present embodiment, the predetermined first section length is set to a longer section length than the predetermined second section length. In this case, the first sound volume averaged by the predetermined first section length is increased when the low-frequency component, that is, the low-sound component is included in the voice emitted from the user. . On the other hand, the second sound volume averaged by the predetermined second section length is obtained when the sound emitted from the user contains a higher frequency component, that is, a higher sound component. growing.

このように取得された第1の音量と第2の音量に基づいて、本実施形態のキャラクター表示装置200は、仮想キャラクター401の左右の向きと上下の向きをそれぞれ変化させる。具体的には、決定部204が、
(p)検知された音声から所定の第1の区間長によって平均化された、第1の音量に基づいて、仮想キャラクター401の左右の向きの変化を決定し、
(q)検知された音声から所定の第2の区間長によって平均化された、第2の音量に基づいて、仮想キャラクター401の上下の向きの変化を決定する。
そして、実施形態1および2と同様に、更新部205が、決定された左右および上下の変化により記憶された向きを更新し、表示部202が、左右および上下の向きが更新された仮想キャラクター401の様子を表す画像を生成し、表示画面300内にキャラクター画像301として表示する。以下、図13を参照して説明する。
Based on the first volume and the second volume acquired in this way, the character display device 200 of the present embodiment changes the horizontal direction and the vertical direction of the virtual character 401, respectively. Specifically, the determination unit 204
(P) determining a change in the left-right orientation of the virtual character 401 based on the first volume averaged from the detected voice by a predetermined first section length;
(Q) A change in the vertical direction of the virtual character 401 is determined based on the second sound volume averaged from the detected sound by a predetermined second section length.
Then, as in the first and second embodiments, the update unit 205 updates the orientation stored by the determined left and right and up and down changes, and the display unit 202 updates the left and right and up and down orientations of the virtual character 401. Is generated and displayed as a character image 301 in the display screen 300. Hereinafter, a description will be given with reference to FIG.

図13は、本実施形態において、ユーザ501からの音声に基づいてキャラクター画像301が変化する様子を表した図である。ここで図13(a)、(b)ともに、実施形態1における図3および図5、そして実施形態2における図10A(b)および図10B(b)と同じく、表示画面300内にはキャラクター画像301とメッセージウィンドウ302、そしてその他の背景画像が表示されている。そして、表示画面300を表示しているキャラクター表示装置200の表示部202には、モノラルマイク502が接続されている。   FIG. 13 is a diagram showing how the character image 301 changes based on the voice from the user 501 in the present embodiment. Here, in both FIGS. 13A and 13B, as in FIGS. 3 and 5 in the first embodiment and FIGS. 10A and 10B in the second embodiment, a character image is displayed on the display screen 300. 301, a message window 302, and other background images are displayed. A monaural microphone 502 is connected to the display unit 202 of the character display device 200 displaying the display screen 300.

図13(a)では、ユーザ501はモノラルマイク502へ向けて何も音声を発していない。このとき、キャラクター画像301は、表示画面300を見ているユーザ501から見て左方向を向いており、かつキャラクター画像301の頭部分は、下方向を向いている。本実施形態では、検知部203が音声をまだ何も検知していない状態、すなわち初期状態では、キャラクター画像301は、このような図13(a)に示されるような向きにあるとする。ここから検知部203が音声を検知すると、すなわちユーザ501が
モノラルマイク502に向かって声を発すると、キャラクター画像301の向きは、図13(b)に示されたような向きに変化する。
In FIG. 13A, the user 501 does not emit any sound toward the monaural microphone 502. At this time, the character image 301 is directed leftward when viewed from the user 501 who is viewing the display screen 300, and the head portion of the character image 301 is directed downward. In the present embodiment, it is assumed that the character image 301 is in such an orientation as shown in FIG. 13A in a state where the detection unit 203 has not yet detected any sound, that is, in an initial state. When the detection unit 203 detects voice from here, that is, when the user 501 speaks to the monaural microphone 502, the orientation of the character image 301 changes to the orientation shown in FIG.

図13(b)では、ユーザ501はモノラルマイク502へ向けて「Hello!!」と発声している。このとき、キャラクター画像301は、図13(a)から比べて、左右の向きは正面向きとなり、かつ頭部分は、上方向を向いている。すなわちここでは、検知された音声から、所定の第1の区間長によって平均化された第1の音量により、キャラクター画像301の向きが左向きから正面向きへ変化しており、さらに、検知された音声から、所定の第2の区間長によって平均化された第2の音量により、キャラクター画像301の頭部分の向きが下向きから上向きへ変化している。このような仮想キャラクター401の向きの変化を、図14を参照してより定量的に説明する。   In FIG. 13B, the user 501 utters “Hello!” Toward the monaural microphone 502. At this time, as compared with FIG. 13A, the character image 301 has a left-right orientation facing the front and a head portion facing upward. That is, here, the direction of the character image 301 is changed from the left direction to the front direction by the first sound volume averaged by the predetermined first section length from the detected sound, and the detected sound is further detected. Thus, the orientation of the head portion of the character image 301 changes from downward to upward by the second sound volume averaged by the predetermined second section length. Such a change in the orientation of the virtual character 401 will be described more quantitatively with reference to FIG.

図14は、実施形態3における、検知部203が検知した音声の音量と、仮想キャラクター401の向きを定める角度との関係を示したグラフである。とくに、図14(a)は、第1の音量と仮想キャラクター401の左右の向きを定める角度との関係を示した図であり、図14(b)は、第2の音量と仮想キャラクター401の上下の向きを定める角度との関係を示した図である。ここで、横軸には検知した音声から取得した第1の、または第2の音量をとり、グラフの右側ほど音量は大きくなる。そして、縦軸には仮想キャラクター401の左右、または上下の向きを定める角度をとり、グラフの上側ほど、仮想キャラクター401の向きは大きく左、または上を向いているということを表している。   FIG. 14 is a graph showing the relationship between the sound volume detected by the detection unit 203 and the angle that determines the orientation of the virtual character 401 in the third embodiment. In particular, FIG. 14A is a diagram showing the relationship between the first volume and the angle that determines the left and right direction of the virtual character 401, and FIG. 14B is the second volume and the virtual character 401. It is the figure which showed the relationship with the angle which defines an up-down direction. Here, the horizontal axis represents the first or second volume acquired from the detected voice, and the volume increases toward the right side of the graph. The vertical axis takes an angle that determines the left and right or up and down directions of the virtual character 401. The upper side of the graph indicates that the direction of the virtual character 401 is largely left or up.

まず、図14(a)において、第1の区間長によって平均化された第1の音量がない場合には、仮想キャラクター401は、あらかじめ定められた所定角度403の左向きにある。ここから第1の音量が徐々に大きくなるにしたがって、仮想キャラクター401の向きは、徐々に正面向きに近づいていく。そして第1の音量が所定の第1の閾音量に達すると、角度は0°に達し、仮想キャラクター401は仮想カメラ402に対して真正面を向く、すなわちキャラクター画像301は表示画面300内において正面向きに表示されることになる。さらに所定の第1の閾音量以上の第1の音量を含む音声を検知した場合にも、正面向きのままとなる。   First, in FIG. 14A, when there is no first sound volume averaged by the first section length, the virtual character 401 is leftward at a predetermined angle 403 determined in advance. As the first sound volume gradually increases from here, the direction of the virtual character 401 gradually approaches the front direction. When the first sound volume reaches a predetermined first threshold sound volume, the angle reaches 0 °, and the virtual character 401 faces directly toward the virtual camera 402, that is, the character image 301 faces front in the display screen 300. Will be displayed. Furthermore, even when a sound including a first sound volume that is equal to or higher than a predetermined first threshold sound volume is detected, it remains in the front direction.

一方、図14(b)において、第2の区間長によって平均化された第2の音量がない場合には、仮想キャラクター401は、あらかじめ定められた所定の下向き角度の向きにある。ここから第2の音量が徐々に大きくなるにしたがって、仮想キャラクター401は、徐々に上へ向きを変化させる。そして第2の音量が所定の第2の閾音量に達すると、角度は所定の上向き角度に達し、上を向いたキャラクター画像301が表示画面300内に表示されることになる。さらに所定の第2の閾音量以上の第2の音量を含む音声を検知した場合にも、所定の上向き角度の向きのままとなる。   On the other hand, in FIG. 14B, when there is no second volume averaged by the second section length, the virtual character 401 is in a predetermined downward angle. From here, the virtual character 401 gradually turns upward as the second volume gradually increases. When the second sound volume reaches a predetermined second threshold sound volume, the angle reaches a predetermined upward angle, and the character image 301 facing upward is displayed in the display screen 300. Furthermore, even when a sound including a second volume that is equal to or higher than a predetermined second threshold volume is detected, the direction remains at a predetermined upward angle.

なお、本実施形態での検知部203は、モノラルマイク502に限られず、ステレオマイク503であってもよい。ステレオマイク503を用いる場合は、左右のマイク504a,504bにおいて検知された音声のそれぞれから、第1の区間長によって平均化された第1の音量と、第2の区間長によって平均化された第2の音量とを取得する。そして、例えば、左右のマイク504a,504bにおける第1の音量の差と、第2の音量の差に基づいて、それぞれキャラクター画像301の左右の向きと上下の向きとを変化させる、という形態にすることができる。   Note that the detection unit 203 in the present embodiment is not limited to the monaural microphone 502, and may be a stereo microphone 503. When the stereo microphone 503 is used, the first sound volume averaged by the first section length and the first section averaged by the second section length from the sounds detected by the left and right microphones 504a and 504b. Get the volume of 2. For example, the left and right direction and the vertical direction of the character image 301 are changed based on the difference between the first volume and the second volume between the left and right microphones 504a and 504b. be able to.

このようにユーザ501が声を発したのに応じて左右の向きを正面向きに変化させるだけでなく、上下の向きを上向きに変化させることで、あたかもキャラクター画像301が頭を上げて話をしているかのように見せかけることができ、会話をしている相手のユーザにとってより臨場感をもって会話をすることができるようになる。   In this way, not only the left and right direction is changed to the front direction in response to the user 501 uttering voice, but also by changing the vertical direction upward, the character image 301 speaks with his head raised. This makes it possible to have a conversation with a sense of reality for a user who is having a conversation.

図15は、本発明の実施形態3のキャラクター表示装置200に係る処理の流れを示すフローチャートである。ここまで説明してきた本実施形態における処理の流れをまとめて、以下に説明する。本フローチャートは、実施形態1におけるフローチャート(図8)のものを基本的には踏襲しているが、図8におけるステップS802、S804、S805の処理にかわり、本実施形態の独自の処理(図15にて点線で囲われた部分)が入る。   FIG. 15 is a flowchart showing a flow of processing according to the character display device 200 of Embodiment 3 of the present invention. The flow of processing in the present embodiment that has been described so far will be described below. This flowchart basically follows the flowchart of the first embodiment (FIG. 8), but replaces the processing of steps S802, S804, and S805 in FIG. The part enclosed with a dotted line at) enters.

すなわち本実施形態のキャラクター表示装置200は、本処理が開始され、各種の情報の初期化を行った(ステップS801)後、表示部202が、所定角度403の左向き、および所定の下向き角度のキャラクター画像301を、垂直同期割り込みを待った後で、表示画面300に表示する(ステップS1501)。すなわち、検知部203によって音声が検知されていない状況において、本実施形態ではまず初期状態として、図13(a)に示したような向きのキャラクター画像301が表示される。   That is, the character display device 200 according to the present embodiment starts the process and initializes various types of information (step S801), and then the display unit 202 is a character having a predetermined angle 403 leftward and a predetermined downward angle. The image 301 is displayed on the display screen 300 after waiting for the vertical synchronization interrupt (step S1501). That is, in a situation where no sound is detected by the detection unit 203, in this embodiment, a character image 301 having an orientation as shown in FIG. 13A is first displayed as an initial state.

さらに本実施形態では、検知部203が、ユーザ501から音声を検知したかどうかを判定し(ステップS803)、検知されたと判定された場合(ステップS803;YES)、決定部204が、まず検知された音声から所定の第1の区間長によって平均化された第1の音量を取得する(ステップS1502)。ここで、平均化するためにとる第1の区間(区間長をT1とする)は、現時刻をt1として、時刻t1−T1から時刻t1までの間の区間、とする。すなわち、検知された音声を、現時刻t1を基準に、過去T1の時間の間で平均化することで、第1の音量を得る。   Furthermore, in the present embodiment, the detection unit 203 determines whether or not a voice is detected from the user 501 (step S803), and when it is determined that it is detected (step S803; YES), the determination unit 204 is first detected. The first sound volume averaged by the predetermined first section length is acquired from the obtained sound (step S1502). Here, the first section (the section length is T1) taken for averaging is a section between time t1-T1 and time t1, where the current time is t1. That is, the first sound volume is obtained by averaging the detected voices for the time of the past T1 with reference to the current time t1.

そして、得られた第1の音量に基づき、仮想キャラクター401の左右の向きの変化を決定する(ステップS1503)。ここでの向きの変化の決定には、図14(a)に示した第1の音量と仮想キャラクター401の左右の向きを定める角度との関係を用いる。   Then, based on the obtained first volume, a change in the left / right orientation of the virtual character 401 is determined (step S1503). In this determination of the change in direction, the relationship between the first volume and the angle that determines the left and right direction of the virtual character 401 shown in FIG.

引き続きその後、検知された音声から所定の第2の区間長によって平均化された第2の音量を取得する(ステップS1504)。ここで、平均化するためにとる第2の区間(区間長をT2とする)は、現時刻をt2として、時刻t2−T2から時刻t2までの間の区間、とする。すなわち、検知された音声を、現時刻t2を基準に、過去T2の時間の間で平均化することで、第2の音量を得る。   Subsequently, a second sound volume averaged by a predetermined second section length is acquired from the detected sound (step S1504). Here, the second section (the section length is T2) taken for averaging is a section between time t2-T2 and time t2, where the current time is t2. In other words, the detected sound is averaged over the past T2 with reference to the current time t2, thereby obtaining the second volume.

そして、得られた第2の音量に基づき、仮想キャラクター401の上下の向きの変化を決定する(ステップS1505)。ここでの向きの変化の決定には、図14(b)に示した第2の音量と仮想キャラクター401の上下の向きを定める角度との関係を用いる。   Then, based on the obtained second volume, a change in the vertical direction of the virtual character 401 is determined (step S1505). In this determination of the change in direction, the relationship between the second volume and the angle that determines the vertical direction of the virtual character 401 shown in FIG. 14B is used.

このように仮想キャラクター401の左右と上下の向きの変化が決定されると、さらに本実施形態におけるキャラクター表示装置200は、更新部205が、決定された変化により、仮想キャラクター401の左右と上下向きを更新する(ステップS1506)。   When the change in the horizontal and vertical orientations of the virtual character 401 is determined in this way, the character display device 200 according to the present embodiment further includes the update unit 205 in which the virtual character 401 has the horizontal and vertical orientations determined by the determined changes. Is updated (step S1506).

なお、上記のステップS1502とステップS1504の処理は、時系列順に行うように述べたが、同時に行ってもよい。すなわち、検知された音声から、所定の第1の区間長T1によって平均化する処理と、所定の第2の区間長T2によって平均化する処理とは、同じ時刻t0を基準として、時刻t0−T1から時刻t0までの間の区間と、時刻t0−T2から時刻t0までの間の区間とから平均化してもよい。   Note that although the processing in steps S1502 and S1504 has been described as being performed in chronological order, they may be performed simultaneously. In other words, the process of averaging from the detected voice by the predetermined first section length T1 and the process of averaging by the predetermined second section length T2 are based on the same time t0 as time t0-T1. May be averaged from a section from time t0 to time t0 and a section from time t0-T2 to time t0.

本実施形態ではその後、実施形態1と同様に、向きを更新する際に角加速度が所定の閾値を超えたかどうかを判定する処理から、表示部202が更新された向きのキャラクター画像301を、垂直同期を待ってから表示画面300に表示するまでの処理(ステップS806〜S809)を行い、ステップS803へ戻って、検知部203による音声の検知の判定を再び行う。   In the present embodiment, as in the first embodiment, the character image 301 with the updated orientation displayed on the display unit 202 is displayed from the process of determining whether the angular acceleration has exceeded a predetermined threshold when the orientation is updated. Processing (steps S806 to S809) from waiting for synchronization until display on the display screen 300 is performed, the process returns to step S803, and the detection of the sound by the detection unit 203 is performed again.

そして、ユーザ501からの音声が検知されている間は、ステップS1502〜S1506、ステップS806〜S809までの処理を繰り返すことになる。すなわち、垂直同期ごとに、2つの区間長(T1とT2)で平均化された2つの音量を取得し、それに基づいて左右と上下の向きを更新したキャラクター画像301を表示画面300に表示することになる。   And while the audio | voice from the user 501 is detected, the process to step S1502-S1506 and step S806-S809 is repeated. That is, for each vertical synchronization, two volume levels averaged by two section lengths (T1 and T2) are acquired, and a character image 301 whose left and right and up and down directions are updated based on the two volumes is displayed on the display screen 300. become.

このような構成により、本実施形態におけるキャラクター表示装置200は、1人のユーザが発した1つの音声から、画面内のキャラクターの左右と上下という異なる2つの向きの変化をさせることができる。   With such a configuration, the character display device 200 according to the present embodiment can change two different directions of left and right and up and down of the character in the screen from one voice uttered by one user.

その結果、ユーザ501に対応付けられたキャラクター画像301に対して、より複雑な動きをとらせることができ、ユーザは、臨場感や親近感を高めながら会話を楽しむことができるようになる。   As a result, the character image 301 associated with the user 501 can be made to perform more complicated movements, and the user can enjoy a conversation while enhancing a sense of presence and a sense of familiarity.

以上説明したように、キャラクターにユーザの音声に応じた動作をさせることで、ユーザの視覚に訴えながら、快適に会話を楽しむのに好適なキャラクター表示装置、キャラクター表示方法、ならびに、プログラムを提供することができる。   As described above, a character display device, a character display method, and a program suitable for enjoying a conversation comfortably while appealing to the user's vision by causing the character to perform an action according to the user's voice are provided. be able to.

100 情報処理装置
101 CPU
102 ROM
103 RAM
104 インターフェース
105 コントローラ
106 外部メモリ
107 画像処理部
108 DVD−ROMドライブ
109 NIC
110 音声処理部
111 マイク
200 キャラクター表示装置
201 記憶部
202 表示部
203 検知部
204 決定部
205 更新部
300 表示画面
301 キャラクター画像
302 メッセージウィンドウ
303 瞳画像
304 会話内容
400 仮想空間
401 仮想キャラクター
402 仮想カメラ
403 所定角度
404 仮想瞳
501 ユーザ
502 モノラルマイク
503 ステレオマイク
504a 左のマイク
504b 右のマイク
510a 左の位置
510b 右の位置
100 Information processing apparatus 101 CPU
102 ROM
103 RAM
104 Interface 105 Controller 106 External Memory 107 Image Processing Unit 108 DVD-ROM Drive 109 NIC
DESCRIPTION OF SYMBOLS 110 Audio | voice processing part 111 Microphone 200 Character display apparatus 201 Storage part 202 Display part 203 Detection part 204 Determination part 205 Update part 300 Display screen 301 Character image 302 Message window 303 Pupil image 304 Conversation content 400 Virtual space 401 Virtual character 402 Virtual camera 403 Predetermined angle 404 Virtual pupil 501 User 502 Monaural microphone 503 Stereo microphone 504a Left microphone 504b Right microphone 510a Left position 510b Right position

Claims (9)

仮想空間内に配置されるキャラクターの向きが記憶される記憶部、
前記キャラクターが前記記憶された向きで前記仮想空間内に配置された様子を表す画像を、画面に表示する表示部、
ユーザからの音声を検知する検知部、
前記検知された音声の音量に基づいて、前記キャラクターの向きの変化を決定する決定部、
前記決定された変化により、前記記憶された向きを更新する更新部
を備えることを特徴とするキャラクター表示装置。
A storage unit that stores the orientation of characters placed in the virtual space,
A display unit for displaying an image representing a state in which the character is arranged in the virtual space in the stored orientation on a screen;
A detection unit for detecting voice from the user,
A determining unit that determines a change in the orientation of the character based on the volume of the detected voice;
A character display device, comprising: an update unit that updates the stored orientation according to the determined change.
請求項1に記載のキャラクター表示装置であって、
前記検知部は、モノラルマイクにより音声を検知し、
前記キャラクターの向きが取りうる範囲は、正面向きと、左右いずれかの所定角度の横向きと、の間であり、
前記決定部は、前記検知された音声の音量が大きければ大きいほど、前記キャラクターの向きが前記正面向きに近づくように、前記変化を決定する、
ことを特徴とするキャラクター表示装置。
The character display device according to claim 1,
The detection unit detects sound with a monaural microphone,
The range of the orientation of the character is between the front direction and the horizontal direction at a predetermined angle on either side,
The determination unit determines the change such that the larger the volume of the detected sound is, the closer the character is to the front direction.
Character display device characterized by that.
請求項1に記載のキャラクター表示装置であって、
前記検知部は、ステレオマイクにより音声を検知し、
前記決定部は、前記ステレオマイクにより検知された音声の左右の音量の差に基づいて、前記キャラクターの向きの変化を決定する、
ことを特徴とするキャラクター表示装置。
The character display device according to claim 1,
The detection unit detects sound with a stereo microphone,
The determining unit determines a change in the orientation of the character based on a difference between left and right sound volumes detected by the stereo microphone;
Character display device characterized by that.
請求項3に記載のキャラクター表示装置であって、
前記キャラクターの向きが取りうる範囲は、正面向きを含む左右それぞれの所定角度の横向きの間であり、
前記決定部は、
(a)前記ステレオマイクにより検知された音声の左右の音量の差が小さければ小さいほど、前記キャラクターの向きが前記正面向きに近づき、
(b)前記ステレオマイクにより検知された音声の左の音量が、右の音量よりも大きければ大きいほど、前記キャラクターの向きが前記左の所定角度の横向きに近づき、
(c)前記ステレオマイクにより検知された音声の右の音量が、左の音量よりも大きければ大きいほど、前記キャラクターの向きが前記右の所定角度の横向きに近づく、
ように前記変化を決定する、
ことを特徴とするキャラクター表示装置。
The character display device according to claim 3,
The range of the orientation of the character is between the lateral orientation of each predetermined angle including the front orientation,
The determination unit
(A) The smaller the difference between the left and right volume of the sound detected by the stereo microphone, the closer the direction of the character is to the front direction,
(B) The larger the left volume of the sound detected by the stereo microphone is, the closer the direction of the character is to the left side of the predetermined angle,
(C) The larger the right volume of the sound detected by the stereo microphone is, the larger the left volume is, the closer the character is to the right side at a predetermined angle.
To determine the change,
Character display device characterized by that.
請求項1から4のいずれか1項に記載のキャラクター表示装置であって、
前記決定部は、
(p)前記検知された音声から所定の第1の区間長によって平均化された、第1の音量に基づいて、前記キャラクターの左右の向きの変化を決定し、
(q)前記検知された音声から所定の第2の区間長によって平均化された、第2の音量に基づいて、前記キャラクターの上下の向きの変化を決定する、
ことを特徴とするキャラクター表示装置。
The character display device according to any one of claims 1 to 4,
The determination unit
(P) determining a left-right orientation change of the character based on a first volume averaged from the detected voice by a predetermined first section length;
(Q) determining a change in the vertical direction of the character based on a second sound volume averaged from the detected voice by a predetermined second section length;
Character display device characterized by that.
請求項1から5のいずれか1項に記載のキャラクター表示装置であって、
前記更新部は、前記キャラクターの視線を正面に向けたまま、前記記憶された向きを更新する、
ことを特徴とするキャラクター表示装置。
A character display device according to any one of claims 1 to 5,
The update unit updates the stored orientation while keeping the line of sight of the character facing the front.
Character display device characterized by that.
請求項1から6のいずれか1項に記載のキャラクター表示装置であって、
前記更新部は、角加速度が所定の閾値を超えないように、前記記憶された向きを更新する、
ことを特徴とするキャラクター表示装置。
A character display device according to any one of claims 1 to 6,
The update unit updates the stored orientation so that angular acceleration does not exceed a predetermined threshold;
Character display device characterized by that.
記憶部、表示部、検知部、決定部、更新部を備えるキャラクター表示装置が実行するキャラクター表示方法であって、
前記記憶部には、仮想空間内に配置されるキャラクターの向きが記憶され、
前記表示部が、前記キャラクターが前記記憶された向きで前記仮想空間内に配置された様子を表す画像を、画面に表示する表示工程、
前記検知部が、ユーザからの音声を検知する検知工程、
前記決定部が、前記検知された音声の音量に基づいて、前記キャラクターの向きの変化を決定する決定工程、
前記更新部が、前記決定された変化により、前記記憶された向きを更新する更新工程
を備えることを特徴とするキャラクター表示方法。
A character display method executed by a character display device including a storage unit, a display unit, a detection unit, a determination unit, and an update unit,
The storage unit stores the orientation of characters arranged in the virtual space,
A display step in which the display unit displays an image representing a state in which the character is arranged in the virtual space in the stored orientation on a screen;
A detection step in which the detection unit detects voice from a user;
A determining step in which the determining unit determines a change in the direction of the character based on the volume of the detected voice;
The character display method comprising: an update step in which the update unit updates the stored orientation according to the determined change.
コンピュータを、
仮想空間内に配置されるキャラクターの向きが記憶される記憶部、
前記キャラクターが前記記憶された向きで前記仮想空間内に配置された様子を表す画像を、画面に表示する表示部、
ユーザからの音声を検知する検知部、
前記検知された音声の音量に基づいて、前記キャラクターの向きの変化を決定する決定部、
前記決定された変化により、前記記憶された向きを更新する更新部
として機能させることを特徴とするプログラム。
Computer
A storage unit that stores the orientation of characters placed in the virtual space,
A display unit for displaying an image representing a state in which the character is arranged in the virtual space in the stored orientation on a screen;
A detection unit for detecting voice from the user,
A determining unit that determines a change in the orientation of the character based on the volume of the detected voice;
A program that functions as an updating unit that updates the stored orientation according to the determined change.
JP2010198089A 2010-09-03 2010-09-03 Character display device, character display method, and program Pending JP2012050791A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010198089A JP2012050791A (en) 2010-09-03 2010-09-03 Character display device, character display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010198089A JP2012050791A (en) 2010-09-03 2010-09-03 Character display device, character display method, and program

Publications (1)

Publication Number Publication Date
JP2012050791A true JP2012050791A (en) 2012-03-15

Family

ID=45904845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010198089A Pending JP2012050791A (en) 2010-09-03 2010-09-03 Character display device, character display method, and program

Country Status (1)

Country Link
JP (1) JP2012050791A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013141585A (en) * 2012-01-12 2013-07-22 Furyu Kk Game machine, game execution method, program, and recording medium
JP2019028725A (en) * 2017-07-31 2019-02-21 有限会社ふりーむ Method and program for operating and controlling object displayed on display means by using sound volume value
JP2019198512A (en) * 2018-05-17 2019-11-21 株式会社カプコン Game program and game device
WO2019245003A1 (en) * 2018-06-22 2019-12-26 ミントフラッグ株式会社 Game system, game system control method, and game program
US12002141B2 (en) 2019-10-15 2024-06-04 Sony Group Corporation Image display apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998002223A1 (en) * 1996-07-11 1998-01-22 Sega Enterprises, Ltd. Voice recognizer, voice recognizing method and game machine using them
JP2008054760A (en) * 2006-08-29 2008-03-13 Konami Digital Entertainment:Kk Game apparatus, game apparatus controlling method and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998002223A1 (en) * 1996-07-11 1998-01-22 Sega Enterprises, Ltd. Voice recognizer, voice recognizing method and game machine using them
JP2008054760A (en) * 2006-08-29 2008-03-13 Konami Digital Entertainment:Kk Game apparatus, game apparatus controlling method and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013141585A (en) * 2012-01-12 2013-07-22 Furyu Kk Game machine, game execution method, program, and recording medium
JP2019028725A (en) * 2017-07-31 2019-02-21 有限会社ふりーむ Method and program for operating and controlling object displayed on display means by using sound volume value
JP2019198512A (en) * 2018-05-17 2019-11-21 株式会社カプコン Game program and game device
WO2019245003A1 (en) * 2018-06-22 2019-12-26 ミントフラッグ株式会社 Game system, game system control method, and game program
JPWO2019245003A1 (en) * 2018-06-22 2021-07-15 ミントフラッグ株式会社 Game system, game system control method and game program
JP7330518B2 (en) 2018-06-22 2023-08-22 ミントフラッグ株式会社 GAME SYSTEM, GAME SYSTEM CONTROL METHOD, AND GAME PROGRAM
TWI825111B (en) * 2018-06-22 2023-12-11 日商薄荷旗股份有限公司 Game system, game system control method and game program
US12002141B2 (en) 2019-10-15 2024-06-04 Sony Group Corporation Image display apparatus

Similar Documents

Publication Publication Date Title
JP3949701B1 (en) Voice processing apparatus, voice processing method, and program
KR100985694B1 (en) Selective sound source listening in conjunction with computer interactive processing
JP3068205B2 (en) Image processing apparatus, game machine using this processing apparatus, image processing method, and medium
JP4095227B2 (en) Video game apparatus, background sound output setting method in video game, and computer-readable recording medium recorded with background sound output setting program
US8319777B2 (en) Character display, character displaying method, information recording medium, and program
JP3863165B2 (en) Audio output device, audio output method, and program
JP5178607B2 (en) Program, information storage medium, mouth shape control method, and mouth shape control device
JP4221035B2 (en) Game sound output device, sound image localization control method, and program
EP1561497A1 (en) Communication device, communication method, program, and information recording medium
JP5306702B2 (en) Age group estimation device, age group estimation method, and program
WO2007105689A1 (en) Game sound output device, game sound control method, information recording medium, and program
TW200808413A (en) Game sound output device, method for controlling game sound, and information recording medium
JP2010022646A (en) Program, information storage medium, and image generation system
JP2017176728A (en) Simulation system and program
JP2012050791A (en) Character display device, character display method, and program
JP3965111B2 (en) Image generation system, program, and information storage medium
JP4343234B2 (en) GAME DEVICE, CHARACTER CONTROL METHOD, AND PROGRAM
JP2011039895A (en) Virtual space display device, viewpoint setting method, and program
US20140079230A1 (en) Sound output system, information processing apparatus, computer-readable non-transitory storage medium having information processing program stored therein, and sound output control method
JP2002102532A (en) Information processing system and method, computer program, storage medium and semiconductor device
JP4977737B2 (en) Audio processing apparatus, audio processing method, and program
JP6159515B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING CONTROL METHOD
JP2010169925A (en) Speech processing device, chat system, speech processing method and program
JP4294712B1 (en) Audio processing apparatus, audio processing method, and program
JP6737842B2 (en) Game program and game device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130827

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140107