JP2007033200A - Wrist watch, display method of wrist watch, and program - Google Patents
Wrist watch, display method of wrist watch, and program Download PDFInfo
- Publication number
- JP2007033200A JP2007033200A JP2005216094A JP2005216094A JP2007033200A JP 2007033200 A JP2007033200 A JP 2007033200A JP 2005216094 A JP2005216094 A JP 2005216094A JP 2005216094 A JP2005216094 A JP 2005216094A JP 2007033200 A JP2007033200 A JP 2007033200A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- unit
- data
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Electric Clocks (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
Description
本発明は、腕時計、腕時計の表示方法、および、プログラムに関し、特に、高精細の3次元グラフィック画像を低消費電力で表示できるようになった腕時計、腕時計の表示方法、およびプログラムに関する。 The present invention relates to a wristwatch, a wristwatch display method, and a program, and more particularly, to a wristwatch, a wristwatch display method, and a program that can display a high-definition three-dimensional graphic image with low power consumption.
従来、デジタル表示可能な時計(例えば特許文献1参照)は数多く存在する。また、その形態は様々であり、例えば、デジタル表示可能な腕時計も存在する。さらに、デジタル表示可能な腕時計の中には、コンピュータグラフィックス機能を用いて作成したグラフィック画像を表示可能な腕時計もあった。
しかしながら、従来のデジタル表示可能な腕時計では、非常に乏しいグラフィック画像しか表示することができなかった。 However, conventional wristwatches capable of digital display can only display very few graphic images.
また、3次元コンピュータグラフィックスの手法を腕時計に組み込み、高精細なグラフィック画像をその腕時計で表示させようとしても、従来の手法(例えば特許文献1に開示された手法)では画像生成用のデータ量が膨大になってしまう。このため、腕時計に搭載させる記録媒体の外形サイズを、一般的なユーザが腕に装着しようと思う大きさのサイズに収めることが非常に困難であった。 Further, even if a technique of 3D computer graphics is incorporated in a wristwatch and a high-definition graphic image is displayed on the wristwatch, the conventional technique (for example, the technique disclosed in Patent Document 1) requires a data amount for image generation. Will become enormous. For this reason, it has been very difficult to fit the outer size of the recording medium to be mounted on the wristwatch into a size that a general user wants to wear on the wrist.
そのため、従来のデジタル表示可能な腕時計では、時刻の表現は非常に限られたものであった。特に、従来のデジタル表示可能な腕時計では、数字フォントを用いた時刻の表示を行う場合、数字の形を多少変形させるか、或いは、数字の背景や周囲に単調なグラフィック画像を表示させる程度のことしかできない、という事実があった。 For this reason, in conventional wristwatches capable of digital display, time representation is very limited. In particular, with conventional digital display wristwatches, when displaying the time using a number font, the shape of the number is slightly modified, or a monotonous graphic image is displayed around the background of the number. There was a fact that it could only be done.
このような事実により、従来のデジタル表示可能な腕時計の時刻表示自体を、ユーザに楽しませることは困難であった。また、従来のデジタル表示可能な腕時計では、処理能力や記憶媒体の容量の制約により、その画面に一度で表示可能な情報量は非常に少なく、ユーザに満足感を与えることは困難であった。これらのことは、従来のデジタル表示可能な腕時計では、その表示画面に高精細の3次元グラフィック画像を表示させることは非常に困難であったという事実に起因する。 Due to these facts, it has been difficult for the user to enjoy the time display itself of a wristwatch that can display digital data. Further, in conventional wristwatches capable of digital display, the amount of information that can be displayed on the screen at one time is very small due to restrictions on processing capacity and storage medium capacity, and it is difficult to give satisfaction to the user. These are due to the fact that it is very difficult to display a high-definition three-dimensional graphic image on the display screen of a conventional wristwatch capable of digital display.
また、上述した従来のデジタル表示可能な腕時計のような小型の携帯型機器に搭載できる電池の外形サイズには限りがあるため、その機器で使用可能な電力の量にも限りがある。かかる機器は、電力を供給することで必要なデータを記憶しているため、電池の電力を使い切ってしまうことは、ユーザが必要な情報を再設定しなければならないことになる。そのため、かかる機器では、充電可能な2次電池を搭載し、電池残量が少なくなってきたら、再充電してもらうことで、電池残量を一定上に保つようにしている。 Further, since the external size of a battery that can be mounted on a small portable device such as the above-described conventional digital display wristwatch is limited, the amount of power that can be used in the device is also limited. Since such devices store necessary data by supplying power, exhausting the battery power requires the user to reset necessary information. Therefore, in such a device, a rechargeable secondary battery is mounted, and when the remaining battery level becomes low, the remaining battery level is kept constant by being recharged.
従って、かかる機器の消費電力が多ければ多いほど、ユーザが充電しなければならない回数が増え、その機器の使い勝手が悪くなってしまう。このような事情により、従来のデジタル表示可能な腕時計においては、処理量を可能な限り減らし、電池の持ち時間を長くするという試みがなされており、消費電力の多い高精細3次元コンピュータグラフィックスを腕時計で実現するとは、とうてい考えの及ばないことであった。
本発明は、このような状況に鑑みてなされたものであり、高精細の3次元グラフィック画像を表示可能な腕時計を低消費電力で提供できるようにするものである。
Therefore, as the power consumption of such a device increases, the number of times that the user has to charge increases, and the usability of the device becomes worse. Under these circumstances, in conventional wristwatches capable of digital display, attempts have been made to reduce the amount of processing as much as possible and to increase the battery life. Realizing with a wristwatch was something that was far from thought.
The present invention has been made in view of such circumstances, and is intended to provide a wristwatch capable of displaying a high-definition three-dimensional graphic image with low power consumption.
本発明の一側面の腕時計は、時刻表示用の画像を表示する表示手段を備える腕時計であって、曲面アーキテクチャ手法が適用されたコンピュータグラフィック機能を用いて、時刻表示用の画像データを生成し、その画像データに対応するコンピュータグラフィック画像を表示手段に表示させることを制御する画像生成手段とが設けられている。 A wristwatch according to one aspect of the present invention is a wristwatch including a display unit that displays an image for time display, and generates image data for time display using a computer graphic function to which a curved surface architecture method is applied. Image generation means for controlling the display means to display a computer graphic image corresponding to the image data is provided.
画像生成手段は、さらに、第1のコンピュータグラフィック画像に対応する第1の画像データと、第2のコンピュータグラフィック画像に対応する第2の画像データとを生成し、表示手段に表示させる画像を、第1のコンピュータグラフィック画像から第2のコンピュータグラフィック画像に更新するとき、モーフィングを用いた表示の制御を行うようにすることができる。 The image generation means further generates first image data corresponding to the first computer graphic image and second image data corresponding to the second computer graphic image, and displays an image to be displayed on the display means. When updating from the first computer graphic image to the second computer graphic image, display control using morphing can be performed.
また、画像生成手段は、さらに、コンピュータグラフィック機能を用いて、時刻表示用の画像データに対応するコンピュータグラフィック画像を拡大または縮小させる制御を行うようにすることができる。 Further, the image generation means can perform control for enlarging or reducing the computer graphic image corresponding to the image data for time display using a computer graphic function.
この腕時計は、音を出力する音出力手段と、オーディオデータを生成し、そのオーディオデータに対応する音を音出力手段から出力させることを制御するオーディオ生成手段と、オーディオ生成手段の制御により音出力手段から出力される音と、画像生成手段の制御により表示手段に表示されるコンピュータグラフィック画像との同期制御を行う同期手段とをさらに設けるようにすることができる。 This wristwatch includes a sound output means for outputting sound, an audio generation means for controlling generation of audio data and output of sound corresponding to the audio data from the sound output means, and sound output by control of the audio generation means Synchronizing means for performing synchronization control between the sound output from the means and the computer graphic image displayed on the display means under the control of the image generating means can be further provided.
本発明の一側面の腕時計の表示方法またはプログラムは、時刻表示用の画像を表示する表示手段を備える腕時計を対象としており、曲面アーキテクチャ手法が適用されたコンピュータグラフィック機能を用いて、時刻表示用の画像データを生成し、その画像データに対応するコンピュータグラフィック画像を表示手段に表示させることを制御する画像生成ステップを含む。 A wristwatch display method or program according to one aspect of the present invention is intended for a wristwatch including a display unit that displays an image for time display, and uses a computer graphic function to which a curved surface architecture method is applied to display the time. An image generation step is included for controlling generation of image data and display of a computer graphic image corresponding to the image data on the display means.
本発明の一側面においては、時刻表示用の画像を表示する表示手段を備える腕時計の画像表示が次のように制御される。即ち、曲面アーキテクチャ手法が適用されたコンピュータグラフィック機能を用いて、時刻表示用の画像データが生成され、その画像データに対応するコンピュータグラフィック画像を表示手段に表示させることが制御される。 In one aspect of the present invention, image display of a wristwatch provided with display means for displaying an image for time display is controlled as follows. That is, image data for time display is generated by using a computer graphic function to which the curved surface architecture method is applied, and it is controlled to display a computer graphic image corresponding to the image data on the display means.
以上のごとく、本発明の一側面によれば、高精細の3次元グラフィック画像を低消費電力で表示可能な腕時計を提供できるようになる。 As described above, according to one aspect of the present invention, a wristwatch capable of displaying a high-definition three-dimensional graphic image with low power consumption can be provided.
以下に本発明の実施の形態を説明するが、本発明の構成要件と、発明の詳細な説明に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、発明の詳細な説明に記載されていることを確認するためのものである。従って、発明の詳細な説明中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between the configuration requirements of the present invention and the embodiments described in the detailed description of the present invention are exemplified as follows. This description is to confirm that the embodiments supporting the present invention are described in the detailed description of the invention. Accordingly, although there are embodiments that are described in the detailed description of the invention but are not described here as embodiments corresponding to the constituent elements of the present invention, It does not mean that the embodiment does not correspond to the configuration requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.
本発明の一側面の腕時計は、時刻表示用の画像を表示する表示手段(例えば図5や図12の表示部54であって、具体的には例えば図1のLCD12)を備える腕時計(例えば図1の外観構成を有し、図5や図12の機能的構成を有する腕時計1)であって、第1に、曲面アーキテクチャ手法が適用されたコンピュータグラフィック機能を用いて、時刻表示用の画像データを生成し、前記画像データに対応するコンピュータグラフィック画像(例えば図3のグラフィック画像)を前記表示手段に表示させることを制御する画像生成手段(例えば図5や図12の表示データ生成部53)を備える。
The wristwatch according to one aspect of the present invention is a wristwatch (for example, a
本発明の一側面の腕時計において、前記画像生成手段は、さらに、第1のコンピュータグラフィック画像(例えば図4の「1」を示す画像A)に対応する第1の画像データと、第2のコンピュータグラフィック画像(例えば図4の「2」を示す画像B)に対応する第2の画像データとを生成し、前記表示手段に表示させる画像を、前記第1のコンピュータグラフィック画像から前記第2のコンピュータグラフィック画像に更新するとき、モーフィングを用いた表示の制御を行う(例えば図4に示されるように、画像Aを変形させながら画像Bに更新させていく制御を行う)。 In the wristwatch according to the aspect of the present invention, the image generation unit further includes first image data corresponding to a first computer graphic image (for example, an image A indicating “1” in FIG. 4), and a second computer. The second image data corresponding to the graphic image (for example, the image B indicating “2” in FIG. 4) is generated, and the image to be displayed on the display means is converted from the first computer graphic image to the second computer. When updating to a graphic image, display control using morphing is performed (for example, as illustrated in FIG. 4, control is performed to update image B while deforming image A).
本発明の一側面の腕時計は、第2に、音を出力する音出力手段(例えば図12のオーディオ出力部102)と、オーディオデータを生成し、そのオーディオデータに対応する音を前記音出力手段から出力させることを制御するオーディオ生成手段(例えば図12のオーディオ生成部101)と、前記オーディオ生成手段の制御により前記音出力手段から出力される音と、前記画像生成手段の制御により前記表示手段に表示される前記コンピュータグラフィック画像との同期制御を行う同期手段(例えば図15のグラフィックとオーディオの同期処理や、図22のグラフィックと合成音声の同期処理を実行する図12の中央演算部51)とをさらに備える。
Secondly, the wristwatch according to one aspect of the present invention includes a sound output unit (for example, the
本発明の一側面の腕時計の表示方法またはプログラムは、時刻表示用の画像を表示する表示手段(例えば図5や図12の表示部54であって、具体的には例えば図1のLCD12)を備える腕時計(例えば図1の外観構成を有し、図5や図12の機能的構成を有する腕時計1)を対象とし、曲面アーキテクチャ手法が適用されたコンピュータグラフィック機能を用いて、時刻表示用の画像データを生成し、前記画像データに対応するコンピュータグラフィック画像を前記表示手段に表示させることを制御する画像生成ステップ(例えば図11の表示データ生成部の処理のうちの、特にステップS63とS64)を含む。
The display method or program for a wristwatch according to one aspect of the present invention includes display means for displaying a time display image (for example, the
以下、図面を参照して、本発明の実施の形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明を適用した腕時計の外観の構成例を示す図である。 FIG. 1 is a diagram showing a configuration example of the appearance of a wristwatch to which the present invention is applied.
図1の例では、腕時計1がユーザ(人間)の腕にはめられた場合、ユーザが見る面(図1に示される面であって、以下表面と称する)には、ユーザが各種情報(指令等)を入力するためのタクトスイッチ11−1乃至11−5が設けられている。なお、以下、タクトスイッチ11−1乃至11−5のそれぞれを、個々に区別する必要が無い場合、それらをまとめてタクトスイッチ11と称する。
In the example of FIG. 1, when the
腕時計1の表面にはまた、低温ポリシリコンTFT(Thin Film Transistor)型のLCD(Liquid Crystal Display)12も設けられている。
A low temperature polysilicon TFT (Thin Film Transistor) type LCD (Liquid Crystal Display) 12 is also provided on the surface of the
図2は、図1の外観構成を有する腕時計1の内部のハードウエア構成例を示すブロック図である。
FIG. 2 is a block diagram showing an example of the internal hardware configuration of the
図2の例では、腕時計1には、上述したタクトスイッチ11およびLCD12の他、システムIC(Integrated Circuit)13、マイクロコンピュータ14、SD-RAM(Synchronous Dynamic Random Access Memory)15、Flash Memory16、および電源部17が設けられている。タクトスイッチ11は、システムIC13とマイクロコンピュータ14とに接続されている。システムIC13にはまた、LCD12、マイクロコンピュータ14、SD-RAM15、およびFlash Memory16が接続されている。
In the example of FIG. 2, in addition to the
システムIC13には、CPU(Central Processing Unit)21、3DCGエンジン22、および、LCDコントローラ23が設けられている。
The
CPU21は、Flash Memory16からSD-RAM15にロードされた各種プログラム(3DCGエンジン22の制御プログラム等)に従って各種処理を実行する。これにより、腕時計1全体の動作が制御されることになる。SD-RAM15にはまた、CPU21が各種の処理を実行する上において必要なデータなども適宜記憶される。
The
3DCGエンジン22は、CPU21の制御(指令)に基づいてグラフィックデータを生成し、LCDコントローラ23に供給する。
The
本実施の形態では、3DCGエンジン22には、曲面アーキテクチャを用いた3次元コンピュータグラフィックス(3DCG)手法が適用されている。換言すると、本実施の形態の3DCGエンジン22は、曲面アーキテクチャをハードウエア的に実現したものである。
In the present embodiment, a 3D computer graphics (3DCG) technique using a curved surface architecture is applied to the
なお、3DCGエンジン22に適用される3DCG手法は、本実施の形態では曲面アーキテクチャを用いた3DCG手法(以下、曲面アーキテクチャ手法と称する)とされているが、これに限定されず、その他の3DCG手法、具体的には例えば、ポリゴンを用いた3DCG手法(以下、ポリゴン手法と称する)でもよい。
The 3DCG method applied to the
ただし、ポリゴン手法と曲面アーキテクチャ手法との間には次のような差異があることから、3DCGエンジン22に採用する3DCG手法としては、本実施の形態のように、曲面アーキテクチャ手法の方が好適である。
However, since there are the following differences between the polygon method and the curved surface architecture method, the curved surface architecture method is more suitable as the 3DCG method employed in the
即ち、ポリゴン手法では、X,Y,Zの3つの値を持つ座標(X,Y,Z)として点が表現される。そして、1以上の点をつなぐことで平面が形成される。この平面がポリゴンと称されている。即ち、ポリゴンとは、多角形と言う意味であり、平面であれば何角形でも良い。ただし、3つの頂点によって定義される面(すなわち3角形)は必ず平面であることが保証されており、コンピュータで扱う際には都合がいいことから、ポリゴンとして3角形が使われることが多い。ポリゴン手法では、1以上のポリゴンを組み合わせることで、様々なオブジェクトが形成される。 That is, in the polygon method, a point is expressed as coordinates (X, Y, Z) having three values of X, Y, and Z. A plane is formed by connecting one or more points. This plane is called a polygon. That is, the term “polygon” means a polygon, and any polygon may be used as long as it is a plane. However, since a plane defined by three vertices (ie, a triangle) is guaranteed to be a plane and is convenient when handled by a computer, a triangle is often used as a polygon. In the polygon method, various objects are formed by combining one or more polygons.
しかしながら、ポリゴンは平面(多角形)であるため、そのままでは曲面を表現することができない。そのため、ポリゴン手法で曲面を表現するためには、ポリゴンをどんどん細かくしていく必要、即ち、大量のポリゴンを使う必要が生じる。大量のポリゴンを使うと言うことは、その分だけ演算時間も多大になると言うことであり、たとえ滑らかな曲面を実現することが目的とされている場合であっても現実的ではない。そのため、妥当な数のポリゴンで、且つ面の繋ぎ目で面がカクカクして見えないようにするために、陰影が緩やかに変化するように見せかけると言う手法が適用されることもある。しかしながら、この手法はあくまでも見せかけだけに頼る手法であるため、この手法により形成されるオブジェクトでは、その輪郭部分においてカクカクが出てしまい、さらに拡大するとそのカクカクが目立ってしまうことになる。 However, since a polygon is a plane (polygon), a curved surface cannot be expressed as it is. Therefore, in order to express a curved surface by the polygon method, it is necessary to make the polygons finer, that is, to use a large number of polygons. The use of a large number of polygons means that the calculation time will be increased correspondingly, and even if the purpose is to realize a smooth curved surface, it is not realistic. For this reason, there is a case in which a method of making the shadow appear to change gradually is applied in order to prevent the surface from being crisp and visible at the joint of the surface with a reasonable number of polygons. However, since this method is a method that relies solely on appearance, an object formed by this method will be confused at its outline, and will become more noticeable when further enlarged.
これに対して、曲面アーキテクチャ手法では、オブジェクトは、16個の制御点を持つパッチと称される単位を用いて表現される。制御点の1つ1つはポリゴン手法の場合と同様にX,Y,Zの3つの値を持つ座標(X,Y,Z)で表現される。ただし、曲面アーキテクチャ手法では、ポリゴン手法の場合とは異なり、制御点と制御点の間は滑らかな曲線で補完されることになる。従って、滑らかな曲面を表現するためには、ポリゴン手法では、ポリゴンである多角形(3角形等)の数を増やさなければならないのに対して、曲面アーキテクチャ手法では、パッチの数を増やさずに曲面を簡単に表現することができる。これにより、曲面アーキテクチャ手法では、ポリゴン手法と比較して、より一段と少ないデータ量で滑らかな曲面を実現することが可能になる。 On the other hand, in the curved surface architecture method, an object is expressed using a unit called a patch having 16 control points. Each control point is represented by coordinates (X, Y, Z) having three values of X, Y, and Z, as in the polygon method. However, unlike the polygon method, the curved surface architecture method is complemented by a smooth curve between the control points. Therefore, in order to express a smooth curved surface, the polygon method has to increase the number of polygons (triangles, etc.) that are polygons, whereas the curved surface architecture method does not increase the number of patches. A curved surface can be expressed easily. As a result, the curved surface architecture method can realize a smooth curved surface with a much smaller amount of data than the polygon method.
具体的には例えば、図3は、曲面アーキテクチャ手法により生成された3DCG画像の一例、換言すると、本実施の形態の3DCGエンジン22(図2)により生成されたグラフィックデータに対応するグラフィック画像の一例を示している。このように、本実施の形態では、図3に示されるようなグラフィック画像、即ち、時刻を示す数字等の各オブジェクトが滑らかな曲面で表現された高画質の3DCG画像を、LCD12に表示させることが可能になる。
Specifically, for example, FIG. 3 shows an example of a 3DCG image generated by the curved surface architecture method, in other words, an example of a graphic image corresponding to the graphic data generated by the 3DCG engine 22 (FIG. 2) of the present embodiment. Is shown. As described above, in the present embodiment, a graphic image as shown in FIG. 3, that is, a high-quality 3DCG image in which each object such as a numeral indicating time is expressed by a smooth curved surface is displayed on the
ところで、ポリゴン手法における多角形(ポリゴン)、例えば3角形が3つの頂点しか持たないのに対して、パッチが16個の制御点を必要とするというデータ構造から、ポリゴン手法の方が、曲面アーキテクチャ手法よりもデータ量が一見少ないように感じる。しかしながら、実際のところは上述したようにその逆、即ち、曲面アーキテクチャ手法の方が、ポリゴン手法よりもデータ量が圧倒的に少なくて済む。これは、曲面を表現するのに必要となるデータの数が異なるからである。 By the way, from the data structure that a polygon (polygon) in a polygon method, for example, a triangle has only three vertices, but a patch requires 16 control points, the polygon method is more curved surface architecture. The amount of data seems to be less than the method. However, in reality, as described above, the reverse, that is, the curved surface architecture method requires much less data than the polygon method. This is because the number of data required to express the curved surface is different.
このように、曲面アーキテクチャ手法では、そのデータ量が少ないことから、オブジェクトの変形などの制御が容易に可能になる、という第1の特長を有している。また、曲面アーキテクチャ手法では、制御点と制御点の間を補完しているので、拡大しても曲面は滑らかなままである、という第2の特長を有している。 As described above, the curved surface architecture method has the first feature that it is possible to easily control the deformation of the object because the amount of data is small. In addition, the curved surface architecture method has a second feature that the curved surface remains smooth even when enlarged because it complements between the control points.
曲面アーキテクチャ手法では、このような第1の特長を有していることにより、3DCGでオブジェクトを処理する場合、オブジェクトが複雑になればなるほど、ポリゴン手法と比べて有利となる。即ち、ポリゴン手法の場合、複雑なオブジェクトを表現しようとすると、その分ポリゴンの数を増やす必要が生じ、処理すべきデータが膨れ上がるため、処理の負担が増大し、プロセッサの性能によっては処理速度の遅れを生じさせることにもつながる。それに比べ、曲面アーキテクチャ手法の場合は、曲面を表示させるのに少ないデータで済むという特長に加え、オブジェクトが複雑になっても、データの量がさほど増えないので、表現するオブジェクトを複雑にしても、処理の負担が増大するということはほとんどなく、ポリゴン手法と比べて有利となるのである。 Since the curved surface architecture method has such a first feature, when an object is processed by 3DCG, the more complicated the object, the more advantageous than the polygon method. That is, in the case of the polygon method, if it is intended to represent a complex object, it is necessary to increase the number of polygons accordingly, and the data to be processed increases, which increases the processing load, and depending on the performance of the processor, the processing speed It also leads to delays. In contrast, the curved surface architecture method requires less data to display the curved surface, and even if the object becomes complex, the amount of data does not increase so much. The processing load is hardly increased, which is advantageous compared to the polygon method.
また、曲面アーキテクチャ手法の第2の特長は、そのまま3Dオブジェクトの拡大、縮小処理が容易になるというメリットにつながる。即ち、一般にポリゴン手法を用いて、オブジェクトのズームを行うためには、2種類のモデルデータを準備する必要がある。先にも説明したとおり、ポリゴン手法は拡大するとモデルのカクカクが目立ってしまうという難点がある。そのため、ポリゴン手法を用いた3DCGに於いては、拡大してもカクカクしない様にするために、標準画像と拡大画像の2つを用意し、拡大する場合は拡大画像に切り替えるという処理を行う必要がある。このため、オブジェクトを拡大する必要があるアプリケーションにおいては、モデルのデータサイズが2倍になる。また、違和感なく標準画像と拡大画像を切り替えるという処理を行わなければならない。これに対して、曲面アーキテクチャ手法では、拡大しても滑らかであるという第2の特長を有しているので、データ量を増やすことなく、かつ、画像切り替え処理を行わずに、拡大/縮小を実現することができるというメリットにつながる。かかるメリットは、腕時計のような比較的小さな表示画面を有する機器において、ユーザが表示内容を拡大して確認したいという際に、非常に有効であると言えよう。 In addition, the second feature of the curved surface architecture method leads to the advantage that the enlargement / reduction process of the 3D object becomes easy. That is, in general, in order to zoom an object using the polygon method, it is necessary to prepare two types of model data. As described above, the polygon method has a drawback that the model becomes conspicuous when enlarged. Therefore, in 3DCG using the polygon method, it is necessary to prepare two images, a standard image and an enlarged image, and switch to the enlarged image when enlarging in order not to be confused even if enlarged. There is. For this reason, in an application that needs to enlarge an object, the data size of the model is doubled. In addition, it is necessary to perform a process of switching between the standard image and the enlarged image without a sense of incongruity. On the other hand, the curved surface architecture method has the second feature that it is smooth even if it is enlarged, so it can be enlarged / reduced without increasing the amount of data and without performing image switching processing. It leads to the merit that it can be realized. Such a merit can be said to be very effective when the user wants to enlarge and confirm the display contents in a device having a relatively small display screen such as a wristwatch.
曲面アーキテクチャ手法では、このような第1の特長や第2の特長を有しているので、モーフィングなどの効果も容易に実現可能となる。モーフィングとは、パッチを用いて予めデザインされた2つの画像(第1の画像と第2の画像)の制御点を移動させることによって、第1の画像から第2の画像に徐々に変化させていく効果、またはその効果を実現させる手法を言う。本実施の形態の3DCGエンジン22(図1)は、第1の画像の各制御点を始点とし、第2の画像の各制御点を終点とし、中間点を自動補完することで、モーフィングを実現させる。その際、補完すべき中間点の数と始点から終点までの変化時間は、制御プログラムによって決定される。 Since the curved surface architecture method has such first and second features, effects such as morphing can be easily realized. Morphing is a method of gradually changing from the first image to the second image by moving the control points of two images (first image and second image) that are pre-designed using patches. The method to achieve the effect or the effect. The 3DCG engine 22 (FIG. 1) of the present embodiment realizes morphing by automatically complementing intermediate points with each control point of the first image as the start point, each control point of the second image as the end point. Let At that time, the number of intermediate points to be complemented and the change time from the start point to the end point are determined by the control program.
具体的には例えば、図4に示されるように、本実施の形態の3DCGエンジン22(図2)は、例えば、時間の経過に伴い、時刻を示す数字を徐々に変形させていくモーフィングを用いた表示の制御、具体的には例えば図4の例では、時刻を示す1つの数字として、第1の画像Aが示す「1」から、第2の画像Bが示す「2」に徐々に変形させていくモーフィングを用いた表示の制御を行う。これにより、LCD12の時刻表示として、モーフィングを用いた時刻のデジタル表示が実現可能になる。
Specifically, for example, as shown in FIG. 4, the 3DCG engine 22 (FIG. 2) according to the present embodiment uses, for example, morphing that gradually changes a number indicating a time as time passes. In the example of FIG. 4, for example, in the example of FIG. 4, the number of times is gradually changed from “1” indicated by the first image A to “2” indicated by the second image B. Control the display using morphing. Thereby, digital display of time using morphing can be realized as time display of the
また、曲面アーキテクチャ手法では、パッチを用いることによりデータ圧縮率もよいという第3の特長を有している。従って、曲面アーキテクチャ手法を用いて作成された画像データは、ZIPなどの圧縮方法で圧縮前のデータの6分の1程度に圧縮することが可能である。 In addition, the curved surface architecture method has a third feature that a data compression rate is good by using a patch. Therefore, the image data created using the curved surface architecture method can be compressed to about 1/6 of the data before compression by a compression method such as ZIP.
以上説明したように、本実施の形態の腕時計1では、上述した第1の特長乃至第3の特長を有する曲面アーキテクチャ手法が適用されているので、他の3DCG手法(例えばポリゴン手法)が適用された場合と比較して、圧倒的に少ないデータサイズで高精細な3DCG画像を表示することが可能になる。
As described above, in the
さらに、曲面アーキテクチャ手法で用いるデータサイズが少ないということは、画像生成に必要となる消費電力を軽減させることにも貢献する。 Furthermore, the fact that the data size used in the curved surface architecture method is small contributes to reducing the power consumption required for image generation.
まず、データサイズが少ないことで、メモリ(図2の例ではSD-RAM15やFlash Memory16等)から3DCGエンジン(図2の例では3DCGエンジン22)にデータを転送する回数を減らすことができる。また、画像生成のための演算処理を行うCPU(図2の例ではCPU21)への負荷を減らすことにもなる。これにより、曲面アーキテクチャ手法を適用することで、他の3DCG手法を適用した場合と比較して、低消費電力が実現できるのである。
First, since the data size is small, the number of times data is transferred from the memory (SD-
さらに、本実施の形態の3DCGエンジン22は、曲面アーキテクチャをハードウエア的に実現したものであることはすでに述べたが、本実施の形態のように3DCGエンジンをハードウエアとして実現していることも、低消費電力に大きく貢献している。同じ処理をソフトウエア的に実現しようとすると、処理が複雑になり、非常に多くの電力を必要とすることになるからである。従って、本実施の形態の腕時計1に限らず、腕時計のように使用できる電力の量が限られており、その使用可能な電力をできるだけ長時間持たせる必要があるような機器において、曲面アーキテクチャをハードウエア的に実現したものを用いることの消費電力低減効果は大きいといえる。
Furthermore, although it has already been described that the
図2に戻り、LCDコントローラ23は、LCD12の表示を制御する。即ち、LCDコントローラ23は、3DCGエンジン22から供給されたグラフィックデータを、必要に応じてLCD12に適した形態に変換した上で、LCD12に転送する。これにより、LCD12には、そのグラフィックデータに対応するグラフィック画像、例えば、上述した図3に示されるような時刻表示用の3DCG画像が表示される。さらに、時刻が変化するときには、上述した図4に示されるようなモーフィングにより、時刻を示す数字が徐々に変化していくような3DCG画像(動画像)がLCD12に表示される。
Returning to FIG. 2, the
マイクロコンピュータ14は、図示はしないが例えば発振回路やカウンタ等を内蔵しており、設定された時刻に基づいて時を刻み、現時点の時刻を示す情報(以下、時刻情報と称する)を必要に応じてシステムIC13に提供する。
Although not shown, the
電源部17は、図示はしないが例えば、リチウムイオン二次電池、充電コントローラ、電源レギュレータ等から構成され、腕時計1を構成する上述した各ブロック(各モジュール)のそれぞれに対して必要な電源(電力)を供給する。なお、図2では、電源部17が各ブロックのそれぞれに電源を供給することを表す各種線は、図が煩雑になるため、まとめて1つの白抜き矢印として図示されている。
Although not shown, the power supply unit 17 is composed of, for example, a lithium ion secondary battery, a charge controller, a power supply regulator, and the like, and a necessary power supply (power) for each of the blocks (each module) constituting the
以上、図2を参照して、腕時計1のハードウエア構成例について説明した。
The hardware configuration example of the
ただし、腕時計1のハードウエア構成は、図2の例に限定されず、次の図5の機能的構成を少なくとも有していれば任意のハードウエア構成でよい。
However, the hardware configuration of the
即ち、図5は、腕時計1の機能的構成例を示す機能ブロック図である。
That is, FIG. 5 is a functional block diagram showing a functional configuration example of the
中央演算部51は、この腕時計1の全体の動作を制御する。なお、中央演算部51の詳細な構成例については図6を参照して、中央演算部51の処理例については図10を参照して、それぞれ後述する。
The
時間管理部52は、腕時計1が図2のハードウエア構成を有している場合には、マイクロコンピュータ14で構成される。従って、時間管理部52が有する機能は、マイクロコンピュータ14が有する上述した機能と同様であるので、その説明については省略する。また、時間管理部52が有する機能により実現される処理の例については、図9を参照して後述する。
The
なお、中央演算部51と時間管理部52とのそれぞれは、その処理を実行する場合、ユーザ入力部55からの情報を適宜取得する。
Note that each of the
表示データ生成部53は、中央演算部51の制御に基づいて、即ち、中央演算部51からの指令に従ってグラフィックデータを生成し、そのグラフィックデータに対応するグラフィック画像(3DCG画像等)を表示部54に表示させるように制御する。これにより、表示部54には、表示データ生成部53により生成されたグラフィックデータに対応するグラフィック画像が表示される。なお、表示データ生成部53の詳細な構成例については図7を参照して、表示データ生成部53の処理例については図11を参照して、それぞれ後述する。
The display
表示部54、ユーザ入力部55、および、電力供給部56のそれぞれは、腕時計1が図2のハードウエア構成を有している場合には、LCD12、タクトスイッチ11、および、電源部17のそれぞれで構成される。従って、表示部54、ユーザ入力部55、および、電力供給部56のそれぞれが有する機能は、LCD12、タクトスイッチ11、および電源部17のそれぞれが有する上述した各機能のそれぞれと同様であるので、それらの説明については省略する。また、電力供給部56が有する機能により実現される処理の例については、図8を参照して後述する。
The
図6は、中央演算部51の詳細な機能的構成例を示している。図6の例では、中央演算部51は、主制御部61、プログラム格納部62、および、作業用データ記憶部63から構成されている。
FIG. 6 shows a detailed functional configuration example of the
主制御部61、プログラム格納部62、および、作業用データ記憶部63のそれぞれは、腕時計1が図2のハードウエア構成を有している場合には、CPU21、Flash Memory16、および、SD-RAM15のそれぞれで構成される。
The
従って、主制御部61は、プログラム格納部62に格納されている各種プログラムのうちの1以上を選択して作業用データ記憶部63にロードし、実行することができる。作業用データ記憶部63には、所定のプログラムの実行に必要な各種データが記憶される。また、作業用データ記憶部63には、プログラム格納部62に格納されている各種プログラムを作業用データ記憶部63にロードして、起動させるための起動プログラムが格納されている。この起動プログラムは、主制御部61上で動作するようになされている。
Therefore, the
なお、プログラム格納部62に格納されているプログラム、および、そのプログラムにより実現される処理の具体例については後述する。
A specific example of the program stored in the
図7は、表示データ生成部53の詳細な構成例を示している。図7の例では、表示データ生成部53は、3Dグラフィックスエンジン部71と、LCDコントロール部72とから構成されている。
FIG. 7 shows a detailed configuration example of the display
3Dグラフィックスエンジン部71と、LCDコントロール部72とのそれぞれは、腕時計1が図2のハードウエア構成を有している場合には、3DCGエンジン22と、LCDコントローラ23とのそれぞれで構成される。従って、3Dグラフィックスエンジン部71とLCDコントロール部72とのそれぞれが有する機能は、3DCGエンジン22とLCDコントローラ23とのそれぞれが有する上述した各機能のそれぞれと同様であるので、それらの説明については省略する。
Each of the 3D
以上、図5乃至図7を参照して、腕時計1の機能的構成例について説明した。
The functional configuration example of the
なお、図5乃至図7に示される各機能ブロックのそれぞれは、本実施の形態では、腕時計1が図2のハードウエア構成を有していることを前提として、上述したように構成されているとした。しかしながら、図5乃至図7に示される各機能ブロックのそれぞれは、そのハードウエア構成に応じて、ハードウエア単体で構成してもよいし、ソフトウエア単体で構成してもよいし、或いは、ハードウエアとソフトウエアの組み合わせで構成してもよい。
Each of the functional blocks shown in FIGS. 5 to 7 is configured as described above on the assumption that the
次に、図8乃至図11を参照して、係る図5乃至図7の機能的構成を有する腕時計1の動作の幾つかの例、即ち、腕時計1を構成する各機能ブロックの処理の例について説明する。
Next, referring to FIG. 8 to FIG. 11, some examples of operations of the
図8は、電力供給部56の処理例を説明するフローチャートである。
FIG. 8 is a flowchart for explaining a processing example of the
電源オンの指示がなされると、ステップS1において、電力供給部56は、電源をオン状態にする。そして、ステップS2において、電力供給部56は、中央演算部51乃至表示部54のそれぞれに対して電力を供給する。
When a power-on instruction is given, in step S1, the
ステップS3において、電力供給部56は、電池残量が閾値以下であるか否かを判定する。
In step S3, the
ステップS3において、電池残量が閾値以下であると判定した場合、ステップS4において、電力供給部56は、その電池に対して充電を行う。充電が完了すると、ステップS4の処理は終了となり、処理はステップS5に進む。
If it is determined in step S3 that the remaining battery level is equal to or less than the threshold value, in step S4, the
これに対して、ステップS3において、電池残量が閾値を越えている(閾値以下ではない)と判定された場合、ステップS4の処理(充電)は実行されずに、処理はステップS5に進む。 On the other hand, if it is determined in step S3 that the remaining battery level exceeds the threshold value (not less than the threshold value), the process proceeds to step S5 without executing the process (charging) in step S4.
ステップS5において、電力供給部56は、電源オフが指示されたか否かを判定する。
In step S <b> 5, the
ステップS5において、電源オフが指示されたと判定した場合、ステップS6において、電力供給部56は、電源をオフ状態にする。これにより、中央演算部51乃至表示部54のそれぞれに対する電源供給が遮断されて、電力供給部56の処理は終了となる。
If it is determined in step S5 that power-off has been instructed, in step S6, the
これに対して、ステップS5において、電源オフがまだ指示されていないと判定された場合、処理はステップS2に戻され、それ以降の処理が繰り返し実行される。即ち、電源オフの指示がなされず、かつ、電池残量が閾値を超えている限り、中央演算部51乃至表示部54のそれぞれに対する電源供給が継続される。
On the other hand, if it is determined in step S5 that power-off has not been instructed yet, the process returns to step S2, and the subsequent processes are repeatedly executed. That is, as long as the power-off instruction is not given and the remaining battery level exceeds the threshold value, the power supply to each of the
以上説明したように、電力供給部56の電源がオン状態になると(ステップS1)、電力供給部56は、中央演算部51乃至表示部54に対して電力を供給する(ステップS2)。これにより、時間管理部52と中央演算部51は、ユーザ入力部55からの入力を受け付けることが可能になる。そこで、以下、図9と図10とのそれぞれを参照して、時間管理部52と中央演算部51とのそれぞれの処理をその順番で個別に説明していく。
As described above, when the
図9は、時間管理部52の処理例を説明するフローチャートである。
FIG. 9 is a flowchart for explaining a processing example of the
ステップS21において、時間管理部52は、初期時刻を設定する。
In step S21, the
なお、このステップS21の処理、即ち、初期時刻の設定処理は、腕時計1の出荷時に製造場所において行われてもよいし、ユーザによるユーザ入力部55の操作、即ち図1の例ではタクトスイッチ11の押下操作により行われてもよい。
The process of step S21, that is, the initial time setting process may be performed at the manufacturing location when the
ステップS22において、時間管理部52は、時刻の自動更新処理(自身の判断で時を刻む処理)を行う。
In step S <b> 22, the
ステップS23において、時間管理部52は、時刻の再設定が必要であるか否かを判定する。
In step S23, the
ステップS23において、時刻の再設定が必要であると判定した場合、ステップS24において、時間管理部52は、時刻を再設定する。なお、このステップS24の処理、即ち、時刻の再設定処理は、例えば本実施の形態では、ユーザによるユーザ入力部55の操作、即ち図1の例ではタクトスイッチ11の押下操作により行われるとする。時刻の再設定処理が完了すると、処理はステップS25に進む。
When it is determined in step S23 that the time needs to be reset, in step S24, the
これに対して、ステップS23において、時刻の再設定が不要である(必要ではない)と判定された場合、ステップS24の処理は実行されずに、即ち、時刻の再設定処理は特に行われずに、処理はステップS25に進む。 On the other hand, if it is determined in step S23 that resetting of the time is unnecessary (not required), the process of step S24 is not executed, that is, the resetting process of the time is not particularly performed. The process proceeds to step S25.
ステップS25において、時間管理部52は、中央演算部51から時刻情報提供リクエストがあったか否かを判定する。
In step S <b> 25, the
ここで、「中央演算部51から時刻情報提供リクエストがあった」とは、「その時点で中央演算部51から明示的に時刻情報提供リクエストがあった」の他、「中央演算部51から明示的ではない時刻情報提供リクエストがあった」も含む広義な概念である。
Here, “there is a time information provision request from the
「中央演算部51から明示的ではない時刻情報提供リクエストがあった」とは、例えば次のようなことを指す。即ち、例えば、中央演算部51の処理過程(後述する図10参照)で、選択された実行プログラムが「その時点の時刻を表示する」という制御を行う場合、実行プログラムが実行されてから終了されるまでの間のことを、「中央演算部51から明示的ではない時刻情報提供リクエストがあった」と捉えることができる。即ち、この間は、時間管理部52から中央演算部51に時刻情報が提供されるたびに、中央演算部51は時刻表示を更新することになる。その際、中央演算部51は、どのタイミングで時刻情報提供リクエストを出せばいいかの情報を持っていないので、一定間隔で時間管理部52から提供される時刻情報を能動的に受け取り、時刻表示の制御を行うことになる。従って、この場合には、一定間隔が経過するまでの間は、ステップS25の処理で時刻情報提供リクエストがなかったと判定されて処理はステップS27に進み、その後、一定間隔が経過した時点で、ステップS25の処理で時刻情報提供リクエストがあったたと判定されて処理はステップS26に進むことになる。
The phrase “there is an explicit time information provision request from the
このように時間管理部52から常に一定間隔で提供される時刻情報を基に、中央演算部51が処理を行う場合もあるし、中央演算部51が処理の過程で、特定の時点の時刻を知る必要があり、時刻情報提供リクエストを出す場合もあり、何れの場合も、ここでは、「中央演算部51から時刻情報提供リクエストがあった」場合とされているのである。
As described above, the
以上の前提の下、ステップS25において、中央演算部51から時刻情報提供リクエストがあったと判定した場合、ステップS26において、時間管理部52は、時刻情報を中央演算部51に出力する。これにより、処理はステップS27に進む。
Under the above assumption, when it is determined in step S25 that there is a time information provision request from the
これに対して、ステップS25において、中央演算部51から時刻情報提供リクエストが無かったと判定された場合、ステップS26の処理は実行されずに、処理はステップS27に進む。
On the other hand, if it is determined in step S25 that there is no time information provision request from the
ステップS27において、時間管理部52は、処理の終了が指示されたか否かを判定する。
In step S27, the
ステップS27において、処理の終了がまだ指示されていないと判定された場合、処理はステップS22に戻され、それ以降の処理が繰り返し実行される。即ち、時間管理部52は、時刻の自動更新処理を継続しつつ、必要に応じて、時刻の再設定処理や、時刻情報を中央演算部51に出力する処理を実行する。
If it is determined in step S27 that the process has not been instructed yet, the process returns to step S22, and the subsequent processes are repeatedly executed. That is, the
その後、ステップS27において、処理の終了が指示されたと判定された場合、時間管理部52の処理は終了となる。
Thereafter, if it is determined in step S27 that the process has been instructed, the process of the
次に、図10のフローチャートを参照して、中央演算部51の処理例を説明する。
Next, a processing example of the
ステップS41において、中央演算部51は、電力供給部56からの電力供給が遮断されたか否かを判定する。
In step S <b> 41, the
ステップS41において、電力供給が遮断されたと判定された場合、中央演算部51の処理は終了となる。
If it is determined in step S41 that the power supply has been cut off, the processing of the
これに対して、電力供給部56からの電力供給が継続されている限り、ステップS41において、電力供給が遮断されていないと常に判定されて、処理はステップS42に進む。
On the other hand, as long as the power supply from the
ステップS42において、中央演算部51は、ユーザ入力部55によるユーザ操作があったか否かを判定する。
In step S <b> 42, the
ステップS42において、ユーザ操作が無かったと判定した場合、ステップS43において、中央演算部51は、指定された時刻であるか否かを判定する。
If it is determined in step S42 that there is no user operation, in step S43, the
具体的には例えば本実施の形態では、ステップS43の処理の開始時点で、中央演算部51は、時刻情報提供リクエストを時間管理部52に対して発行する。すると、上述したように、時間管理部52は、この時刻情報提供リクエストを受けて(図9のステップS25YES)、時刻情報を中央演算部51に出力してくる(ステップS26)。そこで、中央演算部51は、その時刻情報を作業用データ記憶部63(図6)に記憶させ、その時刻情報で特定される時刻が、指定された時刻であるか否かを判定する。
Specifically, for example, in the present embodiment, the
ステップS43において、指定された時刻であると判定された場合、処理はステップS45に進む。ただし、ステップS45以降の処理については後述する。 If it is determined in step S43 that the designated time is reached, the process proceeds to step S45. However, the processing after step S45 will be described later.
これに対して、ステップS43において、指定された時刻ではないと判定された場合、処理はステップS41に戻され、それ以降の処理が繰り返し実行される。即ち、電力供給部56からの電力供給が継続されている限り、中央演算部51は、ユーザ操作があるか、或いは、指定された時刻になるまで、ステップS41NO,S42NO,S43NOのループ処理を繰り返し実行することで、待機状態を維持する。
On the other hand, when it is determined in step S43 that it is not the designated time, the process is returned to step S41, and the subsequent processes are repeatedly executed. That is, as long as the power supply from the
その後、ユーザ入力部55によるユーザ操作があると、次のステップS42の処理でYESであると判定されて、処理はステップS44に進む。
Thereafter, if there is a user operation by the
ステップS44において、中央演算部51の主制御部61(図6)は、上述した起動プログラムを実行する。この起動プログラムにより、次のステップS45以降の処理が実行される。
In step S44, the main control unit 61 (FIG. 6) of the
即ち、主制御部61は、ステップS45において、プログラム格納部62に格納されている各種プログラムの中から、これから実行するプログラム(以下、実行プログラムと称する)を選択し、ステップS46において、その実行プログラムをプログラム格納部62から作業用データ記憶部63に転送する。
That is, the
具体的には例えばここでは、アプリケーション製作者によって作成された制御プログラムであって、時刻表示用のグラフィックデータの生成処理を実行するための制御プログラムが、プログラム格納部62に1つ以上格納されているとする。また、この制御プログラムには、3Dグラフィックスエンジン部71(図7)がグラフィックデータ(グラフィック画像)を生成するために必要となる各種モデルのデータ、各種モデルの表示方法(エフェクト、変形パターンなど)、および、各種モデルの表示タイミングの制御指令などが含まれているとする。
Specifically, for example, here, one or more control programs created by an application producer for executing processing for generating time display graphic data are stored in the
この場合、主制御部61は、ステップS45において、ユーザ入力部55から送られる操作情報に一般的には従って、上述した1つ以上の制御プログラムの中から所定の1つを実行プログラムとして選択する。そして、主制御部61は、ステップS46において、その実行プログラムをプログラム格納部62から作業用データ記憶部63に転送する。
In this case, in step S45, the
即ち、ユーザは、ユーザ入力部55を操作することで、何れの制御プログラムを用いて時刻を表示させたいのかを指定することができる。この場合、ユーザ入力部55の操作内容を示す情報、即ち、ユーザの指定内容を示す情報は、中央演算部51に操作情報として送られる。すると、起動プログラム(主制御部61)は、ステップS45において、ユーザ入力部55から得られた操作情報に従って実行プログラムを選択し、ステップS46において、その実行プログラムを作業用データ記憶部63に転送する。
In other words, the user can specify which control program is to be used to display the time by operating the
なお、ユーザ入力部55から操作情報が与えられない場合には、主制御部61は、上述した手法とは別の手法を用いて、ステップS45の処理、即ち、時刻表示用の制御プログラムの中から所定の1つを実行プログラムとして選択する、といった処理を実行する必要がある。
When the operation information is not given from the
例えば、別の手法のひとつとして、腕時計1の出荷時に製造場所において、何れの制御プログラムを実行プログラムとして使用(選択)するのかを初期値ないしデフォルト値として設定しておき、その初期値ないしデフォルト値で特定される制御プログラムを実行プログラムとして選択する、という手法を採用することができる。
For example, as another method, at the time of shipment of the
また例えば、別の手法のひとつとして、ランダムないし所定の順番に選択した制御プログラムを実行プログラムとする、という手法を採用することができる。 For example, as another method, a method of using a control program selected randomly or in a predetermined order as an execution program can be employed.
さらに例えば、別の手法として、ユーザが予め指定した制御プログラムを実行プログラムとして繰り返し選択(使用)する、という手法を採用することができる。 Furthermore, for example, as another method, a method of repeatedly selecting (using) a control program designated in advance by the user as an execution program can be employed.
このようにして、ステップS45の処理で、実行プログラムが選択され、ステップS46の処理で、その実行プログラムが作業用データ記憶部63に転送されると、処理はステップS47に進む。
In this manner, when the execution program is selected in the process of step S45 and the execution program is transferred to the work
ステップS47において、主制御部61は、実行プログラムを実行する。
In step S47, the
具体的には例えばここでは、上述したように、1以上の時刻表示用の制御プログラムのうちの所定の1つが実行プログラムとして選択されているので、次のような一連の処理がステップS47の処理として実行される。 Specifically, for example, as described above, since a predetermined one of the one or more time display control programs is selected as the execution program, the following series of processing is performed in step S47. Run as.
即ち、主制御部61は、実行プログラムに基づいて、時刻情報提供リクエストを時間管理部52に対して発行する。すると、上述したように、時間管理部52は、この時刻情報提供リクエストを受けて(図9のステップS25YES)、時刻情報を中央演算部51に出力してくる(ステップS26)。そこで、中央演算部51は、その時刻情報を作業用データ記憶部63に記憶させる。
That is, the
なお、ステップS43の処理でYESであると判定されて、ステップS45,S46の処理が実行された直後に行われるステップS47においては、ここまでの処理は省略してもよい。 Note that the processing up to this point may be omitted in step S47 performed immediately after the processing of steps S45 and S46 is executed after the determination of YES in step S43.
次に、主制御部61は、実行プログラムと、作業用データ記憶部63に記憶された時刻情報とに基づいて、表示データ生成部53の3Dグラフィックスエンジン部71(図7)に対してグラフィックデータの生成指令(以下、画像生成指令と称する)を発行する。
Next, based on the execution program and the time information stored in the work
すると、3Dグラフィックスエンジン部71は、この画像生成指令に基づいて、グラフィックデータ(グラフィック画像)を随時生成する(後述する図11のステップS62YES,S63参照)。
Then, the 3D
3Dグラフィックスエンジン部71によって生成されたグラフィックデータは、LCDコントロール部72(図7)を経由して、表示部54(図5)へと転送される(後述する図11のステップS64参照)。これにより、そのグラフィックデータに対応するグラフィック画像、例えば上述した図3に示されるような時刻表示用の3DCG画像が、表示部54に表示される。
The graphic data generated by the 3D
なお、時刻の変化タイミング時には、図4で上述したモーフィングを用いることで、時刻を示す数字が徐々に変形していくような3DCG画像(動画像)を、表示部54に表示させることも容易に可能である。
Note that, at the time of time change timing, by using the morphing described above with reference to FIG. 4, it is possible to easily display a 3DCG image (moving image) in which the number indicating the time gradually changes on the
このようにして、ステップS47の処理でプログラムが実行されて、時刻表示用のグラフィック画像が表示部54に表示されると、処理はステップS48に進む。
In this way, when the program is executed in the process of step S47 and the graphic image for time display is displayed on the
ステップS48において、主制御部61は、実行プログラム中で指定された時刻であるか否かを判定する。
In step S48, the
具体的には例えば本実施の形態では、ステップS48の処理の開始時点で、中央演算部51は、時刻情報提供リクエストを時間管理部52に対して発行する。すると、上述したように、時間管理部52は、この時刻情報提供リクエストを受けて(図9のステップS25YES)、時刻情報を中央演算部51に出力してくる(ステップS26)。そこで、中央演算部51は、その時刻情報を作業用データ記憶部63に記憶させ、その時刻情報で特定される時刻が、指定された時刻であるか否かを判定する。
Specifically, for example, in the present embodiment, the
例えばここでは、実行プログラムに、指定された時刻になったときには時刻表示用の制御プログラムを変更させる指令等が含まれているとする。 For example, here, it is assumed that the execution program includes a command for changing the time display control program when the designated time comes.
この場合、実行プログラムで指定された時刻になると、ステップS48においてYESであると判定されて、処理はステップS49に進む。ステップS49において、主制御部61は、実行プログラムを終了させる。その後、処理はステップS45に戻されそれ以降の処理が繰り返し実行される。即ち、今度は別の制御プログラムが実行プログラムとして選択され、その別の制御プログラムに従って時刻表示のための処理が実行される。
In this case, when the time specified by the execution program is reached, it is determined as YES in Step S48, and the process proceeds to Step S49. In step S49, the
これに対して、実行プログラムで指定された時刻になっていない場合(そもそも実行プログラムで指定されている時刻が1つもない場合も含む)、ステップS48においてNOであると判定されて、処理はステップS50に進む。 On the other hand, if the time specified by the execution program is not reached (including the case where there is no time specified by the execution program in the first place), it is determined as NO in step S48, and the process is step Proceed to S50.
ステップS50において、主制御部51は、実行プログラムの終了条件(指定された時刻になるという条件を除く)を満たしたか否かを判定する。
In step S50, the
実行プログラムの終了条件がまだ満たされていない場合には、ステップS50においてNOであると判定されて、処理はステップS47に戻され、それ以降の処理が繰り返し実行される。即ち、実行プログラムの終了条件(指定された時刻になるという条件含む)を満たすようになるまでの間、その時点で実行プログラムとして選択されている制御プログラムの実行が継続される。 If the end condition of the execution program is not yet satisfied, it is determined as NO in Step S50, the process returns to Step S47, and the subsequent processes are repeatedly executed. That is, the execution of the control program selected as the execution program at that time is continued until the end condition of the execution program (including the condition that the designated time is reached) is satisfied.
そして、実行プログラムの終了条件(指定された時刻になるという条件を除く)が満たされると、ステップS50においてYESであると判定されて、処理はステップS51に進む。ステップS51において、主制御部61は、実行プログラムを終了させる。その後、処理はステップS41に戻され、それ以降の処理が繰り返し実行される。
If the end condition of the execution program (excluding the condition that the designated time is reached) is satisfied, it is determined as YES in Step S50, and the process proceeds to Step S51. In step S51, the
以上、時刻表示用の制御プログラムが実行プログラムとして選択される場合の例について説明した。この例の場合、上述したように、図7の表示データ生成部53が、時刻表示のために必要な処理を実行することになる。このような表示データ生成部53の処理例が図11に示されている。そこで、以下、図11のフローチャートを参照して、表示データ生成部53の処理例について説明する。
The example in which the control program for time display is selected as the execution program has been described above. In the case of this example, as described above, the display
ステップS61において、表示データ生成部53は、電力供給部56からの電力供給が遮断されたか否かを判定する。
In step S <b> 61, the display
ステップS61において、電力供給が遮断されたと判定された場合、表示データ生成部53の処理は終了となる。
If it is determined in step S61 that the power supply has been cut off, the processing of the display
これに対して、電力供給部56からの電力供給が継続されている限り、ステップS61において、電力供給が遮断されていないと常に判定されて、処理はステップS62に進む。
On the other hand, as long as the power supply from the
ステップS62において、表示データ生成部53は、中央演算部51から指示(画像生成指令)があったか否かを判定する。
In step S62, the display
ステップS62において、中央演算部51から指示(画像生成指令)がないと判定された場合、処理はステップS61に戻され、それ以降の処理が繰り返し実行される。即ち、電力供給部56からの電力供給が継続されている限り、表示データ生成部53は、中央演算部51から指示(画像生成指令)がなされるまで、ステップS61NO,S62NOのループ処理を繰り返し実行することで、待機状態を維持する。
If it is determined in step S62 that there is no instruction (image generation command) from the
その後、中央演算部51が、表示データ生成部53の3Dグラフィックスエンジン部71(図7)に画像生成指令(指示)を出すと(上述した図10のステップS47の処理の一環)、次のステップS62の処理でYESであると判定されて、処理はステップS63に進む。
After that, when the
ステップS63において、3Dグラフィックスエンジン部71は、この画像生成指令に基づいて、グラフィックデータ(グラフィック画像)を随時生成する。
In step S63, the 3D
なお、表示データ生成部53は、このステップS63の処理の際、中央演算部51の作業用データ記憶部63に随時アクセスし、グラフィックデータの生成に必要な暫定データ(モデルのデータ等)、その処理のための演算の結果などを一時的に格納しながら、グラフィックデータの生成処理を行う。
The display
ステップS64において、3Dグラフィックスエンジン部71は、ステップS63の処理で生成したグラフィックデータを、LCDコントロール部72を経由して、表示部54(図5)へ転送する。
In step S64, the 3D
これにより、そのグラフィックデータに対応するグラフィック画像、例えば上述した図3に示されるような時刻表示用の3DCG画像が、表示部54に表示される。
As a result, a graphic image corresponding to the graphic data, for example, a 3DCG image for time display as shown in FIG. 3 described above, is displayed on the
また、図4で説明したモーフィングを用いることで、時刻の変化タイミング時には、時刻の数字が徐々に変形していくような3DCG画像(動画像)を表示部54に表示させることも容易に可能になる。即ち、図5の機能的構成を有する腕時計1は、時刻表示等に使用する画像とそれぞれの画像の遷移を制御する制御プログラムを1以上予め用意しておき、実際のグラフィック画像(グラフィックデータ)生成をリアルタイムに行うことで、少ないデータ量と処理の負荷でモーフィングを実現し、より表現力の高い時刻表示を行うことが可能になる。
In addition, by using the morphing described with reference to FIG. 4, it is possible to easily display a 3DCG image (moving image) on the
その後、処理はステップS61に戻され、それ以降の処理が繰り返し実行される。 Thereafter, the process returns to step S61, and the subsequent processes are repeatedly executed.
以上、図5の機能的構成を有する腕時計1について説明した。
The
ただし、本発明が適用される腕時計1の機能的構成は、上述した図5の例に限定されず、様々な実施の形態を取ることが可能である。具体的には例えば、図12は、本発明が適用される腕時計1の機能的構成の図5とは異なる例を示している。なお、図12の機能的構成例の腕時計1において、図5の機能的構成例と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
However, the functional configuration of the
図12の例では、腕時計1には、図5の例と同様の中央演算部51乃至電源部56に加えてさらに、オーディオ生成部101およびオーディオ出力部102が設けられている。即ち、図12の機能的構成を有する腕時計1では、画像表示に加えてさらに、オーディオ出力が可能とされている。
In the example of FIG. 12, the
ただし、本実施の形態では、オーディオ出力を可能とするために、中央演算部51のプログラム格納部62(図6)に、オーディオデータの生成の入力となる(元となる)各種のMIDI(Musical Instruments Digital Interface)データが格納され、かつ、各種MIDIデータを解析して、その解析結果に基づくオーディオデータの生成指令(以下、オーディオ生成指令と称する)をオーディオ生成部101に発行するための制御プログラムが格納されている。この制御プログラムは、MIDIデータを解析してオーディオ生成部101にオーディオ生成指令を出すための機能を少なくとも有していれば足り、MIDIシーケンサと呼ばれるタイプのプログラムであっても良いし、3DCG表示とオーディオ出力とを同時に制御できる(例えば同期再生制御ができる)専用プログラムであっても良い。なお、以下、他の制御プログラムと区別するために、各種MIDIデータを解析してオーディオ生成部101にオーディオ生成指令を出すための制御プログラムを、オーディオ出力用プログラムと称する。
However, in the present embodiment, in order to enable audio output, various MIDI (Musical) (input) audio data generation input (original) is input to the program storage unit 62 (FIG. 6) of the
詳細には、オーディオ生成部101は、図13に示されるようにサウンドエンジン部111とDA変換部112とから構成することができる。即ち、図13は、オーディオ生成部101の詳細な構成例を示している。
Specifically, the
サウンドエンジン部111は、中央演算部51からのオーディオ生成指令(指示)に従って、オーディオ出力部102から出力させる音に対応するオーディオデータ(デジタルデータ)を生成し、DA変換部112に提供する。DA変換部112は、そのオーディオデータに対してDA(Digital to Analog)変換処理を施し、その結果得られるアナログのオーディオデータ(オーディオ信号)を、オーディオ出力部102に転送する。
The
より詳細には、後述するように、中央演算部51の主制御部61は、所定のMIDIデータを読み込んで解析して、その解析結果に基づいて制御情報を生成して、その制御情報をオーディオ生成指令としてサウンドエンジン部111に出力する。
More specifically, as will be described later, the
サウンドエンジン部111は、例えば複数音を同時発話可能なシンセサイザとして構成されている場合には、発話用の波形データを複数個保持しており、中央演算部51からのオーディオ生成指令(制御情報)に基づき、複数の波形データの中から1以上を選択し、それらを組み合わせることにより、オーディオデータを生成する。
For example, when the
また、サウンドエンジン部111は、自身内部に予め格納されている発話用の波形データではなく、別の波形データを用いて、オーディオデータを生成することもできる。
The
具体的には例えば本実施の形態では、オーディオ出力用プログラムには複数の波形データが含まれており、そのオーディオ出力用プログラム(中央演算部51)が、複数の波形データのうちのいずれを使用するかを指定して、その指定内容を制御情報としてサウンドエンジン部111に出力するとする。
Specifically, for example, in the present embodiment, the audio output program includes a plurality of waveform data, and the audio output program (central processing unit 51) uses any of the plurality of waveform data. It is assumed that the specified content is output to the
なお、サウンドエンジン部111は、オーディオデータを生成する際、中央演算部51の作業用データ記憶部63(図6)にアクセスし、オーディオデータの生成に必要な暫定データ、処理のための演算の結果などを一時的に格納し、その処理を実行する。
When the
図12に戻り、オーディオ出力部102は、スピーカやヘッドフォンからなり、オーディオ生成部101により生成されたオーディオデータに対応する音を出力する。
Returning to FIG. 12, the
その他、図12の機能的構成例では、図5の機能的構成例と比較して、次のような差異がある。 In addition, the functional configuration example of FIG. 12 has the following differences compared to the functional configuration example of FIG.
即ち、電力供給部56は、中央演算部51乃至表示部54に加えてさらに、オーディオ生成部101とオーディオ出力部102とのそれぞれにも電源(電力)を供給する。
That is, the
また、図12の機能的構成を有する腕時計1のハードウエア構成は、図示はしないが、図2のハードウエア構成例に対してさらに、オーディオ生成部101およびオーディオ出力部102のそれぞれに対応するハードウエアブロック(モジュール)が設けられることになる。
The hardware configuration of the
次に、係る図12と図13の機能的構成を有する腕時計1の動作の幾つかの例、即ち、腕時計1を構成する各機能ブロックの処理の例について説明する。
Next, some examples of the operation of the
図12と図13の例でも、中央演算部51、時間管理部52、表示データ生成部53、および電力供給部56のそれぞれの処理は、基本的に、上述した図10、図9、図11、および、図8のそれぞれのフローチャートに従った処理となる。また、オーディオ生成部101の処理は、図14のフローチャートに従った処理となる。即ち、図14は、オーディオ生成部101の処理例を説明するフローチャートである。
12 and 13, the processes of the
ステップS81において、オーディオ生成部101は、電力供給部56からの電力供給が遮断されたか否かを判定する。
In step S <b> 81, the
ステップS81において、電力供給が遮断されたと判定された場合、オーディオ生成部101の処理は終了となる。
If it is determined in step S81 that the power supply has been cut off, the processing of the
これに対して、電力供給部56からの電力供給が継続されている限り、ステップS81において、電力供給が遮断されていないと常に判定されて、処理はステップS82に進む。
On the other hand, as long as the power supply from the
ステップS82において、オーディオ生成部101は、中央演算部51から指示(オーディオ生成指令)があったか否かを判定する。
In step S <b> 82, the
ステップS82において、中央演算部51から指示(オーディオ生成指令)がないと判定された場合、処理はステップS81に戻され、それ以降の処理が繰り返し実行される。即ち、電力供給部56からの電力供給が継続されている限り、オーディオ生成部101は、中央演算部51から指示(オーディオ生成指令)がなされるまで、ステップS81NO,S82NOのループ処理を繰り返し実行することで、待機状態を維持する。
If it is determined in step S82 that there is no instruction (audio generation command) from the
その後、中央演算部51に対して、ユーザ入力部55からの指令、または、時間管理部52からの指令がなされると、その結果、中央演算部51から指示(オーディオ生成指令)がオーディオ生成部101になされることになり、次のステップS82の処理でYESであると判定されて、処理はステップS83に進む。
Thereafter, when a command from the
即ち、ユーザ入力部55からの指令とは、ユーザがユーザ入力部55を利用して、明示的にオーディオ再生用の操作を行ったことにより発令される指令を言う。このユーザ入力部55からの指令がなされると、上述した図10のステップS42の処理でYESであると判定されて、ステップS44の処理の後、処理はステップS45に進む。
That is, the command from the
これに対して、時間管理部52からの指令とは、例えば、時報のように、決まった時刻(例えば毎時0分)にオーディオ再生指令を発令するような制御情報が時間管理部52に記憶されており、その制御情報が中央演算部51に提供されたことにより発令される指令を言う。その他、アラームのように、ユーザがユーザ入力部55を操作することで、特定の時間にオーディオ再生指令を発令するような設定を時間管理部52に施すことによって発令されるものも、時間管理部52からの指令となり得る。この時間管理部52からの指令がなされると、上述した図10のステップS43の処理でYESであると判定されて、処理はステップS45に進む。
On the other hand, the command from the
すると、中央演算部51は、ステップS45の処理でオーディオ出力用プログラムを実行プログラムとして選択して、ステップS46の処理の後、ステップS47の処理の一環として、オーディオ生成部101のサウンドエンジン部111(図13)にオーディオデータの生成の指示(制御情報の出力含む)の出力、即ち、オーディオ生成指令の発令を行う。
Then, the
より具体的には例えば、ステップS47において、中央演算部51は、所定のMIDIデータをプログラム格納部62から読み込む。その際、読み込まれるMIDIデータは、オーディオ出力用プログラムによって定められている場合と、ユーザの指定により決定される場合とがある。ユーザの指定により決定される場合、ユーザはユーザ入力部55(図12)を操作することで、使用するMIDIデータを指定する。いずれの場合でも、決定されたMIDIデータは、プログラム格納部62から作業用データ記憶部63に転送される。これにより、オーディオ出力用プログラム上でMIDIデータの使用が可能になる。
More specifically, for example, in step S47, the
このMIDIデータは、メッセージの種類を表すステイタスバイトと、実データを伝えるデータバイトとから構成されている。従って、MIDIデータを解析することで、音階情報、何の楽器が使われているか、どれくらいの強さで再生すればよいかなどの情報を得ることができる。そこで、主制御部51は、所定のMIDIデータを読み込み、それを解析して、その解析結果に基づいて制御情報を生成し、その制御情報をサウンドエンジン部111に提供することで、オーディオデータの生成の指示の出力、即ち、オーディオ生成指令の発令を行うことができる。
This MIDI data is composed of a status byte indicating the type of message and a data byte for transmitting actual data. Therefore, by analyzing the MIDI data, it is possible to obtain information such as scale information, what instrument is being used, and how strong it should be played. Therefore, the
これにより、オーディオ生成部101側の処理(図14)としては、次のステップS82の処理でYESであると判定されて、処理はステップS83に進むことになる。
Thereby, as a process (FIG. 14) by the side of the audio production |
ステップS83において、サウンドエンジン部111は、オーディオ生成指令に基づいて、デジタルのオーディオデータを随時生成し、DA変換部112に提供する。
In step S83, the
すると、DA変換部112は、ステップS84において、そのオーディオデータに対してDA変換処理を施し、ステップS85において、そのDA変換処理の結果得られるアナログのオーディオデータ(オーディオ信号)をオーディオ出力部102に転送する。
Then, in step S84, the
これにより、そのオーディオデータに対応する音が、オーディオ出力部102から出力される。
As a result, a sound corresponding to the audio data is output from the
その後、処理はステップS81に戻され、それ以降の処理が繰り返し実行される。 Thereafter, the process returns to step S81, and the subsequent processes are repeatedly executed.
このように、図12の機能的構成例を有する腕時計1は、オーディオ生成部101の処理等で説明した一連の処理を実行することにより、MIDIシンセサイザを実現することが可能になる。ここで言うMIDIシンセサイザとは、MIDIデータの再生のほか、腕時計1のアラーム機能等に使用することができるものである。
In this way, the
さらに、図12の機能的構成例を有する腕時計1は、図13のオーディオ生成部101のサウンドエンジン部111を用いず、DA変換部112のみを用いることで、MIDIデータから生成されるオーディオデータのみならず、あらかじめ外部で生成/準備されたオーディオデータ(例えば、waveファイル)を再生することも可能である。
Furthermore, the
また、図12の機能的構成例を有する腕時計1は、MP3やATRAC3などの圧縮オーディオデータも、中央演算部51のオーディオ出力用プログラムとして、圧縮データのデコード機能を用意して、その機能により圧縮状態をデコードすることで、通常のオーディオデータと同様に扱うことができるようになり、オーディオ出力部102から出力することが可能となる。
In addition, the
さらにまた、図12には図示はしないが、ブザーのようにオーディオ出力部102そのものを振動させることで生成するような音の場合は、オーディオ生成部101の機能を全く使用せず、中央演算部51からの指令を(オーディオ生成部101を通過させて)直接オーディオ出力部102に送り、音を生成させ出力することもできる。
Furthermore, although not shown in FIG. 12, in the case of a sound generated by vibrating the
ところで、腕時計1は、図12の機能的構成例を有することで、即ち、表示データ生成部53とオーディオ生成部101とをあわせ持つことにより、グラフィック出力(3DCG画像等の表示)とオーディオ出力とを連動させること、即ち、グラフィックとオーディオの同期出力が可能になる。
By the way, the
ただし、この場合、グラフィックとオーディオの同期出力を行うための制御プログラム(以下、画像音同期プログラムと称する)が、中央演算部51のプログラム格納部62(図6)に格納されている必要がある。
However, in this case, a control program (hereinafter referred to as an image sound synchronization program) for performing synchronous output of graphics and audio needs to be stored in the program storage unit 62 (FIG. 6) of the
図15は、この画像音同期プログラムにより実現される中央演算部51の処理(以下、グラフィックとオーディオの同期処理と称する)の一例を示すフローチャートである。即ち、この画像音同期プログラムが、上述した図10のステップ45の処理で実行プログラムとして選択されて、ステップS46の処理で転送されると、ステップS47の処理として、この図15のグラフィックとオーディオの同期処理が実行されることになる。 FIG. 15 is a flowchart showing an example of processing of the central processing unit 51 (hereinafter referred to as graphic and audio synchronization processing) realized by the image sound synchronization program. That is, when this image / sound synchronization program is selected as an execution program in the process of step 45 of FIG. 10 and transferred in the process of step S46, the graphic and audio of FIG. Synchronous processing will be executed.
ステップS101において、中央演算部51は、初期化を行う。
In step S101, the
ステップS102において、中央演算部51は、MIDIデータを解析する。即ち、上述した通り、中央演算部51は、ステップS102において、MIDIデータを解析することで、音階情報、何の楽器が使われているか、どれくらいの強さで再生すればよいかなどの各種情報を得ることができる。
In step S102, the
そこで、これらの各種情報を、表示データ生成部53が生成するグラフィックデータにも反映させることで、グラフィックとオーディオの同期出力が容易に可能になる。即ち、ステップS103において、中央演算部51は、ステップS102におけるMIDIデータの解析結果に基づいて、画像生成指令とオーディオ生成指令とのそれぞれを生成し、それぞれの指令を表示データ生成部53とオーディオ生成部101とのそれぞれに発行する。
Therefore, by reflecting these various types of information on the graphic data generated by the display
すると、表示データ生成部53は、上述した図11のステップS63,S64の処理を実行することで、グラフィック画像(3DCG画像等)を表示部54に表示させる。それとほぼ同時に、オーディオ生成部101は、上述した図14のステップS83乃至S85の処理を実行することで、グラフィック画像に対応する音をオーディオ出力部102から出力させる。このようにして、グラフィックとオーディオの同期出力が実現される。
Then, the display
なお、中央演算部51によるステップS103の処理、および、その処理に関連する表示データ生成部53とオーディオ生成部101との処理は、より正確には例えば次のような一連の処理となる。即ち、中央演算部51は、MIDIデータを短い単位で解析し、表示データ生成部53とオーディオ生成部101とのそれぞれに生成指令を出す。次に、中央演算部51は、表示データ生成部53とオーディオ生成部101との両方から生成完了の通知が来たところで、表示データ生成部53とオーディオ生成部101とのそれぞれにデータ出力指令を出す。すると、表示データ生成部53とオーディオ生成部101とのそれぞれは、このデータ出力指令を受けて、表示部54とオーディオ出力部102とのそれぞれに対応するデータを出力する。その結果、表示データ生成部53の出力データに対応するグラフィック画像(3DCG画像等)が表示部54に表示され、かつ、オーディオデータ生成部101の出力データに対応する音がオーディオ出力部102から出力される。以上の一連の処理が非常に短い単位毎に実行されるため、グラフィックとオーディオの同期が実現されるのである。
Note that the processing of step S103 by the
ステップS104において、中央演算部51は、MIDIデータの解析が終了したか否かを判定する。
In step S104, the
MIDIデータの解析がまだ終了していない場合には、ステップS104においてNOであると判定されて、処理はステップS102に戻され、それ以降の処理が繰り返し実行される。 If the analysis of the MIDI data has not been completed yet, it is determined NO in step S104, the process returns to step S102, and the subsequent processes are repeatedly executed.
そして、MIDIデータの解析が終了すると、ステップS104においてYESであると判定されて、グラフィックとオーディオの同期処理は終了となる。 When the analysis of the MIDI data ends, it is determined as YES in step S104, and the graphic and audio synchronization processing ends.
以上説明したように、ステップS102の解析結果、即ち、音階情報、何の楽器が使われているか、どれくらいの強さで再生すればよいかなどの情報を、表示データ生成部53が生成するグラフィックデータに反映させることで、グラフィックとオーディオの同期出力が容易に可能になる。
As described above, the graphic data generated by the display
このときの反映のさせ方は、画像音同期プログラムとして、どのような制御プログラムを中央演算部51のプログラム格納部62(図6)に格納させておくのかによって、如何様にでもなる。以下、2つの異なる反映のさせ方を行う画像音同期プログラムの2つの例についてそれぞれ説明する。
The way of reflection at this time depends on what kind of control program is stored in the program storage unit 62 (FIG. 6) of the
1つ目の例は、ピアノのグラフィック画像と、そのピアノの鍵盤の音とを同期出力するための画像音同期プログラムの例である。 The first example is an example of an image sound synchronization program for synchronously outputting a piano graphic image and the sound of the piano keyboard.
1つ目の例では、例えば、ピアノのグラフィックデータを用意し、音程とCGピアノの鍵盤とを連動させるとする。具体的には例えば、ピアノの鍵盤のそれぞれの鍵に対し、押されている状態と押されていない状態のグラフィックデータがそれぞれ予め用意されているとする。 In the first example, for example, it is assumed that piano graphic data is prepared and a pitch and a CG piano keyboard are linked. Specifically, for example, it is assumed that graphic data of a pressed state and a non-pressed state are prepared in advance for each key of a piano keyboard.
この場合、ステップS102の処理で、画像音同期プログラム(中央演算部51)は、MIDIデータのうちの、とある長さの分のデータだけを解析することで、各時点でそれぞれの音がONであるのかOFFであるのかを示す情報(以下、ピアノの鍵盤情報と称する)を得る。 In this case, in the process of step S102, the image sound synchronization program (central processing unit 51) analyzes only the data for a certain length of the MIDI data, so that each sound is turned on at each time point. Or information indicating whether it is OFF (hereinafter referred to as piano keyboard information).
次に、ステップS103の処理で、画像音同期プログラムは、MIDIデータの音階に関する情報と使用する楽器(音色)の指定とをオーディオ生成指令として、サウンドエンジン部111(図13)に送り、また、ピアノの鍵盤情報を画像生成指令として、3Dグラフィックスエンジン部71(図7)に送る。 Next, in the process of step S103, the image / sound synchronization program sends the information about the scale of the MIDI data and the designation of the musical instrument (tone) to be used to the sound engine unit 111 (FIG. 13) as an audio generation command. The piano keyboard information is sent as an image generation command to the 3D graphics engine unit 71 (FIG. 7).
サウンドエンジン部111は、オーディオ生成指令に基づいて、オーディオデータを生成し、DA変換部112(図13)を介して、オーディオ出力部102(図12)に出力する。すると、オーディオ出力部102は、そのオーディオデータに対応する音、即ち、ピアノの鍵盤の音を出力する。
The
このときほぼ同時に、3Dグラフィックスエンジン部71は、画像生成指令に基づいて、グラフィックデータを生成し、LCDコントロール部72(図7)を介して表示部54(図12)に出力する。すると、表示部54は、グラフィックデータに対応するグラフィック画像、即ち、ピアノの鍵盤のそれぞれの鍵が、出力されている音に応じて押されている状態または押されていない状態となっているグラフィック画像を表示する。
At substantially the same time, the 3D
以上の一連の処理が、MIDIデータの最後まで、また、プログラムの終了条件を満たすまで繰り返し実行される。 The above series of processing is repeatedly executed until the end of the MIDI data and until the end condition of the program is satisfied.
これにより、自動演奏ピアノのように、曲と連動して鍵盤を動かすグラフィック画像を表示することが可能になる。また、MIDIデータから曲の始まりと終わりのタイミングを取得し、曲が始まる前に鍵盤のふたを開けたり、曲が終わった後に鍵盤のふたを閉じたりするような表示も可能である。 This makes it possible to display a graphic image that moves the keyboard in conjunction with the music like an automatic performance piano. It is also possible to obtain the timing of the beginning and end of the song from the MIDI data, and display the keyboard lid before the song starts, or close the keyboard lid after the song ends.
このような1つ目の例に対して、2つ目の例は、音の強さとグラフィック画像を同期させることが可能な画像音同期プログラムの例である。 In contrast to the first example, the second example is an example of an image / sound synchronization program that can synchronize sound intensity with a graphic image.
2つ目の例では、楽隊キャラクタを用意し、MIDIデータと連動してキャラクタの動きを制御するとする。具体的には例えば、使用する楽隊キャラクタのグラフィックデータが予め用意されているとする。また、画像音同期プログラム内で、キャラクタとトラック(どの楽器か)の対応付けがなされているとする。また、MIDIデータの各トラックのステイタスバイトには、楽器に対応してそれぞれの音の強さの情報が書かれているとする。 In the second example, a band character is prepared and the movement of the character is controlled in conjunction with the MIDI data. Specifically, for example, it is assumed that graphic data of a band character to be used is prepared in advance. Further, it is assumed that the character and the track (which instrument) are associated in the image / sound synchronization program. In addition, it is assumed that information on the intensity of each sound is written in the status byte of each track of the MIDI data corresponding to the musical instrument.
この場合、ステップS102の処理で、画像音同期プログラム(中央演算部51)は、MIDIデータを解析することで、各時点での音の強さの情報(以下、音強情報と称する)を得る。 In this case, in the process of step S102, the image sound synchronization program (central processing unit 51) obtains sound intensity information at each time point (hereinafter referred to as sound intensity information) by analyzing the MIDI data. .
次に、ステップS103の処理で、画像音同期プログラムは、オーディオ生成指令をサウンドエンジン部111(図13)に送り、また、音強情報を画像生成指令として3Dグラフィックスエンジン部71(図7)に送る。 Next, in the process of step S103, the image sound synchronization program sends an audio generation command to the sound engine unit 111 (FIG. 13), and uses the sound intensity information as an image generation command to generate the 3D graphics engine unit 71 (FIG. 7). Send to.
サウンドエンジン部111は、オーディオ生成指令に基づいてオーディオデータを生成し、DA変換部112(図13)を介してオーディオ出力部102(図12)に出力する。すると、オーディオ出力部102は、そのオーディオデータに対応する音、即ち、楽隊キャラクタが演奏している音楽を出力する。
The
このときほぼ同時に、3Dグラフィックスエンジン部71は、画像生成指令に基づいてグラフィックデータを生成し、LCDコントロール部72(図7)を介して表示部54(図12)に出力する。すると、表示部54は、グラフィックデータに対応するグラフィック画像、即ち、音の強さに応じた動作をしている楽隊キャラクタのグラフィック画像を表示する。
At substantially the same time, the 3D
以上の一連の処理が、MIDIデータの最後まで、また、プログラムの終了条件を満たすまで繰り返し実行される。 The above series of processing is repeatedly executed until the end of the MIDI data and until the end condition of the program is satisfied.
これにより、あたかも楽隊キャラクタが音楽を演奏しているかの様に、MIDIデータ(楽隊キャラクタが演奏している音楽)と同期した楽隊キャラクタのアクションを伴うグラフィック画像、具体的には例えば、体や楽器をふったり、体を回転させたり、マイクを掴んだりなどのアクションを伴うグラフィック画像の表示が可能になる。 As a result, as if the band character is playing music, a graphic image accompanied by the action of the band character synchronized with the MIDI data (music played by the band character), specifically, for example, a body or instrument It is possible to display graphic images with actions such as touching the screen, rotating the body, and holding the microphone.
このようにして、グラフィック出力(3DCG画像の表示)とオーディオ出力とを連動させる(同期させる)ことにより、より一段とエンタテインメント性の高いMIDIプレーヤを実現したり、音と連動してグラフィック画像が動くアラーム機能を実現したりすることが容易に可能になる。 In this way, the graphic output (3DCG image display) and the audio output are linked (synchronized) to realize a more highly entertaining MIDI player, or an alarm that moves the graphic image in conjunction with sound. It is possible to easily realize functions.
ところで、上述した図12の機能的構成を有する腕時計1に対して、音声合成プログラムを追加することで、グラフィック画像と合成音声とを同期させて出力することが可能になる。
By the way, by adding a speech synthesis program to the
即ち、表示用のグラフィックデータの生成処理を実行するための上述した制御プログラム(3DCGプログラム)や、上述したオーディオ出力用プログラムに加えてさらに(或いは何れかの一部の追加機能として)、音声合成プログラムをプログラム格納部62(図6)に格納させることで、グラフィック画像と合成音声とを同期させて出力することが可能になる。 That is, in addition to the above-described control program (3DCG program) for executing processing for generating graphic data for display and the above-described audio output program (or as some additional functions), speech synthesis By storing the program in the program storage unit 62 (FIG. 6), it is possible to output the graphic image and the synthesized sound in synchronization.
ここで、音声合成プログラムについて説明する。 Here, the speech synthesis program will be described.
音声合成プログラムとは、音声合成処理を実現させるプログラムである。音声合成処理とは、任意の入力テキスト(テキストデータ)に対し、リアルタイムで音声波形を合成する処理を言い、一般的には、図16に示されるように、テキスト解析処理Sa、韻律生成処理Sb、および、波形生成処理Scの3つの処理に大別される。即ち、図16は、音声合成処理を説明する図である。 The speech synthesis program is a program that realizes speech synthesis processing. The speech synthesis process is a process for synthesizing a speech waveform in real time with respect to an arbitrary input text (text data). Generally, as shown in FIG. 16, a text analysis process Sa and a prosody generation process Sb are performed. And the waveform generation process Sc. That is, FIG. 16 is a diagram for explaining speech synthesis processing.
テキスト解析処理Saとは、入力されたテキストデータを解析し、音声化に必要な「読み」の情報を生成する処理を言う。具体的には、テキストデータに含まれるテキストを、文法や単語辞書に基づいて1以上の単語に分割し、1以上の単語のそれぞれについて、発音、アクセントの位置、アクセントのパターン、品詞などの各種情報を取得し、それらの各種情報から、文としてのイントネーションやポーズ位置(フレーズ区切り)を決定する処理が、テキスト解析処理Saである。 The text analysis process Sa is a process of analyzing input text data and generating “reading” information necessary for voice conversion. Specifically, the text included in the text data is divided into one or more words based on the grammar and word dictionary, and for each of the one or more words, various pronunciations, accent positions, accent patterns, parts of speech, etc. The text analysis process Sa is a process for acquiring information and determining intonation and pause positions (phrase breaks) as sentences from the various information.
通常、テキスト解析処理Saの結果は、発音記号と制御記号の並びによって表現される。この発音記号と制御記号の並びは、音声記号列や読み記号などと称されている。本明細書では、図16の記載に併せて、音声記号列という名称を使用する。 Usually, the result of the text analysis process Sa is expressed by a sequence of phonetic symbols and control symbols. This arrangement of phonetic symbols and control symbols is called a phonetic symbol string or a reading symbol. In this specification, the name of a phonetic symbol string is used in conjunction with the description of FIG.
音声記号列のうちの、発音記号の例としては、IPA(International Phonetic Alphabet)やSAMPAなどが、また、制御記号の例としては、ToBI(Tone and Break Indeces)などが、それぞれよく知られている。 Of phonetic symbol strings, IPA (International Phonetic Alphabet) and SAMPA are well known examples of phonetic symbols, and ToBI (Tone and Break Indeces) are well known examples of control symbols. .
具体的には例えば、図17に示されるテキストデータが入力された場合には、テキスト解析処理Saにより、図18に示される音声記号列が生成される。 Specifically, for example, when the text data shown in FIG. 17 is input, the phonetic symbol string shown in FIG. 18 is generated by the text analysis processing Sa.
韻律生成処理Sbとは、テキスト解析処理Saの結果である音声記号列に基づいて、それぞれの音素(phone)の継続時間長、基本周波数(ピッチ)、強さ等を決定し、その決定結果に基づいて、プロソディデータ(Prosody Data:ただし、以下においては、図16の記載に併せて韻律データと称する)を生成する処理のことを言う。具体的には例えば、韻律生成処理Sbにより、図18に示される音声記号列に基づいて、韻律データ(そのうちの一部が図19に示されている)が生成される。韻律生成処理Sbは、統計的なデータを用いて行われることも、所定のルールを用いて行われることも、また、それらの組み合わせによって行われることもある。 The prosody generation process Sb determines the duration, basic frequency (pitch), strength, etc. of each phoneme (phone) based on the phonetic symbol string that is the result of the text analysis process Sa. Based on this, it means a process of generating Prosody Data (hereinafter referred to as prosodic data together with the description of FIG. 16). Specifically, for example, prosody data (a part of which is shown in FIG. 19) is generated by the prosody generation process Sb based on the phonetic symbol string shown in FIG. The prosody generation process Sb may be performed using statistical data, may be performed using a predetermined rule, or may be performed by a combination thereof.
韻律生成処理Sbは、通常1種類の「ニュートラル」なイントネーションを生成するが、音声記号列に加え、韻律の生成係数を変更するような指定をすることで、異なる韻律を生成することもできる。それにより、感情や「キャラクタ」性を表現することも可能になる。 The prosody generation process Sb normally generates one type of “neutral” intonation, but it is also possible to generate different prosody by specifying the prosody generation coefficient to be changed in addition to the phonetic symbol string. This makes it possible to express emotions and “character” characteristics.
波形生成処理Scとは、韻律データに基づいて、実際の音声波形を生成する処理を言う。波形生成処理Scを実現するための手法としては、予め用意されている波形データベースの中から、音素の並びや強さなどに基づいて適切な波形データを選択し、選択した波形データを韻律データで指定された継続時間長やピッチに従ってつないでき、波形を生成する波形重畳手法や、波形データの代わりに波形を合成するためのパラメータを保持しておき、パラメータを設定することで、音声波形を合成するパラメータ合成手法(フォルマント合成手法と称される場合もある)等、様々な手法が存在する。 The waveform generation process Sc is a process for generating an actual speech waveform based on the prosodic data. As a method for realizing the waveform generation process Sc, appropriate waveform data is selected from a waveform database prepared in advance based on the arrangement and strength of phonemes, and the selected waveform data is converted into prosodic data. It can be connected according to the specified duration and pitch, holds the waveform superposition method for generating the waveform and the parameters for synthesizing the waveform instead of the waveform data, and synthesizes the audio waveform by setting the parameter There are various methods such as a parameter synthesis method (sometimes referred to as a formant synthesis method).
さらに、パラメータ合成手法の場合、合成用パラメータを変化させることにより、異なる声色を生成可能であるので、音声記号列とは別に合成用パラメータを指定することで合成音の声色を変えることも可能となる。 Furthermore, in the case of the parameter synthesis method, it is possible to generate different voice colors by changing the parameters for synthesis, so it is possible to change the voice color of the synthesized sound by specifying the parameters for synthesis separately from the speech symbol string Become.
また、声色を指定する合成用パラメータと韻律データに変更を加える情報とを1つにまとめて、ボイスキャラクタなどのデータとして表現することもできる。 Also, the synthesis parameters for specifying the voice color and the information for changing the prosody data can be combined into one and expressed as data such as a voice character.
以上説明したように、音声合成処理は、テキスト解析処理Sa、韻律生成処理Sb、および波形生成処理Scといった3つの処理からなる。ただし、その用途、利用可能なメモリリソース、プロセッサの処理能力等の前提事項によって、3つの処理全てを使用する場合がある他、外のツールなどを用いて音声記号列や韻律データを予め用意しておき、韻律生成処理Sbと波形生成処理Scとを使用する場合や、波形生成処理Scのみを使用する場合もある。 As described above, the speech synthesis process includes three processes, the text analysis process Sa, the prosody generation process Sb, and the waveform generation process Sc. However, depending on assumptions such as its use, available memory resources, and processing power of the processor, all three processes may be used, and phonetic symbol strings and prosodic data are prepared in advance using other tools. In some cases, the prosody generation process Sb and the waveform generation process Sc are used, or only the waveform generation process Sc is used.
ここでは、韻律生成処理Sbと波形生成処理Scを使用する場合おける音声合成プログラムが、プログラム格納部62(図6)に格納されている例について説明する。この例では、韻律生成処理Sbにとっての入力データとなる各種音声記号列も、プログラム格納部62に予め格納されているとする。
Here, an example will be described in which the speech synthesis program when using the prosody generation processing Sb and the waveform generation processing Sc is stored in the program storage unit 62 (FIG. 6). In this example, it is assumed that various phonetic symbol strings serving as input data for the prosody generation processing Sb are also stored in the
図20は、このような音声合成プログラムにより実現される、韻律生成処理Sbと波形生成処理Scを使用する場合の音声合成処理の一例を示すフローチャートである。 FIG. 20 is a flowchart showing an example of a speech synthesis process when using the prosody generation process Sb and the waveform generation process Sc, realized by such a speech synthesis program.
即ち、この音声合成プログラムが、上述した図10のステップ45の処理で実行プログラムとして選択されて、ステップS46の処理で転送されると、ステップS47の処理として、この図20の音声合成処理が実行されることになる。 That is, when this speech synthesis program is selected as an execution program in the process of step 45 of FIG. 10 described above and transferred in the process of step S46, the speech synthesis process of FIG. 20 is executed as the process of step S47. Will be.
ステップS121において、中央演算部51は、初期化を行う。
In step S121, the
ステップS122において、中央演算部51は、プログラム格納部62に格納されている所定の音声記号列を入力する。
In step S122, the
ステップS123において、中央演算部51は、ステップS122の処理で入力された音声記号列についての韻律生成処理Sb(図16)を実行する。このステップS123の韻律生成処理Sbにより韻律データが生成されると、処理はステップS124に進む。
In step S123, the
ステップS124において、中央演算部51は、ステップS123の韻律生成処理Sbの結果として生成された韻律データに対して波形生成処理Sc(図16)を施す。なお、波形生成処理Scの詳細例については図21を参照して後述する。
In step S124, the
このステップS124の波形生成処理Scにより生成された音声波形(デジタルデータ)がオーディオ生成部101(図12)に供給されると、音声合成処理は終了となる。 When the voice waveform (digital data) generated by the waveform generation process Sc in step S124 is supplied to the audio generation unit 101 (FIG. 12), the voice synthesis process ends.
この音声波形は、サウンドエンジン部111(図13)を介して(或いは介さずに直接)DA変換部112に供給される。DA変換部112は、サウンドエンジン部111によって生成(合成)される通常のオーディオデータと同様に、音声波形(デジタルデータ)に対してDA変換処理を施し、その結果得られるアナログデータ(音声信号)をオーディオ出力部102に提供する。これにより、音声波形に対応する合成音声がオーディオ出力部102から出力される。
This sound waveform is supplied to the
具体的には例えば、次のような音声合成処理を実行することで、時刻データを表示するのみならず、時刻データを合成音声で出力する(読み上げる)ことが可能になる。 Specifically, for example, by executing the following speech synthesis process, it is possible not only to display time data but also to output (read out) the time data as synthesized speech.
この場合、読み上げるタイミングは、ユーザからのインタラクションをトリガにしても良いし、毎時0分やアラーム時刻など指定された時刻をトリガにしても良い。前者のトリガが採用された場合には、上述した図10のステップS42の処理でYESであると判定され、ステップS44とS45の処理の後、処理はステップS46に進む。これに対して、後者のトリガが採用された場合には、ステップS43の処理でYESであると判定され、ステップS45の処理の後、処理はステップS46に進む。 In this case, the read-out timing may be triggered by an interaction from the user, or may be triggered by a designated time such as 0 minutes per hour or an alarm time. When the former trigger is adopted, it is determined as YES in the process of step S42 of FIG. 10 described above, and after the processes of steps S44 and S45, the process proceeds to step S46. On the other hand, when the latter trigger is adopted, it is determined as YES in the process of step S43, and after the process of step S45, the process proceeds to step S46.
このようにして何れのトリガが採用された場合であっても、上述した音声合成プログラムが、ステップ45の処理で実行プログラムとして選択されて、ステップS46の処理で転送されると、ステップS47の処理として、上述した図20の音声合成処理が実行されることになる。 Regardless of which trigger is employed in this way, when the above-described speech synthesis program is selected as the execution program in the process of step 45 and transferred in the process of step S46, the process of step S47 is performed. As described above, the speech synthesis process of FIG. 20 described above is executed.
なお、ここでは、上述したトリガが与えられた時点で、中央演算部51は、時刻情報提供リクエストを時間管理部52(図5)に対して発行するとする。この場合、上述したように、時間管理部52は、この時刻情報提供リクエストを受けて(図9のステップS25YES)、時刻情報を中央演算部51に出力してくる(ステップS26)。そこで、中央演算部51は、その時刻情報を作業用データ記憶部63(図6)に記憶させる。即ち、ここでは、音声合成処理の開始時点で、時刻情報が作業用データ記憶部63に予め記憶されているとする。
Here, it is assumed that the
この場合、ステップS121の処理の後、ステップS122の処理では、その時刻情報で特定される時刻に対応する音声記号列が入力される。 In this case, after the process of step S121, in the process of step S122, a phonetic symbol string corresponding to the time specified by the time information is input.
なお、ここで使用される音声記号列は、全ての時刻に対応する音声記号列をあらかじめ腕時計1の外部で生成し、中央演算部51のプログラム格納部62に格納しておき、その中から特定された時刻に対応する音声記号列を選択して用いても良いし、0時から23時、00分から59分、00秒から59秒に対応する部分的な音声記号列とそれぞれを組み合わせるための制御情報をあらかじめ腕時計1の外部で生成、準備し、中央演算部51のプログラム格納部62に格納しておき、特定された時刻になるように部分的な音声記号列を組み合わせ、特定された時刻に対応する音声記号列を作成し、使用するようにしても良い。
Note that the phonetic symbol strings used here are generated in advance outside the
どのような状態で時刻に対応する音声記号列を保持しておくかは、腕時計1にどれだけの容量のプログラム格納部62を具備するか、またどれだけの処理能力のCPU(図2の例ではCPU21)を具備するか、どういった方針でシステムを構築するかなど、個々の腕時計1の設計に依存するものである。なお、ここでは、必要な音声記号列が全てプログラム格納部62に格納されているとする。
The state in which the phonetic symbol string corresponding to the time is retained depends on how much capacity the
ステップS123とステップS124の処理では、入力された音声記号列に従って音声波形(合成音声)が生成される。 In the processes of steps S123 and S124, a speech waveform (synthesized speech) is generated according to the input speech symbol string.
すると、その音声波形に対応する合成音声がオーディオ出力部102から出力される。即ち、トリガが与えられた時点の時刻が合成音声で出力される。
Then, the synthesized speech corresponding to the speech waveform is output from the
ここで、図21を参照して、ステップS124の波形生成処理Scの詳細例について説明する。 Here, with reference to FIG. 21, a detailed example of the waveform generation process Sc in step S124 will be described.
ステップS141において、中央演算部51は、韻律データを解析する。
In step S141, the
ステップS142において、中央演算部51は、ステップS141の処理結果に基づいて、即ち、韻律データの解析結果に基づいて、パラメータを生成する。
In step S142, the
ステップS143において、中央演算部51は、ステップS142の処理で生成されたパラメータに基づいて、音声波形の組み立てを行う。
In step S143, the
このステップS143の処理結果である音声波形がオーディオ生成部101(図12)に供給されると、波形生成処理は終了となる。即ち、図20のステップS124が終了し、音声合成処理自体も終了となる。 When the speech waveform that is the processing result of step S143 is supplied to the audio generation unit 101 (FIG. 12), the waveform generation processing ends. That is, step S124 in FIG. 20 ends, and the speech synthesis process itself ends.
ところで、腕時計1は、図12の機能的構成例を有することで、即ち、表示データ生成部53とオーディオ生成部101とをあわせ持つことにより、上述したグラフィックとオーディオの同期出力と全く同様に、MIDIデータに基づく音以外の所定の音声についても、グラフィック画像と連動させて出力すること、即ち、その所定の音声とグラフィックとの同期出力も可能になる。
By the way, the
この場合、所定の音声として、例えば予め録音された音声を使用することができる。ただし、予め録音された音声を使用するときには、予め録音された各音声のそれぞれにあわせて、グラフィック画像の遷移を細かくプログラムしておく必要がある。そのため、例えばグラフィック画像にキャラクタ等が含まれており、そのキャラクタ等の口の動きと、予め録音された音声との同期を取る必要がある場合、異なるいくつもの音声に対応させるためには、それぞれの音声について、対応する口の動きの遷移を行う一連のグラフィックデータ(プログラム)を用意しなければならなない。さらに、音声の内容を変更するたびにグラフィックデータ(プログラム)も作り直す必要がある。その結果、予め録音された音声を使用すると、非常に手間がかかることになる。 In this case, for example, a pre-recorded voice can be used as the predetermined voice. However, when using pre-recorded sound, it is necessary to program the transition of the graphic image in detail in accordance with each pre-recorded sound. Therefore, for example, when a graphic image includes a character or the like, and it is necessary to synchronize the movement of the mouth of the character or the like with a pre-recorded sound, A series of graphic data (programs) for performing transition of the corresponding mouth movement must be prepared. Furthermore, it is necessary to recreate graphic data (program) every time the audio content is changed. As a result, using pre-recorded audio is very time consuming.
そこで、所定の音声として、音声合成処理によって生成される合成音声を使用することで、韻律データとグラフィックデータとの同期を容易に取ることができ、その結果、このような手間を省くことが可能になる。 Therefore, synthesizing prosodic data and graphic data can be easily achieved by using synthesized speech generated by speech synthesis processing as the predetermined speech, and as a result, it is possible to save such trouble. become.
ただし、この場合、音声合成処理によって生成される合成音声と、グラフィックとの同期出力を行うための制御プログラム、即ち、画像音同期プログラムが、中央演算部51のプログラム格納部62(図6)に格納されている必要がある。
However, in this case, a control program for performing synchronized output between the synthesized speech generated by the speech synthesis processing and the graphic, that is, the image sound synchronization program is stored in the program storage unit 62 (FIG. 6) of the
なお、ここでは、この画像音同期プログラムは、波形生成処理Scだけを使用する音声合成処理を行い、波形生成処理Scにとっての入力データとなる各種韻律データも、プログラム格納部62に予め格納されているとする。
Here, this image sound synchronization program performs a speech synthesis process using only the waveform generation process Sc, and various prosodic data serving as input data for the waveform generation process Sc are also stored in the
図22は、この画像音同期プログラムにより実現される中央演算部51の処理(以下、グラフィックと合成音声の同期処理と称する)の一例を示すフローチャートである。即ち、この画像音同期プログラムが、上述した図10のステップ45の処理で実行プログラムとして選択されて、ステップS46の処理で転送されると、ステップS47の処理として、この図22のグラフィックと合成音声の同期処理が実行されることになる。 FIG. 22 is a flowchart showing an example of processing of the central processing unit 51 (hereinafter referred to as graphic and synthesized sound synchronization processing) realized by the image sound synchronization program. That is, when this image sound synchronization program is selected as an execution program in the process of step 45 of FIG. 10 described above and transferred in the process of step S46, the graphic of FIG. The synchronization process is executed.
ステップS161において、中央演算部51は、初期化を行う。
In step S161, the
ステップS162において、中央演算部51は、韻律データを解析する。
In step S162, the
ステップS163において、中央演算部51は、ステップS162の処理結果、即ち、韻律データの解析結果に基づいて画像生成指令を生成し、表示データ生成部53に発行する。
In step S163, the
ステップS164において、中央演算部51は、ステップS162の処理結果、即ち、韻律データの解析結果に基づいて、パラメータを生成する。
In step S164, the
なお、後述するボイスキャラクタパラメータを用いて、声色を変更する場合、このステップS164の処理過程で次のような処理が必要となる。即ち、中央演算部51は、パラメータ変更制御指令が記載されたボイスキャラクタパラメータを読み込み、ボイスキャラクタパラメータの指定に従って音声波形組み立て用のパラメータを生成するといった処理が、ステップS164の処理過程で必要となる。
Note that when the voice color is changed using a voice character parameter, which will be described later, the following process is required in the process of step S164. That is, the
ステップS165において、中央演算部51は、ステップS164の処理で生成されたパラメータに基づいて、音声波形の組み立てを行う。
In step S165, the
このステップS165の処理により生成された音声波形(デジタルデータ)は、サウンドエンジン部111(図13)を介して(或いは介さずに直接)DA変換部112に供給される。DA変換部112は、上述したように、音声波形(デジタルデータ)に対してDA変換処理を施し、その結果得られるアナログデータ(音声信号)をオーディオ出力部102に提供する。これにより、音声波形に対応する合成音声がオーディオ出力部102から出力される。
The audio waveform (digital data) generated by the process of step S165 is supplied to the
このときほぼ同時に、表示データ生成部53は、ステップS163の処理で発行された画像生成指令に基づいて、上述したように、オーディオ出力部102から出力される合成音声に対応するグラフィック画像(3DCG画像等)を表示部54に表示させる。
At substantially the same time, the display
このようにして、グラフィックと合成音声との同期が実現される。 In this way, synchronization between the graphic and the synthesized sound is realized.
なお、図22のグラフィックと合成音声の同期処理においても、図15のグラフィックと合成音声の同期処理のステップS103の説明後になお書きで説明したのと同様に、より正確には、中央演算部51から、先ず、グラフィックと合成音声のそれぞれの処理に対して生成要求が出され、その後、それぞれの処理から終了通知があった時点で、出力要求が出されることで、グラフィックと合成音声との同期が実現されることになる。
In the graphic and synthesized speech synchronization processing of FIG. 22 as well, the
ステップS166において、中央演算部51は、韻律データの解析を終了したか否かを判定する。
In step S166, the
ステップS166において、韻律データの解析がまだ終了していないと判定された場合には、処理はステップS162に戻され、それ以降の処理が繰り返し実行される。 If it is determined in step S166 that the prosodic data analysis has not been completed yet, the process returns to step S162, and the subsequent processes are repeatedly executed.
その後、ステップS166において、韻律データの解析が終了したと判定された場合には、グラフィックと合成音声の同期処理は終了となる。 Thereafter, if it is determined in step S166 that the analysis of prosodic data has been completed, the synchronization processing between the graphic and the synthesized speech is completed.
具体的には例えば、いわゆる口パク(キャラクタ等の口の動きと音声の同期)を実現する場合には、次のようなグラフィックと合成音声の同期処理が実行される。 Specifically, for example, in the case of realizing a so-called mouth pack (synchronization of the movement of the mouth of a character or the like and sound), the following graphic and synthetic sound synchronization processing is executed.
ただし、この場合には、韻律データで使われるすべての音素に対し、顔(特に口の周辺の形)のグラフィック画像に対応するグラフィックデータが予め用意されているとする。 However, in this case, it is assumed that graphic data corresponding to the graphic image of the face (particularly the shape around the mouth) is prepared in advance for all phonemes used in the prosodic data.
ステップS161の処理で初期化が行われた後、ステップS162の処理では、キャラクタ等がこれから発声する音声に対応する韻律データが解析される。例えば、解析対象の韻律データについては、その継続時間長をもとに、動作開始から何秒後にどの音素を発声するか等のタイミングが演算(解析)される。 After initialization is performed in step S161, in step S162, prosodic data corresponding to the voice to be uttered by the character or the like is analyzed. For example, for the prosodic data to be analyzed, the timing of how many phonemes are to be uttered after the start of the operation is calculated (analyzed) based on the duration time.
ステップS162の処理で、各音素の発声タイミングのそれぞれに、その音素に対応する顔のグラフィック画像を表示させることを指示する画像生成指令が生成され、表示データ生成部53に発行される。
In the process of step S162, an image generation command for instructing to display a graphic image of a face corresponding to each phoneme is generated at each utterance timing of each phoneme and issued to the display
また、ステップS164とS165の処理で、ステップS162の処理で解析された各タイミングのそれぞれに対応する音素が発声されるように、適宜必要な音声波形が生成される。 In addition, in the processes in steps S164 and S165, necessary speech waveforms are generated as appropriate so that phonemes corresponding to the respective timings analyzed in the process in step S162 are uttered.
これにより、ステップS162の処理で解析された各タイミングのそれぞれに対応する音素がオーディオ出力部102から順次出力される。また、各音素の発声タイミングのそれぞれにおいては、対応する顔のグラフィック画像が表示部54に表示され、その間においては、上述したモーフィングにより、キャラクタの顔(特に口)が徐々に変形していくようなグラフィック画像(動画像)が表示部54に表示される。
Thus, phonemes corresponding to the respective timings analyzed in the process of step S162 are sequentially output from the
このようにして、合成音声(合成処理により生成された音声)と、グラフィックとの同期を実現することが可能になる。 In this way, it is possible to realize synchronization between the synthesized speech (sound generated by the synthesis process) and the graphic.
従って、このようなグラフィックと合成音声の同期処理を実行することで、上述した時刻の音声出力と所定のグラフィック画像(3DCG画像等)とを同期させること、換言すると、グラフィックと連動させて、時刻を音声出力することも容易に可能になる。具体的には例えば、腕時計1の中のキャラクタ(バーチャル秘書など)があたかも時刻を読み上げているように見せることが容易に可能になる。
Accordingly, by executing such a graphic and synthetic audio synchronization process, the audio output at the above-described time is synchronized with a predetermined graphic image (3DCG image or the like), in other words, in synchronization with the graphic, Can be easily output as a voice. Specifically, for example, it is possible to easily make a character (such as a virtual secretary) in the
同様にして、音声出力の内容を時刻情報(時刻)によって変えるのではなく、予めメニューの項目に対応する音声記号列または韻律データを用意しておくことで、メニューを読み上げたり、アプリケーションによって異なる内容を読み上げたりすることも容易に可能になる。 Similarly, the contents of audio output are not changed according to the time information (time), but by preparing a phonetic symbol string or prosodic data corresponding to the menu items in advance, the menu is read out, or the contents differ depending on the application. Can be read aloud easily.
さらに、アプリケーションや読み上げる内容に応じて、異なるボイスキャラクタを指定し、異なる声色や感情、ボイスキャラクタで読み上げることも容易に可能になる。 Furthermore, it is possible to easily specify different voice characters according to the application and contents to be read out and read out with different voice colors, emotions, and voice characters.
なお、グラフィックと合成音声の同期処理は、図22の例に限定されず、様々な処理を適用することが可能である。例えば、画像音声同期プログラムの処理の最初に韻律生成処理Sbを備え、入力として音声記号列を受け、画像音声同期プログラムの中で韻律データを生成したのち、図22のS162以降の一連の処理を行うことによっても、グラフィックと合成音声の同期処理は実現可能である。 Note that the graphic and synthetic audio synchronization processing is not limited to the example of FIG. 22, and various processing can be applied. For example, the prosody generation process Sb is provided at the beginning of the process of the video / audio synchronization program, and after receiving a speech symbol string as input, the prosody data is generated in the video / audio synchronization program, and then a series of processes after S162 in FIG. By doing so, it is possible to realize synchronization processing of graphics and synthesized speech.
ただし、このように韻律生成処理Scを備えた画像音声同期プログラムを利用して、ボイスキャラクタを実現する場合には、次のような注意が必要である。即ち、ボイスキャラクタパラメータは、正確には、声色を決定するパラメータ(音声波形の組み立てに影響を与えるもの)と韻律を決定するパラメータ(韻律生成に影響を与えるもの)とがあり、韻律生成の前にボイスキャラクタパラメータを指定しなければならない、という注意が必要である。これは、韻律を決定するパラメータは韻律生成で使用され、声色を決定するパラメータは、音声波形組み立て前のパラメータ生成で使用されるからである。 However, when a voice character is realized by using the video / audio synchronization program including the prosody generation processing Sc as described above, the following cautions are necessary. In other words, the voice character parameters are precisely parameters that determine the voice color (which affects the assembly of the speech waveform) and parameters that determine the prosody (those that affect the prosody generation). Note that the voice character parameter must be specified. This is because the parameters that determine the prosody are used in prosody generation, and the parameters that determine the voice color are used in parameter generation prior to speech waveform assembly.
以上説明したように、本発明が適用された腕時計1では、表現力豊かで高精細な3DCGを利用することが可能になり、腕時計1における時間表現に多くのバリエーションを持たせることが可能になる。例えば、数字を用いて時刻を表示する場合であっても、従来のような静的かつ単調な数字を用いて単に時刻を表すだけでなく、さらに、数字があたかも液体や気体(煙など)によって形作られているように表現したり、それらの数字を徐々に変形させながら別の数字へと変えたりする、といった様々な表現が容易に可能になる。
As described above, in the
このように、本発明が適用された腕時計1では、デジタル時刻表示に芸術性や遊び心を容易に持たせることができるので、ユーザが利用していて楽しいと思える時刻表示が可能になる。
As described above, in the
また、本発明が適用された腕時計1では、3DCGを用いているので、ユーザがボタン操作(図1や図2の例ではタクトスイッチ11の押下操作)などにより、時間表現されたグラフィック画像を回転させて異なる視点から眺めたり、曲面アーキテクチャの特長を生かして滑らかにオブジェクトを拡大/縮小させたりすることも可能である。その結果、ユーザにとっては、腕時計1に表示される時刻表示をただ単に眺めるだけでなく、より一段と積極的に腕時計1に関与することが可能になる。
Since the
さらに、本発明が適用された腕時計1では、高精細な3DCGとあわせて、シンセサイザや音声合成プログラムを持つことができるので、楽曲等の音(MIDIデータによるシンセサイザ音)や合成音声と、グラフィック画像との連動が容易に可能になる。
Furthermore, since the
ところで、上述した一連の処理は、上述したようにソフトウエアで実行されてもよいし、ハードウエアで実行されてもよい。 By the way, the series of processes described above may be executed by software as described above, or may be executed by hardware.
上述した一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ(腕時計1含む)に、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる場合もある。 When the above-described series of processing is executed by software, a program constituting the software is installed in a computer (including the wristwatch 1) incorporated in dedicated hardware or various programs are installed. The computer may be installed from a network or a recording medium on a computer capable of executing various functions, for example, a general-purpose personal computer.
この記録媒体は、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory))、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブル記録媒体により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されている図2のFlash Memory16や、図示せぬハードディスクなどで構成される。 This recording medium is distributed to provide a program to the user separately from the main body of the apparatus, and includes a magnetic disk (including a floppy disk) on which the program is recorded, an optical disk (CD-ROM (Compact Disk-Read Only Memory) )), A program provided not only to a magneto-optical disk (including MD (Mini-Disk)) or a removable recording medium such as a semiconductor memory but also provided to the user in a state of being pre-installed in the apparatus main body. 2 is recorded, a hard disk (not shown), or the like.
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的または個別に実行される処理をも含むものである。 Further, in the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.
1 腕時計, 11 タクトスイッチ, 12 LCD, 13 システムIC, 14 マイクロコンピュータ, 15 SD−RAM, 16 Flash Memory, 17 電源部, 21 CPU, 22 3DCGエンジン, 23 LCDコントローラ, 51 中央演算部, 52 時間管理部, 53 表示データ生成部, 54 表示部, 55 ユーザ入力部, 56 電力供給部, 61 主制御部, 62 プログラム格納部, 63 作業用データ記憶部, 71 3Dグラフィックスエンジン部, 72 LCDコントロール部, 101 オーディオ生成部, 102 オーディオ出力部, 111 サウンドエンジン部, 112 DA変換部 1 Wrist Watch, 11 Tact Switch, 12 LCD, 13 System IC, 14 Microcomputer, 15 SD-RAM, 16 Flash Memory, 17 Power Supply Unit, 21 CPU, 22 3DCG Engine, 23 LCD Controller, 51 Central Processing Unit, 52 Time Management Unit, 53 display data generation unit, 54 display unit, 55 user input unit, 56 power supply unit, 61 main control unit, 62 program storage unit, 63 work data storage unit, 71 3D graphics engine unit, 72 LCD control unit , 101 audio generation unit, 102 audio output unit, 111 sound engine unit, 112 DA conversion unit
Claims (6)
曲面アーキテクチャ手法が適用されたコンピュータグラフィック機能を用いて、時刻表示用の画像データを生成し、前記画像データに対応するコンピュータグラフィック画像を前記表示手段に表示させることを制御する画像生成手段
を備えている腕時計。 A wristwatch including display means for displaying an image for time display,
Image generation means for controlling generation of image data for time display using a computer graphic function to which a curved surface architecture technique is applied, and displaying the computer graphic image corresponding to the image data on the display means Watch.
請求項1に記載の腕時計。 The image generation means further generates first image data corresponding to the first computer graphic image and second image data corresponding to the second computer graphic image, and displays the image on the display means. The wristwatch according to claim 1, wherein display is controlled using morphing when updating the first computer graphic image from the first computer graphic image to the second computer graphic image.
請求項1に記載の腕時計。 2. The wristwatch according to claim 1, wherein the image generation unit further performs control for enlarging or reducing the computer graphic image corresponding to the image data for time display using the computer graphic function.
オーディオデータを生成し、そのオーディオデータに対応する音を前記音出力手段から出力させることを制御するオーディオ生成手段と、
前記オーディオ生成手段の制御により前記音出力手段から出力される音と、前記画像生成手段の制御により前記表示手段に表示される前記コンピュータグラフィック画像との同期制御を行う同期手段と
をさらに備える請求項1に記載の腕時計。 Sound output means for outputting sound;
Audio generating means for generating audio data and controlling output of sound corresponding to the audio data from the sound output means;
The synchronization means for performing synchronous control of the sound output from the sound output means by the control of the audio generation means and the computer graphic image displayed on the display means by the control of the image generation means. The wristwatch according to 1.
曲面アーキテクチャ手法が適用されたコンピュータグラフィック機能を用いて、時刻表示用の画像データを生成し、前記画像データに対応するコンピュータグラフィック画像を前記表示手段に表示させることを制御する画像生成ステップ
を含む腕時計の表示方法。 A display method for a wristwatch comprising a display means for displaying an image for time display,
A wristwatch including an image generation step of controlling generation of image data for time display using a computer graphic function to which a curved surface architecture method is applied, and displaying the computer graphic image corresponding to the image data on the display means How to display.
曲面アーキテクチャ手法が適用されたコンピュータグラフィック機能を用いて、時刻表示用の画像データを生成し、前記画像データに対応するコンピュータグラフィック画像を前記表示手段に表示させることを制御する画像生成ステップ
を含むプログラム。 A program to be executed by a computer that controls image display of a wristwatch provided with display means for displaying an image for time display,
A program including an image generation step of controlling generation of image data for time display using a computer graphic function to which a curved surface architecture method is applied, and displaying the computer graphic image corresponding to the image data on the display means .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005216094A JP2007033200A (en) | 2005-07-26 | 2005-07-26 | Wrist watch, display method of wrist watch, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005216094A JP2007033200A (en) | 2005-07-26 | 2005-07-26 | Wrist watch, display method of wrist watch, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007033200A true JP2007033200A (en) | 2007-02-08 |
Family
ID=37792650
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005216094A Withdrawn JP2007033200A (en) | 2005-07-26 | 2005-07-26 | Wrist watch, display method of wrist watch, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007033200A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014120194A1 (en) * | 2013-01-31 | 2014-08-07 | Leia Inc. | Multiview 3d wrist watch |
US9128226B2 (en) | 2013-07-30 | 2015-09-08 | Leia Inc. | Multibeam diffraction grating-based backlighting |
US9201270B2 (en) | 2012-06-01 | 2015-12-01 | Leia Inc. | Directional backlight with a modulation layer |
US9298168B2 (en) | 2013-01-31 | 2016-03-29 | Leia Inc. | Multiview 3D wrist watch |
US9389415B2 (en) | 2012-04-27 | 2016-07-12 | Leia Inc. | Directional pixel for use in a display screen |
US9459461B2 (en) | 2012-05-31 | 2016-10-04 | Leia Inc. | Directional backlight |
US9557466B2 (en) | 2014-07-30 | 2017-01-31 | Leia, Inc | Multibeam diffraction grating-based color backlighting |
-
2005
- 2005-07-26 JP JP2005216094A patent/JP2007033200A/en not_active Withdrawn
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9389415B2 (en) | 2012-04-27 | 2016-07-12 | Leia Inc. | Directional pixel for use in a display screen |
US9459461B2 (en) | 2012-05-31 | 2016-10-04 | Leia Inc. | Directional backlight |
US9201270B2 (en) | 2012-06-01 | 2015-12-01 | Leia Inc. | Directional backlight with a modulation layer |
US10082613B2 (en) | 2012-06-01 | 2018-09-25 | Leia Inc. | Directional backlight with a modulation layer |
WO2014120194A1 (en) * | 2013-01-31 | 2014-08-07 | Leia Inc. | Multiview 3d wrist watch |
CN104272199A (en) * | 2013-01-31 | 2015-01-07 | 镭亚股份有限公司 | Multiview 3d wrist watch |
US9298168B2 (en) | 2013-01-31 | 2016-03-29 | Leia Inc. | Multiview 3D wrist watch |
US9785119B2 (en) | 2013-01-31 | 2017-10-10 | Leia Inc. | Multiview display screen and multiview mobile device using same |
US9128226B2 (en) | 2013-07-30 | 2015-09-08 | Leia Inc. | Multibeam diffraction grating-based backlighting |
US9557466B2 (en) | 2014-07-30 | 2017-01-31 | Leia, Inc | Multibeam diffraction grating-based color backlighting |
US10345505B2 (en) | 2014-07-30 | 2019-07-09 | Leia, Inc. | Multibeam diffraction grating-based color backlighting |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10354627B2 (en) | Singing voice edit assistant method and singing voice edit assistant device | |
CN111899706B (en) | Audio production method, device, equipment and storage medium | |
JP2007033200A (en) | Wrist watch, display method of wrist watch, and program | |
JP6665446B2 (en) | Information processing apparatus, program, and speech synthesis method | |
EP3462443B1 (en) | Singing voice edit assistant method and singing voice edit assistant device | |
JP5949607B2 (en) | Speech synthesizer | |
US9711123B2 (en) | Voice synthesis device, voice synthesis method, and recording medium having a voice synthesis program recorded thereon | |
US20220076651A1 (en) | Electronic musical instrument, method, and storage medium | |
CN104412320A (en) | Automated performance technology using audio waveform data | |
US20220076658A1 (en) | Electronic musical instrument, method, and storage medium | |
CN116504218A (en) | Voice synthesis method and voice synthesis system | |
JP2012022121A (en) | Speech synthesizer | |
JP4561636B2 (en) | Musical sound synthesizer and program | |
JPH11242751A (en) | Animation controller and method therefor and sentence reading device | |
JP5531654B2 (en) | Control information generating apparatus and shape control apparatus | |
JP6474518B1 (en) | Simple operation voice quality conversion system | |
JP2001282276A (en) | Method and device for voice synthesis and storage medium | |
US11437016B2 (en) | Information processing method, information processing device, and program | |
JP5157922B2 (en) | Speech synthesizer and program | |
JP4720974B2 (en) | Audio generator and computer program therefor | |
JP2001042879A (en) | Karaoke device | |
JP5106437B2 (en) | Karaoke apparatus, control method therefor, and control program therefor | |
JPH1166345A (en) | Image acoustic processor and recording medium | |
JP2002221978A (en) | Vocal data forming device, vocal data forming method and singing tone synthesizer | |
US20210097975A1 (en) | Information processing method, information processing device, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20081007 |