JP2009104231A - Information processor, sound output device, symbol display device, image forming apparatus, user attribute determination method, and program - Google Patents

Information processor, sound output device, symbol display device, image forming apparatus, user attribute determination method, and program Download PDF

Info

Publication number
JP2009104231A
JP2009104231A JP2007272845A JP2007272845A JP2009104231A JP 2009104231 A JP2009104231 A JP 2009104231A JP 2007272845 A JP2007272845 A JP 2007272845A JP 2007272845 A JP2007272845 A JP 2007272845A JP 2009104231 A JP2009104231 A JP 2009104231A
Authority
JP
Japan
Prior art keywords
group
music
character
data
symbol
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007272845A
Other languages
Japanese (ja)
Inventor
Atsushi Koinuma
敦 鯉沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Ricoh Technosystems Co Ltd
Original Assignee
Ricoh Co Ltd
Ricoh Technosystems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd, Ricoh Technosystems Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2007272845A priority Critical patent/JP2009104231A/en
Priority to CN2008101693632A priority patent/CN101419527B/en
Publication of JP2009104231A publication Critical patent/JP2009104231A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information processor capable of determining the attribute of a user from a document, or the like, and to provide a sound output device, a symbol display device, an image forming apparatus, a user attribute determination method, and a program. <P>SOLUTION: The information processor 111 determines a group (equivalent to a section in each user attribute) to which the creator of character data 20 (including symbols, numerical values, and pictographs) in a feature category for featuring a human being by a plurality of groups belongs to. The information processor 111 comprises: a character data input means 112 for inputting character data 20; a character string storage means 131 for storing a character string corresponding to the group; and an attribute determination means 22 for determining a group to which a creator in a prescribed feature category belongs by referring to the group of the character string storage means corresponding to a character string included in the character data input by the character data input means. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、文字データの作成者又は機器のユーザのユーザ属性を判定する情報処理装置、音出力装置、記号表示装置、画像形成装置、ユーザ属性判定方法及びプログラムに関する。   The present invention relates to an information processing apparatus, a sound output apparatus, a symbol display apparatus, an image forming apparatus, a user attribute determination method, and a program for determining a user attribute of a character data creator or a device user.

日常的に様々な機器が利用されているが、これらの機器は種々の人間が利用する。例えば、携帯電話であれば10代から70代以上の人が利用しているし、学生、社会人又はフリータを問わず利用しているし、国籍を問わずに利用している。   Various devices are used on a daily basis, but these devices are used by various people. For example, in the case of a mobile phone, people in their teens to 70s or more are using it, regardless of whether it is a student, a member of society or a freelancer, and using it regardless of nationality.

ところで、このように利用する人の属性によっては同じ携帯電話でも望まれる機能が異なる。このため、一つの機器において、ユーザの操作により所望の動作環境に設定することが可能になっている。例えば、携帯電話の場合、表示する文字のサイズ、輝度、待ち受け画面などを種々に設定することができ、若年層は携帯電話でのコミュニケーションをもっと面白くするよう設定し、高齢者は、操作画面の文字を大きくするよう設定することができる。   By the way, depending on the attribute of the person who uses the information, the desired function is different even in the same mobile phone. For this reason, in a single device, it is possible to set a desired operating environment by a user operation. For example, in the case of a mobile phone, the character size to be displayed, brightness, standby screen, etc. can be set in various ways. Young people can make mobile phone communication more interesting, and elderly people can use the operation screen. You can set it to be larger.

このように、ユーザは機器の設定を自由に変更できるが、その反面、ユーザが設定しない限り設定は変わらないので、初心者にとっては敷居が高く、また、機能が多い機器ほど操作も複雑なため所望の設定が困難になっている。   In this way, the user can freely change the setting of the device, but on the other hand, the setting does not change unless the user sets it, so the threshold is high for beginners, and the more functional the device, the more complicated the operation, the desired Setting has become difficult.

ユーザの属性を何らかの方法で取得すれば、属性に応じて機器を設定することが可能となる。例えば、所定の文書からユーザの感情を検出する技術が提案されている(例えば、特許文献1参照。)。   If a user attribute is acquired by some method, it becomes possible to set a device according to the attribute. For example, a technique for detecting a user's emotion from a predetermined document has been proposed (see, for example, Patent Document 1).

特許文献1には、感情に関わる単語をいくつかの感情に重み付けした辞書を備え、文書に含まれる単語に基づき辞書を参照し、各文書の感情を判定する感情認識システムが記載さている。
特開2002−230011号公報
Patent Document 1 describes an emotion recognition system that includes a dictionary in which words related to emotions are weighted to some emotions, refers to the dictionary based on words included in the document, and determines the emotion of each document.
JP 2002-230011 A

しかしながら、特許文献1記載の感情認識システムは、感情に関わる文書の属性を検出するものであり、ユーザの属性を検出するものではない。また、文書のような生成物の属性(内容)はユーザの属性と異なり変化しやすいため、生成物の属性を検出しても機器を適切に制御することは困難である。   However, the emotion recognition system described in Patent Document 1 detects an attribute of a document related to an emotion and does not detect an attribute of a user. Further, since the attribute (content) of a product such as a document is likely to change unlike a user attribute, it is difficult to appropriately control the device even if the attribute of the product is detected.

本発明は上記課題に鑑み、文書等からユーザの属性を判定できる情報処理装置、音出力装置、記号表示装置、画像形成装置、ユーザ属性判定方法及びプログラム、を提供することを目的とする。   An object of the present invention is to provide an information processing apparatus, a sound output apparatus, a symbol display apparatus, an image forming apparatus, a user attribute determination method, and a program capable of determining a user attribute from a document or the like.

上記課題に鑑み、本発明は、複数のグループにより人間を特徴づける特徴カテゴリー(後述のユーザ属性に相当)における、文字データ(記号、数値、絵文字を含む)の作成者が属するグループ(各ユーザ属性における区分に相当)を判定する情報処理装置であって、文字データを入力する文字データ入力手段と、前記グループと対応づけて文字列を記憶する文字列記憶手段と、前記文字データ入力手段により入力された前記文字データから前記文字列を抽出する文字列抽出手段と、前記文字列抽出手段により抽出された前記文字列に対応づけられた前記グループを前記文字列記憶手段から抽出して前記作成者が属する前記グループを判定する属性判定手段と、を有することを特徴とする。   In view of the above problems, the present invention provides a group (each user attribute) to which a creator of character data (including symbols, numerical values, and pictograms) belongs in a feature category (corresponding to a user attribute described later) that characterizes a human by a plurality of groups. The character data input means for inputting character data, the character string storage means for storing the character string in association with the group, and the character data input means. A character string extracting means for extracting the character string from the character data thus obtained, and the group associated with the character string extracted by the character string extracting means from the character string storage means to extract the creator And attribute determination means for determining the group to which the group belongs.

本発明によれば、文字データから所定の特徴カテゴリーにおける作成者のグループを判定することができる。   According to the present invention, a group of creators in a predetermined feature category can be determined from character data.

また、本発明の一形態において、作成者のグループを記憶するグループ記憶手段と、属性判定手段が判定したグループを特徴カテゴリー毎にグループ記憶手段に登録するグループ登録手段と、を有することを特徴とする。   Further, in one aspect of the present invention, it is characterized by having group storage means for storing a group of creators, and group registration means for registering groups determined by the attribute determination means in the group storage means for each feature category. To do.

本発明によれば、ユーザ属性を登録しておくことができるので、当該情報処理装置を含む種々の機器の制御に利用できる。   According to the present invention, since user attributes can be registered, it can be used to control various devices including the information processing apparatus.

また、本発明の一形態において、特徴カテゴリーが高齢者とそれ以外のグループを有する年齢層である場合、属性判定手段は、文字データ入力手段により入力された文字データに所定以上の比率で第2水準の漢字が含まれている場合、作成者が高齢者のグループに属すると判定する、ことを特徴とする。   In one embodiment of the present invention, when the feature category is an age group having an elderly person and other groups, the attribute determination unit is configured to add a second or higher ratio to the character data input by the character data input unit. When a standard Chinese character is included, the creator is determined to belong to the elderly group.

本発明によれば、比較的高齢者が使用する漢字により文字データの作成者が高齢者であると判定できる。   According to the present invention, it is possible to determine that the creator of character data is an elderly person based on kanji used by relatively elderly persons.

また、本発明の一形態において、特徴カテゴリーが男性と女性のグループを有する性別である場合、属性判定手段は、文字データ入力手段により入力された文字データに所定数以上の絵文字が含まれている場合、作成者が女性のグループに属すると判定する、ことを特徴とする。   In one embodiment of the present invention, when the characteristic category is a gender having a group of men and women, the attribute determination means includes a predetermined number or more of pictograms in the character data input by the character data input means. The creator is determined to belong to a group of women.

本発明によれば、女性が多用する絵文字により、文字データの作成者が女性であると判定できる。   According to the present invention, it is possible to determine that the creator of character data is a woman by using pictographs frequently used by women.

また、本発明の一形態において、特徴カテゴリーが高齢者等をグループとする年齢層の場合、文字列記憶手段は、高齢者等のグループと対応づけて当該グループの人間が使用する文字列を記憶しており、属性判定手段は、文字データ入力手段により入力された文字データに含まれる文字列の数をグループ毎にカウントし、作成者はカウントされた数が最も大きいグループに属すると判定する、ことを特徴とする。   In one embodiment of the present invention, when the feature category is an age group in which elderly people or the like are grouped, the character string storage means stores character strings that are used by persons in the group in association with the groups such as elderly people. The attribute determination means counts the number of character strings included in the character data input by the character data input means for each group, and determines that the creator belongs to the group with the largest counted number. It is characterized by that.

本発明によれば、文字列をデータベース化しておくことで年齢層においてユーザが属するグループを判定することができる。   According to the present invention, it is possible to determine a group to which a user belongs in an age group by creating a database of character strings.

また、本発明の一形態において、特徴カテゴリーが国内の所定領域をグループとする出身地の場合、文字列記憶手段は、所定領域と対応づけて当該所定領域の人間のみが使用する文字列を記憶しており、属性判定手段は、文字データ入力手段により入力された文字データに含まれる文字列が、当該所定領域の人間のみが使用する文字列である場合、作成者は当該所定領域に属すると判定する、ことを特徴とする。   In one embodiment of the present invention, when the feature category is a place of birth in which a predetermined region in Japan is a group, the character string storage unit stores a character string used only by a person in the predetermined region in association with the predetermined region. The attribute determination means determines that the creator belongs to the predetermined area when the character string included in the character data input by the character data input means is a character string used only by a person in the predetermined area. It is characterized by determining.

本発明によれば、文字列をデータベース化しておくことで出身地においてユーザが属するグループを判定することができる。   According to the present invention, it is possible to determine a group to which a user belongs in a place of birth by creating a database of character strings.

また、本発明の一形態において、グループ記憶手段に登録された作成者のグループに応じて、当該情報処理装置を制御する制御手段(例えば、UI制御手段24、フォント変更手段25)、を有することを特徴とする。   Further, according to one aspect of the present invention, it has control means (for example, UI control means 24, font change means 25) for controlling the information processing apparatus in accordance with a group of creators registered in the group storage means. It is characterized by.

本発明によれば、ユーザの属するグループに応じて機器を制御できるので、ユーザの利便性を向上できる。   According to the present invention, since the device can be controlled according to the group to which the user belongs, the convenience for the user can be improved.

また、本発明の一形態において、特徴カテゴリーが高齢者とそれ以外のグループを有する年齢層の場合であって、グループ記憶手段に登録された作成者のグループが高齢者である場合、表示装置に表示する文字のサイズを所定値より大きくするUI制御手段、を有することを特徴とする。   In one embodiment of the present invention, when the feature category is an age group having an elderly person and other groups, and the group of creators registered in the group storage means is an elderly person, the display device UI control means for making the size of characters to be displayed larger than a predetermined value.

本発明によれば、ユーザが高齢者のグループに属する場合、表示される文字を大きくできるので、高齢者が見やすい機器にすることができる。   According to the present invention, when the user belongs to the elderly group, the displayed characters can be enlarged, so that the device can be easily seen by the elderly.

また、本発明の一形態において、特徴カテゴリーが男性と女性の前記グループを有する性別の場合であって、グループ記憶手段に登録された作成者の前記グループが女性である場合、表示装置に表示する文字のフォントを変更するフォント変更手段、を有することを特徴とする。   In one embodiment of the present invention, when the characteristic category is gender having the group of men and women and the group of creators registered in the group storage means is female, the information is displayed on the display device. Font changing means for changing the font of the character is provided.

本発明によれば、ユーザが女性のグループに属する場合、印刷される文字を女性らしいフォントに変更できるので、ユーザの嗜好に適切な出力が可能となる。   According to the present invention, when the user belongs to a female group, the printed character can be changed to a feminine font, and therefore, an output suitable for the user's preference is possible.

文書等からユーザの属性を判定できる情報処理装置、音出力装置、記号表示装置、画像形成装置、ユーザ属性判定方法及びプログラム、を提供することができる。   It is possible to provide an information processing apparatus, a sound output apparatus, a symbol display apparatus, an image forming apparatus, a user attribute determination method, and a program that can determine a user attribute from a document or the like.

以下、本発明を実施するための最良の形態について図面を参照しながら説明する。
本実施形態ではユーザの属性の判定と、判定の結果得られた属性を用いた機器の制御例について説明する。
The best mode for carrying out the present invention will be described below with reference to the drawings.
In this embodiment, an example of user attribute determination and device control using attributes obtained as a result of the determination will be described.

ユーザの属性とは、年齢層、性別、出身地、国籍、宗教、年収層、等、例えば長期間にわたり変化がないユーザの特性であり、また例えば一生変化がない特性、又は、先天的に定まるユーザの特性である。年齢層を1つのユーザ属性とした場合、ユーザの特性は各年齢層に区分される。以下、年齢層等を属性種別と称し、年齢層の各区分(10代、20代…)をユーザ属性という。   User attributes are user characteristics that do not change over a long period of time, such as age group, gender, birthplace, nationality, religion, annual income group, etc., for example, characteristics that do not change for a lifetime, or are determined innately User characteristics. When an age group is a single user attribute, the user characteristics are divided into each age group. Hereinafter, the age group and the like are referred to as attribute types, and each division of the age group (10's, 20's ...) is referred to as a user attribute.

〔属性種別毎のユーザ属性の判定〕
始めに、ユーザ属性の判定について説明する。図1は、ユーザ属性を判定する情報処理装置111A〜111C(以下、これらを総称して情報処理装置111という)の一例を示す図である。情報処理装置111A及び情報処理装置111Cは、例えばPC(パーソナルコンピュータ)であり、情報処理装置111Bは携帯電話である。これらはLANやインターネットなどのネットワークNを介して接続されておいる。なお、PCと携帯電話は一例であって、情報処理装置111A〜111Cは、コンピュータを備えた機器、例えば、PDA(Personal Digital(Data) Assistants)、PHS(Personal Handyphone System)、プリンタ、ファクシミリ装置、スキャナ装置、MFP(Multi Function Printer)、等であってもよい。
[User attribute determination for each attribute type]
First, determination of user attributes will be described. FIG. 1 is a diagram illustrating an example of information processing apparatuses 111 </ b> A to 111 </ b> C (hereinafter collectively referred to as information processing apparatuses 111) that determine user attributes. The information processing apparatus 111A and the information processing apparatus 111C are, for example, PCs (personal computers), and the information processing apparatus 111B is a mobile phone. These are connected via a network N such as a LAN or the Internet. Note that the PC and the mobile phone are examples, and the information processing apparatuses 111A to 111C are devices equipped with computers, such as PDAs (Personal Digital (Data) Assistants), PHS (Personal Handyphone System), printers, facsimile machines, A scanner device, an MFP (Multi Function Printer), or the like may be used.

例えば、ユーザはワープロソフトウェアなどのアプリケーションプログラムを起動した後、情報処理装置111Aのキーボード112及びマウス113を操作して文字を入力する。入力された文字は順次ディスプレイ114に反映され、最終的には文書や表等が生成される。情報処理装置111Bを用いた場合も同様であり、ユーザはメールソフトウェアなどのアプリケーションプログラムを起動した後、情報処理装置111Bのキーボード115及びマウス(ポインタ)116を操作して文字を入力する。入力された文字は順次ディスプレイ117に反映され、最終的には例えば電子メールが生成される。以下、文書データや電子メールなど文字を含むデータをテキストデータという。テキストデータがバイナリファイルに保存されるかテキストファイルに保存されるかは問わない。   For example, after starting an application program such as word processing software, the user inputs characters by operating the keyboard 112 and the mouse 113 of the information processing apparatus 111A. The input characters are sequentially reflected on the display 114, and finally a document, a table, or the like is generated. The same applies to the case where the information processing apparatus 111B is used, and after starting an application program such as mail software, the user operates the keyboard 115 and the mouse (pointer) 116 of the information processing apparatus 111B to input characters. The input characters are sequentially reflected on the display 117, and finally e-mail is generated, for example. Hereinafter, data including characters such as document data and electronic mail is referred to as text data. It does not matter whether the text data is stored in a binary file or a text file.

本実施形態の情報処理装置111A、111Bは、テキストデータを構成する自立語(主に日本語の場合)や単語(主に英語の場合)を抽出し、自立語や単語と属性判定データベース(以下、DBという)とを照らし合わせて、テキストデータを入力したユーザのユーザ属性を判定する。なお、自立語を日本語の構成要素として、単語は英語の構成要素として説明するが、他の言語であっても自立語や単語に相当する構成要素からユーザ属性を判定できる。   The information processing apparatuses 111A and 111B according to the present embodiment extract independent words (mainly in the case of Japanese) and words (mainly in the case of English) that constitute the text data, and use the independent words, words, and attribute determination database (hereinafter referred to as “independent words”). , DB) and the user attribute of the user who entered the text data is determined. In addition, although an independent word is demonstrated as a Japanese component and a word is demonstrated as an English component, even if it is another language, a user attribute can be determined from the component corresponding to an independent word or a word.

また、例えば、情報処理装置111Aから情報処理装置111Cに文書データが送信されたり、情報処理装置111Bから情報処理装置111Cに電子メールが送信された場合、情報処理装置111Cはテキストデータに含まれる自立語に基づき、情報処理装置111A又は情報処理装置111Bのユーザのユーザ属性を判定する。   Further, for example, when document data is transmitted from the information processing apparatus 111A to the information processing apparatus 111C, or when an e-mail is transmitted from the information processing apparatus 111B to the information processing apparatus 111C, the information processing apparatus 111C is self-supporting included in the text data. Based on the word, the user attribute of the user of the information processing device 111A or the information processing device 111B is determined.

図2は、情報処理装置111Aのハードウェア構成例を示す図である。情報処理装置111Aは、バスBで相互に接続されているRAM(Random Access Memory )121、ROM(Read-Only Memory)122、入力装置(図1のキーボード112、マウス113に相当)112,113、NIC(Network Interface Card)123、ドライブ装置124、表示制御部125、記憶装置126及びCPU127とを有する。   FIG. 2 is a diagram illustrating a hardware configuration example of the information processing apparatus 111A. The information processing apparatus 111A includes a RAM (Random Access Memory) 121, a ROM (Read-Only Memory) 122, input devices (corresponding to the keyboard 112 and the mouse 113 in FIG. 1) 112, 113, A NIC (Network Interface Card) 123, a drive device 124, a display control unit 125, a storage device 126, and a CPU 127 are included.

RAM121は、OSやプログラムを実行する作業メモリになり、ROM122はBIOSなどOSを起動するためのプログラムや設定ファイルを記憶している。入力装置112、113はキーボードやマウスなど、ユーザからの様々な操作を入力するためのデバイスである。NIC123は、ネットワークNに接続するためのインターフェイスであり、TCP(Transmission Control Protocol )/IP(Internet Protocol)等のプロトコル処理を実行する。ドライブ装置124は、CD−RWやメモリカード等の記憶媒体128が着脱可能に構成されており、記憶媒体128にプログラムやデータを書き込む際に使用され、また、記憶媒体128に記録されたプログラムやデータを読み込み、記憶装置126に送出する。   The RAM 121 serves as a working memory for executing the OS and programs, and the ROM 122 stores programs and setting files for starting up the OS such as BIOS. The input devices 112 and 113 are devices for inputting various operations from the user, such as a keyboard and a mouse. The NIC 123 is an interface for connecting to the network N, and executes protocol processing such as TCP (Transmission Control Protocol) / IP (Internet Protocol). The drive device 124 is configured such that a storage medium 128 such as a CD-RW or a memory card is detachable. The drive device 124 is used when a program or data is written to the storage medium 128, and the program recorded on the storage medium 128 Data is read and sent to the storage device 126.

表示制御部125は、アプリケーションソフトウェアが指示する画面情報に基づき所定の解像度や色数等で、GUI(Graphical User Interface)画面を形成し、操作に必要な各種ウィンドウやデータ等をディスプレイ114に表示する。   The display control unit 125 forms a GUI (Graphical User Interface) screen with a predetermined resolution and the number of colors based on screen information instructed by the application software, and displays various windows and data necessary for operation on the display 114. .

記憶装置126は、HDD(ハードディスクドライブ)やフラッシュメモリなど不揮発性メモリであり、OS、アプリケーションソフトウェア、プログラム133が記憶されている。CPU127は、OS、アプリケーションソフトウェア及びプログラム133を記憶装置126からロードして実行することで種々の機能を提供すると共に、情報処理装置111Aが行う処理を統括的に制御する。   The storage device 126 is a nonvolatile memory such as an HDD (hard disk drive) or a flash memory, and stores an OS, application software, and a program 133. The CPU 127 provides various functions by loading and executing the OS, application software, and program 133 from the storage device 126, and comprehensively controls processing performed by the information processing device 111A.

また、記憶装置126には、後述する属性判定DB131及び属性テーブル132が記憶されている。   Further, the storage device 126 stores an attribute determination DB 131 and an attribute table 132 which will be described later.

情報処理装置111Aが実行するプログラム133は、記録媒体128に記憶して配布されるか、所定のサーバからネットワークNを介して配布される。プログラム133を記録した記録媒体128がドライブ装置124にセットされると、プログラム133が記録媒体128からドライブ装置124を介して記憶装置126にインストールされる。また、サーバからプログラムが送信された場合、NIC123を介して記憶装置126にインストールされる。   The program 133 executed by the information processing apparatus 111A is stored in the recording medium 128 and distributed, or distributed from a predetermined server via the network N. When the recording medium 128 on which the program 133 is recorded is set in the drive device 124, the program 133 is installed from the recording medium 128 to the storage device 126 via the drive device 124. Further, when a program is transmitted from the server, it is installed in the storage device 126 via the NIC 123.

情報処理装置111Aは、プログラム133を実行して実現される属性判定手段22、属性登録手段23、ディスプレイ114に表示する文字のサイズを可変に制御するUI(User Interface)制御手段24と、ディスプレイ114に表示する文字のフォントを変更するフォント変更手段25と、文字列を抽出する文字列抽出手段26と、を有する。属性判定手段22、属性登録手段23、UI制御手段24、フォント変更手段25及び文字列抽出手段26を実現するプログラム133は、Windows(登録商標)等のOS上で起動する。   The information processing apparatus 111A includes an attribute determination unit 22, an attribute registration unit 23, a UI (User Interface) control unit 24 that variably controls the size of characters displayed on the display 114, and a display 114, which are realized by executing the program 133. A font changing means 25 for changing the font of the character to be displayed, and a character string extracting means 26 for extracting a character string. A program 133 that implements the attribute determination unit 22, the attribute registration unit 23, the UI control unit 24, the font change unit 25, and the character string extraction unit 26 starts on an OS such as Windows (registered trademark).

図3は、情報処理装置111Aの機能構成図を示す。図3では情報処理装置111Aを例に説明するが、ユーザ属性の判定方法は情報処理装置111B、111Cに共通である。   FIG. 3 shows a functional configuration diagram of the information processing apparatus 111A. Although FIG. 3 illustrates the information processing apparatus 111A as an example, the user attribute determination method is common to the information processing apparatuses 111B and 111C.

属性判定手段22はテキストデータ20からユーザ属性を判定するので、OS上ではテキストデータ20を入力するためのアプリケーションソフトウェア27が実行されている。アプリケーションソフトウェア27は、例えば、ワープロソフトウェア、表計算ソフトウェア、電子メールソフトウェア等、テキストデータ20を入力しうるものであればよい。   Since the attribute determination means 22 determines the user attribute from the text data 20, application software 27 for inputting the text data 20 is executed on the OS. The application software 27 may be any software that can input the text data 20, such as word processing software, spreadsheet software, or e-mail software.

文字列抽出手段26、属性判定手段22及び属性登録手段23は、情報処理装置111Aの起動と共に実行されるか、アプリケーションソフトウェア27の起動に伴い実行される。   The character string extraction unit 26, the attribute determination unit 22, and the attribute registration unit 23 are executed when the information processing apparatus 111 </ b> A is activated or when the application software 27 is activated.

キーボード112は指でキーを操作することで情報処理装置111Aに文字を入力する。ユーザがキーを押すと、対応するキーコード(例えば、ASCIIコード)が情報処理装置111Aに送られる。キーコードは例えばBIOS(Basic Input Output System)により対応する文字コードに変換される。なお、キーボード112はタッチパネルや手書き文字入力、音声キーボード等、文字に対応したキーコードを発生するものであればよい。   The keyboard 112 inputs characters to the information processing apparatus 111A by operating keys with fingers. When the user presses a key, a corresponding key code (for example, an ASCII code) is sent to the information processing apparatus 111A. The key code is converted into a corresponding character code by, for example, BIOS (Basic Input Output System). The keyboard 112 only needs to generate a key code corresponding to characters, such as a touch panel, handwritten character input, and voice keyboard.

テキストを日本語で入力する場合、ユーザの操作によりIM(Input Method)21が起動し、文字コードはIM21により日本語に変換される。変換せずに直接テキストを入力する場合は、文字コードは直接アプリケーションソフトウェア27及び属性判定手段22に入力される。   When text is input in Japanese, IM (Input Method) 21 is activated by a user operation, and the character code is converted into Japanese by IM 21. When text is directly input without conversion, the character code is directly input to the application software 27 and the attribute determination unit 22.

IM21は、一連の文字コードを日本語等の言語に変換する、いわゆる、かな漢字変換システムである。例えば、キーボード112から「G・A・N・M・I」と入力された場合、IM21は辞書を参照して一連の文字コードを「がんみ」と変換すると共に、所定の操作や設定に応じて「ガンミ」や「ガン見」等に変換することを可能にする。「ガンミ」と変換した場合には「ガ」「ン」「ミ」それぞれに対応する3つの文字コードが生成される。なお、文字コードは、Unicode、JISコード、シフトJISコード等、いずれであってもよい。以下、ユーザ属性を判定する言葉を属性判定語という。   The IM 21 is a so-called kana-kanji conversion system that converts a series of character codes into a language such as Japanese. For example, when “G, A, N, M, I” is input from the keyboard 112, the IM 21 refers to the dictionary and converts a series of character codes to “gone” and performs a predetermined operation or setting. It is possible to convert to “Ganmi” or “Ganmi” in response. When converted to “Ganmi”, three character codes corresponding to “Ga”, “N”, and “Mi” are generated. The character code may be any of Unicode, JIS code, shift JIS code, and the like. Hereinafter, words for determining user attributes are referred to as attribute determination words.

文字列抽出手段26は、所定の文字又は文字列を抽出する。文字列抽出手段26は、テキストデータ20の文字コードを1語1語参照し、属性判定DB131に登録されている属性判定語を抽出する。また、辞書を参照しながらテキストデータ20の例えば一文ごとに周知の日本語構文解析を行い係り受け関係を抽出する。これにより属性判定語とその用いられ方、例えば、「バリ」という文字列の場合、地名の「バリ」と副詞の「バリ(すごく)」を抽出できる。   The character string extraction unit 26 extracts a predetermined character or character string. The character string extraction unit 26 refers to the character code of the text data 20 one word at a time, and extracts the attribute determination word registered in the attribute determination DB 131. Also, a known Japanese syntax analysis is performed for each sentence of the text data 20 with reference to the dictionary to extract the dependency relationship. As a result, in the case of the attribute determination word and its usage, for example, the character string “Bali”, the place name “Bali” and the adverb “Bali” can be extracted.

そして、属性判定手段22は、属性判定DB131に登録された属性判定語に対応つけられたユーザ属性をテキストデータ20の作成者のユーザ属性として判定する。   Then, the attribute determination unit 22 determines the user attribute associated with the attribute determination word registered in the attribute determination DB 131 as the user attribute of the creator of the text data 20.

図4は、情報処理装置111Cの機能構成図の他の一例を示す。なお、図4において図3と同一構成部には同一の符号を付しその説明は省略する。図3では、キーボード112からテキストデータ20を入力する形態について説明したが、1つのファイルに含まれるテキストデータ20からも同様にユーザ属性を判定することができる。   FIG. 4 shows another example of a functional configuration diagram of the information processing apparatus 111C. 4 that are the same as those in FIG. 3 are assigned the same reference numerals and descriptions thereof are omitted. In FIG. 3, although the form which inputs the text data 20 from the keyboard 112 was demonstrated, a user attribute can be determined similarly from the text data 20 contained in one file.

情報処理装置111Cが電子メールでテキストデータ20を受信する場合、テキストデータ20はいったん記憶装置126に記憶される。アプリケーションソフトウェア27はテキストデータ20を読み出しディスプレイ114に表示したり音声で読み上げたりするが、その際に、属性判定手段22はテキストデータ20を抽出し、図3と同様に、所定の文字列を抽出する。以降は、図3と同様にユーザ属性を判定することができる。なお、情報処理装置111Cが判定するユーザ属性は、電子メールを作成した情報処理装置111Aのユーザのユーザ属性となる。   When the information processing apparatus 111 </ b> C receives the text data 20 by electronic mail, the text data 20 is temporarily stored in the storage device 126. The application software 27 reads the text data 20 and displays it on the display 114 or reads it out by voice. At that time, the attribute determination means 22 extracts the text data 20 and extracts a predetermined character string as in FIG. To do. Thereafter, the user attribute can be determined as in FIG. Note that the user attribute determined by the information processing apparatus 111C is the user attribute of the user of the information processing apparatus 111A that created the e-mail.

図5は属性判定DB131の一例を示す。図5は、属性種別が年齢層の場合の属性判定DB131である。図5では種々の属性判定語におよその年齢層が対応づけられている。例えば、「バリ」や「ガンミ」には10〜20才という年齢層が対応づけられ、「大東亜戦争」には60才以上の年齢層が対応づけられている。   FIG. 5 shows an example of the attribute determination DB 131. FIG. 5 shows the attribute determination DB 131 when the attribute type is an age group. In FIG. 5, approximate age groups are associated with various attribute determination words. For example, an age group of 10 to 20 years old is associated with “Bali” or “Ganmi”, and an age group of 60 years or older is associated with “Daito War”.

属性判定手段22はテキストデータ20が含むこのような年齢層を特徴づける属性判定語に基づき属性判定DB131を参照してそれぞれの属性判定語に対応づけられた年齢層を抽出する。そして、例えば、1つのテキストデータ20毎にユーザの年齢層を検出する。   The attribute determination means 22 extracts an age group associated with each attribute determination word with reference to the attribute determination DB 131 based on the attribute determination word that characterizes the age group included in the text data 20. For example, the age group of the user is detected for each piece of text data 20.

10〜20才の属性判定語が3つ、30〜40才の属性判定語が1つ、40〜50才の1つ、検出された場合、属性判定手段22は例えば検出された数が最も多い年齢層をユーザの年齢層に決定する。短期的にはこのような簡易な方法でユーザの年齢層を決定できる。
10〜20才 … xxx個
20〜30才 … xxx個
30〜40才 … xxx個
40〜50才 … xxx個
50〜60才 … xxx個
60才以上 … xxx個
また、検出された属性判定語の数を累積しておくことで、ユーザの年齢層の決定精度を向上できる。作成するテキストデータ20の数が増えるほど、使用する言葉は年齢層を反映すると考えられるので、検出された属性判定語の数を累積しておくこと精度よくユーザの年齢層を決定できる。十分な数を累積できれば、平均値や中央値の算出など統計的な処理によりユーザの年齢層を精度よく決定できる。
When three attribute determination words of 10 to 20 years old, one attribute determination word of 30 to 40 years old, and one of 40 to 50 years old are detected, the attribute determination means 22 has, for example, the largest number of detection. The age group is determined as the user's age group. In the short term, the user's age group can be determined by such a simple method.
10 to 20 years old ... xxx 20 to 30 years old ... xxx 30 to 40 years old ... xxx 40 to 50 years old ... xxx 50 to 60 years old ... xxx over 60 years old ... xxx pieces of detected attribute judgment words Accumulating the number can improve the determination accuracy of the user's age group. As the number of text data 20 to be created increases, the words to be used are considered to reflect the age group. Therefore, the age group of the user can be determined with high accuracy by accumulating the number of detected attribute determination words. If a sufficient number can be accumulated, the user's age group can be accurately determined by statistical processing such as calculation of an average value or a median value.

また、JIS第2水準漢字「弌」(989F)〜「熙」(EAA0)が多用されている場合、60才以上であると判定してもよい。多用される例としては、JIS第2水準漢字が所定数以上、又は、全文字数に対し所定の比率(例えば20%)以上で検出される場合である。
また、ひらがなやカタカナを多用するユーザは10〜20才と判定してもよい。多用される例としては、全文字数に対し所定の比率(例えば80%)以上の場合である。JIS第2水準の漢字やひらがな・カタカナも属性判定語の一種である。
In addition, when the JIS second level kanji “弌” (989F) to “熙” (EAA0) is frequently used, it may be determined that the person is over 60 years old. An example of frequent use is when the number of JIS Level 2 Kanji characters is detected at a predetermined number or more, or at a predetermined ratio (for example, 20%) or more with respect to the total number of characters.
A user who frequently uses hiragana and katakana may be determined to be 10 to 20 years old. An example of frequent use is a case where a predetermined ratio (for example, 80%) or more with respect to the total number of characters. JIS level 2 kanji, hiragana and katakana are also types of attribute judgment words.

属性判定語の数、JIS第2水準漢字、ひらがなやカタカナの多用、のそれぞれによる判定結果が異なる場合、最も確度の高い判定結果を用いる。確度に有意な差が確認できない場合は、それぞれを重み付けして判定するか、ユーザ属性を不明とする。   If the determination results for the number of attribute determination words, JIS second level kanji, hiragana and katakana are different, the determination result with the highest accuracy is used. When a significant difference in accuracy cannot be confirmed, each is weighted for determination or the user attribute is unknown.

属性種別のうち性別の判定について説明する。性別はテキストデータ20の性別に特徴的な表現から判定する。女性の場合、テキストデータ20に絵文字や顔文字を多用することが多い。したがって、例えば、属性判定手段22は絵文字や顔文字が多用されている場合、女性であると判定する。多用される例としては、絵文字が所定数以上検出される場合である。   Gender determination among the attribute types will be described. The gender is determined from the gender characteristic expression of the text data 20. In the case of a woman, the text data 20 often uses pictograms and emoticons. Therefore, for example, the attribute determination means 22 determines that it is a woman when pictograms and emoticons are frequently used. An example of frequent use is when a predetermined number or more of pictograms are detected.

また、属性判定DB131に女性及び男性に特有の属性判定語を登録しておく。例えば「僕」、「俺」、「あいつ」、「〜だろ」、「ばかでかい」「メシ」等には男性のユーザ属性が対応づけられ、「あら」、「超ウケる」、「うち(は)」、「うふ」等には女性のユーザ属性が対応づけられる。属性判定手段22は、絵文字の数からは性別の判定が困難な場合、又は、絵文字の数による判定に加え、属性判定DB131を参照して属性判定語を累積し、属性判定語の数から性別を判定する。   In addition, attribute determination words specific to women and men are registered in the attribute determination DB 131. For example, “I”, “I”, “Hetsu”, “~ Daro”, “Bakaka”, “Meshi”, etc. are associated with the user attributes of males. ) ”,“ Ufu ”and the like are associated with female user attributes. The attribute determination means 22 accumulates attribute determination words with reference to the attribute determination DB 131 in addition to determination based on the number of pictograms when gender determination is difficult from the number of pictograms. Determine.

属性種別のうち出身地の判定について説明する。出身地はテキストデータ20の主に方言から判定する。属性判定DB131に方言に特有の属性判定語を登録しておく。例えば、「おかん」「自分(相手のこと)」「キタ」「ミナミ」「マクド」「おもろい」「〜回生」「しんどい」「ぼちぼち」等には、近畿圏の出身地が対応づけられる。   The determination of the birthplace among the attribute types will be described. The birthplace is determined mainly from the dialect of the text data 20. An attribute determination word specific to a dialect is registered in the attribute determination DB 131. For example, “Okan”, “Me (the other party)”, “Kita”, “Minami”, “Mcdo”, “Omoiroi”, “~ Regeneration”, “Shindoi”, “Bochobichi”, etc. are associated with hometowns in the Kinki region.

また、例えば、「ばりかた」「〜ばい」「よか」「ばってん」「くれんね」「こまい」「いっちゃん」等には、九州の出身地が対応づけられる。   Also, for example, “Karikata”, “~ Bai”, “Yoka”, “Batten”, “Kurene”, “Komai”, “Ichichan”, etc. are associated with their hometowns in Kyushu.

また、例えば、「いーが」「どすべ(どうしよう)」「なんした(どうした)」「どっひゃー(元気してる)」「そい(それ)」「がへー(ださい)」「ひゃーろー(じゃあな)」等には、東北圏の出身地が対応づけられる。   Also, for example, “I-ga”, “Dosbe,” “What,” “Dohiya, I ’m doing well,” “Soi,” “Gaha,” “Hyairo.” -(Janana) ", etc. are associated with hometowns in the Tohoku region.

また、例えば、「しばれる」「あずましい(具合がよい)」「げっぱ(最下位)」等には、北海道の出身地が対応づけられる。   In addition, for example, “Hometown”, “Azuma (good condition)”, “Geppa (lowest)”, and the like are associated with the birthplace of Hokkaido.

方言の他にも、その地方の特産品、食べ物、名物、観光名称等、を属性判定DB131に登録しておくことで、出身地を判定することができる。   In addition to dialects, by registering local special products, food, specialties, sightseeing names, etc. in the attribute determination DB 131, the place of origin can be determined.

また、国籍については、テキストデータ20を記述する言語により判定でき、テキストデータ20の外国語(アルファベット)が全文字数に対し所定の比率(例えば100%)以上で検出される場合、外国人(米国・英国)と判定する。   The nationality can be determined by the language in which the text data 20 is described. If a foreign language (alphabet) in the text data 20 is detected at a predetermined ratio (for example, 100%) or more with respect to the total number of characters, a foreigner (US・ British).

宗教については○○教、宗主の氏名、宗教の創始者、戒律の内容を属性判定DB131に登録しておき、テキストデータ20の属性判定語と照らし合わせることで判定することができる。   The religion can be determined by registering the XX religion, the name of the lord, the founder of the religion, and the content of the commandments in the attribute determination DB 131 and comparing them with the attribute determination word of the text data 20.

また、年収層については、物品やブランド名に年収層を対応づけて属性判定DB131に登録しておき、テキストデータ20の属性判定語と照らし合わせることで判定することができる。   The annual salary can be determined by associating the annual salary with an article or brand name and registering it in the attribute determination DB 131 and comparing it with the attribute determination word of the text data 20.

図6は、属性判定DB131のより詳細な構成を示す図である。図6では属性種別に分けることなく、年齢層のユーザ属性の属性判定語、出身地のユーザ属性の属性判定語等が登録されている。各属性判定語は、構成する文字毎に文字コードが登録されるので、テキストデータ20に属性判定語が含まれている場合は、対応するユーザ属性を抽出することができる。   FIG. 6 is a diagram showing a more detailed configuration of the attribute determination DB 131. In FIG. 6, attribute determination words for user attributes in the age group, attribute determination words for user attributes in the birthplace, and the like are registered without being divided into attribute types. Since each attribute determination word has a character code registered for each character constituting the attribute determination word, if the text data 20 includes an attribute determination word, the corresponding user attribute can be extracted.

図7は、属性判定手段22がユーザ属性を判定する手順を示すフローチャート図である。まず、情報処理装置111Aにテキストデータ20が入力される(S10)。例えば、「この間のジャケットめちゃ良かった(^^)。」というテキストデータ20が入力される。   FIG. 7 is a flowchart showing a procedure in which the attribute determination unit 22 determines the user attribute. First, the text data 20 is input to the information processing apparatus 111A (S10). For example, the text data 20 is input as “the jacket was good during this time (^^)”.

属性判定手段22は、テキストデータ20の文字コード、82B1「こ」、82CC「の」…82DF「め」、82BF「ち」、82E1「や」、97C7「良」…0028「(」、005E「^」、005E「^」0029「)」から、属性判定DB131に登録された属性判定語に一致する文字列を抽出する(S20)。   The attribute determination means 22 is the character code of the text data 20, 82B1 “ko”, 82CC “no” ... 82DF “me”, 82BF “chi”, 82E1 “ya”, 97C7 “good” ... 0028 “(”, 005E “ Character strings that match the attribute determination words registered in the attribute determination DB 131 are extracted from “^”, 005E “^” 0029 “)” (S20).

そして、抽出された属性判定語を用いて属性種別毎にユーザ属性を判定する(S30)。図8は、年齢層の属性種別におけるユーザ属性を判定する手順を示すフローチャート図である。   Then, the user attribute is determined for each attribute type using the extracted attribute determination word (S30). FIG. 8 is a flowchart showing a procedure for determining a user attribute in an age group attribute type.

属性判定手段22はJIS第2水準の漢字が所定数以上か否かを判定する(S31)。所定数以上であった場合(S31のYes)、高齢者である可能性が高いので属性判定手段22は60才以上のフラグAを立てる(S34)。   The attribute determining means 22 determines whether or not the number of JIS second level kanji is greater than or equal to a predetermined number (S31). If the number is greater than or equal to the predetermined number (Yes in S31), the attribute determination means 22 sets a flag A of 60 years or older because there is a high possibility of being an elderly person (S34).

JIS第2水準の漢字が所定数以上でない場合(S31のNo)、属性判定手段22はひらがな又はカタカナが所定以上の比率で使用されているか否かを判定する(S32)。ひらがな又はカタカナが所定以上の比率で使用されている場合(S32のYes)、低年齢者である可能性が高いので属性判定手段22は10〜20才以上のフラグBを立てる(S33)。   When the number of JIS second level kanji characters is not equal to or greater than a predetermined number (No in S31), the attribute determination unit 22 determines whether hiragana or katakana is used at a ratio greater than a predetermined value (S32). If hiragana or katakana is used at a predetermined ratio or more (Yes in S32), the attribute determination means 22 sets a flag B of 10 to 20 years old or more because there is a high possibility that the person is a younger person (S33).

ついで、属性判定手段22は各年齢層別に属性判定語をカウントする(S35)。そして、最大カウント数の年齢層にフラグCを立てる(S36)。フラグCが立ったと仮定すると、フラグCとフラグAの少なくとも一方、又は、フラグCとフラグBの少なくとも一方、が立ったことになる。   Next, the attribute determination means 22 counts attribute determination words for each age group (S35). Then, the flag C is set for the age group having the maximum count (S36). Assuming that the flag C is set, at least one of the flag C and the flag A or at least one of the flag C and the flag B is set.

属性判定手段22はフラグAとC、又は、フラグBとCが一致するか否かを判定する(S37)。一致する場合(S37のYes)、そのフラグの年齢層に属するとユーザ属性を判定する(S38)。   The attribute determination unit 22 determines whether the flags A and C or the flags B and C match (S37). If they match (Yes in S37), the user attribute is determined as belonging to the age group of the flag (S38).

一致しない場合(S37のNo)、フラグAとC、又は、フラグBとCのうち確からしい方の年齢層に属するとユーザ属性を判定する(S39)。確からしいとは、ステップS35のカウント数が他の年齢層に比べ突出して大きいか否か等から判定できる。なお、JIS第2水準の判定、ひらがな又はカタカナ多様の判定のみを記載したが、ユーザ属性を判定できるものであればこれに限るものではない。   If they do not match (No in S37), the user attribute is determined to belong to the most probable age group of flags A and C or flags B and C (S39). Probability can be determined from whether or not the count number in step S35 is significantly larger than other age groups. Although only JIS second level judgments and hiragana or katakana judgments are described, the present invention is not limited to this as long as user attributes can be judged.

図6の属性判定DB131及び上記のテキストデータ20からは、例えば、テキストデータ20の作成者は10〜20代のユーザ属性と判定される。   From the attribute determination DB 131 of FIG. 6 and the text data 20 described above, for example, the creator of the text data 20 is determined to be a user attribute in the 10s and 20s.

また、図8の判定を属性種別毎に繰り返すので、例えば、テキストデータ20の作成者は女性のユーザ属性と判定される。   8 is repeated for each attribute type, for example, the creator of the text data 20 is determined as a female user attribute.

属性登録手段23は属性判定手段22が判定したユーザ属性を属性種別毎に属性テーブル132に登録する。図9は、属性テーブル132の一例を示す。属性テーブル132は、年齢層、性別、出身地、国籍、宗教、年収層毎に、ユーザ属性が登録されている。   The attribute registration unit 23 registers the user attribute determined by the attribute determination unit 22 in the attribute table 132 for each attribute type. FIG. 9 shows an example of the attribute table 132. In the attribute table 132, user attributes are registered for each age group, gender, birthplace, nationality, religion, and annual income group.

したがって、以上の構成により、ユーザがテキストデータ20を生成するだけで、ユーザ属性を判定して登録しておくことができる。   Therefore, with the above configuration, the user attribute can be determined and registered simply by generating the text data 20 by the user.

<機器の制御例>
判定されたユーザ属性に応じた機器の制御例について説明する。
図10は、情報処理装置111AとMFP141とを有する印刷システムの構成図を示す。図10の情報処理装置111Aは既に属性テーブル132に年齢層(60才以上)のユーザ属性が登録されている。
<Example of device control>
An example of device control according to the determined user attribute will be described.
FIG. 10 is a configuration diagram of a printing system including the information processing apparatus 111A and the MFP 141. In the information processing apparatus 111 </ b> A of FIG. 10, user attributes of an age group (60 years old or older) are already registered in the attribute table 132.

情報処理装置111Aのアプリケーションソフトウェア27がMFP141にテキストデータ20の印刷を要求したが(S1)、MFP141には印刷に十分な枚数のA4用紙がない場合を想定する。   Assume that the application software 27 of the information processing apparatus 111A requests the MFP 141 to print the text data 20 (S1), but the MFP 141 does not have a sufficient number of A4 sheets for printing.

MFP141はA4用紙が切れた旨のエラーコードを情報処理装置111Aに送信する(S2)。情報処理装置111Aのプリンタアプリケーション(例えば、プリンタドライバ)はこのエラーコードを解釈し、ユーザにエラーメッセージを表示するが、ここでUI制御手段24は、ユーザ属性に応じてエラーメッセージを生成する。   The MFP 141 transmits an error code indicating that the A4 sheet has run out to the information processing apparatus 111A (S2). A printer application (for example, a printer driver) of the information processing apparatus 111A interprets this error code and displays an error message to the user. Here, the UI control unit 24 generates an error message according to the user attribute.

UI制御手段24は属性テーブル132を参照し(S3)、ユーザ属性を抽出する。年齢層のユーザ属性は「60才以上」なので、エラーメッセージを構成する文字を大きくして、エラーメッセージを表示する(S4)。   The UI control means 24 refers to the attribute table 132 (S3) and extracts user attributes. Since the user attribute of the age group is “60 years or older”, the error message is displayed with the characters constituting the error message enlarged (S4).

例えば、通常のエラーメッセージを10ポイントで表示する場合、高齢者のユーザに対しては16ポイントの文字を使用することで、高齢者でも容易にエラーメッセージを視認することができる。文字を太くしてもよい。年齢層に応じてUI(エラーメッセージ)をどのように制御するかは予めUI制御手段24に登録されている。   For example, when a normal error message is displayed at 10 points, the error message can be easily viewed even by the elderly by using 16-point characters for the elderly users. The characters may be thickened. How to control the UI (error message) according to the age group is registered in the UI control unit 24 in advance.

なお、文字サイズ等の変更と共に又は文字サイズ等を変更することなく、エラーメッセージを音声出力する場合に音量を大きくしてもよい。例えば高齢者の場合、「A4用紙が切れています。補充してください。」という音声が大きな音量で出力される。   It should be noted that the volume may be increased when an error message is output by voice with or without changing the character size or the like. For example, in the case of an elderly person, a voice “A4 paper is out. Please replenish.” Is output at a high volume.

ところで、図10では情報処理装置111Aのディスプレイ114にエラーメッセージを表示したが、エラーメッセージはMFP141の表示部にも表示されるので、MFP141のエラーメッセージも大きく表示することが好ましい。   In FIG. 10, an error message is displayed on the display 114 of the information processing apparatus 111A. However, since the error message is also displayed on the display unit of the MFP 141, it is preferable to display the error message of the MFP 141 in a large size.

しかしながら、MFP141は属性テーブル132を記憶していないので、MFP141にユーザ属性を通知する必要がある。この場合、情報処理装置111Aからテキストデータ20を送信するときに、テキストデータ20にユーザ属性を添付して送信すればよい。   However, since the MFP 141 does not store the attribute table 132, it is necessary to notify the MFP 141 of user attributes. In this case, when the text data 20 is transmitted from the information processing apparatus 111A, the user attribute may be attached to the text data 20 for transmission.

また、属性判定手段22はコンピュータを搭載したMFP141でも実行可能なので、MFP141がテキストデータ20からユーザ属性を判定してもよい。テキストデータ20は、文字コードのままMFP141に送信される場合と、情報処理装置111Aでラスタデータに変換されてからMFP141に送信される場合があるが、オフィスユースでは文字コードのままMFP141に送信されるので、MFP141の属性判定手段22は上述の方法でユーザ属性を判定できる。   Further, since the attribute determination unit 22 can be executed by the MFP 141 equipped with a computer, the MFP 141 may determine the user attribute from the text data 20. The text data 20 may be transmitted to the MFP 141 as a character code, or may be transmitted to the MFP 141 after being converted into raster data by the information processing apparatus 111A. However, for office use, the text data 20 is transmitted to the MFP 141 as it is. Therefore, the attribute determination unit 22 of the MFP 141 can determine the user attribute by the method described above.

また、用紙をコピーする場合にも用紙切れ等のエラーが発生する場合があるが、同様に年齢層に応じてエラーメッセージの表示及び/又は音声出力する。この場合、コピー元の原稿をOCR(Optical Character Reader)して原稿から文字コードを検出し、ユーザ属性を判定する。そして、ユーザ属性に応じてエラーメッセージの文字サイズを大きくしたり音量を増大させる。   In addition, when copying paper, an error such as out of paper may occur. Similarly, an error message is displayed and / or voice output according to the age group. In this case, the copy source document is subjected to OCR (Optical Character Reader) to detect a character code from the document, and the user attribute is determined. Then, the character size of the error message is increased or the volume is increased according to the user attribute.

なお、図10では、ユーザ属性に応じて情報処理装置111A又はMFP141のエラーメッセージの文字の大きさを制御したが、例えばフォントの種類を制御してもよい。   In FIG. 10, the character size of the error message of the information processing apparatus 111 </ b> A or the MFP 141 is controlled according to the user attribute. However, for example, the font type may be controlled.

図11は、情報処理装置111AとMFP141とを有する印刷システムの構成図を示す。なお、図11において図10と同一構成部には同一の符号を付しその説明は省略する。図11の情報処理装置111Aは既に属性テーブル132に性別(女性)のユーザ属性が登録されている。   FIG. 11 is a configuration diagram of a printing system including the information processing apparatus 111A and the MFP 141. In FIG. 11, the same components as those in FIG. 10 are denoted by the same reference numerals, and the description thereof is omitted. In the information processing apparatus 111 </ b> A of FIG. 11, the gender (female) user attribute is already registered in the attribute table 132.

ユーザが情報処理装置111Aのアプリケーションソフトウェア27からテキストデータ20を例えばゴシックフォントで表示した状態で印刷操作をすると(S11)、情報処理装置111Aのプリンタアプリケーションは、属性テーブル132を参照する(S12)。   When the user performs a printing operation in a state where the text data 20 is displayed in, for example, Gothic font from the application software 27 of the information processing apparatus 111A (S11), the printer application of the information processing apparatus 111A refers to the attribute table 132 (S12).

情報処理装置111Aのユーザのユーザ属性は女性なので、フォント変更手段25は例えば、テキストデータ20を丸文字に変換して、プレビュー表示する(S13)。すなわち、ユーザ属性が女性の場合、女性らしいかわいらしいフォントに変換して印刷することができる。   Since the user attribute of the user of the information processing apparatus 111A is female, the font changing unit 25 converts, for example, the text data 20 into a round character and displays it as a preview (S13). That is, when the user attribute is female, it can be converted into a feminine font and printed.

ユーザはプレビュー表示を確認して例えばYesを入力すれば、丸文字にフォントが変換されたテキストデータ20がMFP141に送信され、丸文字で印刷される(S14)。また、例えばNoを入力すれば、元のフォントでテキストデータ20がMFP141に送信され、印刷される(S14)。   If the user confirms the preview display and inputs, for example, Yes, the text data 20 in which the font is converted into a round character is transmitted to the MFP 141 and printed in a round character (S14). For example, if No is entered, the text data 20 is transmitted to the MFP 141 in the original font and printed (S14).

したがって、ユーザ属性を登録しておくことでユーザの嗜好に合致した印刷が可能となる。どのようなフォントに変更するかの情報は、予めフォント変更手段25が記憶している。   Therefore, by registering user attributes, printing that matches the user's preference is possible. Information on what font to change is stored in advance by the font changing means 25.

なお、図11のようにフォントを変更する場合においても、MFP141がユーザ属性を判定して、MFP141がユーザ属性に応じた機器制御することができる。   Even when the font is changed as shown in FIG. 11, the MFP 141 can determine the user attribute, and the MFP 141 can control the device according to the user attribute.

この場合、情報処理装置111AからMFP141にテキストデータ20が送信された後、MFP141はユーザ属性に応じて丸文字に変換したプレビュー表示用の画像データをいったん情報処理装置111Aに送信する。そして、これに対しユーザがYes又はNoを入力し、情報処理装置111AからMFP141にYes又はNoの信号を送信することで、丸文字又は元のフォントでテキストデータ20を印刷することができる。   In this case, after the text data 20 is transmitted from the information processing apparatus 111A to the MFP 141, the MFP 141 once transmits image data for preview display converted into a round character according to the user attribute to the information processing apparatus 111A. In response to this, the user inputs Yes or No, and transmits a Yes or No signal from the information processing apparatus 111A to the MFP 141, so that the text data 20 can be printed with a round character or the original font.

したがって、本実施形態の情報処理装置111によりユーザ属性を判定することで、種々の機器を制御することができるようになる。   Therefore, various devices can be controlled by determining the user attribute by the information processing apparatus 111 of the present embodiment.

〔ユーザ属性を用いた機器の制御例〕
ユーザ属性が判定されれば、ユーザ属性に応じて種々の機器を制御することができ、機器の利便性を向上させることができる。本実施形態では、予め定めた文字又は自立語等(以下単に音楽ワードという)がテキストデータ20に含まれている場合に対応する音楽を出力する音楽出力装置、及び、予め定めた文字又は用語(後述の動き設定ワード)がテキストデータ20に含まれている場合にその文字等のフォントのビットマップデータを所定時間毎に書き換える動的フォント装置を例に説明する。
[Example of device control using user attributes]
If the user attribute is determined, various devices can be controlled according to the user attribute, and the convenience of the device can be improved. In the present embodiment, a music output device that outputs music corresponding to a case where a predetermined character or independent word (hereinafter simply referred to as a music word) is included in the text data 20, and a predetermined character or term ( An example of a dynamic font device that rewrites bitmap data of a font such as a character at predetermined time intervals when a motion setting word (to be described later) is included in the text data 20 will be described.

ところで、ユーザ属性の判定では、ユーザ属性とはテキストデータ20を入力したユーザのユーザ属性としたが、機器を制御する場合は機器を利用するユーザのユーザ属性を用いることが好ましくなる。以下の機器の制御例では、ユーザ属性とは制御される機器のユーザのユーザ属性をいうものとする。   By the way, in the determination of the user attribute, the user attribute is the user attribute of the user who has input the text data 20, but it is preferable to use the user attribute of the user who uses the device when controlling the device. In the following device control example, the user attribute means the user attribute of the user of the device to be controlled.

<ユーザ属性による音楽出力装置の制御例>
図12は、音楽出力装置200の機能構成図の一例を示す。属性テーブル132が利用可能であれば音楽出力装置200は情報処理装置111Aと別体でもよいが、本実施形態では情報処理装置111Aが音楽出力装置200を有する。
<Example of control of music output device by user attribute>
FIG. 12 shows an example of a functional configuration diagram of the music output device 200. If the attribute table 132 is available, the music output device 200 may be separate from the information processing device 111A, but the information processing device 111A includes the music output device 200 in this embodiment.

音楽出力装置200は、アプリケーションソフトウェア27が取得するテキストデータ20を検出して、テキストデータ20が含む音楽ワードに応じて音又は音楽(以下、単に音楽という)を出力する。なお、テキストデータ20はキーボード112から入力されてもよいし、記憶装置126から読み出しファイルとして入力されてもよい。   The music output device 200 detects the text data 20 acquired by the application software 27 and outputs sound or music (hereinafter simply referred to as music) according to the music word included in the text data 20. The text data 20 may be input from the keyboard 112 or may be input from the storage device 126 as a read file.

ラスタライザ33は、テキストデータ20が含む文字コードに対応する文字をディスプレイ114に表示できるように、色付きの小さな点の集まりとして表現する。ラスタライザ33はフォントデータDB32を有しており、文字コードに対応するフォントデータをフォントデータDB32から抽出する。   The rasterizer 33 expresses the character corresponding to the character code included in the text data 20 as a collection of small colored dots so that the character can be displayed on the display 114. The rasterizer 33 has a font data DB 32 and extracts font data corresponding to the character code from the font data DB 32.

図13は、フォントデータDB32に格納されているフォントデータと後述する音楽データの一例を示す。フォントデータDB32には、文字コード毎にフォントデータが格納されている。フォントデータは、文字の輪郭を多数の線分に分割して各線分をベジェ曲線という関数より定まる曲線にて表現するため、線分の2つの端点位置、及び、曲線の曲がり具合を制御する1又は2の制御点の位置情報を有する。また、位置情報の他に輪郭の修正情報や塗りつぶしなどの描画情報を有している。   FIG. 13 shows an example of font data stored in the font data DB 32 and music data to be described later. The font data DB 32 stores font data for each character code. In the font data, the outline of a character is divided into a large number of line segments, and each line segment is expressed by a curve determined by a function called a Bezier curve. Therefore, the position of two end points of the line segment and the curve curve 1 are controlled. Alternatively, it has position information of two control points. Further, in addition to the position information, it has drawing correction information such as contour correction information and painting.

ラスタライザ33は、文字コードに対応するフォントデータを抽出して、アプリケーションソフトウェア27が指定する文字サイズのマップに配置し点の集まりとして形成し、アプリケーションソフトウェア27に送出する。これによりアプリケーションソフトウェア27は文字をディスプレイ114に表示できる。   The rasterizer 33 extracts font data corresponding to the character code, arranges it on a character size map designated by the application software 27, forms it as a collection of points, and sends it to the application software 27. As a result, the application software 27 can display characters on the display 114.

これに対し、サウンドライザ31は、文字コードに対応づけられた音楽をスピーカ35により出力する。図13に示したように、フォントデータDB32には、文字コード毎に音楽データが格納されている。音楽データは、一音ずつの音程、長さ、強さ、持続時の変化の仕方などを設定した音楽情報を示している。サウンドライザ31は、文字コードに対応する音楽データを抽出して、音楽情報に基づく音源データ(例えば、FM音源データ、PCM音源データ、MIDI(Musical Instrument Digital Interface)音源データ)を生成する。なお、音楽データとして音源データをフォントデータDB32に格納しておいてもよい。   In contrast, the sound riser 31 outputs music associated with the character code through the speaker 35. As shown in FIG. 13, the font data DB 32 stores music data for each character code. The music data indicates music information in which the pitch, length, strength, how to change the duration, etc. are set for each sound. The sound riser 31 extracts music data corresponding to the character code, and generates sound source data (for example, FM sound source data, PCM sound source data, MIDI (Musical Instrument Digital Interface) sound source data) based on the music information. Note that the sound source data may be stored in the font data DB 32 as music data.

音楽データには、文字の意味をイメージさせる音楽情報が格納されている。例えば、「車」の文字コードに対応して格納された音楽データは、スピーカ35から出力すると「ぶーん」という車が走行する音楽となる。同様にして、例えば、
・文字「烏(からす)」に対しては、「カーカー」という烏が鳴く音楽データが、
・文字「雨」に対しては、「ざーざー」という雨が降る音楽の音楽データが、
・文字「炎」に対しては、「ボーボー」という火が燃える音楽の音楽データが、
・文字「海」に対しては、「ザブーン」という波の音楽の音楽データが、
・文字「走」に対しては、「たったったった」という走る音楽の音楽データが、
それぞれ格納されている。
The music data stores music information that gives an image of the meaning of characters. For example, the music data stored corresponding to the character code of “car” becomes music that the car “Bun” travels when output from the speaker 35. Similarly, for example,
・ For the character “烏”, the music data with the 鳴 “car car”
・ For the character "rain", the music data of the raining music "za-za"
・ For the letter "flame", the music data of the music that burns "Bobo"
・ For the character “Umi”, the music data of the wave music “Zaboon”
・ For the character "Run", the music data of the music that runs "just"
Each is stored.

したがって、テキストデータ20に音楽データに対応づけられた文字コードがある場合、
サウンドライザ31は、その音楽データから音源データを生成して音楽を出力するので、文字のイメージに合致した音楽を出力することができる。サウンドライザ31が生成した音源データは音源IC34に送出され、音源IC34が音源データに基づき予め定められた音色の音楽を、アンプで増幅した後スピーカ35から出力する。
Accordingly, when there is a character code associated with the music data in the text data 20,
Since the sound riser 31 generates sound source data from the music data and outputs the music, it can output the music that matches the character image. The sound source data generated by the sound riser 31 is sent to the sound source IC 34, and the sound source IC 34 amplifies the music of a predetermined tone color based on the sound source data and outputs it from the speaker 35.

そして、本実施形態ではフォントデータDB32に、ユーザ属性に応じて異なる音楽データを格納しておくことで、ユーザ属性に応じて同じ文字でも出力する音楽を変更する。   In this embodiment, by storing different music data according to the user attribute in the font data DB 32, the music to be output even with the same character is changed according to the user attribute.

図14(a)はユーザ属性の一例として年齢層を、図14(b)はユーザ属性の一例として性別をそれぞれ用いた場合の、音楽データが記憶されたフォントデータDB32の一例を示す。図14では、実際にスピーカ35から出力した際の音楽を言葉で置き換えて音楽データを表している。   FIG. 14A shows an example of a font data DB 32 in which music data is stored when an age group is used as an example of a user attribute, and FIG. 14B shows a case where gender is used as an example of a user attribute. In FIG. 14, music data is represented by replacing music when actually output from the speaker 35 with words.

図14(a)には、文字「馬」に対し、20才以下の年齢層には「ぱかぱか」という音楽の音楽データが記憶されており、21〜40才の年齢層には「ぱっかぱっか」という音楽の音楽データが記憶されており、41才以上の年齢層には「ひひーん」という音楽の音楽データが記憶されている。文字「車」、文字「海」についても同様に年齢層に応じて異なる音楽の音楽データが記憶されている。   In FIG. 14 (a), for the character “horse”, music data of “Pakapaka” is stored in the age group under 20 years old, and “Pakapaka” is stored in the age group of 21 to 40 years old. Music data of music is stored, and music data of music called “hi-hi” is stored in the age group of 41 years or older. Similarly, music data of different music depending on the age group is stored for the characters “car” and “sea”.

同様に、図14(b)には、文字「馬」に対し、男性には「ぱかぱか(早)」という音楽の音楽データが記憶されており、女性には「ぱかぱか(遅)」という音楽の音楽データが記憶されている。文字「車」、文字「海」についても同様に性別に応じて異なる音楽の音楽データが記憶されている。   Similarly, in FIG. 14 (b), music data of “Pakapaka (early)” is stored for males and “pakapaka (slow)” for females for the character “horse”. Music data is stored. Similarly, the music data for the character “car” and the character “sea” are stored depending on the gender.

このように、ユーザ属性に応じた音楽を出力することで、年齢層や性別が異なってもユーザにテキストデータ20の内容をイメージさせやすい音楽を出力することができる。   In this way, by outputting music according to user attributes, it is possible to output music that makes it easy for the user to imagine the contents of the text data 20 even if the age group and gender are different.

図13及び図14では、文字毎に音楽データを格納しておくこととしたが、音楽データは音楽ワード毎に格納されていてもよい。図15は、音楽ワードデータベース(DB)36に登録された音楽データの一例を示す。   In FIG. 13 and FIG. 14, the music data is stored for each character, but the music data may be stored for each music word. FIG. 15 shows an example of music data registered in the music word database (DB) 36.

音楽ワードDB36には、音楽ワードコードに対応づけて音楽データが記憶されている。音楽ワードコードは音楽ワードを構成する文字の文字コードである。例えば「ラーメン」という音楽ワードの場合、「ラ」「ー」「メ」「ン」の各文字の文字コードにより構成されている。音楽データは図13と同様であるが、音楽データには、音楽ワードの意味をイメージさせる音楽の音楽データが記憶されている。例えば、
・「ラーメン」に対応して「づーづー」というラーメンをすする音楽の音楽データが、
・「台風」に対しては、「ごーごー」という風が強く吹く音楽の音楽データが、
・「小鳥」に対しては、「ピーチク」という小鳥のさえずる音楽の音楽データが、
・「バイク」に対しては、「ぶるんぶるん」というエンジンの音楽の音楽データが、
・「電車」に対しては、「がとんごとん」という走行時の音楽の音楽データが、
・「時計」に対しては、「ちくたく」という時計の音楽の音楽データが、
それぞれ記憶されている。
The music word DB 36 stores music data in association with the music word code. The music word code is a character code of characters constituting the music word. For example, in the case of a music word “ramen”, it is composed of character codes of “ra”, “−”, “me”, and “n”. The music data is the same as in FIG. 13, but the music data stores the music data of the music that makes the meaning of the music word appear. For example,
・ The music data of the music that makes ramen called “Zu-zu” corresponding to “ramen”
・ For “typhoon”, the music data of music with a strong wind called “gogo”
・ For "bird", the music data of the song tweeted by "bird"
・ For "Bike", the music data of the engine music "Burun Buru"
・ For "Train", the music data of driving music called "Gatongoton"
・ For "clock", the music data of the clock music "Chikutaku"
Each is remembered.

サウンドライザ31は、テキストデータ20に音楽ワードDB36に記憶された音楽ワードがあるか否かをテキストデータ20から検出される毎に判定し、音楽データが登録された音楽ワードが検出された場合、音楽データを抽出する。サウンドライザ31は、該音楽データに基づいて音源データを生成するので、スピーカ35から音楽ワードに対応した音楽を出力することができる。   The sound riser 31 determines whether or not there is a music word stored in the music word DB 36 in the text data 20 every time it is detected from the text data 20, and when a music word in which music data is registered is detected, Extract music data. Since the sound riser 31 generates sound source data based on the music data, the music corresponding to the music word can be output from the speaker 35.

したがって、テキストデータ20の意味をイメージさせやすい音楽ワードに対応した音楽を出力することができるので、テキストデータ20の読み手は容易にテキストデータ20の内容をイメージすることができる。   Therefore, music corresponding to a music word that makes it easy to imagine the meaning of the text data 20 can be output, so that a reader of the text data 20 can easily imagine the contents of the text data 20.

音楽ワードDB36もユーザ属性に応じて異なる音楽データを格納しておくことが好適となる。   The music word DB 36 also preferably stores different music data according to user attributes.

図16(a)はユーザ属性の一例として年齢層を、図16(b)はユーザ属性の一例として性別をそれぞれ用いた場合の、音楽データが記憶された音楽ワードDB36の一例を示す。図16では、実際にスピーカ35から出力した際の音楽を言葉で置き換えて音楽データを表している。   FIG. 16A shows an example of a music word DB 36 in which music data is stored when an age group is used as an example of user attributes, and FIG. 16B shows a case where sex is used as an example of user attributes. In FIG. 16, music data is represented by replacing music when actually output from the speaker 35 with words.

図16(a)には、音楽ワード「ラーメン」に対し、20才以下の年齢層には「づーづー」という音楽の音楽データが記憶されており、21〜40才の年齢層には「つるつる」という音楽の音楽データが記憶されており、41才以上の年齢層には「じゅるじゅる」という音楽の音楽データが記憶されている。音楽ワード「台風」、音楽ワード「小鳥」についても同様に年齢層に応じて異なる音楽の音楽データが記憶されている。   In FIG. 16A, music data “Zu-zu” is stored in the age group of 20 years old or younger for the music word “ramen”, and “smooth” is stored in the age group of 21 to 40 years old. Is stored, and music data of “Jyurjuru” is stored in an age group of 41 years or older. Similarly, the music word “typhoon” and the music word “bird” store music data of different music depending on the age group.

同様に、図16(b)には、音楽ワード「ラーメン」に対し、男性には「ずるずる」という音楽の音楽データが記憶されており、女性には「ちゅるちゅる」という音楽の音楽データが記憶されている。音楽ワード「台風」、音楽ワード「小鳥」についても同様に性別に応じて異なる音楽の音楽データが記憶されている。   Similarly, in FIG. 16 (b), music data of music “zuruzuru” is stored for the music word “ramen”, and music data of music “churuchuru” is stored for the woman. Is remembered. The music word “typhoon” and the music word “bird” also store music data of different music depending on gender.

なお、文字に対応した音楽と複数の文字に対応した音楽は、いずれか一方を出力してもよいし両方を出力してもよい。   Note that either one or both of music corresponding to characters and music corresponding to a plurality of characters may be output.

以上の構成を用いて、音楽出力装置200が入力されたテキストデータ20を用いて音楽を出力する処理の手順を図17のフローチャート図に基づき説明する。図17のフローチャート図は、例えばアプリケーションソフトウェア27が立ち上がって所定のテキストデータ20を読み出すとスタートする。ここでは、情報処理装置111Aが電子メールを受信したものとする。   With reference to the flowchart shown in FIG. 17, a description will be given of the processing procedure for outputting music using the text data 20 input by the music output device 200 using the above configuration. The flowchart of FIG. 17 starts when, for example, the application software 27 is started up and predetermined text data 20 is read out. Here, it is assumed that the information processing apparatus 111A has received an e-mail.

まず、所望のアプリケーションソフトウェア27を立ち上げ、テキストデータ20がキーボード112から入力されたり電子メールとして受信される(S10)。例えば、アプリケーションソフトウェア27が電子メールソフトウェアであった場合、受信した電子メールを開いた場合、本実施形態の音楽出力装置200が起動する。   First, the desired application software 27 is started up, and the text data 20 is input from the keyboard 112 or received as an e-mail (S10). For example, when the application software 27 is e-mail software, when the received e-mail is opened, the music output device 200 of this embodiment is activated.

図18は、電子メールソフトウェアが起動してディスプレイ114に表示されるGUIの一例を示す。電子メールソフトウェアは、コマンド欄41、画面切り替え欄42、受信メール一覧43及び本文表示欄44とを有する。   FIG. 18 shows an example of a GUI displayed on the display 114 when the e-mail software is activated. The e-mail software has a command field 41, a screen switching field 42, a received mail list 43, and a text display field 44.

ユーザが、読みたい電子メールを受信メール一覧43からマウス113等で選択すると、選択された電子メールのテキストデータ20「台風の中、ラーメンを食べに行った」が本文表示欄44に表示される。   When the user selects an e-mail to be read from the received e-mail list 43 with the mouse 113 or the like, the text data 20 “I went to eat ramen in a typhoon” is displayed in the body display column 44. .

サウンドライザ31は、属性テーブル132を参照して情報処理装置111Aのユーザのユーザ属性が登録されているか否かを判定する(S20)。ユーザ属性が既に登録されている場合(S20のYes)、ユーザ属性を抽出する(S30)。ここでは、年齢層のユーザ属性として20代のユーザ属性が抽出されたものとする。   The sound riser 31 refers to the attribute table 132 and determines whether or not the user attribute of the user of the information processing apparatus 111A is registered (S20). If the user attribute has already been registered (Yes in S20), the user attribute is extracted (S30). Here, it is assumed that the user attribute of the twenties is extracted as the user attribute of the age group.

ユーザ属性が登録されていない場合(S20のNo)、例えば、既に情報処理装置111Aに記憶された所定のテキストデータ20から情報処理装置111Aのユーザ属性を判定してもよいし(S40)、受信したテキストデータ20からユーザ属性を代用的に判定してもよい。情報処理装置111Aは普段から使用されているはずなので、ユーザ属性が登録されていない可能性は低い。例えば、ステップS10で入力したテキストデータ20が電子メールでなく、ユーザが自ら入力したものであれば入力したテキストデータ20から情報処理装置111Aのユーザ属性を判定できる。   When the user attribute is not registered (No in S20), for example, the user attribute of the information processing apparatus 111A may be determined from the predetermined text data 20 already stored in the information processing apparatus 111A (S40). Alternatively, the user attribute may be determined from the text data 20 obtained. Since the information processing apparatus 111A should be normally used, there is a low possibility that the user attribute is not registered. For example, if the text data 20 input in step S10 is not an email but is input by the user himself / herself, the user attribute of the information processing apparatus 111A can be determined from the input text data 20.

ついで、サウンドライザ31は、ユーザ属性に応じて「台風の中、ラーメンを食べに行った」の各音楽ワードに対応する音楽データを音楽ワードDB36から抽出し、音楽ワードに対応する音楽データが記憶されているか否かを判定する(S50)。   Next, the sound riser 31 extracts the music data corresponding to each music word “I went to eat ramen in the typhoon” from the music word DB 36 according to the user attribute, and the music data corresponding to the music word is stored. It is determined whether or not it is performed (S50).

本実施形態では、「台風」及び「ラーメン」について音楽データが抽出される。なお、図18では、音楽データが抽出された音楽ワードに下線を付した。   In the present embodiment, music data is extracted for “typhoon” and “ramen”. In FIG. 18, the music word from which the music data is extracted is underlined.

サウンドライザ31は、ユーザ属性に応じて「台風」及び「ラーメン」の音楽データの音源データを生成する(S60)。年齢層のユーザ属性が20代なので、例えば、サウンドライザ31は「台風」という音楽ワードに対して「びゅーびゅー」という音楽を、「ラーメン」という音楽ワードに対して「つるつる」という音楽をそれぞれ出力できるように音源データが生成される。音源データが生成されたら音源IC34は、スピーカ35から該音楽を出力する(S70)。音楽出力装置200は、以上の処理をテキストデータ20が終了するまで繰り返す(S80)。   The sound riser 31 generates sound source data of “typhoon” and “ramen” music data according to the user attribute (S60). Since the user attributes of the age group are in their twenties, for example, the sound riser 31 can output the music “Byubyu” for the music word “Typhoon” and the music “Smooth” for the music word “Ramen”. Thus, sound source data is generated. When the sound source data is generated, the sound source IC 34 outputs the music from the speaker 35 (S70). The music output device 200 repeats the above processing until the text data 20 ends (S80).

したがって、音楽出力装置200はユーザ属性に応じて出力する音楽を制御することができ、使用する機器のユーザに好適な音楽を出力することができる。   Therefore, the music output device 200 can control the music to be output according to the user attribute, and can output music suitable for the user of the device to be used.

・・・音楽出力の優先順位について
図17のフローチャート図では、テキストデータ20に現れる順番に音楽を出力したが、テキストデータ20には優先的に音楽を出力した方がよい音楽ワードが存在することが考えらえる。
------------------------------------- Output order of music In the flowchart of FIG. Can be thought of.

図19は、優先順位を有する音楽ワードDB36の一例を示す。図19で優先順位は整数で表示されており、「1」が最も優先順位が高く、数字が大きくなるほど優先順位が低くなる。図19のように音楽ワードに優先順位が割り振られている場合、優先順位の高いものから順番に又は優先順位の高いものから所定数だけ、出力することができる。   FIG. 19 shows an example of the music word DB 36 having priority. In FIG. 19, the priority is displayed as an integer. “1” has the highest priority, and the larger the number, the lower the priority. When priority levels are assigned to music words as shown in FIG. 19, a predetermined number can be output in order from the highest priority order or from the highest priority order.

サウンドライザ31は、テキストデータ20の所定の一文の中に、音楽データが対応づけられた複数の音楽ワードが含まれている場合、全ての音楽データ又は音源データを蓄積しておき、優先順位の高いものから順番にスピーカ35から出力する。   When a predetermined sentence of the text data 20 includes a plurality of music words associated with music data, the sound riser 31 stores all the music data or sound source data and sets the priority order. Output from the speaker 35 in descending order.

優先順位の設定について説明する。優先順位は例えば3〜10段階程度に設定可能であり、ユーザが各用語毎に任意に設定することができる。   The setting of the priority order will be described. Priorities can be set, for example, in about 3 to 10 stages, and can be arbitrarily set by the user for each term.

図20(a)は、ディスプレイ114に表示される優先順位設定画面の一例を示す図である。図20(a)の画面は、ユーザが優先順位を設定するためのプログラムを起動することで表示される。優先順位を設定するための優先順位設定プログラムは、図19の音楽ワードDB36から音楽ワードと優先順位を読み出し図20(a)のように表示する。   FIG. 20A is a diagram illustrating an example of the priority order setting screen displayed on the display 114. The screen in FIG. 20A is displayed when the user starts a program for setting priorities. The priority order setting program for setting the priority order reads out music words and priorities from the music word DB 36 of FIG. 19 and displays them as shown in FIG.

優先順位設定画面は、上側に音楽ワードの先頭文字を選択するための先頭文字選択欄45を有し、先頭文字を選択するとその先頭文字で始まる音楽ワードの優先順位設定欄46が表示される。図20(a)では先頭文字として「あ」が選択された場合を示す。   The priority order setting screen has a first character selection field 45 for selecting the first character of the music word on the upper side, and when the first character is selected, a priority order setting field 46 of the music word starting with the first character is displayed. FIG. 20A shows a case where “a” is selected as the first character.

優先順位設定欄46は、「あ」行の文字(あいうえお)を先頭文字とする音楽ワードが順番に表示される。音楽ワードの横に優先順位を入力する欄があるので、ユーザは指示に従い例えば1〜10の数値を入力することができる。   In the priority setting column 46, music words having the first character as the character (Aiueo) in the “a” line are displayed in order. Since there is a column for inputting the priority order next to the music word, the user can input a numerical value of 1 to 10, for example, according to the instruction.

優先順位の入力が終了しユーザが終了ボタン47を押下すると、優先順位設定プログラムは、優先順位を音楽ワードDB36に格納する。これにより、ユーザが任意で優先順位を設定することができる。   When the input of the priority order is completed and the user presses the end button 47, the priority order setting program stores the priority order in the music word DB 36. Thus, the user can arbitrarily set the priority order.

また、優先順位は、品詞毎に設定可能であってもよい。図20(b)は優先順位設定画面の別の一例を示す。同様に、ユーザが優先順位を設定するためのプログラムを起動すると図20(b)のような画面が表示される。   Further, the priority order may be set for each part of speech. FIG. 20B shows another example of the priority order setting screen. Similarly, when the user starts a program for setting priorities, a screen as shown in FIG. 20B is displayed.

図20(b)では、品詞の例として名詞、動詞、形容詞(形容動詞)、副詞及び感動詞が表示されそれぞれに対応して優先順位の入力欄が表示されている。ユーザは自分の好みに応じて品詞毎に優先順位を入力できる。また、図20(b)では、品詞としての分類が困難であるが、品詞の一分類として擬音の優先順位の入力欄が表示されている。擬音(又は擬態語)は人や動物の声や物音をその音に似た形で描写したり、人や物の動き・様子を感覚的に描写したりするための言葉であり、例えば、「ひやり、どきどき、ぎらぎら、ドシュッ」などが該当する。擬音語は、音に似た響きを言葉で表現した音楽ワードなので、擬音語の優先順位を高く設定することで、文章の内容を音楽で出力した場合に有効である。   In FIG. 20B, nouns, verbs, adjectives (adjective verbs), adverbs, and impression verbs are displayed as examples of parts of speech, and priority order input fields are displayed correspondingly. The user can input a priority for each part of speech according to his / her preference. Further, in FIG. 20B, although classification as part of speech is difficult, an input column for the priority order of onomatopoeia is displayed as one classification of part of speech. An onomatopoeia (or mimetic word) is a word used to describe the voice or sound of a person or animal in a form similar to that sound, or to sensuously describe the movement or state of a person or object. "Dodoki, pounding, glare, doshu". An onomatopoeia is a music word that expresses a sound resembling sound, and is effective when the content of a sentence is output as music by setting a higher priority of the onomatopoeia.

サウンドライザ31は、テキストデータ20が入力されると図19の音楽ワードDB36を参照し、テキストデータ20に含まれる各音楽ワード毎に対応する音楽データ及び優先順位を抽出しておき、優先順位の高い順に音楽データをソートする。   When the text data 20 is input, the sound riser 31 refers to the music word DB 36 in FIG. 19 and extracts the music data and the priority order corresponding to each music word included in the text data 20, Sort music data in descending order.

そして、サウンドライザ31は、ソートされた音楽データから順番に音源データを生成しスピーカ35から出力する。なお、音源データがそのまま音楽ワードDB36に格納されている場合、直接音源データを抽出すればよい。   The sound riser 31 generates sound source data in order from the sorted music data and outputs the sound source data from the speaker 35. When the sound source data is stored in the music word DB 36 as it is, the sound source data may be directly extracted.

例えば、図17のフローチャート図の処理では台風の「びゅーびゅー」に次いで、ラーメンの「つるつる」という音楽が出力されたが、ラーメンの優先順位が台風よりも高い場合、「つるつる」に次いで、「びゅーびゅー」という音楽が出力される。   For example, in the process of the flowchart of FIG. 17, the music “ramyutsuru” of ramen was output after “viewby” of the typhoon. Is output.

なお、優先順位の同じ音楽ワードが一文に含まれていた場合、一文中に出現する順番に音楽を出力する。また、優先順位の高い順でなく低い順に音楽を出力してもよい。   When music words having the same priority are included in one sentence, the music is output in the order of appearance in the sentence. In addition, music may be output in the order of low priority instead of high priority.

また、音楽ワードDB36に予め優先順位が登録されていない場合であっても、音楽を出力する順番を変えることができる。   Even if the priority order is not registered in advance in the music word DB 36, the order in which music is output can be changed.

例えば、一文を形態素解析した場合に、主語と述語に相当する音楽ワードに音楽データが与えられていれば、主語と述語の音楽ワードの音楽を優先的に(最初に)出力する。「猫が犬に追いかけられて走り出した」のような文章では、主語が「猫」、述語が「走り出した」であるので、猫に対応する音楽「ニャー」に続いて「タタタ」という音楽が出力され、ユーザは音楽を聴くことで文章の内容をイメージしやすくなる。   For example, when morphological analysis is performed on one sentence, if music data is given to music words corresponding to the subject and the predicate, the music of the music words of the subject and the predicate is preferentially output (first). In a sentence like "The cat started running after being chased by a dog", the subject is "cat" and the predicate is "running". It is output and it becomes easy for the user to imagine the content of the sentence by listening to music.

また、係り受け関係がない又は遠い音楽ワード間の音楽を出力する場合、係り受け関係のない音楽ワードの音楽を出力するまでの時間を長めにすることで、ユーザは音楽により文章の内容をイメージしやすくなる。例えば「明日、海へ行ってビールを飲もう」という文章であれば、「海」は「行く」に係り、「ビール」は「飲もう」に係る。音楽ワードDB36に「海」、「ビール」及び「飲」に対応する音楽データが格納されている場合、「海(ザブーン)」の音楽を出力した後、通常よりも時間間隔をあけ、「ビール(シュポッ)」と「飲(ごくごく)」の間は通常通りの時間間隔で出力する。これにより、音楽を出力する時間間隔で音楽ワード間の意味の結びつきを知ることができる。   In addition, when outputting music between music words that have no dependency relationship or are far from each other, the user can imagine the content of the sentence by music by lengthening the time until the music of the music word that has no dependency relationship is output. It becomes easy to do. For example, in the sentence “let's go to the sea tomorrow and drink beer”, “the sea” is related to “go” and “beer” is related to “let's drink”. When music data corresponding to “sea”, “beer”, and “drinking” is stored in the music word DB 36, after outputting the music of “the sea (Zaboon)”, a time interval is set longer than usual, and “beer” (Spot) "and" Drink (very) "are output at regular time intervals. Thereby, it is possible to know the connection of meaning between music words at the time interval of outputting music.

以上のように、音楽ワードに対応した音楽の出力に優先順位を設けることで、テキストデータ20の意味をより伝えやすくすることができる。   As described above, by giving priority to the output of music corresponding to the music word, the meaning of the text data 20 can be more easily transmitted.

・・・電子メールの着信音
電子メールにより送信されたテキストデータ20が含む音楽ワードに対応する音楽を電子メールの着信音として出力できれば、電子メールを受信したユーザは電子メールの内容を音楽により把握できて便利である。
... E-mail ringtone If the music corresponding to the music word included in the text data 20 sent by e-mail can be output as the e-mail ringtone, the user who received the e-mail can grasp the contents of the e-mail from the music. It is possible and convenient.

情報処理装置111A(PC)の場合、電子メールソフトウェアが新着の電子メールを受信すると、電子メールソフトウェア又はOSが予め設定された所定の音楽ファイル(WAVEやMP3等)が再生して電子メールを受信した旨を知らせる音楽を出力する。   In the case of the information processing apparatus 111A (PC), when the e-mail software receives a new e-mail, the e-mail software or a predetermined music file (such as WAVE or MP3) preset by the OS is played and the e-mail is received. The music that informs you that it has been output is output.

また、情報処理装置111B(携帯電話)の場合、携帯電話が電子メールを受信するとOSが予め設定された所定のMIDIデータなどの音源データを抽出し、音源IC34を介して当該音楽を出力する。また、情報処理装置111Bでは送信元のメールアドレスに応じて抽出する音源データを可変とすることもできる。   In the case of the information processing apparatus 111B (mobile phone), when the mobile phone receives an e-mail, the OS extracts sound source data such as predetermined MIDI data set in advance, and outputs the music via the sound source IC. In the information processing apparatus 111B, the sound source data to be extracted can be made variable according to the mail address of the transmission source.

本実施形態では、予め定められた着信音の代わりに電子メールのテキストデータ20が含む音楽ワードに対応した音楽を出力する。   In the present embodiment, music corresponding to the music word included in the text data 20 of the e-mail is output instead of the predetermined ringtone.

図21は、電子メールの着信音を音楽ワードに応じて出力する音楽出力装置200の機能構成図を示す。なお、図21において図12と同一構成部には同一の符号を付しその説明は省略する。   FIG. 21 is a functional configuration diagram of a music output device 200 that outputs an incoming ringtone of an electronic mail according to a music word. In FIG. 21, the same components as those in FIG. 12 are denoted by the same reference numerals, and the description thereof is omitted.

図21ではテキストデータ20として電子メールが送信される。また、アプリケーションソフトウェア27は、情報処理装置111A(PC)の場合、電子メールソフトウェアであり、情報処理装置111C(携帯電話)の場合、電子メールの受信時に音楽を出力したりLEDを点灯させるOS又はOSが提供するプログラムである。   In FIG. 21, an e-mail is transmitted as the text data 20. The application software 27 is e-mail software in the case of the information processing apparatus 111A (PC), and in the case of the information processing apparatus 111C (cellular phone), the application software 27 outputs an OS or outputs an LED when an e-mail is received. This is a program provided by the OS.

例えば、電子メールソフトウェアやOSが出力する着信音の代わりに、音楽ワードに対応する音楽を出力する設定の場合、電子メールソフトウェアやOSは電子メールを受信しても、着信音を出力せず、サウンドライザ31にテキストデータ20を送出する。   For example, in the case of setting to output music corresponding to a music word instead of the ring tone output from the e-mail software or OS, the e-mail software or OS does not output the ring tone even when receiving the e-mail. The text data 20 is sent to the sound riser 31.

サウンドライザ31は、属性テーブル132を参照してユーザ属性を抽出し、テキストデータ20の音楽ワードを抽出した後、ユーザ属性に応じて音楽ワードDB36から音楽ワードに対応づけられた音楽データを抽出し、音楽を出力する。したがって、電子メールの着信音を、ユーザ属性に応じて可変とすることができる。   The sound riser 31 extracts user attributes with reference to the attribute table 132, extracts music words of the text data 20, and then extracts music data associated with the music words from the music word DB 36 according to the user attributes. , Output music. Therefore, it is possible to change the ringtone of the e-mail according to the user attribute.

図22は、音楽出力装置200が電子メールを受信した場合に、着信音の代わりに電子メールが含む音楽ワードに対応した音楽を出力する処理手順のフローチャート図である。なお、図22では携帯電話が電子メールを受信する場合について説明する。   FIG. 22 is a flowchart of a processing procedure for outputting music corresponding to the music word included in the e-mail instead of the ring tone when the music output device 200 receives the e-mail. Note that FIG. 22 illustrates a case where the mobile phone receives an e-mail.

携帯電話の電源が入っている場合、アプリケーションソフトウェア(電子メールソフトウェア又はOS)27は電子メールの着信があるか否かの判定を繰り返す(S110)。そして、電子メールが着信すると、アプリケーションソフトウェア27は、電子メールに含まれるテキストデータ20をサウンドライザ31に送出する(S120)。図22のフローチャート図では、例えば「台風の中、ラーメンを食べに行った」というテキストデータ20がサウンドライザ31へ送出される。   When the mobile phone is turned on, the application software (e-mail software or OS) 27 repeats the determination as to whether there is an incoming e-mail (S110). When the e-mail arrives, the application software 27 sends the text data 20 included in the e-mail to the sound riser 31 (S120). In the flowchart of FIG. 22, for example, text data 20 that says “I went to eat ramen in a typhoon” is sent to the sound riser 31.

サウンドライザ31は、属性テーブル132から情報処理装置111Bのユーザの属性情報を抽出する(S130)。例えば、女性のユーザ属性が抽出されたものとする。   The sound riser 31 extracts the attribute information of the user of the information processing apparatus 111B from the attribute table 132 (S130). For example, it is assumed that female user attributes are extracted.

サウンドライザ31は、テキストデータ20に含まれる各音楽ワードについて音楽ワードDB36を参照し対応づけて格納された音楽データをユーザ属性に応じて抽出する。音楽ワードDB36は、優先順位を有してもいなくてもよい。   The sound riser 31 refers to the music word DB 36 for each music word included in the text data 20 and extracts music data stored in association with each other according to the user attribute. The music word DB 36 may or may not have priority.

音楽データが抽出された場合はそれらを蓄積しておき、サウンドライザ31は音楽データが抽出されたことを示すフラグを当該電子メールに設定する。なお、音源データがそのまま音楽ワードDB36に格納されている場合、直接音源データを抽出する。   If music data is extracted, they are stored, and the sound riser 31 sets a flag indicating that the music data has been extracted in the e-mail. When the sound source data is stored in the music word DB 36 as it is, the sound source data is directly extracted.

そして、アプリケーションソフトウェア27はフラグを参照して、電子メール中に音楽データが存在したか否かを判定する(S140)。電子メール中に音楽データが存在した場合(S140のYes)、サウンドライザ31は蓄積した音楽データに基づき音源データを生成し音源IC34に送出する(S150)。これにより、音楽ワードに対応した音楽がスピーカ35から出力される(S160)。   Then, the application software 27 refers to the flag and determines whether or not music data is present in the e-mail (S140). If music data is present in the e-mail (Yes in S140), the sound riser 31 generates sound source data based on the stored music data and sends it to the sound source IC 34 (S150). Thus, music corresponding to the music word is output from the speaker 35 (S160).

女性のユーザ属性では台風により「ぴゅーぴゅー」という音楽が、ラーメンにより「ちゅるちゅる」という音楽が、それぞれ出力される。   In the female user attribute, music “Pyu Pyu” is output by the typhoon, and music “Churu Churu” is output by the ramen.

したがって、予め設定されている着信音ではなく、電子メールの文章の内容に応じた音楽をユーザの属性に応じて出力することができる。なお、音楽ワードの音楽の音量や鳴動時間は予め設定されている。   Therefore, music corresponding to the content of the e-mail text can be output according to the user's attribute instead of the preset ringtone. Note that the music volume and ringing time of the music word are preset.

また、電子メール中に対応した音楽データが存在しない場合(S140のNo)、アプリケーションソフトウェア27は予め設定されている着信音をスピーカ35から出力する(S170)。   If there is no corresponding music data in the e-mail (No in S140), the application software 27 outputs a preset ringtone from the speaker 35 (S170).

以上のように、電子メールが着信した時に、電子メールの文書が含む音楽ワードに基づき音楽が出力されるので、ユーザは着信音により電子メールの内容を理解又は推測することができる。音楽は、ユーザ属性に応じてかわるので、ユーザの嗜好に合致した音楽を出き、電子メールの内容の理解や推測を容易にする。   As described above, when an e-mail arrives, music is output based on the music word included in the e-mail document, so that the user can understand or guess the contents of the e-mail from the ring tone. Since music changes according to user attributes, music that matches the user's preference is output, and the contents of the e-mail are easily understood and guessed.

・・・電子メールサーバによる音源データの生成
これまでは携帯電話又はパソコンに搭載されたサウンドライザ31が音源データを生成しそのまま出力していたが、電子メールサーバに搭載されたサウンドライザ31がユーザ属性に応じて音源データをクライアントに送信し、クライアントが受信した音源データを再生する実施形態について説明する。
... Generation of sound source data by e-mail server Up until now, the sound riser 31 mounted on a mobile phone or personal computer has generated sound source data and output it as it is, but the sound riser 31 mounted on the e-mail server is the user. An embodiment will be described in which sound source data is transmitted to the client in accordance with the attribute, and the sound source data received by the client is reproduced.

図23は電子メールの配信システムの全体構成図を示す。携帯電話やPHS(以下、単に発信端末51という)の場合、発信端末51から発信された電波(電子メール)は所定の面積をカバーするように配置された基地局に受信され、電子メールは基地局から電話網を介してメールサーバ52に送信される。メールサーバ52は送信先アドレスが付与された電子メールをネットワークに送出し、SMTP等のプロトコルに従い、受信端末54の存在を検出している基地局から受信端末54に電子メールが送信される。   FIG. 23 shows an overall configuration diagram of an electronic mail distribution system. In the case of a mobile phone or a PHS (hereinafter simply referred to as the transmitting terminal 51), the radio wave (e-mail) transmitted from the transmitting terminal 51 is received by a base station arranged so as to cover a predetermined area, and the e-mail is transmitted to the base station. The data is transmitted from the station to the mail server 52 via the telephone network. The mail server 52 sends an electronic mail to which the transmission destination address is given to the network, and the electronic mail is transmitted from the base station detecting the presence of the reception terminal 54 to the reception terminal 54 according to a protocol such as SMTP.

また、パソコン53に電子メールを送信する場合、メールサーバ52はパソコン53が加入している例えばプロバイダのメールサーバ(不図示)に電子メールを送信し、プロバイダのメールサーバからパソコン53に電子メールが送信される。   Further, when sending an e-mail to the personal computer 53, the mail server 52 sends an e-mail to a mail server (not shown) of a provider to which the personal computer 53 is subscribed, and the e-mail is sent from the provider's mail server to the personal computer 53. Sent.

本実施例では、発信端末51、及び、受信端末54又はパソコン53(以下、区別せず単に受信端末54という)のいずれも音源データを生成せず、メールサーバ52が電子メールの文章に応じて音源データを生成し、電子メール及び音源データを受信端末54に送信する。   In this embodiment, neither the transmission terminal 51, the reception terminal 54, nor the personal computer 53 (hereinafter referred to simply as the reception terminal 54) generates sound source data, and the mail server 52 responds to the e-mail text. Sound source data is generated, and e-mail and sound source data are transmitted to the receiving terminal 54.

ところで、送信者が音源データの添付を所望しない場合もある。そこで、送信者は音源データを受信端末54に送信したい場合、電子メールを送信する時に音源データを受信端末54に送信することをメールサーバ52に依頼する。音源データの送信を依頼する場合、送信者は発信端末51のメールソフトウェアに設けられたラジオボタンを選択する等の簡易な構成で実現できる。   Incidentally, there are cases where the sender does not want to attach sound source data. Therefore, when the sender wants to send the sound source data to the receiving terminal 54, the sender requests the mail server 52 to send the sound source data to the receiving terminal 54 when sending an e-mail. When requesting transmission of sound source data, the sender can be realized with a simple configuration such as selecting a radio button provided in the mail software of the transmission terminal 51.

ラジオボタンの選択等、送信者の指示がある場合、発信端末51の電子メールソフトウェアは、音楽付加依頼情報を当該電子メールと共にメールサーバ52に送信する。音楽付加依頼情報は、HTMLメール(例えばデコメール(登録商標))のように所定のタグに記述されるようにしてもよいし、ヘッダ部の例えば「Subject」に記述される「題名」の最後に特殊な記号を付加したり、添付ファイルとして送信される。   When there is an instruction from the sender such as selection of a radio button, the electronic mail software of the transmission terminal 51 transmits the music addition request information to the mail server 52 together with the electronic mail. The music addition request information may be described in a predetermined tag such as HTML mail (for example, Deco-mail (registered trademark)), or the end of the “title” described in “Subject” in the header portion, for example. A special symbol is added to or sent as an attached file.

なお、受信者側が音源データの受信を所望しない場合、予めメールサーバ52にその旨の設定をしておけばよい。   If the receiver does not want to receive the sound source data, a setting to that effect may be made in advance in the mail server 52.

図24はメールサーバ52に搭載された音楽出力装置200のブロック図を示す。なお、図24において図12と同一部分には同一の符号を付しその説明は省略する。メールサーバ52はアプリケーションソフトウェア27の代わりにサービスプログラム48を有し、また、メールサーバ52は文字を表示するわけではないのでラスタライザ33を有さず、音楽を出力しないので音源IC34やスピーカ35を有さない。   FIG. 24 shows a block diagram of the music output device 200 mounted on the mail server 52. In FIG. 24, the same parts as those in FIG. The mail server 52 has a service program 48 instead of the application software 27, and since the mail server 52 does not display characters, the mail server 52 does not have the rasterizer 33 and does not output music, and therefore has the sound source IC 34 and the speaker 35. No.

サービスプログラム48は、電子メールからテキストデータ20を抽出する機能及び生成された音源データを元の電子メールに添付して、ネットワークに送出するメールサーバプログラムである。例えば、メールサーバで使用されることがあるSendmail(登録商用)ソフトウェアを利用する。なお、メールサーバ52における音源データの生成方法は図12等で説明した手順と同じであるので説明は省略する。   The service program 48 is a mail server program that extracts the text data 20 from the e-mail and attaches the generated sound source data to the original e-mail and sends it to the network. For example, Sendmail (registered commercial) software that may be used in a mail server is used. The method for generating sound source data in the mail server 52 is the same as the procedure described with reference to FIG.

ところで、ユーザ属性に応じた音源データを添付するには、メールサーバ52が属性テーブル132を記憶している必要がある。メールサーバ52が属性テーブル132を記憶しておく方法は、各ユーザから登録しておく方法と、電子メールのテキストデータ20から属性判定手段22がユーザ属性を判定し、属性テーブル132に記憶しておく方法がある。   By the way, in order to attach the sound source data corresponding to the user attribute, the mail server 52 needs to store the attribute table 132. The mail server 52 stores the attribute table 132 by registering from each user, or by the attribute determination means 22 determining the user attribute from the text data 20 of the e-mail and storing it in the attribute table 132. There is a way to keep it.

なお、属性判定手段22が判定するユーザ属性は電子メールの送信元のユーザのユーザ属性であるので、属性登録手段23はユーザの識別情報に対応づけてユーザ属性を登録しておき、当該ユーザが送信先となった場合に事前に記憶しておいたユーザ属性を参照する。いずれの方法を採用しても、メールサーバ52のサウンドライザ31は電子メールの送信先のユーザのユーザ属性に応じて、音源データを電子メールに添付することができる。   Since the user attribute determined by the attribute determination unit 22 is the user attribute of the user who sent the email, the attribute registration unit 23 registers the user attribute in association with the user identification information, and the user Refer to the user attribute stored in advance when it becomes the transmission destination. Whichever method is adopted, the sound riser 31 of the mail server 52 can attach the sound source data to the e-mail according to the user attribute of the user to whom the e-mail is transmitted.

図25はメールサーバ52の音楽出力装置200が音源データを添付する処理手順を示すフローチャート図である。   FIG. 25 is a flowchart showing a processing procedure in which the music output device 200 of the mail server 52 attaches sound source data.

まず、サービスプログラム48は、電子メールを受信する(S210)。電子メールの文章は、例えば「台風の中、ラーメンを食べに行った」である。そしてサービスプログラム48は、電子メールと共に音楽付加依頼情報が送信されているか否かを判定する(S220)。   First, the service program 48 receives an e-mail (S210). The text of the e-mail is, for example, “I went to eat ramen in a typhoon”. Then, the service program 48 determines whether or not the music addition request information is transmitted together with the electronic mail (S220).

音楽付加依頼情報がなければ(S220のNo)、サービスプログラム48はそのまま電子メールが受信端末54に送信される(S260)。   If there is no music addition request information (No in S220), the service program 48 transmits the e-mail as it is to the receiving terminal 54 (S260).

音楽付加依頼情報がある場合(S220のYes)、サービスプログラム48は電子メール中のテキストデータ20を抽出し、サウンドライザ31に送出する。サウンドライザ31は電子メールの宛先のユーザのユーザ属性を属性テーブル132から抽出する(S230)。例えば、男性のユーザ属性が抽出される。   When there is music addition request information (Yes in S220), the service program 48 extracts the text data 20 in the e-mail and sends it to the sound riser 31. The sound riser 31 extracts the user attribute of the destination user of the e-mail from the attribute table 132 (S230). For example, male user attributes are extracted.

そして、サウンドライザ31は、音楽ワードに対応した音楽データを音楽ワードDB36から抽出し、音源データを生成する(S240)。台風、ラーメンの音楽ワードに対し、男性のユーザ属性で抽出される音源データはそれぞれ「ぶぉんぶぉん」「ずるずる」である。
なお、メールサーバ52は比較的大容量の音楽ワードDB36を有することができるので、音楽ワードに対応した音源データを直接抽出するように構成してもよい。
Then, the sound riser 31 extracts music data corresponding to the music word from the music word DB 36, and generates sound source data (S240). For typhoon and ramen music words, the sound source data extracted by the male user attribute is “bubu bu bun” and “zuru zuru”, respectively.
Since the mail server 52 can have a relatively large-capacity music word DB 36, it may be configured to directly extract sound source data corresponding to the music word.

ついで、サービスプログラム48は音源データを電子メールに添付し、また、電子メールから音楽付加依頼情報を削除する(S250)。音楽付加依頼情報を削除することで、受信端末54に余計な情報を送信することが防止できる。サービスプログラム48は、音源データが添付された電子メールを送信する(S260)。以上のようにして、電子メールと共にユーザ属性に応じた音源データが受信端末54に送信される。   Next, the service program 48 attaches the sound source data to the e-mail and deletes the music addition request information from the e-mail (S250). By deleting the music addition request information, it is possible to prevent unnecessary information from being transmitted to the receiving terminal 54. The service program 48 transmits an e-mail attached with sound source data (S260). As described above, the sound source data corresponding to the user attribute is transmitted to the receiving terminal 54 together with the electronic mail.

図26は受信端末54が電子メールと共に音源データを受信して着信音として音楽を出力する手順を示すフローチャート図である。   FIG. 26 is a flowchart showing a procedure in which the receiving terminal 54 receives sound source data together with an e-mail and outputs music as a ringtone.

携帯電話の電源が入っている場合、受信端末54のアプリケーションソフトウェア(電子メールソフトウェア)27は電子メールの着信があるか否かの判定を繰り返す(S310)。そして、電子メールが着信すると、アプリケーションソフトウェア27は、電子メールに音源データが添付されているか否かを判定する(S320)。音源データが添付されているか否かの判定は、所定の拡張子の添付ファイルが添付されているか否かにより判定される。   When the mobile phone is turned on, the application software (e-mail software) 27 of the receiving terminal 54 repeats the determination of whether there is an incoming e-mail (S310). When the e-mail arrives, the application software 27 determines whether or not sound source data is attached to the e-mail (S320). Whether or not sound source data is attached is determined by whether or not an attached file with a predetermined extension is attached.

電子メールに音源データが添付されていない場合(S320のNo)、アプリケーションソフトウェア27は予め設定されている着信音をスピーカ35から出力する(S340)。   When the sound source data is not attached to the e-mail (No in S320), the application software 27 outputs a preset ringtone from the speaker 35 (S340).

電子メールに音源データが添付されている場合(S320のYes)、アプリケーションソフトウェア27は添付されている音源データに基づき音楽を出力する(S330)。すなわち、受信端末54のスピーカ35から「ぶぉんぶぉん」「ずるずる」という音楽が出力される。これにより、電子メールの内容に応じた音楽を着信音として出力することができ、着信音により電子メールの内容をイメージすることができる。また、受信者のユーザ属性に応じた音楽が出力できるので、内容の把握がより容易になる。   If sound source data is attached to the e-mail (Yes in S320), the application software 27 outputs music based on the attached sound source data (S330). In other words, the music “Bumbu Bun” and “Suzuzuru” are output from the speaker 35 of the receiving terminal 54. Thereby, music according to the content of the e-mail can be output as a ring tone, and the content of the e-mail can be imaged by the ring tone. In addition, since music corresponding to the user attribute of the recipient can be output, it becomes easier to grasp the contents.

なお、本実施例では、電子メールに添付された音源データを着信音として出力したが、音源データが添付されている場合も予め設定されている着信音を出力し、電子メールがオープンされた時に添付された音源データにより音楽を出力してもよい。   In this embodiment, the sound source data attached to the e-mail is output as a ring tone. However, when the sound source data is attached, a preset ring tone is output and the e-mail is opened. Music may be output using the attached sound source data.

<ユーザ属性による動的フォント装置の制御例>
液晶などの表示装置に表示された文字、絵文字、数値、記号(以下、単に文字という)は、その輪郭が変化することがなく、例えば、「火」という文字をある位置に表示すると「火」という文字の一部の郭線の配置や太さ、形状が変化しない。
<Example of control of dynamic font device by user attribute>
Characters, pictograms, numerical values, and symbols (hereinafter simply referred to as characters) displayed on a display device such as a liquid crystal display have no change in outline. For example, when a character “fire” is displayed at a certain position, “fire” is displayed. The arrangement, thickness, and shape of some of the outlines of the characters are not changed.

表示された文字に動きを持たせるためには、文字の構成を段階的に変えたビットマップ形式のイラストを紙芝居のように置き換える方法が考えられるが、同一の文字としてその構成が異なる文字のイラストを何枚も準備すると、記憶容量を圧迫してしまう。   In order to give movement to the displayed characters, it is possible to replace the bitmap format illustration with the character composition changed step by step like a picture-story show, but illustrations of characters with different composition as the same character If you prepare a large number of images, the storage capacity will be reduced.

本実施形態の動的フォント装置300は、記憶容量を増大させることなく、表示される文字に動きを持たせ、多彩な表現方法を実現させることができる。   The dynamic font device 300 according to the present embodiment can realize a variety of expression methods by causing the displayed characters to move without increasing the storage capacity.

図27は、動的フォント装置300の機能構成図の一例である。動的フォント装置300は、ラスタライザ33、ディスプレイ114、フォントデータDB32、各文字の動作内容を規定する動作設定ファイル63、ラスタライザ33に経過時間などを連絡するタイマ61、各文字の動作内容を記録しているメモリ62、を有する。ラスタライザ33は図12と同様であるので説明を省略する。   FIG. 27 is an example of a functional configuration diagram of the dynamic font device 300. The dynamic font device 300 records the rasterizer 33, the display 114, the font data DB 32, the operation setting file 63 that defines the operation content of each character, the timer 61 that informs the rasterizer 33 of the elapsed time, and the operation content of each character. A memory 62. The rasterizer 33 is the same as that shown in FIG.

図28は、フォントデータDB32のデータ構成例を示す図である。図28(a)は、所定の文字に対応付けられた文字コード、該文字を構成する要素のうち基本的な要素となる基本エレメントコード、該文字を構成する要素のうち時間の経過と共に更新される構成要素(記号要素)であるエレメントコード、基本エレメントコードの形状情報、エレメントの形状情報、が関連づけられて格納されている。   FIG. 28 is a diagram illustrating a data configuration example of the font data DB 32. FIG. 28A shows a character code associated with a predetermined character, a basic element code serving as a basic element among the elements constituting the character, and updated with the passage of time among elements constituting the character. Element code, which is a constituent element (symbol element), basic element code shape information, and element shape information are stored in association with each other.

図28(a)の例によれば、基本エレメントコードF040に対し、エレメントコードF041、F042,F043,F044のうちいずれか又は複数が、1つの文字として表示される。   According to the example of FIG. 28A, one or more of the element codes F041, F042, F043, and F044 are displayed as one character with respect to the basic element code F040.

図28(b)は、例えば「火」という文字に対応する文字コード898Aにおいて、基本エレメントコードF040及びエレメントコードF044に基づいて、文字をビットマップ形式で生成し表示した例を示す。この場合、図28(a)の基本エレメント形状71とエレメント形状75が組み合わされ、火という文字が生成され表示される。   FIG. 28B shows an example in which characters are generated and displayed in a bitmap format based on the basic element code F040 and the element code F044 in the character code 898A corresponding to the character “fire”, for example. In this case, the basic element shape 71 and the element shape 75 in FIG. 28A are combined, and the letters “fire” are generated and displayed.

このように、フォントデータDB32は、1つの文字コードに対し、1つの基本エレメントコードと複数のエレメントコードを対応させて格納するので、同一の文字コードでありながら種々の構成で表示することが可能となる。また、基本エレメントコードの形状情報だけを格納するので記憶容量が節約できる。なお、基本エレメント形状情報及びエレメント形状情報はアウトラインデータで記述されている。   Thus, since the font data DB 32 stores one basic element code and a plurality of element codes in association with one character code, it can be displayed in various configurations while being the same character code. It becomes. Further, since only the basic element code shape information is stored, the storage capacity can be saved. The basic element shape information and the element shape information are described by outline data.

そして、本実施形態のフォントデータDB32は、さらにユーザ属性に対応づけてエレメント形状情報を記憶している。図29は、ユーザ属性に対応付けられたエレメント形状情報を有するフォントデータDB32の一例を示す。図29では、ユーザ属性の一例として年齢層を用いている。   The font data DB 32 of this embodiment further stores element shape information in association with user attributes. FIG. 29 shows an example of the font data DB 32 having element shape information associated with user attributes. In FIG. 29, an age group is used as an example of user attributes.

ユーザ属性に関わらず1つの文字に複数のエレメントコードが対応づけられているので、どちらの年齢層であっても文字に動きを持たせることは可能であるが、1〜40才のエレメント形状よりも41才以上のエレメント形状の方が太く・かつ長くなっており、視認性に優れる構成となっている。   Regardless of the user attribute, a single character is associated with multiple element codes, so it is possible to make the character move in any age group. Also, the element shape of 41 years old or older is thicker and longer, and it has a structure with excellent visibility.

続いて、動作設定ファイル63について説明する。図30(a)は、動作設定ファイル63の一例を示す図である。図30(a)では、各エレメントコードに対して、色、サイズ、更新時間、表示位置、回転、が対応付けされている。色とは、対応するエレメントコードを表示する際の色を、サイズは対応するエレメントコードを表示する際のサイズを、更新時間は対応するエレメントコードを表示する期間を、表示位置は対応するエレメントコードを表示する際の位置を、回転は対応するエレメントコードを表示したときの記号要素の回転速度を、それぞれ表す。サイズ、更新時間、表示位置、回転の単位は、それぞれ適当な単位を使用する。   Next, the operation setting file 63 will be described. FIG. 30A is a diagram illustrating an example of the operation setting file 63. In FIG. 30A, color, size, update time, display position, and rotation are associated with each element code. The color is the color when the corresponding element code is displayed, the size is the size when the corresponding element code is displayed, the update time is the period during which the corresponding element code is displayed, and the display position is the corresponding element code Rotation indicates the rotation speed of the symbol element when the corresponding element code is displayed. Appropriate units are used for the units of size, update time, display position, and rotation.

従って、文字の一部となる記号要素は、更新時間で設定した時間の間だけ表示され、ラスタライザ33は、更新時間が経過すると、次に表示すべきエレメントコードに基づいて記号要素を生成し当該文字を更新する。文字を構成する記号要素が更新されることで文字に動きを持たせることができる。   Accordingly, the symbol elements that are part of the characters are displayed for the time set in the update time, and when the update time has elapsed, the rasterizer 33 generates a symbol element based on the element code to be displayed next, and Update characters. By updating the symbol elements constituting the character, the character can be moved.

図30(b)は、「火」という文字において、エレメントコードがF041、F042、F043、F044の順番で更新された場合に、「火」という文字が時間と共に更新される様子を示す。なお、図30(b)においては、色、サイズ、表示位置、回転の設定内容は既に設定されているデフォルトの値を採用した。これら項目を個々に設定した値で表示しても良い。   FIG. 30B shows a state in which the character “fire” is updated with time when the element code is updated in the order of F041, F042, F043, and F044 in the character “fire”. In FIG. 30 (b), default values that have already been set are adopted for the setting contents of color, size, display position, and rotation. These items may be displayed as individually set values.

図30(b)において、文字76はF040とF041を、文字77はF040とF042を、文字78はF040とF043を、文字79はF040とF044を、それぞれ組み合わせて表示した文字である。各文字は、色が黒、サイズは10、表示位置は座標(X1、Y1)、回転はしない状態で、それぞれ更新時間、例えば5秒間隔で更新される。   In FIG. 30B, a character 76 is a character displayed by combining F040 and F041, a character 77 is a combination of F040 and F042, a character 78 is a combination of F040 and F043, and a character 79 is a combination of F040 and F044. Each character is updated at an update time, for example, every 5 seconds, in a state where the color is black, the size is 10, the display position is coordinates (X1, Y1), and the character is not rotated.

次に、文書の中で、文字に動きを設定する場合について説明する。図31は、アプリケーションソフトに入力されたテキストデータ20のうち、「火」という文字について動作を設定する場合のGUIの一例を示す。このGUIはプログラムを実行することで提供される。   Next, a case where movement is set for characters in a document will be described. FIG. 31 shows an example of a GUI when the operation is set for the character “fire” in the text data 20 input to the application software. This GUI is provided by executing a program.

アプリケーションソフトウェア27は例えばワープロソフトウェアなど、文字を入力されるソフトウェアであればよい。「火」という文字について動作を設定する場合には、例えば「火」の上にマウス113を合わせ右クリックすることでポップアップウィンドウ80が開く。   The application software 27 may be software that can input characters, such as word processing software. When setting the operation for the characters “fire”, the pop-up window 80 is opened by, for example, placing the mouse 113 on “fire” and right-clicking.

ポップアップウィンドウ80が開くと、基本エレメントコード及び各エレメントコードに基づいた記号要素の形状が表示される。各記号要素について、色、位置、サイズ、回転、時間、などを設定する欄があるので、各記号要素毎にこれらを設定する。なお、図示しないが、表示したいエレメントだけをアクティブする設定項目を設ければ、特定のエレメントコードに基づく記号要素だけを繰り返し表示可能である。ポップアップウィンドウ80は一例にすぎずこの他にも多様な設定方法で設定される。   When the pop-up window 80 is opened, the basic element code and the shape of the symbol element based on each element code are displayed. Since there are columns for setting the color, position, size, rotation, time, etc. for each symbol element, these are set for each symbol element. Although not shown, if a setting item for activating only an element to be displayed is provided, only a symbol element based on a specific element code can be repeatedly displayed. The pop-up window 80 is merely an example and can be set by various setting methods.

図31のポップアップウィンドウ80に表示される、色、位置、サイズ、回転、時間は、図30に示された動作設定ファイル63の設定項目に対応する。従って、ポップアップウィンドウ80において設定された設定内容は、所定のタイミングで図30に示された動作設定ファイル63の設定項目に格納される。   The color, position, size, rotation, and time displayed in the pop-up window 80 of FIG. 31 correspond to the setting items of the operation setting file 63 shown in FIG. Therefore, the setting contents set in the pop-up window 80 are stored in the setting items of the operation setting file 63 shown in FIG. 30 at a predetermined timing.

なお、本実施例では、色、位置、サイズ、回転、時間、を自由に設定するが、予め設定可能な値を定めておき、それを選択するようにしても良い。選択する場合は、図30の動作設定ファイル63の各設定項目に予め選択可能な値を設定しておき、それをポップアップウィンドウ80において選択する。   In this embodiment, the color, position, size, rotation, and time are freely set. However, a presettable value may be determined and selected. In the case of selection, a selectable value is set in advance in each setting item of the operation setting file 63 of FIG.

また、図31のポップアップウィンドウ80では、基本エレメントについても、色、位置、サイズ、回転、時間、を設定する項目があるが、本実施例では基本エレメントについて設定しない。   In the pop-up window 80 of FIG. 31, there are items for setting the color, position, size, rotation, and time for the basic element, but in this embodiment, the basic element is not set.

ポップアップウィンドウ80における設定を、図30の動作設定ファイル63の各設定項目の設定座標と対応づけると、現在の文字の一連の動作を特定可能となる。すなわち、ポップアップウィンドウ80において、F041の設定は、色を黒、サイズを10、更新時間を5、表示位置を(x1,y1)、回転を0π、F042の設定は、色を黒、サイズを10、更新時間を5、表示位置を(x1,y1)、回転を0π、F043の設定は、色を黒、サイズを10、更新時間を5、表示位置を(x1,y1)、回転を0π、F044の設定は、色を黒、サイズを10、更新時間を5、表示位置を(x1,y1)、回転を0π、としたとする。   If the setting in the pop-up window 80 is associated with the setting coordinates of each setting item in the operation setting file 63 in FIG. 30, a series of operations of the current character can be specified. That is, in the pop-up window 80, the setting of F041 is black for the color, the size is 10, the update time is 5, the display position is (x1, y1), the rotation is 0π, and the setting for F042 is the color black and the size is 10 The update time is 5, the display position is (x1, y1), the rotation is 0π, and the setting of F043 is black, the size is 10, the update time is 5, the display position is (x1, y1), the rotation is 0π, The setting of F044 is assumed that the color is black, the size is 10, the update time is 5, the display position is (x1, y1), and the rotation is 0π.

この一連の動作内容は、図30の動作設定ファイル63の設定座標を利用して表現する。図30においては、色、サイズ、更新時間、表示位置、回転のそれぞれに1から4の番号を付した欄が設けてあり、色、サイズ、更新時間、表示位置、回転の変化パターンを、番号で指定する。例えば、図30において、色の番号1の欄には黒が設定されている。この番号(座標)を用いて、色、サイズ、更新時間、表示位置、回転の各設定を(1,1,1,1,1)と表現する。従って、例えば、F041の設定が、「色は黒、サイズは10、更新時間は5、表示位置は(x1,y1)、回転は0π」である場合、これをF041(1,1,1,1,1)と表す。もちろん、各設定項目の数は4つ以上であっても良い。   This series of operation contents is expressed using the set coordinates of the operation setting file 63 of FIG. In FIG. 30, columns with numbers 1 to 4 are provided for each of color, size, update time, display position, and rotation, and change patterns of color, size, update time, display position, and rotation are indicated by numbers. Specify with. For example, in FIG. 30, black is set in the column of color number 1. Using this number (coordinates), each setting of color, size, update time, display position, and rotation is expressed as (1, 1, 1, 1, 1). Therefore, for example, when the setting of F041 is “color is black, size is 10, update time is 5, display position is (x1, y1), rotation is 0π”, this is changed to F041 (1, 1, 1, 1,1). Of course, the number of setting items may be four or more.

また、「F041(1、1、1、1、1)の次にF042(1、1、1、1、1)を表示し、次にF043(1、1、1、1、1)を表示し、次にF044(1、1、1、1、1)を表示する」という一連の動作を特定するためには、例えば動作IDを用いる。動作IDにより上記一連の動作内容を特定できる。図31の現在の動作ID81は、「火」という字の現在の動作内容を特定したものである。実際の動作内容は、プレビューボタン82をクリックすると確認できる。   Also, “F041 (1, 1, 1, 1, 1) is followed by F042 (1, 1, 1, 1, 1), and then F043 (1, 1, 1, 1, 1) is displayed. Then, for example, an operation ID is used to specify a series of operations “display F044 (1, 1, 1, 1, 1)”. The series of operation contents can be specified by the operation ID. The current operation ID 81 in FIG. 31 specifies the current operation content of the word “fire”. The actual operation content can be confirmed by clicking the preview button 82.

ポップアップウィンドウ80で動作内容が設定されると、動作内容がこのテキストデータ20のメタデータ69として、テキストデータ20のファイルに添付される。   When the operation content is set in the pop-up window 80, the operation content is attached to the file of the text data 20 as the metadata 69 of the text data 20.

図32は、メタデータ69の一例を示す。図32において、アプリケーション名はテキストデータ20を表示するアプリケーションソフトウェア27の名称を、ファイル名はテキストデータ20のファイル名(メタデータ69が添付されるファイル名)を示す。   FIG. 32 shows an example of the metadata 69. 32, the application name indicates the name of the application software 27 that displays the text data 20, and the file name indicates the file name of the text data 20 (file name to which the metadata 69 is attached).

文字コードは、例えば、「火」の文字コードであり、基本エレメントコードは図28(a)で示した「火」という文字を構成する要素のうち基本的な要素となる記号要素のコードである。   The character code is, for example, a character code of “fire”, and the basic element code is a code of a symbol element that is a basic element among the elements constituting the character “fire” shown in FIG. .

動作IDは、図31で示したように一連の動作を特定するために設定された項目であり、表示内容は当該動作IDで特定される動作内容を図30の動作設定ファイル63の座標で表示したものである。図32の表示内容の「F041(1、1、1、1、1)→F042(1、1、1、1、1)→F043(1、1、1、1、1)→F044(1、1、1、1、1)」における"→"は、動作の順番を表す。従って、図32の例では、F041(1、1、1、1、1)、F042(1、1、1、1、1)、F043(1、1、1、1、1)、F044(1、1、1、1、1)の順に表示内容が更新される。文字コードIDは、同一ファイルの中に同一の文字が複数個存在した場合に、特定の文字を識別するための項目である。   The action ID is an item set for specifying a series of actions as shown in FIG. 31, and the display contents are the action contents specified by the action ID displayed in the coordinates of the action setting file 63 in FIG. It is a thing. 32, the display content “F041 (1, 1, 1, 1, 1) → F042 (1, 1, 1, 1, 1) → F043 (1, 1, 1, 1, 1) → F044 (1, “→” in “1, 1, 1, 1)” represents the order of operations. Therefore, in the example of FIG. 32, F041 (1, 1, 1, 1, 1), F042 (1, 1, 1, 1, 1, 1), F043 (1, 1, 1, 1, 1), F044 (1 The display contents are updated in the order of 1, 1, 1, 1). The character code ID is an item for identifying a specific character when a plurality of the same characters exist in the same file.

表示内容をいくつか定めておき、表示内容を特定する動作IDとユーザ属性を対応づけておいてもよい。図33は、ユーザ属性に動作IDを対応づけた属性用動作設定ファイル68の一例を示す。   Some display contents may be determined, and an operation ID for specifying the display contents may be associated with a user attribute. FIG. 33 shows an example of an attribute operation setting file 68 in which an operation ID is associated with a user attribute.

予めユーザ属性毎に適当な表示内容を定めておき、それを動作IDで識別することで、属性用動作設定ファイル68でユーザ属性と表示内容を対応づけている。ユーザ属性は、年齢層、性別、出身地、国籍、宗教、年収層、等であり、例えば年齢層をユーザ属性とする場合、1〜40才と41才以上で異なる動作IDを対応づける。例えば、1〜40才では文字をカラフルに表示したり、エレメント形状1つ当たりの更新時間を短くしたりする。41才以上ではエレメント形状1つ当たりのサイズを大きめにしまた見やすい色に設定する。したがって、ユーザ属性に応じて文字の動きを可変にすることができる。   Appropriate display contents are determined in advance for each user attribute, and are identified by the operation ID, whereby the user attribute is associated with the display content in the attribute operation setting file 68. The user attributes are age group, gender, birthplace, nationality, religion, annual income group, and the like. For example, when the age group is a user attribute, different operation IDs are associated with 1 to 40 years old and 41 years old or older. For example, at 1 to 40 years old, characters are displayed in a colorful manner, or the update time per element shape is shortened. For those over 41 years of age, the size per element shape is increased and set to a color that is easy to see. Therefore, the movement of characters can be made variable according to user attributes.

以上の構成に基づき、動的フォント装置300の動作手順を図34及び図35のフローチャートを用いて詳細に説明する。図34の動作手順は、例えば、アプリケーションソフトウェア27が起動するとスタートする。   Based on the above configuration, the operation procedure of the dynamic font device 300 will be described in detail with reference to the flowcharts of FIGS. The operation procedure of FIG. 34 starts when the application software 27 is activated, for example.

まず、図27におけるアプリケーションソフトウェア27を実行し、テキストデータ20を含む所定のファイルが開かれると、ラスタライザ33は、属性テーブル132からユーザ属性を抽出する(S400)。ついで、アプリケーションソフトウェア27から該ファイルに添付されたメタデータ69を取得する(S410)。   First, when the application software 27 in FIG. 27 is executed and a predetermined file including the text data 20 is opened, the rasterizer 33 extracts user attributes from the attribute table 132 (S400). Next, the metadata 69 attached to the file is acquired from the application software 27 (S410).

メタデータ69を取得すると、ラスタライザ33は、メタデータ69に設定されたアプリケーション名、ファイル名を特定し、タイマ61及びメモリ62へ登録する(S420)。   When the metadata 69 is acquired, the rasterizer 33 identifies the application name and file name set in the metadata 69 and registers them in the timer 61 and the memory 62 (S420).

図36は、図27におけるタイマ61及びメモリ62の登録例を示す。各文字の動作内容を記録し更新するメモリ62は、図36(a)に示すように、例えば、アプリケーション名、ファイル名を特定し、テキストデータ20の中で動きが設定された文字の文字コード、文字コードID、記号要素の色、サイズ、時間、位置、回転、現在表示中、の登録情報を有する。また、基本エレメントコードとエレメントコードに対応する形状情報をメモリ62に登録する。ここで、色、サイズ、時間、位置、回転は図30の動作設定ファイル63の設定項目と対応する。   FIG. 36 shows a registration example of the timer 61 and the memory 62 in FIG. As shown in FIG. 36A, the memory 62 for recording and updating the operation content of each character specifies, for example, the application name and file name, and the character code of the character in which movement is set in the text data 20 , Character code ID, symbol element color, size, time, position, rotation, and current registration information. Further, the basic element code and the shape information corresponding to the element code are registered in the memory 62. Here, the color, size, time, position, and rotation correspond to the setting items of the operation setting file 63 in FIG.

ラスタライザ33に経過時間などを通知するタイマ61は、図36(b)に示すように、例えば文字コードID、基本エレメントコード、エレメントコード、動き速度、カウント値から構成される。文字コードID、基本エレメントコード及びエレメントコードは、現在表示されている文字を特定し、時間は当該記号要素が表示される期間を示し、カウント値はタイマ61がクロックアップすることで時間の経過共に積算されていく現在の更新時間である。   As shown in FIG. 36B, the timer 61 for notifying the rasterizer 33 of the elapsed time and the like includes, for example, a character code ID, a basic element code, an element code, a moving speed, and a count value. The character code ID, basic element code, and element code specify the currently displayed character, the time indicates the period during which the symbol element is displayed, and the count value increases with the passage of time as the timer 61 clocks up. This is the current update time that is accumulated.

従って、メタデータ69が入力されると、メモリ62には、まず文字コード、文字コードID及び基本エレメントコードが登録さる。また、当該コードに該当する形状情報がフォントデータDB32を参照してメモリ62に登録される(S430)。これによりラスタライザ33は、メモリ62を参照すると当該文字の形状を特定できる。   Therefore, when the metadata 69 is input, first, a character code, a character code ID, and a basic element code are registered in the memory 62. Further, the shape information corresponding to the code is registered in the memory 62 with reference to the font data DB 32 (S430). Thereby, the rasterizer 33 can specify the shape of the character by referring to the memory 62.

また、メタデータ69は動作IDにより各文字の表示内容を指定するので、ラスタライザ33は動作設定ファイル63を参照することで、メモリ62に、色、サイズ、時間、位置、回転をエレメントコード毎に設定することができる(S440)。これによりラスタライザ33は、各記号要素の色、サイズ、時間、位置、回転を特定できる。   Further, since the metadata 69 designates the display contents of each character by the operation ID, the rasterizer 33 refers to the operation setting file 63 so that the memory 62 stores the color, size, time, position, and rotation for each element code. It can be set (S440). Thereby, the rasterizer 33 can specify the color, size, time, position, and rotation of each symbol element.

現在表示中のエレメントコードは、メモリ62にフラグを立てる方法で特定する。図36(a)では、表示中のエレメントコードにフラグとして"※"を付した。   The element code currently being displayed is specified by a method of setting a flag in the memory 62. In FIG. 36A, “*” is added as a flag to the element code being displayed.

メモリ62のこれらの登録内容に基づいて、ラスタライザ33は特定の文字の表示を切り換える。初期状態の文字の設定は、メタデータ69の表示内容のうち、最初の記号要素、例えば図32ではF041(1、1、1、1、1)、に基づいて特定する(S450)。   Based on these registered contents in the memory 62, the rasterizer 33 switches the display of specific characters. The initial character setting is specified based on the first symbol element of the display contents of the metadata 69, for example, F041 (1, 1, 1, 1, 1) in FIG. 32 (S450).

初期状態の文字が特定されると、ラスタライザ33は、図29に示すように、ユーザ属性に応じて抽出した基本エレメントコード、エレメントコードのエレメント形状情報に基づいて文字のビットマップデータを生成しディスプレイ114へ出力する(S460)。これによって、ユーザ属性に好適な初期状態の文字が表示された。   When the character in the initial state is specified, the rasterizer 33 generates bitmap data of the character based on the basic element code extracted according to the user attribute and the element shape information of the element code as shown in FIG. It outputs to 114 (S460). As a result, characters in the initial state suitable for the user attribute are displayed.

ラスタライザ33がビットマップデータを出力すると、ラスタライザ33は、タイマ61がカウントする、出力したエレメントコードのカウント値を0にリセットする(S470)。これにより、出力したエレメントコードの表示期間のカウントが開始される。カウントはコンピュータなどが内蔵する時計を参照して行っても良いし、CPU127のクロックを利用しても良い。   When the rasterizer 33 outputs the bitmap data, the rasterizer 33 resets the count value of the output element code counted by the timer 61 to 0 (S470). Thereby, counting of the display period of the output element code is started. The counting may be performed by referring to a clock built in the computer or the like, or a clock of the CPU 127 may be used.

ラスタライザ33は、表示しているテキストデータ20の表示の終了命令があるか否かを判定し(S480)、表示の終了命令があると(S480のYes)、タイマ61及びメモリ62のうち、対象のファイルの登録内容をリセットし、このファイルに対する処理を終了する(S530)。図35では、ステップS480のタイミングで表示終了か否か判断しているが、ラスタライザ33への割り込みのタイミングはステップS480に限定されない。   The rasterizer 33 determines whether or not there is a display end command for the displayed text data 20 (S480). If there is a display end command (Yes in S480), the target is selected from the timer 61 and the memory 62. The registered content of the file is reset, and the processing for this file is terminated (S530). In FIG. 35, it is determined whether or not the display is finished at the timing of step S480, but the timing of interrupting the rasterizer 33 is not limited to step S480.

カウントが継続されている間、タイマ61は図36(b)の時間とカウント値を定期的に比較する(S490)。そして、カウント値が登録された時間以上にカウントアップされると、タイマ61からラスタライザ33へ文字コードIDと共に、所定期間が経過したことが通知される。   While the counting is continued, the timer 61 periodically compares the time shown in FIG. 36B with the count value (S490). When the count value is counted up beyond the registered time, the timer 61 notifies the rasterizer 33 that the predetermined period has passed together with the character code ID.

所定期間が経過したことが通知されると、ラスタライザ33は、メモリ62に登録されている内容から該当する文字コードIDを検索し、その文字コードIDのうち現在表示中のエレメントコードの次のエレメントコードを特定する(S500)。エレメントコードが特定されると、エレメント形状情報、色、サイズ、時間、位置、回転の登録内容も特定されるので、これらの情報に基づいてラスタライザ33は、ビットマップデータを作成し、ディスプレイ114へ出力する(S510)。このとき、図36(a)の現在表示中のエレメントコードを次のエレメントコードに切り替える。   When notified that the predetermined period has elapsed, the rasterizer 33 searches for the corresponding character code ID from the contents registered in the memory 62, and among the character code IDs, the element next to the element code currently displayed is displayed. A code is specified (S500). When the element code is specified, the registered information of the element shape information, color, size, time, position, and rotation is also specified. Based on these information, the rasterizer 33 creates bitmap data and sends it to the display 114. Output (S510). At this time, the element code currently displayed in FIG. 36A is switched to the next element code.

ビットマップデータ等が出力されると、ラスタライザ33は、図36(b)のタイマ61の内容から、それまで表示していたエレメントコードを削除し、現在出力したエレメントコードに置き換える。そして、置き換えたエレメントコードのカウント値を0にリセットする(S520)。   When bitmap data or the like is output, the rasterizer 33 deletes the element code that has been displayed so far from the contents of the timer 61 in FIG. Then, the count value of the replaced element code is reset to 0 (S520).

以上、説明したように動的フォント装置300は、表示する文字に動きを与えることが可能となる。文字の形状や動きはユーザ属性に応じて制御されるので、年齢層などのユーザ属性に適切な動きを与えることができる。   As described above, the dynamic font device 300 can give movement to characters to be displayed. Since the shape and movement of characters are controlled according to user attributes, appropriate movements can be given to user attributes such as age groups.

なお、本実施形態では、メタデータ69が添付されたファイルを電子メールなどで送信した場合、受信者が同様のラスタライザ33、フォントデータDB32及び動作設定ファイル63を有すれば、同様に文字の動きを再現可能である。電子メールそのものに適用してもよい。仮に、受信者がこれらの環境を有さない場合、文字コードに基づいて静止状態の文字が表示されるため不具合は生じない。   In this embodiment, when a file attached with metadata 69 is transmitted by e-mail or the like, if the recipient has the same rasterizer 33, font data DB 32, and operation setting file 63, the character movement is similarly performed. Can be reproduced. It may be applied to the email itself. If the recipient does not have these environments, the stationary character is displayed based on the character code, so there is no problem.

・・・文字の代わりに絵に動きを持たせる場合
動的フォント装置300では、記号として文字に動きを持たせる場合について説明したが、絵やアイコンなどに動きを持たせることもできる。以下では、説明のため絵素という言葉を使用するが、絵素とは一つの絵を構成する絵の要素をいう。例えば、人間の顔の絵があれば、顔を構成する目や鼻の絵は絵素となる。また、目だけを表示する絵があるときは、1つの絵素で構成された絵である。このように、絵と絵素には明確な区別ない。なお、動的フォント装置300の機能構成図は図27と同様である。
In the case where the motion is given to the picture instead of the character In the dynamic font apparatus 300, the case where the character is given a motion as a symbol has been described. However, the picture or icon can be given a motion. In the following description, the term “picture element” will be used for explanation, and a picture element means an element of a picture constituting one picture. For example, if there is a picture of a human face, the picture of the eyes and nose that make up the face is a picture element. In addition, when there is a picture displaying only eyes, the picture is composed of one picture element. Thus, there is no clear distinction between pictures and picture elements. The functional configuration diagram of the dynamic font device 300 is the same as that shown in FIG.

図37は、絵素のフォントデータDB32の一例を示す。フォントデータDB32は、文字と同様に絵素コードにより絵素を特定すると共に、絵素毎に絵素形状情報を有する。   FIG. 37 shows an example of the font data DB 32 for picture elements. The font data DB 32 specifies a picture element by a picture element code like a character and has picture element shape information for each picture element.

図37の分類は、各絵素名を分類するためのグループ名を、絵素名は各絵素の名称であり絵素コードで特定される。各絵素は、絵素の形状を決定する絵素形状情報を有する。例えば、絵素コードM040は車を表し、M040を指定すると車の絵素形状の例として車83が表示される。同様に、絵素コードB013を指定すれば橋の形状情報の例として橋84が、絵素コードH024を指定すればハートの形状情報の例としてハートマーク85が表示される。   The classification shown in FIG. 37 is a group name for classifying each picture element name. The picture element name is the name of each picture element and is specified by a picture element code. Each picture element has picture element shape information that determines the shape of the picture element. For example, the picture element code M040 represents a car. When M040 is designated, a car 83 is displayed as an example of the picture element shape of the car. Similarly, if the picture element code B013 is designated, the bridge 84 is displayed as an example of bridge shape information, and if the picture element code H024 is designated, a heart mark 85 is displayed as an example of heart shape information.

また、絵素形状情報は、ユーザ属性に対応づけて登録されている。図37ではユーザ属性として男性と女性を用いた。したがって、同じ例えば車83でも男性ではスポーツカーの絵を登録しておき、女性では軽の絵を登録しておく等により、ユーザ属性に適切な絵を表示することができる。   Further, the picture element shape information is registered in association with the user attribute. In FIG. 37, male and female are used as user attributes. Therefore, for example, even in the car 83, a picture of a sports car can be registered for a male and a light picture can be registered for a female, so that a picture appropriate for the user attribute can be displayed.

絵素の形状の生成は、文字と同様にラスタライザ33が行う。従って、フォントデータDB32には図37の絵素の情報の他に文字の情報が含まれる。   The rasterizer 33 generates the shape of the picture element in the same manner as the character. Therefore, the font data DB 32 includes character information in addition to the picture element information of FIG.

続いて、アプリケーションソフトウェア27上で絵素の表示を指定する場合の設定例を図38に基づいて説明する。図38(a)は、アプリケーションソフトウェア27で例えば右クリックすることで絵素のポップアップウィンドウ80が開き、設定内容を入力したところである。図38(a)にその設定例がポップアップ表示されている。   Next, a setting example when designating display of picture elements on the application software 27 will be described with reference to FIG. FIG. 38A shows a state where a pop-up window 80 for picture elements is opened by, for example, right-clicking on the application software 27 and setting contents are input. FIG. 38A shows a pop-up example of the setting.

図38(a)の上段に示される「B013、FULL、固定」は、絵素コードB013で表示される絵素を画面上最大の大きさに(FULL)、固定された状態で表示することを意味する。また、図38(a)の下段に示される「M040、30×20、(A,09)〜(06,09)、5」は、絵素コードM040で表示される絵素を、30×20の大きさで、座標(A,09)〜(06,09)の間を、5秒毎に更新して表示することを意味する。このように、例えば、「絵素コード、大きさ、表示範囲、更新時間」の形で絵素の表示を指定できると規定すれば、簡単に絵に動きを指定することが可能となる。   “B013, FULL, fixed” shown in the upper part of FIG. 38 (a) indicates that the picture element displayed with the picture element code B013 is displayed in a fixed state at the maximum size (FULL) on the screen. means. In addition, “M040, 30 × 20, (A, 09) to (06,09), 5” shown in the lower part of FIG. 38A represents a picture element displayed by the picture element code M040 as 30 × 20. It means that the coordinates (A, 09) to (06, 09) are updated and displayed every 5 seconds. In this way, for example, if it is defined that the display of a picture element can be specified in the form of “picture element code, size, display range, update time”, it becomes possible to easily specify a motion in a picture.

図38(b)は、図38(a)の設定の結果表示される絵を表す。B013の絵素コードで特定される橋の絵素が画面上最大に表示され、M040で特定される車の絵素が30×20の大きさで、座標(A,09)から座標(06,09)の間に表示されている。図38(b)では3台の車があるように見えるが、これは5秒ごとに更新される様子を示したものであり、実際には同時に1台の車が動くように表示される。   FIG. 38B shows a picture displayed as a result of the setting shown in FIG. The picture element of the bridge specified by the picture element code of B013 is displayed at the maximum on the screen, and the picture element of the car specified by M040 is 30 × 20 in size from the coordinates (A, 09) to the coordinates (06, 09). In FIG. 38 (b), there seem to be three cars, but this shows a state in which the cars are updated every 5 seconds, and actually one car is displayed to move at the same time.

また、図38(b)の上方及び右側にある数値は座標を説明のために表示したもので実際のアプリケーション上では表示されない。   Also, the numerical values on the upper and right sides in FIG. 38 (b) display coordinates for explanation, and are not displayed on an actual application.

図38の絵素の動作の設定内容は、文字と同様にアプリケーションソフトウェア27のテキストデータ20(ファイル)に添付できる。図39は絵素に対するメタデータ69の一例を示す。なお、図39の内容は文字と同様にメモリ62に登録される。   38 can be attached to the text data 20 (file) of the application software 27 in the same manner as characters. FIG. 39 shows an example of metadata 69 for a picture element. Note that the contents of FIG. 39 are registered in the memory 62 in the same manner as characters.

そして、図39では、更新時間がユーザ属性に応じて設定されている。年齢をユーザユーザ属性とした場合、絵素M040は1〜40才のユーザでは3秒ごとに更新され、41才以上のユーザでは5秒ごとに更新される。このように更新時間を設定すれば、ユーザ属性に応じて異なる動きを見せることができる。   In FIG. 39, the update time is set according to the user attribute. When age is a user attribute, the picture element M040 is updated every 3 seconds for users 1 to 40 years old, and updated every 5 seconds for users 41 years and older. If the update time is set in this way, different movements can be shown according to user attributes.

ラスタライザ33は、移動範囲に設定されている座標「(A,09)→(06,09)」を、例えば図38(b)の上方及び右側にある座標を用いて、(A,09)、(09,09)(08,09)(07,09)(06,09)と展開し、メモリ62に登録する。   The rasterizer 33 uses the coordinates “(A, 09) → (06, 09)” set in the movement range, for example, using the coordinates on the upper and right sides of FIG. (09,09) (08,09) (07,09) (06,09) are expanded and registered in the memory 62.

絵素コード、大きさ、更新時間についても同様に登録する。色、サイズ、時間、回転は固定であり、位置のみが展開された値になる。したがって、メモリ62に登録された内容に従い、ラスタライザ33が車の絵素を5秒ごとに座標を変更して表示することができる。   Similarly, the pixel code, size, and update time are registered. Color, size, time, and rotation are fixed, and only the position is expanded. Therefore, according to the contents registered in the memory 62, the rasterizer 33 can display the picture elements of the car by changing the coordinates every 5 seconds.

また、図38では、大きさ、座標及び更新時間のみを設定できるようにしたが、これに加え色や回転といった内容も設定できるようにしても良い。   In FIG. 38, only the size, coordinates, and update time can be set, but in addition to this, contents such as color and rotation may be set.

このように、絵を絵素で構成することでテキストデータ20に含まれる絵に動きを持たせることができる。絵素は、アウトラインデータで保存されているため、ビットマップデータよりもファイル容量を節約できる。これら絵素を組み合わせることで、豊かな表現を実現できる。例えば、顔文字などを構成する絵素に動き与え電子メールなどで送信した場合、受信者が同様のラスタライザ33、フォントデータDB32を有すれば、顔文字の動きを再現可能である。絵素の場合、動作設定ファイル63はなくてもよい。また、ユーザ属性に応じて同じ絵素でも動きが変わるので、ユーザ属性に応じてユーザに多様な表現を提供できる。   In this way, the picture included in the text data 20 can be moved by configuring the picture with picture elements. Since picture elements are stored as outline data, the file capacity can be saved more than bitmap data. By combining these picture elements, rich expressions can be realized. For example, when a motion is applied to a picture element constituting an emoticon and transmitted by e-mail or the like, if the recipient has the same rasterizer 33 and font data DB 32, the motion of the emoticon can be reproduced. In the case of a picture element, the operation setting file 63 may not be provided. In addition, since the movement changes even with the same picture element according to the user attribute, various expressions can be provided to the user according to the user attribute.

・・・文字と絵素を組み合わせた表示
文字と絵素のそれぞれに動きを持たせる動的フォント装置300について説明したが、文字と絵素を組み合わせて動きを持たせてもよい。
... Display combining characters and picture elements Although the dynamic font device 300 that gives movement to each of the characters and picture elements has been described, movement may be made by combining characters and picture elements.

図40は、フォントデータDB32の一例を示す。図40のフォントデータDB32は、文字の形状を構成する、基本エレメントコード及びその形状情報並びにエレメントコード及びその形状情報から成り、更に、当該文字と共に表示可能な絵素コード及びその形状情報を有する。   FIG. 40 shows an example of the font data DB 32. The font data DB 32 shown in FIG. 40 is composed of basic element codes and their shape information, element codes and their shape information, which constitute the character shape, and further has a pixel code and its shape information that can be displayed together with the characters.

例えば、図40では、文字コード611Bで指定される文字を「愛」とすると、愛と共に表示可能な絵素として、絵素コードH024で指定されるハートマークが登録されている。   For example, in FIG. 40, when the character designated by the character code 611B is “love”, the heart mark designated by the picture element code H024 is registered as a picture element that can be displayed together with love.

絵素コードは、その絵素と共に表示する文字にのみ対応づけられて登録されている。なお、複数の絵素コードが1つの文字に登録されていてもよい。   The picture element code is registered in association with only the characters displayed together with the picture element. A plurality of picture element codes may be registered in one character.

「愛」という文字も「火」という文字と同様に、基本エレメント形状情報及び単数又は複数のエレメント形状情報に基づいて生成される記号要素から構成される。ただし、ここでは、基本エレメント形状情報及びエレメント形状情報ではなく、「愛」という文字全体に対して絵素を重畳させる表示形態に関して説明する。   Similarly to the character “fire”, the character “love” is composed of symbol elements generated based on basic element shape information and one or more element shape information. However, here, a display mode in which a picture element is superimposed on the entire character “love”, not the basic element shape information and the element shape information, will be described.

アプリケーションソフトウェア27における入力画面に基づいて説明する。図41(a)は、アプリケーションソフトウェア27上で絵素と文字に動作を設定する場合の入力例である。図41(a)において、図31と同一構成部分には同一の符号を付しその説明は省略する。   A description will be given based on an input screen in the application software 27. FIG. 41A shows an input example when an operation is set for a picture element and a character on the application software 27. In FIG. 41A, the same components as those in FIG.

例えば「愛」という字の上にマウス113を合わせ右クリックすることで図41のポップアップウィンドウ80が開く。ポップアップウィンドウ80が開くと、絵素コードに基づいた絵素の形状及び本来の文字コードに基づいた文字の形状が表示される。従って、文字又は絵素それぞれについて、色、位置、サイズ、回転、時間、などを設定することができる。   For example, when the mouse 113 is placed on the word “love” and right-clicked, the pop-up window 80 in FIG. 41 is opened. When the pop-up window 80 is opened, the shape of the picture element based on the picture element code and the shape of the character based on the original character code are displayed. Accordingly, the color, position, size, rotation, time, etc. can be set for each character or picture element.

図41(a)のポップアップウィンドウ80に表示される、絵素の色、位置、サイズ、回転、時間は、図30に示された動作設定ファイル63の設定項目に対応する。従って、ポップアップウィンドウ80において設定された設定内容は、所定のタイミングで図30に示された動作設定ファイル63の設定項目に格納される。本実施例で明らかなように、絵素と文字を組み合わせて表示する場合であっても、動作設定ファイル63は構成を変更することなく使用できる。   The color, position, size, rotation, and time of the picture elements displayed in the pop-up window 80 in FIG. 41A correspond to the setting items in the operation setting file 63 shown in FIG. Therefore, the setting contents set in the pop-up window 80 are stored in the setting items of the operation setting file 63 shown in FIG. 30 at a predetermined timing. As is apparent from the present embodiment, the operation setting file 63 can be used without changing the configuration even when displaying a combination of picture elements and characters.

ポップアップウィンドウ80で動作内容が設定されると、動作内容はメタデータ69に記録され、このアプリケーションソフトウェア27で開いているファイルに添付される。   When the operation content is set in the pop-up window 80, the operation content is recorded in the metadata 69 and attached to a file opened by the application software 27.

図41(b)は、メタデータ69の一例を示す。図41(b)において、アプリケーション名は「愛」という字の動きを設定したアプリケーションソフトウェア名を、ファイル名はメタファイルが添付されるテキストデータ20のファイル名を示す。   FIG. 41B shows an example of the metadata 69. In FIG. 41B, the application name indicates the name of the application software in which the movement of the word “love” is set, and the file name indicates the file name of the text data 20 to which the metafile is attached.

文字コードは、ここでは「愛」の文字コードであり、基本エレメントコードは図40のフォントデータDB32に示した文字を構成する要素のうち基本的な要素となる記号要素のコードである。   Here, the character code is a character code of “love”, and the basic element code is a code of a symbol element which is a basic element among elements constituting the character shown in the font data DB 32 of FIG.

動作IDは、一連の動作を特定するために設定された項目であり、表示内容は、当該動作IDで特定される動作内容を図32と同様に動作設定ファイル63の座標で表示したものである。文字コードIDは、同一ファイル中に同一の文字が複数あった場合に、文字を特定するための識別番号である。   The action ID is an item set to specify a series of actions, and the display content is the action content specified by the action ID displayed in the coordinates of the action setting file 63 as in FIG. . The character code ID is an identification number for specifying a character when there are a plurality of the same characters in the same file.

図41(b)の表示内容によると、「H024(1、1、1、1、1)→H024(1、2、1、1、1)→H024(1、3、1、1、1)→H024(1、4、1、1、1)」となっている。これは、H024で指定されるハートマークの絵素のサイズが変化する(大きくなる)ことを示す。   According to the display content of FIG. 41 (b), “H024 (1, 1, 1, 1, 1) → H024 (1, 2, 1, 1, 1) → H024 (1, 3, 1, 1, 1) → H024 (1, 4, 1, 1, 1) ”. This indicates that the size of the picture element of the heart mark specified by H024 changes (becomes larger).

以降は、文字に重畳する形でハートマークが表示するため、「愛」という文字と生成されたハートマークを合成する処理を行ってから表示する。   Thereafter, since the heart mark is displayed so as to be superimposed on the character, it is displayed after a process of combining the character “love” and the generated heart mark.

図41(c)は、愛という文字に対し、ハートマークの絵素を「H024(1、1、1、1、1)→H024(1、2、1、1、1)→H024(1、3、1、1、1)→H024(1、4、1、1、1)」に従って表示した例を示す。図41(c)は、上から順番に、5秒ごとの、「君のこと愛している!」という一文を示す。「君のこと愛している!」というテキストデータ20の愛に重畳して、ハートマークが5秒ごとに大きくなる。ハートマークと共に「愛」という文字を構成する記号要素に動作を設定しても良い。   In FIG. 41 (c), for the character love, the picture element of the heart mark is “H024 (1, 1, 1, 1, 1) → H024 (1, 2, 1, 1, 1) → H024 (1, 3, 1, 1, 1) → H024 (1, 4, 1, 1, 1) ”. FIG. 41C shows a sentence “I love you!” Every 5 seconds in order from the top. The heart mark grows every 5 seconds, superimposed on the love of the text data 20 "I love you!" You may set operation | movement to the symbol element which comprises the character of "love" with a heart mark.

したがって、文字と絵素を組み合わせて表示し、さらに文字及び絵素に動きを持たせることができるため、より表現方法が向上する。また、絵素はユーザ属性に応じて変えることができるので、ユーザの嗜好に合致した表現が可能となる。   Therefore, since characters and picture elements can be displayed in combination and the characters and picture elements can be moved, the expression method is further improved. Also, since the picture element can be changed according to the user attribute, an expression that matches the user's preference is possible.

・・・複数の文字に動きを持たせる場合
1つの文字と1つの絵素のそれぞれに動きを持たせる動的フォント装置300について説明したが、複数の文字又は複数の絵素に対し動きを持たせてもよい。以下、複数の文字又は複数の絵素を動き設定ワードという。
... When a plurality of characters have movements The dynamic font device 300 has been described in which each character and one picture element have movements. However, a plurality of characters or a plurality of picture elements have movement. It may be allowed. Hereinafter, a plurality of characters or a plurality of picture elements are referred to as motion setting words.

図42は、動的フォント装置300の機能構成例を示す図である。図42において、図27と同一構成部分については同一の符号を用い、その説明は省略する。   FIG. 42 is a diagram illustrating a functional configuration example of the dynamic font device 300. 42, the same components as those in FIG. 27 are denoted by the same reference numerals, and the description thereof is omitted.

図42は、表示方法規定ファイル70を有する点で図27と異なる。表示方法規定ファイル70の構成例を図43に示す。図43によると、表示方法規定ファイル70には複数の動き設定ワードが登録されており、各動き設定ワードに対し、予め表示内容及び更新時間が登録されている。すなわち、表示方法規定ファイル70は、所定の動き設定ワードに対し、表示内容に基づいて、動き設定ワード全体に動きを持たせるための情報を設定したファイルである。   FIG. 42 differs from FIG. 27 in that it has a display method definition file 70. A configuration example of the display method definition file 70 is shown in FIG. According to FIG. 43, a plurality of motion setting words are registered in the display method definition file 70, and display contents and update times are registered in advance for each motion setting word. That is, the display method definition file 70 is a file in which information for giving motion to the entire motion setting word is set for a predetermined motion setting word based on display contents.

例えば、アプリケーションソフトウェア27で開いたテキストデータ20の中に、「ジャンプ」という文字列が存在する場合、ラスタライザ33は、ユーザ属性に応じて表示方法規定ファイル70から「ジャンプ」に対応づけられた表示内容及び更新時間を抽出する。   For example, when the character string “jump” exists in the text data 20 opened by the application software 27, the rasterizer 33 displays the display associated with “jump” from the display method definition file 70 according to the user attribute. Extract content and update time.

動きがあっても文字自体が同じなので説明のため、ジャンプの表示内容「ジャンプ→ジャンプ」に「ジャンプ(L)→ジャンプ(R)」と記号を付す。例えば、1〜41才の場合、左側の「ジャンプ(L)」は、動き設定ワードの右に行くほどサイズが徐々に大きくなっており、右側の「ジャンプ(R)」は動き設定ワードの右にいくほどサイズが徐々に小さくなっている。従って、当該表示内容を実施すると、ディスプレイ114に表示された「ジャンプ」は、ジャンプ(L)とジャンプ(R)が交互に表示され、飛び上がって動いているように見える。   Since the characters themselves are the same even if there is a movement, for the sake of explanation, the symbol “jump (L) → jump (R)” is added to the jump display contents “jump → jump”. For example, in the case of 1 to 41 years old, the “jump (L)” on the left side gradually increases in size toward the right of the motion setting word, and the “jump (R)” on the right side is on the right of the motion setting word. The size is gradually getting smaller as you go further. Therefore, when the display content is executed, the “jump” displayed on the display 114 is displayed as alternating jumps (L) and jumps (R), and appears to move up.

具体的にはラスタライザ33は、動き設定ワード「ジャンプ」を、文字"ジ"、"ャ"、"ン"、"プ"に展開し、4つの文字を、"ジ(L)"から"ジ(R)"へ、"ャ(L)"から"ャ(R)"へ、"ン(L)"から"ン(R)へ、"プ(L)"から"プ(R)"へ、同時に更新することでジャンプという動き設定ワード全体に動きを持たせることができる。   Specifically, the rasterizer 33 expands the motion setting word “jump” to the characters “ji”, “ja”, “n”, “p”, and expands the four characters from “di (L)” to “di”. (R) "," A (L) "to" A (R) "," N (L) "to" N (R) "," P (L) "to" P (R) ", By updating at the same time, it is possible to give movement to the entire motion setting word called jump.

「ジャンプ」という動き設定ワードが更新して表示される様子を、メモリ62に登録される内容で説明する。   A state in which the motion setting word “jump” is updated and displayed will be described with reference to the contents registered in the memory 62.

図44は動き設定ワード「ジャンプ」がメモリ62に登録された登録例を示す。ラスタライザ33は、表示方法規定ファイル70のジャンプを各文字に展開し、色、サイズ、更新時間を設定する。その際、現在表示している文字又は初期状態で表示する文字全てに現在表示中のフラグを立てる。以降は、タイマ61から更新時間が経過して割り込みがあるたびに、現在表示中の文字と同一の文字コードの文字を検出し、当該文字の設定内容で文字のビットマップデータを生成し更新する。   FIG. 44 shows a registration example in which the motion setting word “jump” is registered in the memory 62. The rasterizer 33 expands the jump of the display method definition file 70 into each character, and sets the color, size, and update time. At this time, the currently displayed flag is set for all the characters currently displayed or the characters displayed in the initial state. Thereafter, each time an update time elapses from the timer 61 and an interrupt occurs, a character having the same character code as the currently displayed character is detected, and character bitmap data is generated and updated with the setting contents of the character. .

例えば図44では、上側の4文字の"ジ"、"ャ"、"ン"、"プ"に表示中のフラグがたっているため、更新時間が経過すると、同一文字コードである下側の4文字の"ジ"、"ャ"、"ン"、"プ"の文字のビットマップデータが生成され更新される。   For example, in FIG. 44, since the upper four characters “G”, “A”, “N”, and “P” are displayed, when the update time elapses, the lower 4 of the same character code is displayed. Bitmap data of the characters “G”, “A”, “N”, and “P” is generated and updated.

なお、表示方法規定ファイル70の登録は、ポップアップウィンドウ80により登録できる。例えば、テキストデータ20の「ジャンプ」に動きを登録する場合、次のように設定する。
・「ジャンプ」を選択する(これにより反転表示される)。
・表示方法規定ファイル70の編集プログラムを起動する。
・表示内容のLとRのそれぞれの「ジャンプ」を設定する。図44の場合は、"ジ"、"ャ"、"ン"、"プ"それぞれの文字サイズを指定すればよい。
・更新時間を設定する。
Note that the display method definition file 70 can be registered through a pop-up window 80. For example, when a motion is registered in “jump” of the text data 20, the following setting is made.
-Select “Jump” (this will be highlighted).
Start the editing program for the display method definition file 70.
・ Set “jump” for each of L and R in the display contents. In the case of FIG. 44, the character sizes of “J”, “A”, “N”, and “P” may be specified.
・ Set the update time.

このように、動き設定ワード全体に動きを持たせることでより豊かな表現が可能となる。また、ユーザ属性に応じて動き設定ワードの動きを可変にできるので、ユーザの嗜好に合致した表現が可能となる。   In this way, a richer expression can be achieved by giving movement to the entire motion setting word. In addition, since the motion of the motion setting word can be made variable according to the user attribute, an expression that matches the user's preference is possible.

以上説明したように、テキストデータ20の作成者又は情報処理装置111等のユーザのユーザ属性を判定することで、種々の機器をユーザ属性に応じて制御することが可能となる。例えば、音楽出力装置200はユーザ属性に応じて音楽を変えることができ、動的フォント装置300はユーザ属性に応じて動きを変えることできるので、機器のユーザビリティを向上させることができる。   As described above, by determining the user attributes of the creator of the text data 20 or the user such as the information processing apparatus 111, it is possible to control various devices according to the user attributes. For example, the music output device 200 can change the music according to the user attribute, and the dynamic font device 300 can change the movement according to the user attribute, so that the usability of the device can be improved.

ユーザ属性を判定する情報処理装置の一例を示す図である。It is a figure which shows an example of the information processing apparatus which determines a user attribute. 情報処理装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of information processing apparatus. 情報処理装置の機能構成図の一例である。It is an example of a functional block diagram of information processing apparatus. 情報処理装置の機能構成図の他の一例を示す図である。It is a figure which shows another example of the function block diagram of information processing apparatus. 属性判定DBの一例を示す図である。It is a figure which shows an example of attribute determination DB. 属性判定DBの詳細例を示す図である。It is a figure which shows the detailed example of attribute determination DB. 属性判定手段がユーザ属性を判定する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure in which an attribute determination means determines a user attribute. 年齢層の属性種別におけるユーザ属性を判定する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure which determines the user attribute in the attribute classification of an age group. 属性テーブルの一例を示す図である。It is a figure which shows an example of an attribute table. 情報処理装置とMFPとを有する印刷システムの構成図の一例である。1 is an example of a configuration diagram of a printing system having an information processing apparatus and an MFP. 情報処理装置とMFPとを有する印刷システムの構成図の一例である。1 is an example of a configuration diagram of a printing system having an information processing apparatus and an MFP. 音楽出力装置の機能構成図の一例を示す図である。It is a figure which shows an example of the function block diagram of a music output device. フォントデータDBに格納されているフォントデータと音楽データの一例を示す図である。It is a figure which shows an example of the font data and music data which are stored in font data DB. ユーザ属性が対応づけられて音楽データが記憶されたフォントデータDBの一例を示す図である。It is a figure which shows an example of font data DB with which the user attribute was matched and the music data were memorize | stored. 音楽データDBに登録された音楽データの一例を示す図である。It is a figure which shows an example of the music data registered into music data DB. ユーザ属性が対応づけられた音楽データが記憶された音楽ワードDBの一例を示す図である。It is a figure which shows an example of music word DB by which the music data with which the user attribute was matched were memorize | stored. 音楽出力装置が入力されたテキストデータを用いて音楽を出力する処理の手順を示すフローチャート図である。It is a flowchart figure which shows the procedure of the process which outputs a music using the text data into which the music output device was input. 電子メールソフトウェアが起動してディスプレイに表示されるGUIの一例を示す図である。It is a figure which shows an example of GUI which e-mail software starts and is displayed on a display. 優先順位を有する音楽ワードDBの一例を示す図である。It is a figure which shows an example of music word DB which has a priority. ディスプレイに表示される優先順位設定画面の一例を示す図である。It is a figure which shows an example of the priority order setting screen displayed on a display. 電子メールの着信音を音楽ワードに応じて出力する音楽出力装置の機能構成図の一例である。It is an example of the functional block diagram of the music output device which outputs the ringtone of an electronic mail according to a music word. 音楽出力装置が電子メールを受信した場合に、着信音の代わりに電子メールが含む音楽ワードに対応した音楽を出力する処理手順を示すフローチャート図である。It is a flowchart figure which shows the process sequence which outputs the music corresponding to the music word which an electronic mail contains instead of a ringtone, when a music output device receives an electronic mail. 電子メールの配信システムの全体構成図の一例である。1 is an example of an overall configuration diagram of an electronic mail delivery system. メールサーバに搭載された音楽出力装置のブロック図の一例である。It is an example of the block diagram of the music output device mounted in the mail server. メールサーバの音楽出力装置が音源データを添付する処理手順を示すフローチャート図である。It is a flowchart figure which shows the process sequence which the music output device of a mail server attaches sound source data. 受信端末が電子メールと共に音源データを受信して着信音として音楽を出力する手順を示すフローチャート図である。It is a flowchart figure which shows the procedure in which a receiving terminal receives sound source data with an email, and outputs music as a ringtone. 動的フォント装置の機能構成図の一例である。It is an example of the functional block diagram of a dynamic font apparatus. フォントデータDBのデータ構成例を示す図である。It is a figure which shows the example of a data structure of font data DB. ユーザ属性に対応付けられたエレメント形状情報を有するフォントデータDBの一例を示す図である。It is a figure which shows an example of font data DB which has element shape information matched with the user attribute. 動作設定ファイルの一例を示す図である。It is a figure which shows an example of an operation setting file. アプリケーションソフトに入力されたテキストデータのうち、「火」という文字について動作を設定する場合のGUIの一例を示す図である。It is a figure which shows an example of GUI in the case of setting operation | movement about the character "fire" among the text data input into application software. メタデータの一例を示す図である。It is a figure which shows an example of metadata. ユーザ属性に動作IDを対応づけた属性対応動作設定ファイルの一例を示す図である。It is a figure which shows an example of the attribute corresponding | compatible operation | movement setting file which matched operation | movement ID with the user attribute. 動的フォント装置の動作手順を示すフローチャート図である。It is a flowchart figure which shows the operation | movement procedure of a dynamic font apparatus. 動的フォント装置の動作手順を示すフローチャート図である。It is a flowchart figure which shows the operation | movement procedure of a dynamic font apparatus. タイマ及びメモリの登録例を示す図である。It is a figure which shows the example of registration of a timer and memory. 絵素のフォントデータDBの一例を示す図である。It is a figure which shows an example of the font data DB of a pixel. アプリケーションソフトウェア上で絵素の表示を指定する場合の設定例を示す図である。It is a figure which shows the example of a setting in the case of designating the display of a picture element on application software. 絵素に対するメタデータの一例を示す図である。It is a figure which shows an example of the metadata with respect to a pixel. フォントデータDBの一例を示す図である。It is a figure which shows an example of font data DB. アプリケーションソフトウェア上で絵素と文字に動作を設定する場合の入力例を示す図である。It is a figure which shows the example of an input in the case of setting operation | movement to a pixel and a character on application software. 動的フォント装置の機能構成例を示す図である。It is a figure which shows the function structural example of a dynamic font apparatus. 表示方法規定ファイルの構成例を示す図である。It is a figure which shows the structural example of a display method regulation file. 動き設定ワード「ジャンプ」がメモリに登録された登録例を示す図である。It is a figure which shows the example of registration which motion setting word "jump" was registered into memory.

符号の説明Explanation of symbols

20 テキストデータ
21 IM
22 属性判定手段
23 属性登録手段
24 UI制御手段
25 フォント変更手段
26 文字列抽出手段
27 アプリケーションソフトウェア
31 サウンドライザ
32 フォントデータDB
33 ラスタライザ
36 音楽ワードDB
61 タイマ
62 メモリ
63 動作設定ファイル
68 属性用動作設定ファイル
69 メタデータ
70 表示方法規定ファイル
80 ポップアップウィンドウ
111 情報処理装置
114 ディスプレイ
131 属性判定DB
132 属性テーブル
133 プログラム
141 MFP
200 音楽出力装置
300 動的フォント装置
20 Text data 21 IM
22 Attribute determining means 23 Attribute registering means 24 UI control means 25 Font changing means 26 Character string extracting means 27 Application software 31 Sound riser 32 Font data DB
33 Rasterizer 36 Music Word DB
61 timer 62 memory 63 operation setting file 68 attribute operation setting file 69 metadata 70 display method specification file
80 pop-up window 111 information processing device 114 display 131 attribute determination DB
132 Attribute Table 133 Program 141 MFP
200 Music output device 300 Dynamic font device

Claims (23)

複数のグループにより人間を特徴づける特徴カテゴリーにおける、文字データの作成者が属する前記グループを判定する情報処理装置であって、
複数の文字の前記文字データを入力する文字データ入力手段と、
前記グループと対応づけて文字列を記憶する文字列記憶手段と、
前記文字データ入力手段により入力された前記文字列に対応づけられた前記文字列記憶手段の前記グループを参照して、所定の前記特徴カテゴリーにおける前記作成者が属する前記グループを判定する属性判定手段と、
を有することを特徴とする情報処理装置。
An information processing apparatus for determining the group to which a creator of character data belongs in a feature category that characterizes a human by a plurality of groups,
Character data input means for inputting the character data of a plurality of characters;
A character string storage means for storing a character string in association with the group;
Attribute determination means for referring to the group of the character string storage means associated with the character string input by the character data input means and for determining the group to which the creator in the predetermined feature category belongs; ,
An information processing apparatus comprising:
前記作成者の前記グループを記憶するグループ記憶手段と、
前記属性判定手段が判定した前記グループを前記特徴カテゴリー毎に前記グループ記憶手段に登録するグループ登録手段と、
を有することを特徴とする情報処理装置。
Group storage means for storing the group of the creator;
Group registration means for registering the group determined by the attribute determination means in the group storage means for each feature category;
An information processing apparatus comprising:
前記特徴カテゴリーが高齢者とそれ以外の前記グループを有する年齢層である場合、
前記属性判定手段は、前記文字データ入力手段により入力された前記文字データに所定数以上の第2水準の漢字が含まれているか、又は、所定以上の比率で第2水準の漢字が含まれている場合、前記作成者が高齢者の前記グループに属すると判定する、
ことを特徴とする請求項1又は2記載の情報処理装置。
When the feature category is an age group having the elderly and other groups,
The attribute determination means includes a predetermined number or more of second-level kanji characters included in the character data input by the character data input means or a second-level kanji character at a predetermined ratio or more. And determining that the creator belongs to the group of seniors,
The information processing apparatus according to claim 1 or 2.
前記特徴カテゴリーが男性と女性の前記グループを有する性別である場合、
前記属性判定手段は、前記文字データ入力手段により入力された前記文字データに、所定数以上の絵文字が含まれている場合、前記作成者が女性の前記グループに属すると判定する、
ことを特徴とする請求項1又は2記載の情報処理装置。
If the feature category is gender with the group of men and women;
The attribute determination means determines that the creator belongs to the group of women when the character data input by the character data input means includes a predetermined number or more of pictographs.
The information processing apparatus according to claim 1 or 2.
前記特徴カテゴリーが複数の年齢区分を前記グループとする年齢層の場合、
前記文字列記憶手段は、前記年齢区分と対応づけて、それぞれの前記年齢区分の前記作成者が、それ以外の前記年齢区分の前記作成者よりも高い頻度で使用する前記文字列を記憶しており、
前記属性判定手段は、前記文字データ入力手段により入力された前記文字データに含まれる前記文字列のうち、前記文字列記憶手段に記憶された前記文字列の数を前記年齢区分毎にカウントし、前記作成者はカウントされた数が最も大きい前記年齢区分に属すると判定する、
ことを特徴とする請求項1又は2記載の情報処理装置。
When the feature category is an age group having a plurality of age categories as the group,
The character string storage means stores the character string used by the creator of each of the age categories more frequently than the creator of the other age categories in association with the age category. And
The attribute determination means counts the number of the character strings stored in the character string storage means among the character strings included in the character data input by the character data input means for each age category, The creator determines that it belongs to the age category with the largest counted number,
The information processing apparatus according to claim 1 or 2.
前記特徴カテゴリーが国内の所定領域を前記グループとする出身地の場合、
前記文字列記憶手段は、前記所定領域と対応づけて、それぞれの前記所定領域の前記作成者が、それ以外の前記所定領域の前記作成者よりも高い頻度で使用する前記文字列を記憶しており、
前記属性判定手段は、前記文字データ入力手段により入力された前記文字データに含まれる前記文字列のうち、前記文字列記憶手段に記憶された前記文字列の数を前記所定領域毎にカウントし、前記作成者はカウントされた数が最も大きい前記所定領域に属すると判定する、
ことを特徴とする請求項1又は2記載の情報処理装置。
In the case where the feature category is a place of birth with a predetermined area in the country as the group,
The character string storage means stores the character string used by the creator of each of the predetermined areas more frequently than the creator of the other predetermined areas in association with the predetermined area. And
The attribute determination means counts the number of the character strings stored in the character string storage means among the character strings included in the character data input by the character data input means for each predetermined area, The creator determines that it belongs to the predetermined area with the largest counted number.
The information processing apparatus according to claim 1 or 2.
前記グループ記憶手段に登録された前記作成者の前記グループに応じて、当該情報処理装置を制御する制御手段、
を有することを特徴とする請求項2記載の情報処理装置。
Control means for controlling the information processing apparatus according to the group of the creator registered in the group storage means;
The information processing apparatus according to claim 2, further comprising:
前記特徴カテゴリーが高齢者とそれ以外の前記グループを有する年齢層の場合であって、前記グループ記憶手段に登録された前記作成者の前記グループが高齢者である場合、
表示装置に表示する文字のサイズを所定値より大きくするUI制御手段、
を有することを特徴とする請求項2記載の情報処理装置。
When the feature category is an age group having an elderly person and the other group, and the group of the creator registered in the group storage means is an elderly person,
UI control means for making the size of characters displayed on the display device larger than a predetermined value;
The information processing apparatus according to claim 2, further comprising:
前記特徴カテゴリーが男性と女性の前記グループを有する性別の場合であって、前記グループ記憶手段に登録された前記作成者の前記グループが女性である場合、
表示装置に表示する文字のフォントを変更するフォント変更手段、
を有することを特徴とする請求項2記載の情報処理装置。
When the characteristic category is a gender having the group of men and women, and the group of the creator registered in the group storage means is a woman,
A font changing means for changing a font of characters displayed on the display device;
The information processing apparatus according to claim 2, further comprising:
音を出力する音出力装置において、
複数のグループにより人間を特徴づける特徴カテゴリーにおける、当該音出力装置のユーザが属する前記グループを記憶するグループ記憶手段と、
記号を識別する記号コードを入力する入力手段と、
前記記号コードに対応する記号の描画情報と、前記記号コード及び前記グループに対応づけて記憶された第1の音楽データと、が記憶されたフォントデータベースと、
前記記号コードに対応する前記描画情報に基づき記号を表示装置に表示する記号表示手段と、
前記記号コード及び前記グループに対応する前記第1の音楽データに基づきスピーカから音楽を出力する音楽出力手段と、
を有することを特徴とする音出力装置。
In a sound output device that outputs sound,
Group storage means for storing the group to which the user of the sound output device belongs in a feature category characterizing a human by a plurality of groups;
An input means for inputting a symbol code for identifying the symbol;
A font database storing symbol drawing information corresponding to the symbol code and first music data stored in association with the symbol code and the group;
Symbol display means for displaying a symbol on a display device based on the drawing information corresponding to the symbol code;
Music output means for outputting music from a speaker based on the symbol code and the first music data corresponding to the group;
A sound output device comprising:
複数の記号から構成される音楽ワードの音楽ワードコード及び前記グループに対応づけて記憶された第2の音楽データが記憶された音楽データ記憶手段と、
前記記号コードに対応する前記描画情報に基づき記号を表示装置に表示する記号表示手段、を有し、
前記音楽出力手段は、前記音楽ワードコード及び前記グループ記憶手段に記憶された前記グループに対応する前記第2の音楽データに基づきスピーカから音楽を出力する、
ことを特徴とする請求項10記載の音出力装置。
Music data storage means for storing a music word code of a music word composed of a plurality of symbols and second music data stored in association with the group;
Symbol display means for displaying a symbol on a display device based on the drawing information corresponding to the symbol code;
The music output means outputs music from a speaker based on the music word code and the second music data corresponding to the group stored in the group storage means.
The sound output device according to claim 10.
前記入力手段はキーボードであって、前記記号コード又は前記音楽ワードコードは、前記キーボードから入力される、
ことを特徴とする請求項10又は11記載の音出力装置。
The input means is a keyboard, and the symbol code or the music word code is input from the keyboard.
The sound output device according to claim 10 or 11, wherein the sound output device is a sound output device.
前記記号コード又は前記音楽ワードコードは、アプリケーションソフトウェアのデータファイルから入力される、
ことを特徴とする請求項10又は11記載の音出力装置。
The symbol code or the music word code is input from a data file of application software.
The sound output device according to claim 10 or 11, wherein the sound output device is a sound output device.
前記音楽ワードコードを含む電子メールを受信する受信手段と、
前記電子メールに含まれる前記音楽ワードコードに対応した前記第2の音楽データが前記音楽データ記憶手段に記憶されているか否かを判定する手段と、
前記音楽ワードコードに対応した前記第2の音楽データが前記音楽データ記憶手段に記憶されている場合、
前記音楽出力手段は、前記電子メールの着信音として前記第2の音楽データに基づき生成された音楽を出力し、
前記音楽ワードコードに対応した前記第2の音楽データが前記音楽データ記憶手段に記憶されていない場合、前記電子メールの着信音を出力する、
ことを特徴とする請求項10記載の音出力装置。
Receiving means for receiving an email containing the music word code;
Means for determining whether or not the second music data corresponding to the music word code included in the email is stored in the music data storage means;
When the second music data corresponding to the music word code is stored in the music data storage means,
The music output means outputs music generated based on the second music data as a ringtone of the e-mail,
When the second music data corresponding to the music word code is not stored in the music data storage means, the ring tone of the e-mail is output.
The sound output device according to claim 10.
記号を生成して表示する記号表示装置において、
複数のグループにより人間を特徴づける特徴カテゴリーおける、当該記号表示装置のユーザが属する前記グループを記憶するグループ記憶手段と、
記号を識別する記号コードを入力する入力手段と、
記号のイメージの全体又は一部を構成する所定の記号要素の要素データを複数含む記号のフォントデータを、前記グループに対応づけて記憶するフォントデータ記憶手段と、
前記グループ記憶手段に記憶された前記グループに応じて、該フォントデータ記憶手段に記憶されたフォントデータを参照して記号のイメージを作成するイメージ作成手段と、
該イメージ作成手段が作成したイメージを表示装置に表示する表示手段と、を有し、
前記イメージ作成手段は、前記記号要素の複数の要素データを設定された更新時間毎に順番に読み出して、記号のイメージを更新時間毎に更新する、
ことを特徴とする記号表示装置。
In a symbol display device for generating and displaying symbols,
Group storage means for storing the group to which the user of the symbol display device belongs in a feature category that characterizes a human by a plurality of groups;
An input means for inputting a symbol code for identifying the symbol;
Font data storage means for storing symbol font data including a plurality of element data of predetermined symbol elements constituting all or part of the symbol image in association with the group;
In accordance with the group stored in the group storage unit, an image creation unit that creates a symbol image with reference to font data stored in the font data storage unit;
Display means for displaying an image created by the image creation means on a display device;
The image creating means reads a plurality of element data of the symbol element in order for each set update time, and updates the image of the symbol for each update time.
A symbol display device characterized by that.
前記フォントデータ記憶手段は、
絵を構成するエレメントである絵素のアウトラインデータを絵素コード及び前記グループに対応づけて記憶しており、
前記イメージ作成手段は、前記グループ記憶手段に記憶された前記グループに応じて、絵素のアウトラインデータを設定された更新時間毎に順番に読み出して、絵素のイメージを更新時間毎に更新する、
ことを特徴とする請求項15記載の記号表示装置。
The font data storage means includes
The outline data of the picture elements that are elements constituting the picture is stored in association with the picture element code and the group,
The image creating means reads out the outline data of the picture elements in order for each set update time according to the group stored in the group storage means, and updates the image of the picture element at every update time.
The symbol display device according to claim 15.
前記記号要素の色を指示する色情報、
前記記号要素若のサイズを指示するサイズ情報
前記記号要素の記号に対する相対位置を指示する位置情報、
前記記号要素の回転角度を指示する回転情報、又は、
前記記号要素の更新時間を指示する更新時間情報、
のいずれか規定する動作設定ファイルを記憶する動作設定ファイル記憶手段、
を有することを特徴とする請求項15又は16記載の記号表示装置。
Color information indicating the color of the symbol element;
Size information indicating the size of the symbol element; position information indicating a relative position of the symbol element with respect to the symbol;
Rotation information indicating the rotation angle of the symbol element, or
Update time information indicating the update time of the symbol element;
An operation setting file storage means for storing an operation setting file prescribed in any one of
The symbol display device according to claim 15 or 16, characterized by comprising:
前記記号コードがアプリケーションソフトウェアのデータファイルに含まれている場合、
前記データファイルは、
前記記号要素の色を指示する色情報、
前記記号要素のサイズを指示するサイズ情報
前記記号要素の記号に対する相対位置を指示する位置情報、
前記記号要素若しくは前記絵素の回転を指示する回転情報、又は、
前記記号要素の更新時間を指示する更新時間情報、
のいずれか規定する第1のメタデータを有する、
ことを特徴とする請求項15又は16記載の記号表示装置。
When the symbol code is included in the application software data file,
The data file is
Color information indicating the color of the symbol element;
Size information indicating the size of the symbol element Position information indicating the relative position of the symbol element with respect to the symbol,
Rotation information instructing rotation of the symbol element or the picture element, or
Update time information indicating the update time of the symbol element;
Having first metadata defining any of
The symbol display device according to claim 15 or 16, characterized by the above.
前記データファイルは、
複数の記号からなる動き設定ワード及び前記グループに対応づけて、該動き設定ワードの少なくとも一部の前記記号毎に、2以上の記号コード、サイズ又は更新時間のいずれかを登録した第2のメタデータを有し、
前記イメージ作成手段は、前記グループ記憶手段に記憶された前記グループに応じて、前記動き設定ワードを構成する記号のフォントデータを前記更新時間毎に読み出して、動き設定ワードを構成する前記記号のイメージを更新する、
ことを特徴とする請求項18記載の記号表示装置。
The data file is
In association with the motion setting word consisting of a plurality of symbols and the group, a second meta in which at least a part of the symbols of the motion setting word is registered with either two or more symbol codes, size, or update time. Have data,
The image creating means reads out font data of symbols constituting the motion setting word at each update time according to the group stored in the group storage means, and images of the symbols constituting the motion setting word. Update,
The symbol display device according to claim 18.
文書データの画像を形成して用紙に印刷する画像形成装置において、
前記文書データと共に、
複数のグループにより人間を特徴づける特徴カテゴリーおける、当該画像形成装置のユーザが属する前記グループのグループ情報を受信するグループ情報受信手段と、
前記グループ情報受信手段により受信した前記グループ情報に応じて、当該画像形成装置を制御する制御手段と、
を有することを特徴とする画像形成装置。
In an image forming apparatus that forms an image of document data and prints it on paper,
Along with the document data
Group information receiving means for receiving group information of the group to which a user of the image forming apparatus belongs in a feature category characterizing a human by a plurality of groups;
Control means for controlling the image forming apparatus according to the group information received by the group information receiving means;
An image forming apparatus comprising:
文字を表示する表示手段を有し、
前記特徴カテゴリーが高齢者とそれ以外の前記グループを有する年齢層であり、前記グループ受信手段により受信した前記グループ情報の前記グループが高齢者である場合、
前記制御部は、表示装置に表示する文字のサイズを所定値より大きくする、
をことを特徴とする請求項20記載の画像形成装置。
Having display means for displaying characters;
When the feature category is an age group having an elderly person and the other group, and the group of the group information received by the group receiving means is an elderly person,
The control unit increases the size of characters to be displayed on the display device above a predetermined value.
21. The image forming apparatus according to claim 20, wherein:
複数のグループにより人間を特徴づける特徴カテゴリーにおける、当該機器のユーザが属する前記グループを判定する前記機器のユーザ属性判定方法であって、
文字データ入力手段から文字データを入力するステップと、
属性判定手段が、前記グループと対応づけて文字列を記憶する文字列記憶手段から、前記文字データ入力手段により入力された前記文字データに含まれる前記文字列が対応づけられた前記グループを参照して、所定の前記特徴カテゴリーにおける前記作成者が属する前記グループを判定するステップと、
を有することを特徴とするユーザ属性判定方法。
A device user attribute determination method for determining the group to which a user of the device belongs in a feature category characterizing a human by a plurality of groups,
Inputting character data from the character data input means;
The attribute determination unit refers to the group associated with the character string included in the character data input by the character data input unit from the character string storage unit that stores the character string in association with the group. Determining the group to which the creator in the predetermined feature category belongs,
A user attribute determination method characterized by comprising:
複数のグループにより人間を特徴づける特徴カテゴリーにおける、当該コンピュータのユーザの前記グループを判定するプログラムであって、
前記文字データを入力する文字データ入力手段と、前記グループと対応づけて文字列を記憶する文字列記憶手段と、接続可能な前記コンピュータを、
前記文字データ入力手段により入力された前記文字データに含まれる前記文字列に対応づけられた前記文字列記憶手段の前記グループを参照して、所定の前記特徴カテゴリーにおける前記作成者が属する前記グループを判定する属性判定手段、
として機能させるためのプログラム。
A program for determining the group of users of the computer in a feature category that characterizes a human by a plurality of groups,
Character data input means for inputting the character data, character string storage means for storing a character string in association with the group, and the connectable computer,
With reference to the group of the character string storage means associated with the character string included in the character data input by the character data input means, the group to which the creator in the predetermined feature category belongs Attribute determination means for determining,
Program to function as.
JP2007272845A 2007-10-19 2007-10-19 Information processor, sound output device, symbol display device, image forming apparatus, user attribute determination method, and program Pending JP2009104231A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007272845A JP2009104231A (en) 2007-10-19 2007-10-19 Information processor, sound output device, symbol display device, image forming apparatus, user attribute determination method, and program
CN2008101693632A CN101419527B (en) 2007-10-19 2008-10-14 Information processing, outputting, displaying and forming device, and user property judgement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007272845A JP2009104231A (en) 2007-10-19 2007-10-19 Information processor, sound output device, symbol display device, image forming apparatus, user attribute determination method, and program

Publications (1)

Publication Number Publication Date
JP2009104231A true JP2009104231A (en) 2009-05-14

Family

ID=40630327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007272845A Pending JP2009104231A (en) 2007-10-19 2007-10-19 Information processor, sound output device, symbol display device, image forming apparatus, user attribute determination method, and program

Country Status (2)

Country Link
JP (1) JP2009104231A (en)
CN (1) CN101419527B (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011118834A1 (en) * 2010-03-26 2011-09-29 楽天株式会社 Web server device, web server program, computer-readable recording medium, and web service method
US9519637B2 (en) 2013-08-22 2016-12-13 Ricoh Company, Ltd. Text processing apparatus and text display system
JP6270085B1 (en) * 2017-05-12 2018-01-31 クックパッド株式会社 Information processing apparatus, information processing system, information processing method, and program
CN108459833A (en) * 2017-02-17 2018-08-28 北京京东尚科信息技术有限公司 Mthods, systems and devices for display text

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109116996B (en) * 2017-06-23 2023-06-20 百度在线网络技术(北京)有限公司 Method, device and server for acquiring information
CN108256548A (en) * 2017-12-04 2018-07-06 北京大学 A kind of user's portrait depicting method and system based on Emoji service conditions
KR102448382B1 (en) * 2018-01-22 2022-09-28 삼성전자주식회사 Electronic device for providing image related with text and operation method thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001057593A (en) * 1999-06-09 2001-02-27 Adc Technology Kk Telephone repeater with advertisement
JP2002157238A (en) * 2000-09-06 2002-05-31 Seiko Epson Corp Browsing information preparing system, digital contents preparing system, digital contents distributing system and digital contents preparing program
JP2003150844A (en) * 2001-11-09 2003-05-23 Matsushita Electric Ind Co Ltd Information providing system, information providing method and information providing server
JP2005107728A (en) * 2003-09-29 2005-04-21 Hitachi Software Eng Co Ltd Advertisement display system and advertisement display method in cellphone terminal
JP2006293767A (en) * 2005-04-12 2006-10-26 Nomura Research Institute Ltd Sentence categorizing device, sentence categorizing method, and categorization dictionary creating device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187435A (en) * 1998-12-24 2000-07-04 Sony Corp Information processing device, portable apparatus, electronic pet device, recording medium with information processing procedure recorded thereon, and information processing method
CN100505816C (en) * 2005-06-22 2009-06-24 株式会社理光 Image processing device, image processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001057593A (en) * 1999-06-09 2001-02-27 Adc Technology Kk Telephone repeater with advertisement
JP2002157238A (en) * 2000-09-06 2002-05-31 Seiko Epson Corp Browsing information preparing system, digital contents preparing system, digital contents distributing system and digital contents preparing program
JP2003150844A (en) * 2001-11-09 2003-05-23 Matsushita Electric Ind Co Ltd Information providing system, information providing method and information providing server
JP2005107728A (en) * 2003-09-29 2005-04-21 Hitachi Software Eng Co Ltd Advertisement display system and advertisement display method in cellphone terminal
JP2006293767A (en) * 2005-04-12 2006-10-26 Nomura Research Institute Ltd Sentence categorizing device, sentence categorizing method, and categorization dictionary creating device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNJ200810021028; 村本達也: '地図インタフェースを利用した多種情報源の検索' 第61回(平成12年後期)全国大会講演論文集(3) , 20001003, pp.3-55〜3-56, 社団法人情報処理学会 *
JPN6012066839; 村本達也: '地図インタフェースを利用した多種情報源の検索' 第61回(平成12年後期)全国大会講演論文集(3) , 20001003, pp.3-55〜3-56, 社団法人情報処理学会 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011118834A1 (en) * 2010-03-26 2011-09-29 楽天株式会社 Web server device, web server program, computer-readable recording medium, and web service method
JP5073874B2 (en) * 2010-03-26 2012-11-14 楽天株式会社 Web server device, web server program, computer-readable recording medium, and web service method
US9519637B2 (en) 2013-08-22 2016-12-13 Ricoh Company, Ltd. Text processing apparatus and text display system
CN108459833A (en) * 2017-02-17 2018-08-28 北京京东尚科信息技术有限公司 Mthods, systems and devices for display text
CN108459833B (en) * 2017-02-17 2021-10-01 北京京东尚科信息技术有限公司 Method, system and apparatus for displaying text
JP6270085B1 (en) * 2017-05-12 2018-01-31 クックパッド株式会社 Information processing apparatus, information processing system, information processing method, and program
JP2018194897A (en) * 2017-05-12 2018-12-06 クックパッド株式会社 Information processing apparatus, information processing system, information processing method and program

Also Published As

Publication number Publication date
CN101419527B (en) 2011-07-27
CN101419527A (en) 2009-04-29

Similar Documents

Publication Publication Date Title
US9336200B2 (en) Assisting document creation
JP2009104231A (en) Information processor, sound output device, symbol display device, image forming apparatus, user attribute determination method, and program
KR102345453B1 (en) System and method for inputting images or labels into electronic devices
US8370143B1 (en) Selectively processing user input
US7457798B2 (en) System and method for providing a universal and automatic communication access point
WO2006115642A1 (en) Predictive conversion of user input
WO2007024490A1 (en) Selection and display of user-created documents
JP4862573B2 (en) Message creation support apparatus, control method and control program therefor, and recording medium recording the program
JP4787634B2 (en) Music font output device, font database and language input front-end processor
US10025772B2 (en) Information processing apparatus, information processing method, and program
JP2009110497A (en) Information processor, image forming apparatus, program and document data constituting method
JP2006259919A (en) Device for supporting input of character string
US20150058011A1 (en) Information processing apparatus, information updating method and computer-readable storage medium
JP2003209643A (en) Image-processing device
JP5664813B1 (en) Design management apparatus and program
JP5866310B2 (en) Information processing apparatus, information processing method, and program
JP4116852B2 (en) Extracted character string dictionary search apparatus and method, and program
JP2001005753A (en) Mail transmitter and its program storage medium
JP2005050156A (en) Method and system for replacing content
JP4203630B2 (en) Information output device and program recording medium thereof
JP6885105B2 (en) Information processing programs and information processing equipment
JP4878468B2 (en) E-mail evaluation apparatus and e-mail evaluation method
JPH09269943A (en) Document preparing device and kana/kanji converting method
JP2006018509A (en) Document management support device
JP2004282398A (en) Facsimile machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120508

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120706

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121225