JPH06203122A - Display device and organic information reader - Google Patents

Display device and organic information reader

Info

Publication number
JPH06203122A
JPH06203122A JP4359849A JP35984992A JPH06203122A JP H06203122 A JPH06203122 A JP H06203122A JP 4359849 A JP4359849 A JP 4359849A JP 35984992 A JP35984992 A JP 35984992A JP H06203122 A JPH06203122 A JP H06203122A
Authority
JP
Japan
Prior art keywords
face
basic
life
body shape
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4359849A
Other languages
Japanese (ja)
Other versions
JP3341049B2 (en
Inventor
Yoshiyuki Murata
嘉行 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP35984992A priority Critical patent/JP3341049B2/en
Priority to US08/062,994 priority patent/US5537662A/en
Priority to MYPI93000949A priority patent/MY109991A/en
Priority to EP93108378A priority patent/EP0571934B1/en
Priority to DE69332683T priority patent/DE69332683T2/en
Priority to KR1019930009396A priority patent/KR0142164B1/en
Priority to TW082104257A priority patent/TW397948B/en
Priority to CN93105861A priority patent/CN1104701C/en
Publication of JPH06203122A publication Critical patent/JPH06203122A/en
Priority to HK98114688A priority patent/HK1013452A1/en
Priority to CN01104384A priority patent/CN1318805A/en
Application granted granted Critical
Publication of JP3341049B2 publication Critical patent/JP3341049B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To provide the display device for speedily and exactly preparing and displaying the montage of a desired face or body and the reader for reading organic information concerning the face or body. CONSTITUTION:The basic face of a person corresponding to all conditions such as nation, period and occupation stored in advance is selected from a ROM and displayed on a display part 5. When up and down keys 8 and 9 and respective arrow keys 10-13 are operated, the parts of the displayed basic face are changed, the montage of the desired face is prepared from the basic face and this is registered by operating an OK key 14. When a self-introduction key 20 is operated, a voice to be used is decided from the 'language', 'sex' and 'age' of the correspondent individual, voice data are read out, mouth pattern data are read out and a voice output and synthetic montage display is performed. Thus, the voice corresponding to individual data is generated from a sound discharge part 16, and the mouth of the displayed montage is changed together with pronounciation.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、顔や体形を表示する表
示装置、及び顔や体形に関する生命体情報を読み上げる
読み上げ装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a display device for displaying a face and a body shape, and a reading device for reading life information related to the face and body shape.

【0002】[0002]

【従来の技術】従来、顔のモンタージュ作成してこれを
表示するモンタージュ装置が知られている。このモンタ
ージュ装置は、目、鼻、口、眉毛、輪郭、髪型等の人間
の顔の各部位ごとに当該部位の形状を表すパーツパター
ンを各々複数種記憶したパーツパターンメモリを有して
いる。また、顔のモンタージュの作成の際に、顔の各部
位を選択するための部位選択キーと、この部位選択キー
の操作により選択された部位を表すパーツパターンを選
択するためのパーツパターン選択キー等が設けられてい
る。そして、任意の顔を作成するために、例えば目から
作成する場合には、先ず部位選択キーを押して目の部位
を選択する。しかる後に、パーツパターン選択キーを操
作して部位選択キーの操作により選択された目の部位に
設けられた複数種類のパーツパターンのなかから一種類
のパーツパターンを選択する。鼻、口、眉毛、輪郭、髪
型に関しても同様の操作を行うことにより、最終的に各
部位ごとに選択したパーツパターンの組み合わせに基づ
いて任意の顔を作成することができる。
2. Description of the Related Art Conventionally, there is known a montage device for creating a face montage and displaying it. This montage device has a part pattern memory that stores a plurality of types of part patterns representing the shape of each part of the human face such as eyes, nose, mouth, eyebrows, contours, and hairstyle. Also, when creating a face montage, a part selection key for selecting each part of the face and a part pattern selection key for selecting a part pattern representing the part selected by the operation of this part selection key, etc. Is provided. Then, in order to create an arbitrary face, for example, when creating from the eyes, first, the region selection key is pressed to select the region of the eyes. Then, the part pattern selection key is operated to select one kind of part pattern from a plurality of kinds of part patterns provided on the eye part selected by the operation of the part selection key. By performing the same operation for the nose, mouth, eyebrows, outline, and hairstyle, it is possible to finally create an arbitrary face based on the combination of the part patterns selected for each part.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
モンタージュ装置にあっては、前述したように、任意の
顔を作成するに際して、顔を構成する各部位ごとになさ
れる部位選択キーの操作とその部位選択キーの操作に続
いてなされるパーツパターン選択キーの操作との二つの
操作を交互に行いながら、モンタージュの作成を行う。
よって、白紙の状態から前記二つの操作を行わなければ
ならないことから、希望する顔のモンタージュが完成す
るまでに多くの時間を要するとともに、複数種類のパー
ツパターンからいずれかを選択する際に基準となるもの
がないことから、選択に誤りが生じ易く、よって、迅速
かつ正確に所望のモンタージュを作成することができる
ものではなかった。
However, in the conventional montage device, as described above, when an arbitrary face is created, the operation of the part selection key for each part forming the face and the operation thereof are performed. The montage is created by alternately performing the two operations, that is, the operation of the part pattern selection key following the operation of the part selection key.
Therefore, since it is necessary to perform the above two operations from the state of a blank sheet, it takes a lot of time until the desired face montage is completed, and when selecting one from multiple types of part patterns, Since there is nothing, it is not possible to make a desired montage quickly and accurately because it is easy to make an error in selection.

【0004】本発明は、このような従来の課題に鑑みて
なされたものであり、所望の顔や体形のモンタージュを
迅速かつ正確に作成して表示することができる表示装置
及び、顔や体形に関する生命体情報を読み上げる読み上
げ装置を提供することを目的とするものである。
The present invention has been made in view of such conventional problems, and relates to a display device capable of quickly and accurately creating and displaying a montage of a desired face or body shape, and a face or body shape. The object is to provide a reading device for reading life information.

【0005】[0005]

【課題を解決するための手段】前記課題を解決するため
に請求項1記載の発明にあっては、分類項目毎にその分
類に属する基本顔または基本体形を表す基本型データを
複数記憶している基本型データ記憶手段と、この基本型
データ記憶手段に記憶されている複数の基本型データが
属する各分類項目のなかから少なくとも1つの分類項目
を指定する分類項目指定手段と、この分類項目指定手段
により指定された分類項目に属する基本型データに基づ
き、対応する基本顔または基本体形を表示する表示手段
と、を備えている。
In order to solve the above problems, in the invention according to claim 1, a plurality of basic type data representing a basic face or a basic body shape belonging to the classification is stored for each classification item. A basic type data storage means, a classification item designating means for designating at least one classification item from among the classification items to which a plurality of basic type data stored in the basic type data storage means belong, and the classification item designation Display means for displaying the corresponding basic face or basic body shape based on the basic type data belonging to the classification item designated by the means.

【0006】また、請求項2記載の発明にあっては、前
記表示手段に表示された基本顔または基本体形の一部ま
たは全部を修正する修正手段と、この修正手段にて修正
した後の顔または体形を表す修正データを記憶する修正
データ記憶手段と、この修正データ記憶手段に記憶され
た修正データに基づいて、修正後の顔または体形を表示
する表示手段とを備えている。
According to the second aspect of the invention, the correcting means for correcting a part or all of the basic face or basic body shape displayed on the display means, and the face after being corrected by the correcting means Alternatively, it is provided with correction data storage means for storing correction data representing a body shape, and display means for displaying the corrected face or body shape based on the correction data stored in the correction data storage means.

【0007】さらに、請求項6記載の発明にあっては、
生命体の顔または体形を表す生命体データと当該生命体
に関する生命体情報とを対応して記憶する記憶手段と、
この記憶手段に記憶されている生命体情報に基づいて対
応する音声を指定する音声指定手段と、この音声指定手
段により指定された音声で前記生命体にかかる生命体情
報を読み上げる生命体情報読み上げ手段とを備えてい
る。
Further, in the invention according to claim 6,
Storage means for correspondingly storing life form data representing the face or body shape of the life form and life form information relating to the life form;
A voice designating unit that designates a corresponding voice based on the life form information stored in the storage unit, and a life form information reading unit that reads out the life form information concerning the life form with the sound specified by the voice specifying unit. It has and.

【0008】また請求項7記載の発明にあっては、さら
に、前記記憶手段に記憶されている表示データに基づい
て対応する生命体の顔または体形を表示する表示手段を
備え、請求項8記載の発明にあっては、この表示手段に
表示されている生命体の顔または体形の一部を、前記生
命体情報読み上げ手段にて読み上げされる生命体情報に
従って変化させる変化制御手段を有している。
The invention according to claim 7 further comprises display means for displaying the face or body shape of the corresponding living body based on the display data stored in the storage means. According to the invention, there is provided change control means for changing a part of the face or body shape of the life form displayed on the display means according to the life form information read out by the life form information reading out means. There is.

【0009】[0009]

【作用】請求項1記載の発明によれば、分類項目指定手
段により1つの分類を指定すると、表示手段には指定さ
れた分類項目に属する基本型のデータに基づき、対応す
る基本顔、基本体形が表示される。したがって、この表
示された基本顔、基本体形を考慮しつつ、所望の顔、体
形の作成を行い得る。
According to the invention described in claim 1, when one classification is designated by the classification item designating means, the corresponding basic face and basic body shape are displayed on the display means based on the basic type data belonging to the designated classification item. Is displayed. Therefore, the desired face and body shape can be created in consideration of the displayed basic face and body shape.

【0010】また、請求項2記載の発明によれば、表示
手段に表示されている基本顔または基本体形の一部また
は全部を修正手段により修正することができ、よって、
白紙の状態から作成を行うことなく、修正手段による修
正を行うことにより、所望の顔または体形に移行する。
そして、この修正された顔または体形を示す修正データ
は修正データ記憶手段に記憶された後、この修正データ
に基づき修正された顔または体形が表示手段により表示
される。
According to the second aspect of the present invention, a part or all of the basic face or basic body shape displayed on the display means can be corrected by the correction means.
The face or body shape is changed to a desired face by making corrections by the correction means without making a blank sheet.
Then, after the correction data indicating the corrected face or body shape is stored in the correction data storage means, the face or body shape corrected based on the correction data is displayed by the display means.

【0011】また、請求項6記載の発明によれば、音声
指定手段により、記憶手段に記憶されている生命体情報
に基づいて対応する音声を指定すると、生命体情報読み
上げ手段が指定された音声で前記生命体にかかる生命体
情報を読み上げる。したがって、指定された音声をもっ
て発生する生命体情報により、生命体の顔または体形を
聴覚的に認識し得る。さらに、請求項7記載の発明によ
れば、表示手段に生命体の顔または体形も表示されるこ
とから、当該顔または体形は視覚及び聴覚の双方をもっ
て認識することができる。また、請求項8記載の発明に
よれば、この表示手段に表示されている生命体の顔また
は体形の一部が、前記生命体情報読み上げ手段にて読み
上げされる生命体情報に従って変化する。
According to the invention of claim 6, when the voice designating unit designates a corresponding voice based on the life form information stored in the storage unit, the voice for which the life form information reading unit is designated. Read out the life form information related to the life form. Therefore, the face or body shape of an organism can be audibly recognized by the organism information generated with the designated voice. Further, according to the invention described in claim 7, since the face or body shape of the living body is also displayed on the display means, the face or body shape can be recognized both visually and auditorily. According to the invention of claim 8, a part of the face or body shape of the life form displayed on the display means changes in accordance with the life form information read out by the life form information reading out means.

【0012】[0012]

【実施例】以下、本発明の一実施例を図にしたがって説
明する。すなわち、図1は本発明の一実施例を適用した
電子手帳の外観図であり、電子手帳1はヒンジ2を介し
て連結された表ケース3と裏ケース4とから構成されて
いる。表ケース3側には、LCDで構成された表示部5
が設けられており、該表示部5の下部にはその一側部に
基本型顔キー6と表示切換キー7とが設けられていると
ともに、△キー8と▽キー9が設けられている。さら
に、△キー8と▽キー9の下部には、左矢印キー10、
右矢印キー11、上矢印キー12、下矢印キー13、O
Kキー14、及び登録キー15が設けられている。ま
た、表示部5の下部であって他側には、放音部16が設
けられているとともに、モンタージュ作成キー17、口
変化設定キー18、検索・出力キー19、自己紹介キー
20、及びONキー21とOFFキー22が設けられて
いる。さらに、前記裏ケース4側には、数値キーとアル
ファベットキー等で構成されたデータ入力キー23が設
けられている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. That is, FIG. 1 is an external view of an electronic notebook to which an embodiment of the present invention is applied, and the electronic notebook 1 is composed of a front case 3 and a back case 4 which are connected via a hinge 2. On the front case 3 side, a display unit 5 composed of an LCD
The basic face key 6 and the display switching key 7 are provided on one side of the lower portion of the display unit 5, and the Δ key 8 and the ▽ key 9 are provided. Further, below the △ key 8 and ▽ key 9, the left arrow key 10,
Right arrow key 11, Up arrow key 12, Down arrow key 13, O
A K key 14 and a registration key 15 are provided. A sound emitting unit 16 is provided on the lower side of the display unit 5 on the other side, and a montage creation key 17, a mouth change setting key 18, a search / output key 19, a self-introduction key 20, and ON. A key 21 and an OFF key 22 are provided. Further, on the side of the back case 4, a data input key 23 composed of numerical keys and alphabetic keys is provided.

【0013】図2は、電子手帳1の全体構成を示すブロ
ック図であり、前述した各キーの操作情報は、このブロ
ック図において入力部24からタイマー30備えたCP
U25に入力される。該CPU25は、ROM26に予
め記憶されているデータ等や、RAM27、合成RAM
28に記憶されるデータ等に基づき、この電子手帳1に
おいて必要となる全ての制御を実行するとともに、前記
表示部5を駆動する表示駆動回路29を制御する。さら
に、CPU25は、音声合成部31を制御して、音声波
形を合成させ、この音声合成部31で合成された音声波
形は、増幅器32により増幅され、前記放音部16に配
置されたスピーカ33から放音される。
FIG. 2 is a block diagram showing the overall structure of the electronic notebook 1, and the operation information of each of the above-mentioned keys is the CP provided with the timer 30 from the input section 24 in this block diagram.
Input to U25. The CPU 25 includes data stored in the ROM 26 in advance, a RAM 27, a composite RAM
Based on the data and the like stored in 28, all the controls required in the electronic notebook 1 are executed, and the display drive circuit 29 that drives the display unit 5 is controlled. Further, the CPU 25 controls the voice synthesizing unit 31 to synthesize a voice waveform, and the voice waveform synthesized by the voice synthesizing unit 31 is amplified by the amplifier 32, and the speaker 33 arranged in the sound emitting unit 16. Is emitted from.

【0014】前記ROM26は、パーツパターンROM
261、基本型顔ROM262、口パーツパターンRO
M263、音声データROM264、国籍対応言語RO
M265、性別・年令層ROM266で構成されてい
る。パーツパターンROM261には、図3に示したよ
うに、顔を構成する輪郭、髪型、目、鼻、口等の各部位
のパーツパターンが各部位ごとに、01〜20までのパ
ーツパターンNO.をもって20種類ずつ記憶されてい
る。なお、図示を省略したが、このパーツパターンRO
M261には、さらに人体を構成する胴、両手、両足の
各パーツパターンが各々NO.01〜20をもって20
種類ずつ記憶されている。
The ROM 26 is a parts pattern ROM.
261, basic face ROM 262, mouth part pattern RO
M263, voice data ROM264, nationality language RO
It is composed of an M265 and a gender / age layer ROM 266. In the part pattern ROM 261, as shown in FIG. 3, the part patterns of each part such as the contour, hairstyle, eyes, nose, mouth, etc., which form the face, are 01 to 20 part pattern numbers. 20 types are stored. Although not shown, this part pattern RO
In M261, the part patterns of the torso, both hands, and both legs that make up the human body are NO. 20 from 01 to 20
Memorized by type.

【0015】前記基本顔ROM262は、さらに基本型
国籍別顔ROM(図4)、基本型国籍別用パーツパター
ンNO.ROM(図5)、基本型時代別顔ROM(図
6)、基本型職業別顔ROM(図7)、基本型年令層別
顔ROM(図8)、基本型性別顔ROM(図9)、基本
型特徴顔別顔ROM(図10)で構成されている。基本
型国籍別顔ROMには、図4に示したように、日本、イ
ラン(中東)等の各国籍別に対応する国籍1から国籍1
00までに、国籍の特徴を加味した顔や髪型を有する基
本型顔が各々01〜10までに10パターンずつ記憶さ
れている。つまり、この基本型国籍別顔ROMには、国
籍100×10パターン=1000種の基本型国籍別顔
が記憶されているのである。
The basic face ROM 262 further includes a basic type nationality-specific face ROM (FIG. 4), a basic type nationality-specific parts pattern NO. ROM (Fig. 5), basic age face ROM (Fig. 6), basic occupation face ROM (Fig. 7), basic age group face ROM (Fig. 8), basic gender face ROM (Fig. 9) , A basic type feature face-specific face ROM (FIG. 10). As shown in FIG. 4, the basic type nationality-specific face ROM includes nationality 1 to nationality 1 corresponding to each nationality such as Japan and Iran (Middle East).
By 00, 10 patterns of the basic type face having a hairstyle and a face in which the characteristics of the nationality are added are stored by 01 to 10, respectively. In other words, this basic type nationality-specific face ROM stores basic type nationality-specific faces of 100 × 10 patterns = 1000 types of nationalities.

【0016】そして、図5に示した基本型国籍別用パー
ツパターンNO.ROMには、図4に示した各国籍別基
本型顔の各部位のパーツパターンNO.が記憶されてい
る。すなわち、この基本型国籍別用パーツパターンN
O.ROMのNO.「1−01」「1−02」「1−0
3」・・・「100−10」において、ハイフンの左側
は基本型国籍別顔ROM(図4)に記憶された国籍の値
を示し、ハイフンの右側は同基本型国籍別顔ROMに記
憶された基本型顔のパターンNO.を示す。
Then, the basic type nationality-specific parts pattern NO. In the ROM, the part pattern No. for each part of the basic type face for each nationality shown in FIG. Is remembered. That is, this basic type nationality parts pattern N
O. ROM no. "1-01""1-02""1-0
3 "..." 100-10 ", the left side of the hyphen indicates the nationality value stored in the basic type nationality face ROM (Fig. 4), and the right side of the hyphen is stored in the basic type nationality face ROM. Basic type face pattern No. Indicates.

【0017】よって、基本型国籍別用パーツパターンN
O.ROM(図5)において、NO.1−01は、基本
型国籍別顔ROM(図4)の国籍1である日本のパター
ンNO.1に記憶されている基本型顔に対応し、この基
本型顔の輪郭、髪型、命、鼻、口のパーツパターンN
O.が「20」「20」「20」「20」「20」と記
憶されているのである。また、このように基本型国籍別
用パーツパターンNO.ROM(図5)は、基本型国籍
顔ROM(図4)に記憶された各基本顔の構成パーツパ
ターンNO.を記憶しているものであることから、前述
した国籍100×10パターン=1000の基本型国籍
別顔に対応して、NO.1−0から100−10までに
1000組のパーツパターンNO.群が記憶されてい
る。
Therefore, the basic type nationality parts pattern N
O. In the ROM (FIG. 5), NO. 1-01 is Japanese pattern No. 1 which is the nationality 1 of the basic type face ROM according to nationality (FIG. 4). Corresponding to the basic type face stored in 1, the basic pattern face contour, hairstyle, life, nose, mouth part pattern N
O. Is stored as "20", "20", "20", "20", "20". In addition, as described above, the basic type parts pattern for nationality No. The ROM (FIG. 5) is a constituent part pattern No. of each basic face stored in the basic type nationality face ROM (FIG. 4). Therefore, it corresponds to the basic type nationality-based face of nationality 100 × 10 patterns = 1000 described above, and thus, the NO. From 1-0 to 100-10, 1000 sets of part pattern No. The group is remembered.

【0018】基本型時代別顔ROMには、図6に示した
ように、日本、米国等の各国における1970年代等の
各時代の髪型等を加味した基本型顔が時代別に各々複数
種記憶されている。基本型職業別顔ROMには、図7に
示したように、「八百屋」「画家」等の職業を加味した
基本型顔が各職業ごとに複数記憶されており、基本型年
令層別顔ROMには、図8に示したように、「1才〜6
才(幼児層)」「7才〜12才(小学生代層)」・・・
「40才〜50才(中年層)」等の各年令層を加味した
基本型顔が各年令層別に記憶されている。
As shown in FIG. 6, the basic type age-dependent face ROM stores a plurality of types of basic type faces in consideration of hairstyles of respective times such as 1970s in Japan, the United States, etc. ing. As shown in FIG. 7, the basic profession-specific face ROM stores a plurality of basic professions for each profession, such as “greengrocer” and “painter”. In the ROM, as shown in FIG.
Age (young children), "7-12 years old (elementary school)" ...
The basic type face considering each age group such as "40 to 50 years old (middle age group)" is stored for each age group.

【0019】基本型性別顔ROMには、図9に示したよ
うに、女性、男性の各性別と国別とを加味した基本型顔
が、各性ごとに複数種記憶されており、基本型等顔別顔
ROMには、図10に示したように、丸顔、視覚顔等の
顔の特徴を国別に加味した基本型顔が、特徴顔別に記憶
されている。なお、図4の基本型国籍別顔ROMに対応
する図5の基本型国籍別用パーツパターンNO.ROM
が存在するように、図6〜図10の各顔ROMに記憶さ
れた基本型顔のパーツパターンNO.も、各パターンを
構成するパーツパターンNO.が、対応するパーツパタ
ーンNO.ROM(図示せず)に記憶されている。
As shown in FIG. 9, the basic type gender face ROM stores a plurality of types of basic type faces for each gender, taking into account the gender of each of female and male and the country. As shown in FIG. 10, the uniform face-specific face ROM stores a basic type face in which facial features such as a round face and a visual face are added for each country. It should be noted that the basic type nationality-specific parts pattern No. 1 of FIG. 5 corresponding to the basic type nationality-specific face ROM of FIG. ROM
6 to FIG. 10, the basic face part pattern Nos. Stored in the face ROMs of FIGS. Also, the part pattern No. that composes each pattern. The corresponding part pattern No. It is stored in a ROM (not shown).

【0020】他方、口パーツパターンROM236に
は、図11に示したように、日本語での発音時の口の型
のパターン群や、英語での発音時の口の型のパターン群
等の言語に応じた口のパターン群が記憶されている。そ
して、日本語での発音時の口の型のパターン群は、1〜
50の50種類の形の口が、各々無音である場合と、
「あ」「い」「う」・・・の55音発生させた場合との
パターンとで構成されている。また、英語での発音時の
口の型のパターン群も同様に、50種類の形の口が
「A」「B」・・・とアルファベットの26音をもって
発音させた場合のパターンで構成されている。
On the other hand, in the mouth part pattern ROM 236, as shown in FIG. 11, languages such as a mouth pattern group when uttering in Japanese and a mouth pattern group when uttering in English are used. A group of mouth patterns corresponding to is stored. And, the pattern group of the mouth shape when pronouncing in Japanese is 1
There are 50 different types of mouths, each of which is silent,
The pattern is composed of 55 sounds of "A", "I", "U" ... Similarly, a group of mouth-shaped patterns in pronunciation in English is also composed of patterns of 50 different types of mouths pronounced as "A", "B" ... There is.

【0021】また、音声データROM264には、図1
2に示したように、国籍、性別、年令別をもって、
「あ」「い」「う」・・・、「A」「B」「C」・・・
等の一語の音声データと、「相」「abandan」等
の単語の音声データとが記憶されている。さらに、国籍
対応言語ROM265には、図13に示したように、
A,B、C・・・の各項ごとに日本、米国、スペイン等
の国籍(民族)と、日本語、英語、スペイン語等の当該
国籍の者が通常使用する言語の種類とが対応関係をもっ
て記憶されている。性別・年令層ROM266には、図
14に示したように、男性「0」女性「1」子供「X」
中・高生性「Y」大人「Z」等の性別、年令層を示す符
号が記憶されている。したがって、国籍対応使用言語R
OM266の国籍に対応する項“A”“B”“C”・・
・と、性別・年令層ROM266の各符号との組み合わ
せにより、「日本男性の大人」であれば、A(日本)、
O(男性)、Z(大人)となり、図15に示したように
「A O Z」で表すことができる。
Further, the voice data ROM 264 has a structure shown in FIG.
As shown in 2, by nationality, gender, and age,
"A""I""U" ... "A""B""C" ...
Voice data of one word, and voice data of words such as "phase" and "abandan" are stored. Further, in the language corresponding to nationality ROM 265, as shown in FIG.
Correspondence between nationalities (ethnicities) such as Japan, the United States, and Spain for each item A, B, C, etc., and the types of languages normally used by persons of that nationality such as Japanese, English, and Spanish. Is remembered. In the gender / age layer ROM 266, as shown in FIG. 14, male “0” female “1” child “X”
A code indicating the sex and age group such as middle and high school age "Y" and adult "Z" is stored. Therefore, the language used for nationality R
Items corresponding to the nationality of OM266 "A""B""C" ...
, And the respective codes of the gender / age layer ROM 266, if it is “a Japanese male adult”, A (Japan),
It becomes O (male) or Z (adult) and can be represented by "A O Z" as shown in FIG.

【0022】RAM27は、図16に示したように表示
レジスタ271と基本型顔エリア273が設けられてい
るとともに、項目1,2・・・ごとに個人データエリア
274とモンタージュデータエリア275、及びその他
のエリア276が区分されている。個人データエリア2
74には、当該個人の国籍、時代、職業、年令、性別、
顔の特徴、名前、住所、等が記憶され、モンタージュデ
ータエリア275には、輪郭から左足までの、10部位
のパーツパターンNO.が記憶される。その他のエリア
276には、使用言語、性別、年令層が、前記符号をも
って記憶されるととともに、個人データエリア274に
記憶された「日本」「1992年」等を読み上げるに必
要な音声データ「に」「ほ」「ん」 ・・・を示す音声
データNO.と、各音声データ「に」「ほ」「ん」・・
・の動きに対応する口パーツパターンNO.とが記憶さ
れる。また、基本型顔エリア273には、後述するよう
に基本型顔を指定した際の輪郭から口までの各部位を構
成するパーツパターンNO.が記憶される。
As shown in FIG. 16, the RAM 27 is provided with a display register 271 and a basic face area 273, and a personal data area 274, a montage data area 275, and others for each item 1, 2 ... Area 276 is divided. Personal data area 2
74 includes the nationality, age, occupation, age, and gender of the individual,
Face features, names, addresses, etc. are stored, and in the montage data area 275, the part pattern Nos. Of 10 parts from the contour to the left foot are stored. Is memorized. In the other area 276, the language used, gender, and age group are stored with the above-mentioned codes, and the voice data “Japanese” and “1992” etc. stored in the personal data area 274 are read out. No. ”“ ho ”“ n ”... And each voice data "ni""ho""n" ...
・ Mouth part pattern corresponding to the movement of And are remembered. Further, in the basic face area 273, as will be described later, the part pattern Nos. That form each part from the contour to the mouth when the basic face is designated. Is memorized.

【0023】RAM27に設けられた口パーツパターン
対応時間RAM271には、図17に示したように、ア
ドレス「1」「2」「3」・・・ごとに、図11に示し
た口パーツパターンROMから読みされた口パーツパタ
ーンであって、図16に示した音声データNO.に対応
する口パーツパターンのNO.と、これを表示する時間
データとが記憶される。したがって、この図17に示し
たデータがアドレス順に読み出されることにより、表示
部5には、口パーツパターンNO.1が3秒→口パーツ
パーツNO.5が2秒→口パーツパターンNO.8が3
秒→・・・の順で切り替わり、これによりモンタージュ
の口部分が変化することになる。
As shown in FIG. 17, the mouth part pattern corresponding time RAM 271 provided in the RAM 27 has the mouth part pattern ROM shown in FIG. 11 for each address "1""2""3". 16 is a mouth part pattern read from the voice data NO. No. of the mouth part pattern corresponding to And the time data for displaying this are stored. Therefore, by reading the data shown in FIG. 17 in the order of addresses, the display part 5 displays the mouth part pattern No. 1 for 3 seconds → Mouth parts No. 5 for 2 seconds → mouth part pattern NO. 8 is 3
It switches in the order of seconds → ..., which changes the mouth part of the montage.

【0024】次に以上の構成にかかる本実施例の動作に
ついて、図18以降に示したフローチャートに従って説
明する。すなわち、図18は本実施例のゼネラルフロー
であり、基本型モンタージュ表示処理を実行した後(S
A1)、個人データ登録処理を実行する(SA2)。引
き続き、モンタージュ作成処理を実行し(SA3)、口
変化設定処理(SA4)及び検索・出力処理(SA5)
を実行する。
Next, the operation of this embodiment having the above configuration will be described with reference to the flow charts shown in FIG. That is, FIG. 18 is a general flow of the present embodiment, and after the basic type montage display processing is executed (S
A1), personal data registration processing is executed (SA2). Subsequently, montage creation processing is executed (SA3), mouth change setting processing (SA4) and search / output processing (SA5).
To execute.

【0025】基本型顔モンタージュ表示処理(SA1)
は、図19及び図20に示した一連のフローチャートに
従った動作である。すなわち、基本型顔キー6がオン操
作されることにより開始され(SB1)、表示部5に世
界地図(世界地図データはROM26に予め記憶されて
いる。)を表示した後(SB2)、表示切換キー7のオ
ン操作を待つ(SB3)。この間、ユーザーは表示部5
に表示されている世界地図を参照して、入力する国籍
名、地域名を決定する。
Basic type face montage display processing (SA1)
Is an operation in accordance with the series of flowcharts shown in FIGS. That is, it is started by turning on the basic type face key 6 (SB1), and after displaying the world map (world map data is stored in advance in the ROM 26) on the display unit 5 (SB2), the display is switched. Wait for key 7 to be turned on (SB3). During this time, the user can
Determine the nationality name and area name to be entered by referring to the world map displayed in.

【0026】そして、入力すべき国籍名、地域名が決定
した時点で、表示切換キー7がオン操作されると、「国
籍名、地域名?」の表示を行った後(SB4)、国籍
名、地域名の入力を待つ(SB5)。この表示に応じ
て、ユーザーがデータ入力キー23を操作し、これによ
り国籍名、地域名が入力されると、入力された国籍名、
地域名をRAM27の個人データエリア274に記憶す
る(SB6)。しかる後に、基本型国籍別用パーツパタ
ーンNO.ROM(図5)の各パーツパターンNO.を
全て読み出して、入力の国籍名等に対応したモンタージ
ュ(基本型顔、各パーツパターンNO.)を一覧表示す
る(SB7)。これにより、例えば国籍名「日本」を入
力した場合には、図28に示したように、国籍名「日
本」に対応した10個の基本型顔(3個のみ図示)と、
各基本型顔を構成する輪郭から口までのパーツパターN
O.が対応関係をもって表示される。
Then, when the display switching key 7 is turned on at the time when the nationality name and area name to be entered are determined, the message "Nationality name, area name?" Is displayed (SB4), and then the nationality name. , Wait for input of area name (SB5). In response to this display, the user operates the data input key 23, and when the nationality name or region name is input by this, the input nationality name,
The area name is stored in the personal data area 274 of the RAM 27 (SB6). After that, the basic type nationality parts pattern No. Each pattern No. of ROM (FIG. 5). Is read out and a list of montages (basic type face, each part pattern No.) corresponding to the input nationality name etc. is displayed in a list (SB7). Thus, for example, when the nationality name “Japan” is input, as shown in FIG. 28, 10 basic patterns (only three are shown) corresponding to the nationality name “Japan”,
Part putters N from the contours that make up each basic type face to the mouth
O. Are displayed in a corresponding relationship.

【0027】他方、図19のフローチャートにおいて、
国籍名、地域名の入力がない場合には、時代が入力され
たか否かを判別し(SB8)、ユーザーがデータ入力キ
ー23を操作し、これにより西暦、あるいは元号等が入
力されると、入力された国西暦、元号等をRAM27の
個人データエリア274に記憶する(SB9)。しかる
後に、基本型時代別顔ROM(図6)から入力の時代に
対応したモンタージュを読み出し、これを一覧表示する
(SB10)。このSB10の処理により、図6に示し
た基本型時代別顔ROMに記憶されている基本型時代別
顔のうち、入力された西暦に対応する基本型時代別顔の
モンタージュが全て表示部5に表示される。
On the other hand, in the flow chart of FIG.
When the nationality name and the area name are not input, it is determined whether or not the era has been input (SB8), and the user operates the data input key 23 to input the year or era. The entered national era, era, etc. are stored in the personal data area 274 of the RAM 27 (SB9). Thereafter, a montage corresponding to the age of input is read from the basic type age-specific face ROM (FIG. 6) and displayed as a list (SB10). Through the process of SB10, all the montages of the basic age-specific faces corresponding to the input year are displayed on the display unit 5 among the basic age-specific faces stored in the basic age-specific faces ROM shown in FIG. Is displayed.

【0028】また、時代が入力されなかった場合には、
職業名が入力されたか否かを判別し(SB11)、職業
名が入力されると、入力された職業名をRAM27の個
人データエリア274に記憶する(SB12)。しかる
後に、基本型職業別顔ROM(図7)から入力の職業名
に対応したモンタージュを読み出し、これを一覧表示す
る(SB13)。このSB13の処理により、図7に示
した基本型職業別顔ROMに記憶されている基本型職業
別顔のうち、入力された職業名に対応する基本型職業別
顔のモンタージュが全て表示部5に表示される。
If the time is not entered,
It is determined whether or not the occupation name is input (SB11), and when the occupation name is input, the input occupation name is stored in the personal data area 274 of the RAM 27 (SB12). Thereafter, the montage corresponding to the input occupation name is read from the basic type occupation ROM (FIG. 7) and displayed as a list (SB13). Through the process of SB13, all the montages of the basic profession-related faces corresponding to the inputted profession among the basic profession-specific faces stored in the basic-type profession-specific face ROM shown in FIG. 7 are all displayed on the display unit 5. Is displayed in.

【0029】さらに、職業名が入力されなかった場合に
は、年令が入力されたか否かを判別し(SB14)、年
令が入力されると、入力された年令(生年月日、世代を
含む)をRAM27の個人データエリア274に記憶す
る(SB15)。しかる後に、基本型年令層別顔ROM
(図8)から入力の年令に対応したモンタージュを読み
出し、これを一覧表示する(SB16)。このSB16
の処理により、図8に示した基本型年令層別顔ROMに
記憶されている基本型年令層別顔のうち、入力された年
令に対応する基本型年令層別顔のモンタージュが全て表
示部5に表示される。
Further, when the occupation name is not input, it is determined whether or not the age is input (SB14). When the age is input, the input age (date of birth, generation) is input. Are stored in the personal data area 274 of the RAM 27 (SB15). After that, the basic type age-specific face ROM
The montage corresponding to the input age is read from (Fig. 8) and displayed in a list (SB16). This SB16
By the processing of, the montage of the basic age group stratified face corresponding to the inputted age among the basic model age stratified faces stored in the basic model age stratified face ROM shown in FIG. All are displayed on the display unit 5.

【0030】また、年令が入力されなかった場合には、
性別が入力されたか否かを判別し(図20のSB1
7)、性別が入力されると、入力された性別(男女)を
RAM27のいずれかの個人データエリア274に記憶
する(SB18)。しかる後に、基本型性別顔ROM
(図9)から入力の性別に対応したモンタージュを読み
出し、これを一覧表示する(SB19)。このSB19
の処理により、図9に示した基本型性別顔ROMに記憶
されている基本型性別顔のうち、入力された性別に対応
する基本型性別顔のモンタージュが全て表示部5に表示
される。
If the age is not entered,
It is determined whether or not the gender has been input (SB1 in FIG. 20).
7) When the gender is input, the input gender (gender) is stored in one of the personal data areas 274 of the RAM 27 (SB18). After that, basic type gender face ROM
The montage corresponding to the sex of the input is read from (FIG. 9) and is displayed as a list (SB19). This SB19
By the processing of step 1, all the montages of the basic gender faces corresponding to the input gender among the basic gender faces stored in the basic gender face ROM shown in FIG. 9 are displayed on the display unit 5.

【0031】また、性別が入力されなかった場合には、
顔の特徴が入力されたか否かを判別し(SB20)、顔
の特徴が入力されると、入力された特徴顔をRAM27
の個人データエリア274に記憶する(SB21)。し
かる後に、基本型特徴顔別顔ROM(図10)から入力
の特徴顔に対応したモンタージュを読み出し、これを一
覧表示する(SB22)。このSB22の処理により、
図10に示した基本型特徴顔別顔ROMに記憶されてい
る基本型特徴顔別顔のうち、入力された特徴顔に対応す
る基本型性別顔のモンタージュが全て表示部5に表示さ
れる。
If the gender is not input,
It is determined whether or not a facial feature is input (SB20), and when the facial feature is input, the input characteristic face is stored in the RAM 27.
It is stored in the personal data area 274 (SB21). Thereafter, the montage corresponding to the input characteristic face is read from the basic type feature face-specific face ROM (FIG. 10) and is displayed as a list (SB22). By this processing of SB22,
Of the basic characteristic face-specific faces stored in the basic characteristic face-specific face ROM shown in FIG. 10, all montages of the basic characteristic gender faces corresponding to the input characteristic faces are displayed on the display unit 5.

【0032】また、この図19及び図20に示した一連
のフローチャートでは、SB7、SB10、SB13、
SB16、SB19,SB22のいずれかの処理が終了
するとリターンして再度実行される。したがって、最初
の実行時に「国籍名または地域名」の入力を行い、リタ
ーン後再度実行される都度、「時代」「職業名」「年
令」「性別」「顔の特徴」を入力することにより、図1
6に例示したように個人データエリア274の項目
「1」に、国籍「日本」、時代「1992年」、職業
「なし」、性別「男性」、顔の特徴「丸顔」等が記憶さ
れる。
Further, in the series of flowcharts shown in FIGS. 19 and 20, SB7, SB10, SB13,
When any one of SB16, SB19 and SB22 is completed, the process returns and is executed again. Therefore, by entering the "nationality name or region name" at the first execution, and then entering the "era", "occupation name", "age", "gender", "face characteristics" each time it is executed again after returning. , Figure 1
As illustrated in FIG. 6, nationality “Japan”, era “1992”, occupation “none”, gender “male”, facial feature “round face”, etc. are stored in the item “1” of the personal data area 274. .

【0033】一方、ゼネラルフローの個人データ登録処
理(SA2)は、図21に示したフローチャートに従っ
て行われ、個人データが入力されたか否かを判別する
(SC1)。ユーザーがデータ入力キー23を操作し、
これにより個人データが入力されると、入力された個人
データ(名前、住所、電話番号、経歴、趣味など)をR
AM27の個人データエリア274に記憶する(SC
2)。しかる後に、この入力された個人データを表示部
5に表示した後(SC3)、登録キー15の操作を待ち
(SC4)、登録キー15が操作されたばらば、ゼネラ
ルフローにリターンする。
On the other hand, the general flow personal data registration processing (SA2) is performed according to the flowchart shown in FIG. 21, and it is determined whether or not personal data is input (SC1). The user operates the data input key 23,
When personal data is entered in this way, the entered personal data (name, address, telephone number, background, hobbies, etc.)
Stored in the personal data area 274 of AM27 (SC
2). Then, after displaying the input personal data on the display unit 5 (SC3), the operation of the registration key 15 is awaited (SC4), and if the registration key 15 is operated, the process returns to the general flow.

【0034】このゼネラルフローにおいて、モンタージ
ュ作成処理(SA3)では、先ず図22に示したモンタ
ージュ作成・登録処理を実行する。すなわち、表示部5
に「モンタージュ作成?」の表示を行い(SD1)、し
かる後にモンタージュ作成キー17の操作を待つ(SD
2)。そして、モンタージュ作成キー17が操作された
ならば、モンタージュ作成処理を実行た後(SD3)、
登録キー15の操作を待ち(SD4)、登録キー15が
操作されたならば登録処理を実行して、作成されたモン
タージュを登録するとともに、登録される他のモンター
ジュとの区切りを示す区切コードを記憶する(SD
5)。
In this general flow, in the montage creation process (SA3), the montage creation / registration process shown in FIG. 22 is first executed. That is, the display unit 5
"Montage creation?" Is displayed on the screen (SD1), and then the operation of the montage creation key 17 is waited (SD.
2). Then, if the montage creation key 17 is operated, after performing the montage creation process (SD3),
Waiting for the operation of the registration key 15 (SD4), if the registration key 15 is operated, the registration process is executed to register the created montage, and a delimiter code indicating a delimiter from other montages to be registered is registered. Remember (SD
5).

【0035】この図22に示したモンタージュ作成・登
録処理において、モンタージュ作成処理(SD3)は、
図23に示したフローチャートに従って行われ、先ずゼ
ネラルフローのSA2でRAM27に記憶された「国
籍」「時代」「職業」等の条件に全て該当する該当者の
基本型顔のROMから各パーツパターンを読み出す(S
E1)。すなわち、例えば、図1に示したように、国籍
「エジプト」、時代「1990」、職業「石油売り」が
予め記憶されていたとすると、これらの条件に全て該当
する該当者の基本型顔を図4及び図6〜10に示したい
ずれかのROMから選択し、この選択した基本型顔を構
成する部位のパーツパターンNO.を対応するパーツパ
ターンNO.ROMから読み出す。
In the montage creation / registration process shown in FIG. 22, the montage creation process (SD3) is
23. First, each part pattern is read from the ROM of the basic face of the person who corresponds to all the conditions such as "nationality", "era", "occupation" stored in the RAM 27 in SA2 of the general flow, according to the flowchart shown in FIG. Read (S
E1). That is, for example, as shown in FIG. 1, if the nationality “Egypt”, the era “1990”, and the occupation “oil sales” are stored in advance, the basic face of the person who meets all of these conditions is displayed. 4 and any one of the ROMs shown in FIGS. 6 to 10, and select the part pattern No. of the part forming the selected basic face. Corresponding part pattern No. Read from ROM.

【0036】次に、この読み出した各パーツパターンN
O.をRAM27の基本型顔エリア273に記憶すると
ともに、変更パーツ1を設定する(SE2)。このSE
2の処理により、図16に示したRAM27において基
本型顔エリア273の輪郭〜口までの各領域に、前記基
本型顔を構成する輪郭〜口までの各部位のパーツパター
ンNO.が各々記憶される。なお、ここで変更パーツ1
とは、基本型顔エリア273に記憶されている輪郭から
口までの各部位のパーツのうち、最初のパーツである輪
郭パーツを意味する。
Next, each read part pattern N
O. Is stored in the basic face area 273 of the RAM 27, and the changed part 1 is set (SE2). This SE
By the processing of No. 2, in the RAM 27 shown in FIG. 16, in the areas from the contour to the mouth of the basic face area 273, the part pattern Nos. Are stored respectively. Change parts 1 here
Means a contour part which is the first part among the parts of each part from the contour to the mouth stored in the basic face area 273.

【0037】次に、データ合成(SE3)を実行する
が、このデータ処理は図24に示したフローチャートに
従って行われる。すなわち、基本型顔エリア273に記
憶されたパーツパターンNO.のなかから、まず、輪郭
パーツパターンNO.を読み取って(SF1)、この読
み取った輪郭パーツパターンNO.に対応するパーツパ
ターンデータを合成RAM28に転送し(SF2)、次
に、髪型パーツパターンNO.を読み取って(SF
3)、この読み取った髪型パーツパターンNO.に対応
するパーツパターンデータを合成RAM28に転送する
(SF4)。さらに、目、鼻、口・鼻等の他の部位につ
いても同様の処理を行った後(SF5)、合成RAM2
8で合成したモンタージュを表示部5に表示する(SF
6)。よって、図23のモンタージュ作成処理が実行開
始された直後においては、このSF6の処理により表示
部5には、前記「国籍」「時代」「職業」等の条件を満
たした該当者の基本型顔のモンタージュが表示される
(図1参照)。
Next, the data synthesis (SE3) is executed, and this data processing is performed according to the flow chart shown in FIG. That is, the part pattern No. stored in the basic face area 273. First of all, the contour part pattern NO. Is read (SF1), and the read contour part pattern NO. Is transferred to the composition RAM 28 (SF2), and then the hairstyle part pattern NO. Read (SF
3), the read hairstyle part pattern No. The part pattern data corresponding to is transferred to the synthesis RAM 28 (SF4). Furthermore, after performing similar processing on other parts such as eyes, nose, mouth, and nose (SF5), the composite RAM2
The montage synthesized in 8 is displayed on the display unit 5 (SF
6). Therefore, immediately after the montage creation process of FIG. 23 is started, the basic face of the person who satisfies the conditions such as “nationality”, “era”, and “profession” is displayed on the display unit 5 by the process of SF6. Is displayed (see Figure 1).

【0038】一方、図23のSE3に続くSE4では、
表示処理を行った後、△▽キー8,9が操作された場合
には(SE5)基本型の変更を行い(SE6)、上下矢
印キー12,13が操作された場合には(SE7)パー
ツ種類(髪型、目等)の変更を行い(SE8)、左右矢
印キー10,11が操作された場合には(SE9)パー
ツパターンの変更を行う(SE10)。したがって、こ
のSE5〜SE10の判別処理により、RAM27の基
本型顔エリア273に記憶されている輪郭〜口までのパ
ーツパターンNO.が逐次変化し、この逐次変化したパ
ーツパターンNO.に基づく顔のモンタージュがデータ
合成されて(SE3)、表示部5に表示される。そし
て、ユーザーが希望する顔のモンタージュが作成されて
表示部5に表示された際にOKキー14を操作すると
(SE11)、この時点で基本顔エリア273に記憶さ
れている希望する顔を形成するモンタージュデータ(輪
郭から口までのパーツパターンNO.)を、RAM27
の個人データに対応するモンタージュデータエリア27
5に記憶する(SE12)。
On the other hand, in SE4 following SE3 in FIG. 23,
After the display process, if the △ ▽ keys 8 and 9 are operated (SE5), the basic type is changed (SE6), and if the up and down arrow keys 12 and 13 are operated (SE7), the parts The type (hairstyle, eyes, etc.) is changed (SE8), and when the left and right arrow keys 10 and 11 are operated (SE9), the part pattern is changed (SE10). Therefore, by the determination processing of SE5 to SE10, the part pattern Nos. From the contour to the mouth stored in the basic type face area 273 of the RAM 27. Sequentially changes, and the part pattern NO. A face montage based on is synthesized (SE3) and displayed on the display unit 5. When the user creates a montage of the desired face and displays it on the display unit 5 and operates the OK key 14 (SE11), the desired face stored in the basic face area 273 at this point is formed. Montage data (part pattern number from contour to mouth) is stored in RAM27.
Montage data area 27 corresponding to personal data of
It is stored in 5 (SE12).

【0039】また、ゼネラルフローの口変化設定処理
(SA4)は、図25に示したフローチャートに従って
行われ、先ず、1つの登録済モンタージュを選択する。
すなわち、前述したモンタージュ作成処理(SA3)に
より、RAM27のモンタージュデータエリア275に
は、各項目1、2、・・・ごとに対応する個人のモンタ
ージュデータが記憶されており、このモンタージュデー
タのなかから、口変化設定を希望するいずれかの個人の
モンタージュデータを選択する(SG1)。次に、口変
化設定キー18の操作を待ち(SG2)、口変化キー1
8が操作されたならば、選択された登録済モンタージュ
の口パターン番号と対応する口パターンデータを読み出
す(SG3)。
Further, the mouth change setting process (SA4) of the general flow is performed according to the flowchart shown in FIG. 25, and first, one registered montage is selected.
That is, by the montage creation process (SA3) described above, the montage data area 275 of the RAM 27 stores personal montage data corresponding to each item 1, 2, ..., Among these montage data. , Select montage data of any individual who desires mouth change setting (SG1). Next, waiting for the operation of the mouth change setting key 18 (SG2), the mouth change key 1
If 8 is operated, mouth pattern data corresponding to the mouth pattern number of the selected registered montage is read (SG3).

【0040】すなわち、例えば図3に示したNO.1の
口パーツパターンが当該個人のモンタージュデータとし
て記憶されていたとすると、これに対応する口パターン
データは、図11のNO.1の行に記憶されているデー
タであり、このNO.1の行に記憶されている各パター
ンが全て読み出される。引き続き、口パターンを一括表
示し(SG4)、このSG4の処理により「無音 あ
い う・・・」の文字表示に対応する形態の口パターン
が表示部5に表示される。そこで、ユーザーが発生させ
る言語との関係を考慮してデータ入力キー23を操作
し、これにより例えば「う」が入力されると、入力され
た「う」に対応する口パターンを選択する(SG5)。
さらに、ユーザーがデータ入力キー23を操作し、これ
により時間が入力されると、「う」の口パターンに対応
する時間を設定する(SG6)。
That is, for example, the NO. Assuming that the mouth part pattern No. 1 is stored as the montage data of the individual, the mouth pattern data corresponding to this is NO. This is the data stored in the row of No. 1. All the patterns stored in one row are read out. Subsequently, the mouth patterns are collectively displayed (SG4), and the "silence
A mouth pattern having a form corresponding to the character display of "..." is displayed on the display unit 5. Then, the data input key 23 is operated in consideration of the relationship with the language generated by the user, and when, for example, "u" is input by this, the mouth pattern corresponding to the input "u" is selected (SG5). ).
Further, when the user operates the data input key 23 to input the time, the time corresponding to the "U" mouth pattern is set (SG6).

【0041】次に、選択された口パターンと共に設定し
た時間データをRAM(図17の口パーツパターン対応
時間RAM)に記憶する(SG7)。さらに、この口パ
ーツパターン対応時間RAMのアドレスをインクリメン
トした後(SG8)、OKキー14が操作されたか否か
を判別し(SG9)、OKキー14が操作されていなけ
ればSG4からの処理を繰り返す。よって、OKキー1
4が操作されるまで、SG4〜SG9のループが繰り返
され、これにより口パーツパターン対応時間RAMに
は、図17に例示したように、アドレス順にユーザーが
選択した口パーツパターンと、設定した時間とが対応し
て記憶される。
Next, the time data set together with the selected mouth pattern is stored in the RAM (mouth part pattern corresponding time RAM in FIG. 17) (SG7). Further, after incrementing the address of the mouth part pattern corresponding time RAM (SG8), it is determined whether or not the OK key 14 has been operated (SG9). If the OK key 14 has not been operated, the processing from SG4 is repeated. . Therefore, OK key 1
4 is operated, the loop of SG4 to SG9 is repeated, and as a result, the mouth part pattern corresponding time RAM has the mouth part pattern selected by the user in the order of addresses and the set time, as illustrated in FIG. Are stored correspondingly.

【0042】また、ゼネラルフローの検索・出力処理
(SA5)は、図26及び図27に示した一連のフロー
チャートに従って行われる。すなわち、この検索・出力
処理は、検索・出力キー19の操作により開始され(S
H1)、検索・出力キー19が操作されたならば、デー
タ入力キー23の操作により入力された名前等の個人デ
ータに対応するデータをRAM27の個人データエリア
274にて検索する(SH2)。そして、入力された名
前等と一致するデータが個人データエリア274に存在
するか否かを判別して(SH3)、一致するデータが存
在しない場合には「データが見つかりません」を表示部
5に表示する(SH4)。
The general flow search / output process (SA5) is performed according to the series of flowcharts shown in FIGS. That is, this search / output processing is started by operating the search / output key 19 (S
H1), when the search / output key 19 is operated, the personal data area 274 of the RAM 27 is searched for data corresponding to personal data such as a name input by operating the data input key 23 (SH2). Then, it is determined whether or not the data matching the entered name or the like exists in the personal data area 274 (SH3), and if the matching data does not exist, "data not found" is displayed on the display unit 5 Is displayed (SH4).

【0043】また、一致するデータが存在した場合に
は、対応の個人データ・モンタージュデータをRAM2
7の個人データエリア274とモンタージュデータエリ
ア275から各々読み出す(SH5)。しかる後に、こ
のモンタージュデータエリア275から読み出したパー
ツパターンNO.が示すパーツパターンを組み合わせ
て、モンタージュ合成行う(SH6)。
If matching data exists, the corresponding personal data / montage data is stored in the RAM2.
7 personal data area 274 and montage data area 275 (SH5). After that, the part pattern No. read out from the montage data area 275. Montage synthesis is performed by combining the part patterns shown by (SH6).

【0044】引き続き、個人データと合成モンタージュ
データとを表示部5に表示し(SH7)、これにより図
29の(A)に示したように国籍、時代・・・名前等の
個人データとともに、当該個人のモンタージュが表示さ
れる。さらに、自己紹介キー20が操作されたか否かを
判別し(SH8)、自己紹介キー20が操作されたなら
ば、対応する個人の「使用言語」「性別」「年令」から
使用する音声の種類を決め、「使用言語」「声の質」と
ともに、個人データ・モンタージュを一括表示する(S
H9)。このSH9の処理により、図29の(A)に示
したように、個人データのみならず「使用言語:日本
語」「声の質:男子、子供声」が表示部5に表示され
る。
Subsequently, the personal data and the synthetic montage data are displayed on the display unit 5 (SH7), and as a result, as shown in FIG. A personal montage is displayed. Further, it is determined whether or not the self-introduction key 20 has been operated (SH8), and if the self-introduction key 20 has been operated, the voice to be used is selected from the "language", "sex", and "age" of the corresponding individual. Decide the type and display personal data / montage together with “language” and “voice quality” (S
H9). By this processing of SH9, as shown in (A) of FIG. 29, not only the personal data but also “language used: Japanese” “voice quality: boy, child voice” are displayed on the display unit 5.

【0045】さらに、RAM27のその他のエリア26
7に記憶されている個人データを一語または一単語単位
で読み出すとともに(SH10)、読み出した時点でタ
イマー30をクリアしておく(SH11)。次に、「使
用言語」「声の質」に対応する音声データROM(図1
2)から、読み出された一語または一単語に対応する音
声データを読み出す(SH12)。引き続き、読み出さ
れた音声データを音声合成部31に送出するとともに、
口パーツパターン対応時間RAM(図17)から口パタ
ーンデータを読み出して、合成RAM28に送出し(S
H13)、音声出力及び合成モンタージュ表示を行う
(SH14)。しかる後に、所定時間(口パーツパター
ン対応時間RAMに記憶されている時間)が経過したか
否かを判別し(SH15)、経過したならば個人データ
の読み出しを終了したか否かを判別して(SH16)、
終了するまでSH10から処理判別を繰り返す。
Further, the other area 26 of the RAM 27
The personal data stored in 7 is read word by word or word by word (SH10), and the timer 30 is cleared at the time of reading (SH11). Next, a voice data ROM (Fig. 1) corresponding to "language" and "voice quality"
From 2), the read word or voice data corresponding to the word is read (SH12). Subsequently, the read voice data is sent to the voice synthesizer 31, and
The mouth pattern data is read from the mouth part pattern corresponding time RAM (FIG. 17) and sent to the synthesis RAM 28 (S
H13), voice output and synthetic montage display are performed (SH14). Thereafter, it is determined whether or not a predetermined time (time stored in the mouth part pattern corresponding time RAM) has elapsed (SH15), and if it has elapsed, it is determined whether or not the reading of the personal data is completed. (SH16),
The process determination is repeated from SH10 until the end.

【0046】したがって、個人データの読み出しが終了
するまで、SH10〜SH16の処理判別が繰り返され
る。よって、図16に例示したようにRAM27に個人
データとして「に ほ ん・・・」が記憶され、また、
図17の口パーツパターン対応時間RAMに「に ほ
ん・・・」の口の動きに対応する口パーツパターンが記
憶されていたとすると、図29の(A)(B)(C)に
示したように、放音部16からは所定時間(口パーツパ
ターン対応RAMに記憶されている時間)を経過するご
とに「に」「ほ」「ん」・・・の音声が発生し、かつ、
表示されているモンタージュの口が「に」「ほ」「ん」
の発音とともに変化する。また、他の個人データを入力
してこれと一致するデータが存在した場合であって、自
己紹介キー20が操作された場合にも同様に、図30に
示したように、放音部16からは当該個人の個人データ
に基づく音声「ユー・エス・エー・・・」が発生すると
ともに、表示されているモンタージュの口が音声に応じ
て変化するのである。
Therefore, the processing determinations of SH10 to SH16 are repeated until the reading of the personal data is completed. Therefore, as shown in FIG. 16, “Japanese” is stored in the RAM 27 as personal data, and
In the mouth part pattern corresponding time RAM in FIG.
If the mouth part pattern corresponding to the movement of the mouth of "..." is stored, as shown in (A), (B), and (C) of FIG. Each time the time stored in the RAM corresponding to the parts pattern) elapses, the sounds of "ni", "ho", "n" ... are generated, and
The displayed montage's mouth is "ni""ho""n"
Changes with the pronunciation of. Also, when other personal data is input and data matching this data exists, and when the self-introduction key 20 is operated, similarly, as shown in FIG. The voice "U.S.A ...." is generated based on the personal data of the individual, and the displayed montage mouth changes according to the voice.

【0047】[0047]

【発明の効果】以上説明したように請求項1記載の発明
は、分類項目指定手段による分類の指定により、対応す
る基本顔、基本体形を表示するようにした。よって、こ
の表示された基本顔、基本体形を考慮しつつ、所望の
顔、体形を作成することにより、容易に所望の顔、体形
に到達することができ、その結果、迅速かつ正確に所望
のモンタージュを作成することができる。
As described above, in the invention according to claim 1, the corresponding basic face and basic body shape are displayed by the designation of the classification by the classification item designating means. Therefore, it is possible to easily reach the desired face and body shape by creating the desired face and body shape while considering the displayed basic face and basic body shape, and as a result, it is possible to quickly and accurately obtain the desired face and body shape. You can create montages.

【0048】また、請求項2記載の発明は、表示手段に
表示されている基本顔または基本体形の一部または全部
を修正手段により修正することができようにしたことか
ら、白紙の状態から作成を行うことなく、修正手段によ
る修正を行うことにより、所望の顔のモンタージュを迅
速、正確、かつ容易に作成することができる。
The invention according to claim 2 is made from the state of a blank sheet because it is possible to correct part or all of the basic face or basic body shape displayed on the display means by the correction means. By performing the correction by the correction means without performing the above, it is possible to quickly, accurately, and easily create a montage of a desired face.

【0049】また、請求項6記載の発明は、生命体情報
に基づいて対応する音声が指定されることにより、生命
体情報読み上げ手段が指定された音声で生命体にかかる
生命体情報を読み上げるようにした。したがって、指定
された音声をもって発生する生命体情報により、生命体
の顔または体形を聴覚的に把握することができる。
According to the sixth aspect of the present invention, when the corresponding voice is designated based on the life form information, the life form information reading means reads out the life form information concerning the life form with the specified voice. I chose Therefore, the face or body shape of an organism can be audibly grasped by the organism information generated with the designated voice.

【0050】さらに、請求項7記載の発明によれば、表
示手段に生命体の顔または体形も表示されることから、
当該顔または体形は視覚及び聴覚の双方をもって把握す
ることができ、これにより当該生命体に関して正確に認
識することができる。また、請求項8記載の発明によれ
ば、この表示手段に表示されている生命体の顔または体
形の一部が、前記生命体情報読み上げ手段にて読み上げ
される生命体情報に従って変化することから、これによ
り視覚を刺激されて生命体情報を深く印象付けることが
でき、生命体に関して一層正確に認識することができ
る。
Furthermore, according to the invention of claim 7, since the face or body shape of the living body is also displayed on the display means,
The face or body shape can be grasped both visually and aurally, so that the life form can be accurately recognized. Further, according to the invention of claim 8, a part of the face or body shape of the life form displayed on the display means changes according to the life form information read out by the life form information reading out means. As a result, the visual information can be deeply impressed by stimulating the visual sense, and the biological information can be recognized more accurately.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を適用した電子手帳の平面図
である。
FIG. 1 is a plan view of an electronic notebook to which an embodiment of the present invention is applied.

【図2】同実施例の全体構成を示すブロック図である。FIG. 2 is a block diagram showing an overall configuration of the same embodiment.

【図3】パーツパターンROMの記憶状態を示す模式図
である。
FIG. 3 is a schematic diagram showing a storage state of a parts pattern ROM.

【図4】基本型国籍別顔ROMの記憶状態を示す模式図
である。
FIG. 4 is a schematic view showing a storage state of a basic type face ROM for each nationality.

【図5】基本型国籍別用パーツパターンNO.ROMの
記憶状態を示す模式図である。
FIG. 5: Basic type parts pattern for nationality No. It is a schematic diagram which shows the memory | storage state of ROM.

【図6】基本型時代別顔ROMの記憶状態を示す模式図
である。
FIG. 6 is a schematic diagram showing a storage state of a basic type age-specific face ROM.

【図7】基本型職業別顔ROMの記憶状態を示す模式図
である。
FIG. 7 is a schematic diagram showing a storage state of a basic type occupational ROM.

【図8】基本型年令別顔ROMの記憶状態を示す模式図
である。
FIG. 8 is a schematic diagram showing a storage state of a basic age-specific face ROM.

【図9】基本型性別顔ROMの記憶状態を示す模式図で
ある。
FIG. 9 is a schematic diagram showing a storage state of a basic type gender face ROM.

【図10】基本型特徴顔別顔ROMの記憶状態を示す模
式図である。
FIG. 10 is a schematic diagram showing a storage state of a basic type feature face-specific face ROM.

【図11】口パーツパターンNO.ROMの記憶状態を
示す模式図である。
FIG. 11: Mouth parts pattern NO. It is a schematic diagram which shows the memory | storage state of ROM.

【図12】音声データROMの記憶状態を示す模式図で
ある。
FIG. 12 is a schematic diagram showing a storage state of a voice data ROM.

【図13】国籍対応使用言語ROMの記憶状態を示す模
式図である。
FIG. 13 is a schematic diagram showing a storage state of a national language support language ROM.

【図14】性別・年令層ROMの記憶状態を示す模式図
である。
FIG. 14 is a schematic diagram showing a storage state of a gender / age layer ROM.

【図15】国籍対応使用言語ROMと性別・年令層RO
Mとに記憶された符号による組み合わせ例を示す図であ
る。
[Figure 15] Language used for nationality ROM and gender / age group RO
It is a figure which shows the example of a combination by the code | cord stored in M and.

【図16】RAMの記憶状態を示す模式図である。FIG. 16 is a schematic diagram showing a storage state of a RAM.

【図17】口パーツパターン対応時間RAMの記憶状態
を示す模式図である。
FIG. 17 is a schematic diagram showing a storage state of a mouth part pattern corresponding time RAM.

【図18】本実施例のゼネラルフローである。FIG. 18 is a general flow of this example.

【図19】基本型顔モンタージュ表示処理の内容を示す
フローチャートである。
FIG. 19 is a flowchart showing the contents of a basic face montage display process.

【図20】図19に続くフローチャートである。FIG. 20 is a flowchart following FIG. 19.

【図21】個人データ登録処理の内容を示すフローチャ
ートである。
FIG. 21 is a flowchart showing the contents of personal data registration processing.

【図22】モンタージュ作成・登録処理の内容を示すフ
ローチャートである。
FIG. 22 is a flowchart showing the contents of montage creation / registration processing.

【図23】モンタージュ作成処理の内容を示すフローチ
ャートである。
FIG. 23 is a flowchart showing the contents of montage creation processing.

【図24】データ合成処理の内容を示すフローチャート
である。
FIG. 24 is a flowchart showing the contents of data combination processing.

【図25】口変化設定処理の内容を示すフローチャート
である。
FIG. 25 is a flowchart showing the contents of mouth change setting processing.

【図26】検索・出力処理の内容を示すフローチャート
である。
FIG. 26 is a flowchart showing the contents of search / output processing.

【図27】図26に続くフローチャートである。FIG. 27 is a flowchart following FIG. 26.

【図28】表示部の表示状態の一例を示す図である。FIG. 28 is a diagram showing an example of a display state of a display unit.

【図29】自己紹介キーを操作した場合における表示部
の表示状態と放音部からの放音状態の一例を示す図であ
る。
FIG. 29 is a diagram showing an example of a display state of a display unit and a sound emission state from a sound emission unit when a self-introduction key is operated.

【図30】自己紹介キーを操作した場合における表示部
の表示状態と放音部からの放音状態の他の例を示す図で
ある。
FIG. 30 is a diagram showing another example of the display state of the display unit and the sound emission state from the sound emission unit when the self-introduction key is operated.

【符号の説明】[Explanation of symbols]

5 表示部 6 基本型顔キー 16 放音部 17 モンタージュ作成キー 18 口変化設定キー 20 自己紹介キー 23 データ入力キー 25 CPU 26 ROM 27 RAM 28 合成RAM 31 音声合成部 5 display section 6 basic type face key 16 sound emitting section 17 montage making key 18 mouth change setting key 20 self introduction key 23 data input key 25 CPU 26 ROM 27 RAM 28 synthesis RAM 31 voice synthesis section

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 分類項目毎にその分類に属する基本顔ま
たは基本体形を表す基本型データを複数記憶している基
本型データ記憶手段と、 この基本型データ記憶手段に記憶されている複数の基本
型データが属する各分類項目のなかから少なくとも1つ
の分類項目を指定する分類項目指定手段と、 この分類項目指定手段により指定された分類項目に属す
る基本型データに基づき、対応する基本顔または基本体
形を表示する表示手段と、 を備えたことを特徴とする表示装置。
1. Basic type data storage means for storing a plurality of basic type data representing a basic face or basic body shape belonging to each classification item, and a plurality of basic types stored in the basic type data storage means. Based on the classification item designating means for designating at least one classification item from among the classification items to which the type data belongs and the basic type data belonging to the classification item designated by the classification item designating means, the corresponding basic face or basic body shape A display device comprising: a display unit for displaying.
【請求項2】 分類項目毎にその分類に属する基本顔ま
たは基本体形を表す基本型データを複数記憶している基
本型データ記憶手段と、 この基本型データ記憶手段に記憶されている複数の基本
型データが属する各分類項目のなかから少なくとも1つ
の分類項目を指定する分類項目指定手段と、この分類項
目指定手段により指定された分類項目に属する基本型デ
ータに基づき、対応する基本顔または基本体形を表示す
る表示手段と、 この表示手段に表示された基本顔または基本体形の一部
または全部を修正する修正手段と、 この修正手段にて修正した後の顔または体形を表す修正
データを記憶する修正データ記憶手段と、 この修正データ記憶手段に記憶された修正データに基づ
いて、修正後の顔または体形を表示する表示手段と、 とを備えたことを特徴とする表示装置。
2. Basic type data storage means for storing a plurality of basic type data representing a basic face or basic body shape belonging to the classification for each classification item, and a plurality of basics stored in the basic type data storage means. Based on the classification item designating means for designating at least one classification item from among the classification items to which the type data belongs and the basic type data belonging to the classification item designated by this classification item designating means, the corresponding basic face or basic body shape Display means for displaying, correction means for correcting a part or all of the basic face or body shape displayed on the display means, and correction data representing the face or body shape corrected by the correction means are stored. A correction data storage means; and a display means for displaying the corrected face or body shape based on the correction data stored in the correction data storage means. Display device comprising the door.
【請求項3】前記基本顔または基本体形を表す基本型デ
ータは、基本顔または基本体形を構成する各部位のパー
ツパターンの組み合わせからなることを特徴とする請求
項1または2記載の表示装置。
3. The display device according to claim 1, wherein the basic type data representing the basic face or basic body shape comprises a combination of part patterns of respective parts forming the basic face or basic body shape.
【請求項4】 前記分類項目指定手段は、国籍、国名、
地域名、人種名、民族名、年令層、年令、職業名、性
別、特徴顔を指定するものであることを特徴とする請求
項1または2記載の表示装置。
4. The national classification, country name,
The display device according to claim 1 or 2, wherein a region name, race name, ethnic name, age group, age, occupation name, sex, and characteristic face are designated.
【請求項5】 前記年令層は、1年単位の年令、複数群
単位の年令群、誕生日の年、その年を含む複数年のいず
れかであることを特徴とする請求項4記載の表示装置。
5. The age group is any one of a one-year age group, a plurality of age groups, a birthday year, and a plurality of years including the year. Display device described.
【請求項6】 生命体の顔または体形を表す生命体デー
タと当該生命体に関する生命体情報とを対応して記憶す
る記憶手段と、 この記憶手段に記憶されている生命体情報に基づいて対
応する音声を指定する音声指定手段と、 この音声指定手段により指定された音声で前記生命体に
かかる生命体情報を読み上げる生命体情報読み上げ手段
と、 を備えたことを特徴とする生命体情報読み上げ装置。
6. A storage means for correspondingly storing life data representing a face or body shape of a life and life information about the life, and correspondence based on the life information stored in the storage. Life information reading device, comprising: sound specifying means for specifying a sound to be read; and life information reading means for reading life information concerning the life with the sound specified by the sound specifying means. .
【請求項7】 生命体の顔または体形を表す表示データ
と当該生命体に関する生命体情報とを対応して記憶する
記憶手段と、 この記憶手段に記憶されている生命体情報に基づいて対
応する音声を指定する音声指定手段と、 この音声指定手段により指定された音声で前記生命体に
かかる生命体情報を読み上げる生命体情報読み上げ手段
と、 前記記憶手段に記憶されている表示データに基づいて対
応する生命体の顔または体形を表示する表示手段と、 を備えたことを特徴とする生命体情報読み上げ装置。
7. Storage means for correspondingly storing display data representing a face or body shape of a living body and living body information relating to the living body, and corresponding based on the living body information stored in the storing means. Corresponding based on the display data stored in the storage unit, a voice designating unit for designating a voice, a life form information reading unit that reads out the life form information concerning the life form with the voice designated by the voice designating unit, An apparatus for reading out life form information, comprising: a display unit for displaying the face or body shape of the life form.
【請求項8】 生命体の顔または体形を表す表示データ
と当該生命体に関する生命体情報とを対応して記憶する
記憶手段と、 この記憶手段に記憶されている生命体情報に基づいて対
応する音声を指定する音声指定手段と、 この音声指定手段により指定された音声で前記生命体に
かかる生命体情報を読み上げる生命体情報読み上げ手段
と、 前記記憶手段に記憶されている表示データに基づいて対
応する生命体の顔または体形を表示する表示手段と、 この表示手段に表示されている生命体の顔または体形の
一部を、前記生命体情報読み上げ手段にて読み上げされ
る生命体情報に従って変化させる変化制御手段と、 を備えたことを特徴とする生命体情報読み上げ装置。
8. Storage means for correspondingly storing display data representing a face or body shape of a living body and living body information relating to the living body, and corresponding based on the living body information stored in the storing means. Corresponding based on the display data stored in the storage unit, a voice designating unit for designating a voice, a life form information reading unit that reads out the life form information concerning the life form with the voice designated by the voice designating unit, Display means for displaying the face or body shape of the living body and a part of the face or body shape of the living body displayed on the display means are changed according to the living body information read by the living body information reading means. A lifeform information reading device, comprising: a change control means.
【請求項9】 前記生命体情報は、性別、年令のいずれ
か一方であることを特徴とする請求項6,7または8記
載の生命体情報読み上げ装置。
9. The life information reading device according to claim 6, 7 or 8, wherein the life information is one of gender and age.
【請求項10】 前記表示手段は、前記生命体の顔また
は体形と併せて前記生命体情報を表示することを特徴と
する請求項7または8記載の生命体情報読み上げ装置。
10. The life information reading device according to claim 7, wherein the display unit displays the life information together with the face or body shape of the life.
JP35984992A 1992-05-29 1992-12-30 Image display control device and image display control method Expired - Fee Related JP3341049B2 (en)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP35984992A JP3341049B2 (en) 1992-12-30 1992-12-30 Image display control device and image display control method
US08/062,994 US5537662A (en) 1992-05-29 1993-05-17 Electronic montage composing apparatus
MYPI93000949A MY109991A (en) 1992-05-29 1993-05-21 Electronic montage composing apparatus
EP93108378A EP0571934B1 (en) 1992-05-29 1993-05-24 Electronic image composing apparatus
DE69332683T DE69332683T2 (en) 1992-05-29 1993-05-24 Electronic picture compilation
KR1019930009396A KR0142164B1 (en) 1992-05-29 1993-05-27 Image display control device and method
TW082104257A TW397948B (en) 1992-05-29 1993-05-28 An electronic montage composing apparatus and method thereof
CN93105861A CN1104701C (en) 1992-05-29 1993-05-29 Electronic montage composing apparatus
HK98114688A HK1013452A1 (en) 1992-05-29 1998-12-22 Electronic image composing apparatus
CN01104384A CN1318805A (en) 1992-05-29 2001-03-01 Electronic editing and composing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35984992A JP3341049B2 (en) 1992-12-30 1992-12-30 Image display control device and image display control method

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP11374611A Division JP2000231641A (en) 1999-12-28 1999-12-28 Device and method for portrait generation
JP2002093567A Division JP3567261B2 (en) 2002-03-29 2002-03-29 Portrait image display control device and portrait image display control method

Publications (2)

Publication Number Publication Date
JPH06203122A true JPH06203122A (en) 1994-07-22
JP3341049B2 JP3341049B2 (en) 2002-11-05

Family

ID=18466618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35984992A Expired - Fee Related JP3341049B2 (en) 1992-05-29 1992-12-30 Image display control device and image display control method

Country Status (1)

Country Link
JP (1) JP3341049B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009133710A1 (en) * 2008-04-30 2009-11-05 株式会社アクロディア Character display data generation device and method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009133710A1 (en) * 2008-04-30 2009-11-05 株式会社アクロディア Character display data generation device and method
KR20110028581A (en) * 2008-04-30 2011-03-21 가부시키가이샤 아크로디아 Character display data generation device and method
JP5383668B2 (en) * 2008-04-30 2014-01-08 株式会社アクロディア Character display data generating apparatus and method

Also Published As

Publication number Publication date
JP3341049B2 (en) 2002-11-05

Similar Documents

Publication Publication Date Title
KR0142164B1 (en) Image display control device and method
US6348923B2 (en) Object image display devices
JP3206166B2 (en) Image display control device and image display control method
JPH06203122A (en) Display device and organic information reader
JP3567261B2 (en) Portrait image display control device and portrait image display control method
JP2000231641A (en) Device and method for portrait generation
JP3796797B2 (en) Object image creation device and object image creation method
JP2845240B2 (en) Image display control device and image display control method
JPS6050575A (en) Electronic grammer learning machine
JP3027835B2 (en) Image display control device and image display control method
JPH0785240A (en) Display device
JP3543153B2 (en) Montage image processing apparatus and montage image processing method
JP3543154B2 (en) Object image output control apparatus and object image output control method
JP2796658B2 (en) Image display control device and image display control method
JP2939881B2 (en) Image display control device and image display control method
JP3092368B2 (en) Image display control device and image display control method
JP3480449B2 (en) Image display control device and image display control method
JP3603899B2 (en) Image display control device and image display control method
JPS6024501B2 (en) electronic translator
JP3345973B2 (en) Image display control device and image display control method
JPH06195431A (en) Montage preparation device
JP2995323B2 (en) Image display control device and image display control method
JPS639262B2 (en)
JPS60112175A (en) Abbreviation conversion system of kana (japanese syllabary)/kanji (chinese character) convertor
JPH02159668A (en) Information processor

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080823

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080823

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090823

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100823

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100823

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110823

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120823

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees