JPH11119641A - Living thing image display control device, method of controlling living thing image display, and recording medium in which living thing image display processing program is recorded - Google Patents

Living thing image display control device, method of controlling living thing image display, and recording medium in which living thing image display processing program is recorded

Info

Publication number
JPH11119641A
JPH11119641A JP9285035A JP28503597A JPH11119641A JP H11119641 A JPH11119641 A JP H11119641A JP 9285035 A JP9285035 A JP 9285035A JP 28503597 A JP28503597 A JP 28503597A JP H11119641 A JPH11119641 A JP H11119641A
Authority
JP
Japan
Prior art keywords
display
biological image
displayed
biological
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9285035A
Other languages
Japanese (ja)
Inventor
Naoyuki Sakazaki
尚之 坂崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP9285035A priority Critical patent/JPH11119641A/en
Publication of JPH11119641A publication Critical patent/JPH11119641A/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8058Virtual breeding, e.g. tamagotchi

Abstract

PROBLEM TO BE SOLVED: To display an image of a living thing such as animals and plants which breeding it in a manner similar to that when taking care of a living thing such as a real animal when displaying the living thing image stored beforehand. SOLUTION: When a user touches a display screen lightly in the sense of calling a dog to a character of the dog displayed on a display part 18, the touch operation is detected via a tablet input part 13, and the area detected by the touch is judged to a predetermined area of smaller, and both a design display pattern No. (M) and a speech generation pattern No. (N) are set to '03' corresponding to an 'answer' motion. Then, according to '03' corresponding to the above 'answer' motion of the display pattern No. (M) and generated pattern No. (N) data on a dog character and its cry corresponding to the 'answer' motion in accordance with the orders of the design display and the speech generation are read out of a design data ROM and a speech data ROM respectively and displayed on a display part 13, and also outputted from a loud speaker 20.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、予め記憶された生
物画像を表示する生物画像表示制御装置、生物画像表示
制御方法、及び生物画像表示処理プログラムを記録した
記録媒体に関する。
The present invention relates to a biological image display control device for displaying a biological image stored in advance, a biological image display control method, and a recording medium storing a biological image display processing program.

【0002】[0002]

【従来の技術】従来の電子機器において、例えば動物等
のキャラクタを表示する画像表示装置にあって、その表
示するキャラクタ画像を動かしたり変化させたりするの
は、通常、キー入力部からの複数のキー入力操作に応じ
て行なわれる。
2. Description of the Related Art In a conventional electronic device, in an image display device for displaying a character such as an animal, moving or changing the character image to be displayed is usually performed by a plurality of key input units. It is performed in response to a key input operation.

【0003】すなわち、前記キャラクタ画像として、例
えば犬を表示する場合に、上下左右を示すカーソルキー
を選択的に操作することにより、それぞれの方向に犬の
移動表示等が行なえる。
That is, for example, when a dog is displayed as the character image, a moving display of the dog in each direction can be performed by selectively operating cursor keys indicating up, down, left, and right.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、前記従
来の画像表示装置では、単にキー操作に応じて表示する
キャラクタ画像を変化させたり動かしたりするだけであ
り、その変化や動きの内容は、例えばカーソルキーの操
作方向にキャラクタ画像の移動表示等が成されるだけで
あるため、例えば犬等の被表示キャラクタ画像を、ユー
ザによる現実的な感覚の世話により飼育し、成長させた
りして表示することはできず、面白みに欠けるものであ
る。
However, in the conventional image display device, the character image to be displayed is simply changed or moved in response to a key operation. Since only moving display of a character image or the like is performed in the key operation direction, for example, a displayed character image such as a dog is bred and grown by a user with a realistic sense of care and displayed. Can not be done, it is not interesting.

【0005】そこで、最近の画像表示装置では、犬等の
キャラクタ画像と共に餌やブラシ等の世話用のマークを
表示させ、このマークをキー操作で選択することで、餌
を食べたりブラッシングしたりしているキャラクタ画像
に切り換え表示されるものがある。
Therefore, in recent image display devices, care marks such as food and brushes are displayed together with character images of dogs and the like, and food is eaten or brushed by selecting these marks by key operation. Some character images are switched and displayed.

【0006】しかしながら、このように、餌やブラシ等
を示す世話用のマークを選択して、それに応じたキャラ
クタ画像に切り換え表示させるものにあっても、ユーザ
の操作としては、任意の種類の世話用のマークを単に選
択するという機械的操作に終始するため、実際と同様な
世話の仕方で飼育しそれに応じたキャラクタ画像に変化
させて表示することはできない問題がある。
[0006] However, even if a care mark indicating a bait, a brush, or the like is selected and switched to a character image corresponding to the care mark as described above, any kind of care is required as a user operation. However, there is a problem in that it is not possible to breed in a manner similar to actual care, change the character image to a corresponding character image, and display the character image accordingly.

【0007】本発明は、前記のような問題に鑑み成され
たもので、動物又は植物等の生物画像を、現実の動物等
の生物と同様な世話の仕方により飼育して表示すること
が可能になる生物画像表示制御装置、生物画像表示制御
方法、及び生物画像表示処理プログラムを記録した記録
媒体を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and it is possible to breed and display a biological image of an animal or a plant in the same manner of care as a real animal or the like. It is an object to provide a biological image display control device, a biological image display control method, and a recording medium in which a biological image display processing program is recorded.

【0008】[0008]

【課題を解決するための手段】すなわち、本発明に係わ
る生物画像表示制御装置は、複数の生物画像が記憶され
ている生物画像記憶手段と、この生物画像記憶手段に記
憶されている生物画像を表示する表示画面を備えた表示
手段と、この表示手段の表示画面に対する外部からの操
作状態を検出する操作検出手段と、前記表示手段の表示
画面に前記生物画像が表示されている状態において、前
記操作検出手段により検出される当該表示画面に対する
外部からの操作状態に応じて、前記表示されている生物
画像とは異なる生物画像を前記生物画像記憶手段に記憶
されている複数の生物画像の中から読み出し前記表示手
段に表示させる表示制御手段とを具備したことを特徴と
するものである。
That is, a biological image display control device according to the present invention comprises a biological image storage means storing a plurality of biological images, and a biological image stored in the biological image storage means. Display means having a display screen to display, operation detecting means for detecting an external operation state of the display screen of the display means, and in a state where the biological image is displayed on the display screen of the display means, According to an external operation state of the display screen detected by the operation detection unit, a biological image different from the displayed biological image is selected from a plurality of biological images stored in the biological image storage unit. Display control means for reading and displaying the data on the display means.

【0009】つまり、本発明に係わる生物画像表示制御
装置では、生物画像が表示された表示手段の表示画面に
対する外部からの操作状態、つまり、表示されている生
物画像に対する、例えば直接の接触状態に応じて、当該
表示されている生物画像とは異なる生物画像が生物画像
記憶手段に記憶されている複数の生物画像の中から読み
出されて入れ替え表示されるので、例えば生物画像に対
する接触面積大小や操作方向、あるいは操作時間の長短
を当該生物画像に対する何等かの指示に見立てて対応す
る形態の生物画像に変化させて表示できることになる。
In other words, in the biological image display control device according to the present invention, an external operation state on the display screen of the display means on which the biological image is displayed, that is, a direct contact state with the displayed biological image, for example. Accordingly, a biological image different from the displayed biological image is read out from the plurality of biological images stored in the biological image storage means and is displayed in a replaceable manner. The operation direction or the operation time can be changed to a biological image of a corresponding form based on some instruction for the biological image and displayed.

【0010】[0010]

【発明の実施の形態】以下図面により本発明の実施の形
態について説明する。図1は本発明の実施形態に係わる
生物画像表示制御装置を搭載した小型携帯電子手帳の電
子回路の構成を示すブロック図である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an electronic circuit of a small portable electronic organizer equipped with a biological image display control device according to an embodiment of the present invention.

【0011】この携帯可能な電子手帳1は、CPU(中
央処理装置)11を備えている。前記CPU11は、キ
ー入力部12からのキー操作信号あるいはタブレット入
力部13からのペン入力操作信号に応じて、ROM14
に予め記憶されているシステムプログラム、あるいは外
部記憶読み取り部15を介して読み取られた外部記憶媒
体15aに記憶されているプログラムデータを起動さ
せ、回路各部の動作制御を実行するもので、このCPU
11には、前記キー入力部12,タブレット入力部1
3,ROM14,外部記憶読み取り部15の他、RAM
16が接続されている。
The portable electronic organizer 1 has a CPU (Central Processing Unit) 11. The CPU 11 responds to a key operation signal from the key input unit 12 or a pen input operation signal from the tablet input unit 13 to read data from the ROM 14.
Activates the system program stored in advance in the CPU or the program data stored in the external storage medium 15a read through the external storage reading unit 15 to execute operation control of each circuit.
11, the key input unit 12, the tablet input unit 1
3, ROM 14, external storage reading unit 15, RAM
16 are connected.

【0012】また、前記CPU11には、表示駆動回路
17を介して液晶表示部18が接続され、さらに、音声
発生部19を介してスピーカ20が接続されている。前
記キー入力部12には、手帳モードとペットモードとを
切換える際に操作される「モード」キー12a、手帳デ
ータとして登録させる「名前」や「電話番号」を入力す
るための文字・数字キー12bが設けられていると共
に、前記文字・数字キー12bの操作に応じて入力され
た手帳データをRAM16に登録させる際に操作される
「書込み」キー12c、RAM16に登録された手帳デ
ータを検索表示する際に操作される「検索」キー12d
等が設けられている。
A liquid crystal display 18 is connected to the CPU 11 via a display drive circuit 17, and a speaker 20 is connected via a sound generator 19. The key input unit 12 has a "mode" key 12a operated when switching between the notebook mode and the pet mode, and a character / numerical key 12b for inputting a "name" or "phone number" to be registered as notebook data. Is provided, a "write" key 12c operated when registering the notebook data input in response to the operation of the character / number keys 12b in the RAM 16, and searching and displaying the notebook data registered in the RAM 16. "Search" key 12d operated at the time
Etc. are provided.

【0013】前記タブレット入力部13は、前記液晶表
示部18の表示画面に重ねて設けられたタッチパネルか
らなり、ユーザのペンタッチや指タッチ等によるタッチ
操作位置に対応する電圧信号を出力するもので、このタ
ブレット入力部13から出力された電圧信号はCPU1
1に供給され前記タッチ操作位置(入力位置)に対応す
る表示画面上のX,Y方向の座標データに変換される。
The tablet input section 13 comprises a touch panel provided on the display screen of the liquid crystal display section 18, and outputs a voltage signal corresponding to a touch operation position by a user's pen touch or finger touch. The voltage signal output from the tablet input unit 13 is
1 and converted into coordinate data in the X and Y directions on the display screen corresponding to the touch operation position (input position).

【0014】これにより、前記液晶表示部18に表示さ
れたアイコン等に対する選択操作やタッチ入力の位置,
軌跡が判断される。前記ROM14には、CPU11を
制御動作させるためのシステムプログラムが予め記憶さ
れている他、絵柄データROM14a、絵柄表示パター
ンROM14b、音声データROM14c、音声発生パ
ターンROM14dが備えられている。
Thus, the selection operation for the icons and the like displayed on the liquid crystal display unit 18 and the position of the touch input,
The trajectory is determined. The ROM 14 stores a system program for controlling the CPU 11 in advance, and includes a picture data ROM 14a, a picture display pattern ROM 14b, a voice data ROM 14c, and a voice generation pattern ROM 14d.

【0015】図2は前記電子手帳のROM14に備えら
れた絵柄データROM14aにおける絵柄データの記憶
状態を示す図である。前記絵柄データROM14aに
は、例えば複数種類の犬のそれぞれに対し様々な動作に
対応するキャラクタデータがビットマップデータとし
て、それぞれ個々の絵柄Noに対応付けられて記憶され
ている。
FIG. 2 is a diagram showing a storage state of picture data in a picture data ROM 14a provided in the ROM 14 of the electronic organizer. In the picture data ROM 14a, for example, character data corresponding to various actions for each of a plurality of types of dogs is stored as bitmap data in association with the respective picture numbers.

【0016】図3は前記電子手帳のROM14に備えら
れた絵柄表示パターンROM14bにおける絵柄表示パ
ターンの記憶状態を示す図である。前記絵柄表示パター
ンROM14bには、犬の様々な動作に対応させて、当
該動作を動くキャラクタデータとして表示させるための
絵柄表示順序が前記絵柄データROM14aにおける絵
柄Noの組合せとして記憶されている。
FIG. 3 is a diagram showing a storage state of a picture display pattern in a picture display pattern ROM 14b provided in the ROM 14 of the electronic organizer. In the pattern display pattern ROM 14b, a pattern display order for displaying various movements of the dog as character data corresponding to various movements of the dog is stored as a combination of the pattern numbers in the pattern data ROM 14a.

【0017】例えば、表示パターンNo.(M)が「0
1」の動作「基本」の場合には、その絵柄表示順序とし
て記憶されている絵柄No「1,2,1,2,…」に対
応する一連の各キャラクタデータを前記絵柄データRO
M14aから順次読み出して表示させることで、犬が
「おすわり」している状態が動画として表示され、ま
た、表示パターンNo.(M)が「02」の動作「喜
び」の場合には、その絵柄表示順序として記憶されてい
る絵柄No「11,12,11,12,…」に対応する
一連の各キャラクタデータを前記絵柄データROM14
aから順次読み出して表示させることで、犬が「にこに
こ」している状態が動画として表示される。
For example, the display pattern No. (M) is "0
In the case of the operation “basic” of “1”, a series of character data corresponding to the pattern No. “1, 2, 1, 2,...” Stored as the pattern display order is stored in the pattern data RO.
M14a, the state in which the dog is “sit” is displayed as a moving image, and the display pattern No. If (M) is the action “joy” of “02”, a series of each character data corresponding to the pattern No. “11, 12, 11, 12,. Data ROM 14
By sequentially reading out and displaying from "a", the state where the dog is "smiling" is displayed as a moving image.

【0018】図4は前記電子手帳のROM14に備えら
れた音声データROM14cにおける音声データの記憶
状態を示す図である。前記音声データROM14cに
は、例えば犬の様々な種類の鳴き声に対応する音声デー
タがPCMデータとして、それぞれ個々の音声Noに対
応付けられて記憶されている。
FIG. 4 is a diagram showing a storage state of audio data in an audio data ROM 14c provided in the ROM 14 of the electronic organizer. The voice data ROM 14c stores voice data corresponding to various types of dog calls, for example, as PCM data in association with respective voice Nos.

【0019】図5は前記電子手帳のROM14に備えら
れた音声発生パターンROM14dにおける音声発生パ
ターンの記憶状態を示す図である。前記音声発生パター
ンROM14dには、犬の様々な動作に対応させて、当
該動作に伴なう鳴き声を音声として発生させるための音
声発生順序が前記音声データROM14cにおける音声
Noの組合せとして記憶されている。
FIG. 5 is a diagram showing a storage state of a voice generation pattern in a voice generation pattern ROM 14d provided in the ROM 14 of the electronic organizer. In the voice generation pattern ROM 14d, a voice generation order for generating a squeal accompanying the motion as voice corresponding to various actions of the dog is stored as a combination of voice Nos in the voice data ROM 14c. .

【0020】例えば、発生パターンNo.(N)が「0
2」の動作「喜び」の場合には、その音声発生順序とし
て記憶されている音声No「1,3,1,3,…」に対
応する一連の音声データ「ワン・ワン,キャン・キャ
ン,…」を前記音声データROM14aから順次読み出
して発生させることで、犬が喜んでいる状態での鳴き声
が音声として発生される。
For example, the generation pattern No. (N) is "0
In the case of the operation “joy” of “2”, a series of audio data “one one, can can,” corresponding to the audio No. “1, 3, 1, 3,. .. "Are sequentially read out from the audio data ROM 14a and generated, so that a crying sound while the dog is happy is generated as a voice.

【0021】つまり、絵柄表示パターンNo.(M)及
び音声発生パターンNo.(N)が何れも「02」に設
定された場合には、犬が「にこにこ」している状態が動
画として表示されるのに伴ない、それに応じた鳴き声も
発生されるようになる。
That is, the picture display pattern No. (M) and the voice generation pattern No. When both (N) are set to “02”, the sound that the dog is “smile” is generated as the moving image is displayed as a moving image.

【0022】図6は前記電子手帳のRAM16に備えら
れるデータメモリの構成を示す図である。前記RAM1
6には、液晶表示部18に表示させるべき被表示データ
がイメージデータとして書込まれる表示データメモリ1
6a、CPU11に内蔵されるタイマに従って現在の時
刻が逐次更新記憶される計時データメモリ16b、タブ
レット入力部13により検出される液晶表示部18の表
示画面に対するタッチ位置(X,Y座標)データが記憶
されるタッチデータメモリ16c、「名前」及び「電話
番号」からなる所定人数分の手帳データが手帳データポ
インタP(16h)で示されるアドレスに登録される手
帳データメモリ16d、手帳モードで“0”,ペットモ
ードで“1”とするモードフラグFがセットされるモー
ドフラグメモリ16e、前記絵柄表示パターンROM1
4bに記憶されている各キャラクタ動作に対応する表示
パターンNo.の中で表示すべきキャラクタ動作に対応
する表示パターンNo.(M)が選択されて記憶される
表示パターンNoメモリ16f、音声発生パターンRO
M14dに記憶されている各キャラクタ動作に対応する
鳴き声の発生パターンNo.の中で発生すべき鳴き声に
対応する発生パターンNo.(N)が選択されて記憶さ
れる発生パターンNoメモリ16g、手帳データメモリ
16dのアドレスを指示するポインタPがセットされる
ポインタデータメモリ16h等が備えられる。
FIG. 6 is a diagram showing a configuration of a data memory provided in the RAM 16 of the electronic organizer. RAM1
6 is a display data memory 1 in which data to be displayed on the liquid crystal display unit 18 is written as image data.
6a, a timing data memory 16b in which the current time is sequentially updated and stored according to a timer built in the CPU 11, and a touch position (X, Y coordinate) data on the display screen of the liquid crystal display unit 18 detected by the tablet input unit 13 is stored. A touch data memory 16c, a notebook data memory 16d in which notebook data of a predetermined number of persons including "name" and "telephone number" are registered at an address indicated by the notebook data pointer P (16h), and "0" in the notebook mode. A mode flag memory 16e in which a mode flag F to be set to "1" in the pet mode is set,
4b corresponding to each character motion stored in the display pattern No. 4b. The display pattern No. corresponding to the character motion to be displayed in the (M) is selected and stored in the display pattern No. memory 16f, the sound generation pattern RO
The generation pattern No. of the scream corresponding to each character motion stored in M14d. The generation pattern No. corresponding to the call to be generated in An occurrence pattern No. memory 16g in which (N) is selected and stored, a pointer data memory 16h in which a pointer P indicating an address of the notebook data memory 16d is set, and the like are provided.

【0023】前記液晶表示部18には、手帳モードで
は、文字・数字キー12bの操作に応じて入力された手
帳データか、「検索」キー12dの操作に応じてRAM
16内の手帳データメモリ16dから検索された手帳デ
ータの何れかが表示される。
In the notebook mode, notebook data input in response to the operation of the character / number keys 12b or RAM in response to the operation of the "search" key 12d is displayed in the liquid crystal display section 18.
One of the notebook data retrieved from the notebook data memory 16d in the memory 16 is displayed.

【0024】また、ペットモードでは、前記RAM16
内の表示パターンNoメモリ16fにて示される表示パ
ターンNo(M)に応じて前記ROM14内の絵柄表示
パターンROM14bにおける絵柄表示順序に従い絵柄
データROM14aから選択的に読み出されたキャラク
タデータが表示される。
In the pet mode, the RAM 16
The character data selectively read out from the picture data ROM 14a in accordance with the picture display order in the picture display pattern ROM 14b in the ROM 14 is displayed in accordance with the display pattern No. (M) indicated by the display pattern No. memory 16f. .

【0025】前記スピーカ20からは、ペットモードに
おいて、前記RAM16内の発生パターンNoメモリ1
6gにて示される音声発生パターンNo(N)に応じて
前記ROM14内の音声発生パターンROM14dにお
ける音声発生手順に従い音声データROM14cから選
択的に読み出された音声データが鳴き声として発生され
る。
In the pet mode, the generated pattern No. memory 1 in the RAM 16 is output from the speaker 20.
In accordance with the voice generation pattern No. (N) indicated by 6g, voice data selectively read from the voice data ROM 14c is generated as a cry according to the voice generation procedure in the voice generation pattern ROM 14d in the ROM 14.

【0026】次に、前記構成による生物画像表示装置を
搭載した電子手帳の動作について説明する。図7は前記
電子手帳の全体処理を示すフローチャートである。
Next, the operation of the electronic organizer equipped with the biological image display device having the above configuration will be described. FIG. 7 is a flowchart showing the overall processing of the electronic organizer.

【0027】キー入力部12における「モード」キー1
2aを操作した際に、RAM16のモードフラグメモリ
16eにおけるモードフラグFが“0”にセットされて
いる場合、つまり、現在、CPU11が手帳モードに設
定されている場合には、該モードフラグFは“1”にセ
ットされ、CPU11はペットモードに切換え設定され
る(ステップS1→S2→S3)。
"Mode" key 1 in key input section 12
If the mode flag F in the mode flag memory 16e of the RAM 16 is set to "0" when the 2a is operated, that is, if the CPU 11 is currently set to the notebook mode, the mode flag F The flag is set to “1”, and the CPU 11 is set to switch to the pet mode (steps S 1 → S 2 → S 3).

【0028】前記CPU11がペットモードに設定され
ると、RAM16内の表示パターンNoメモリ16fに
おける表示パターンNo(M)、及び発生パターンNo
メモリ16gにおける発生パターンNo(N)が、何れ
も“01”にセットされる(ステップS4)。
When the CPU 11 is set to the pet mode, the display pattern No. (M) in the display pattern No. memory 16f in the RAM 16 and the generation pattern No.
All occurrence patterns No. (N) in the memory 16g are set to "01" (step S4).

【0029】また、前記「モード」キー12aを操作し
た際に、RAM16のモードフラグメモリ16eにおけ
るモードフラグFが“1”にセットされている場合、つ
まり、現在、CPU11がペットモードに設定されてい
る場合には、該モードフラグFは“0”にセットされ、
CPU11は手帳モードに切換え設定される(ステップ
S1→S2→S5)。
When the mode flag F in the mode flag memory 16e of the RAM 16 is set to "1" when the "mode" key 12a is operated, that is, when the CPU 11 is currently set to the pet mode. The mode flag F is set to "0",
The CPU 11 is set to switch to the notebook mode (step S1 → S2 → S5).

【0030】そして、前記RAM16のモードフラグメ
モリ16eにおけるモードフラグFが“0”にセットさ
れている手帳モードにあっては、CPU11により手帳
モード処理(図8参照)が実行される(ステップS6→
SA)。
In the notebook mode in which the mode flag F in the mode flag memory 16e of the RAM 16 is set to "0", notebook mode processing (see FIG. 8) is executed by the CPU 11 (step S6 →
SA).

【0031】また、モードフラグメモリ16eにおける
モードフラグFが“1”にセットされているペットモー
ドにあっては、CPU11によりペットモード処理(図
9参照)が実行される(ステップS6→SB)。
In the pet mode in which the mode flag F in the mode flag memory 16e is set to "1", a pet mode process (see FIG. 9) is executed by the CPU 11 (step S6 → SB).

【0032】図8は前記電子手帳における手帳モード処
理を示すフローチャートである。RAM16内のモード
フラグメモリ16eにおけるモードフラグFが“0”に
セットされている手帳モードにあって、キー入力部12
の文字・数字キー12bを操作して「名前」「電話番
号」等の手帳データを入力すると、そのキー入力された
手帳データは、CPU11から表示駆動回路17を介し
て液晶表示部18に順次表示される(ステップA1→A
2,A3)。
FIG. 8 is a flowchart showing a notebook mode process in the electronic notebook. In the notebook mode in which the mode flag F in the mode flag memory 16 e in the RAM 16 is set to “0”, the key input unit 12
Is operated to input notebook data such as "name" and "telephone number". The entered notebook data is sequentially displayed on the liquid crystal display unit 18 from the CPU 11 via the display drive circuit 17. (Step A1 → A
2, A3).

【0033】また、キー入力部12の「書込み」キー1
2cを操作すると、現在、液晶表示部18に表示されて
いる手帳データがRAM16内の手帳データメモリ16
dに登録される(ステップA4→A5)。
The "write" key 1 of the key input unit 12
2c, the notebook data currently displayed on the liquid crystal display 18 is stored in the notebook data memory 16 in the RAM 16.
d is registered (step A4 → A5).

【0034】また、キー入力部12の「検索」キー12
dを操作すると、そのキー操作毎にRAM16内のポイ
ンタデータメモリ16hにセットされている手帳データ
ポインタPが(+1)されて更新され、手帳データメモ
リ16dに登録されている所定人数の手帳データが順次
検索されると共に、該検索された手帳データはCPU1
1に読み出され、表示駆動回路17を介して液晶表示部
18に表示される(ステップA6→A7,A3)。
The "search" key 12 of the key input unit 12
When d is operated, the notebook data pointer P set in the pointer data memory 16h in the RAM 16 is updated by (+1) every time the key is operated, and the notebook data of a predetermined number registered in the notebook data memory 16d is updated. The notebook data is sequentially searched, and the searched notebook data is stored in the CPU 1.
1 and is displayed on the liquid crystal display unit 18 via the display drive circuit 17 (steps A6 → A7, A3).

【0035】図9は前記電子手帳におけるペットモード
処理を示すフローチャートである。図10は前記電子手
帳におけるペットモード処理に伴なうユーザの画面接触
面積に応じたキャラクタ表示状態を示す図である。
FIG. 9 is a flowchart showing the pet mode processing in the electronic organizer. FIG. 10 is a diagram showing a character display state according to a user's screen contact area accompanying the pet mode processing in the electronic organizer.

【0036】まず、図10(A)に示すように、キー入
力部12における「モード」キー12aの操作により、
RAM16内のモードフラグメモリ16eにおけるモー
ドフラグFが“1”にセットされたペットモードの設定
初期状態では、表示パターンNoメモリ16fにおける
絵柄表示パターンNo(M)、及び発生パターンNoメ
モリ16gにおける音声発生パターンNo(N)は、何
れも“01”にセットされているので(ステップS1〜
S4)、図9におけるペットモード処理において、タブ
レット入力部13により液晶表示部18の表示画面に対
する何等のタッチ(接触)操作も検出されない状態で
は、前記表示パターンNoメモリ16fに設定されてい
る表示パターンNo(M=01)に応じて、絵柄表示パ
ターンROM14b(図3参照)における基本動作に対
応する絵柄表示順序「1,2,…」での犬のキャラクタ
データが絵柄データROM14a(図2参照)から読み
出され、液晶表示部18に表示されると共に、前記発生
パターンNoメモリ16gに設定されている発生パター
ンNo(N=01)に応じて、音声発生パターンROM
14d(図5参照)における無声動作に対応する音声発
生順序での犬の鳴き声の音声データ(この場合は「無
音」)が音声データROM14c(図4参照)から読み
出され、スピーカ20から出力される(ステップB1→
B8〜B11)。
First, as shown in FIG. 10A, by operating a "mode" key 12a in the key input section 12,
In the initial setting of the pet mode in which the mode flag F in the mode flag memory 16 e in the RAM 16 is set to “1”, the picture display pattern No. (M) in the display pattern No. memory 16 f and the sound generation in the generation pattern No. memory 16 g Since all of the pattern Nos. (N) are set to "01" (steps S1 to S1).
S4) In the pet mode process in FIG. 9, when no touch (touch) operation on the display screen of the liquid crystal display unit 18 is detected by the tablet input unit 13, the display pattern set in the display pattern No. memory 16f. In response to No (M = 01), the dog character data in the pattern display order “1, 2,...” Corresponding to the basic operation in the pattern display pattern ROM 14 b (see FIG. 3) is stored in the pattern data ROM 14 a (see FIG. 2). And is displayed on the liquid crystal display unit 18, and in accordance with the generation pattern No. (N = 01) set in the generation pattern No. memory 16g, the sound generation pattern ROM
The voice data (in this case, “silence”) of the dog's bark in the voice generation order corresponding to the voiceless operation in 14 d (see FIG. 5) is read from the voice data ROM 14 c (see FIG. 4) and output from the speaker 20. (Step B1 →
B8-B11).

【0037】すなわち、ペットモードの設定初期状態で
は、犬が「おすわり」している基本動作のキャラクタデ
ータが読み出され、鳴き声の無い状態で表示される。こ
うして、犬が「おすわり」している基本動作のキャラク
タデータが表示されている状態で、図10(B)に示す
ように、ユーザが当該表示されている犬を呼ぶ感覚で、
液晶表示部13の犬の表示されている領域を軽くポンと
タッチすると、タブレット入力部13により表示画面上
でのタッチ位置が検出され、該タッチ位置と犬キャラク
タデータの表示位置とが重なっているか否か判断される
(ステップB1→B2,B3)。
That is, in the initial setting state of the pet mode, character data of the basic operation in which the dog is "sit" is read out and displayed without any squeal. In this manner, in a state in which the character data of the basic action in which the dog is “sit” is displayed, as shown in FIG. 10B, the user feels like calling the displayed dog.
When the area where the dog is displayed on the liquid crystal display unit 13 is lightly touched, the touch position on the display screen is detected by the tablet input unit 13 and whether the touch position and the display position of the dog character data overlap with each other. It is determined whether or not it is (step B1 → B2, B3).

【0038】ここで、前記タブレット入力部13により
検出されたユーザによる表示画面上でのタッチ位置が、
液晶表示部18に表示されている犬キャラクタデータの
表示位置に重なっていると判断されると、タブレット入
力部13においてタッチ操作の検出されたドットの数、
つまり、タッチ面積が検出され、このタッチ面積が所定
面積以下か否か判断される(ステップB3→B4,B
5)。
Here, the touch position on the display screen by the user detected by the tablet input unit 13 is:
When it is determined that the display position overlaps the display position of the dog character data displayed on the liquid crystal display unit 18, the number of dots for which a touch operation has been detected on the tablet input unit 13,
That is, the touch area is detected, and it is determined whether or not the touch area is equal to or smaller than the predetermined area (steps B3 → B4, B
5).

【0039】つまり、このステップS5では、液晶表示
部18に表示されている犬のキャラクタデータに対し、
ユーザが軽くポンと触ったのか(面積小)、強くギュッ
と触ったのか(面積大)が判断されるもので、ここで、
タブレット入力部13を介して検出されたタッチ面積が
所定面積以下である、すなわち、ユーザが犬キャラクタ
データに対し軽くポンと触ったものであると判断される
と、RAM16内の表示パターンNoメモリ14fにお
ける絵柄表示パターンNo(M)、及び発生パターンN
oメモリ14gにおける音声発生パターンNo(N)
が、何れも「返事」の動作に対応するパターンNo“0
3”にセットされる(ステップB5→B6)。
That is, in this step S5, the character data of the dog displayed on the liquid crystal display section 18 is
It is determined whether the user has touched lightly (small area) or strongly touched (large area). Here,
If it is determined that the touch area detected via the tablet input unit 13 is equal to or smaller than a predetermined area, that is, the user has lightly touched the dog character data with the pong, the display pattern No. memory 14f in the RAM 16 is displayed. Pattern display pattern No (M) and occurrence pattern N in
o Voice generation pattern No. (N) in the memory 14g
However, the pattern No. “0” corresponding to the “reply” operation
3 "is set (step B5 → B6).

【0040】すると、RAM16内の計時データメモリ
16bに逐次更新されて記憶される計時データに基づ
き、一定時間T(例えば30秒)の計時が開始され、こ
の一定時間Tの計時動作中において、前記表示パターン
Noメモリ16fに設定されている表示パターンNo
(M=03)に応じて、絵柄表示パターンROM14b
(図3参照)における「返事」の動作に対応する絵柄表
示順序「21,22,…」での犬のキャラクタデータが
絵柄データROM14a(図2参照)から読み出され、
液晶表示部18に表示されると共に、前記発生パターン
Noメモリ16gに設定されている発生パターンNo
(N=03)に応じて、音声発生パターンROM14d
(図5参照)における「返事」の動作に対応する音声発
生順序「1,−,…」での犬の鳴き声の音声データ(こ
の場合は「ワン・ワン」)が音声データROM14c
(図4参照)から読み出され、スピーカ20から出力さ
れる(ステップB8〜B11)。
Then, based on the timekeeping data sequentially updated and stored in the timekeeping data memory 16b in the RAM 16, timekeeping for a fixed time T (for example, 30 seconds) is started. The display pattern No. set in the display pattern No. memory 16f
According to (M = 03), the picture display pattern ROM 14b
The character data of the dog in the pattern display order “21, 22,...” Corresponding to the operation of “reply” in (see FIG. 3) is read from the pattern data ROM 14a (see FIG. 2).
The generation pattern No. displayed on the liquid crystal display unit 18 and set in the generation pattern No. memory 16g
(N = 03), the voice generation pattern ROM 14d
The voice data (in this case, “one-one”) of the dog's bark in the voice generation order “1, −,...” Corresponding to the “reply” operation in FIG.
(See FIG. 4) and output from the speaker 20 (steps B8 to B11).

【0041】すなわち、ペットモードにおいて、液晶表
示部18に表示された犬のキャラクタデータに対して、
ユーザが当該表示されている犬を呼ぶ感覚で軽くポンと
タッチすると、犬が「返事」している動作のキャラクタ
データが読み出され、その鳴き声「ワン・ワン」の発生
と共に表示される。
That is, in the pet mode, the dog character data displayed on the liquid crystal display 18 is
If the user touches the displayed dog lightly with the touch of calling the dog, the character data of the operation of the dog "replying" is read out and displayed together with the generation of the cry "one-one".

【0042】そして、前記一定時間Tの経過が判断され
ると、RAM16内の表示パターンNoメモリ16fに
おける絵柄表示パターンNo(M)、及び発生パターン
Noメモリ16gにおける音声発生パターンNo(N)
は、何れも基本動作に対応するパターンNo“01”に
リセットされ、前記ペットモードの設定初期の状態と同
様に、犬の「おすわり」している表示状態に復帰される
(ステップB11→B12→B1→B8〜B11)。
When it is determined that the predetermined time T has elapsed, the picture display pattern No. (M) in the display pattern No. memory 16f in the RAM 16 and the sound generation pattern No. (N) in the generation pattern No. memory 16g.
Are reset to the pattern No. “01” corresponding to the basic operation, and are returned to the display state in which the dog is “sit down” as in the initial state of the pet mode setting (step B11 → B12 →). B1 → B8 to B11).

【0043】一方、前記犬が「おすわり」している基本
動作のキャラクタデータが表示されている状態で、図1
0(C)に示すように、ユーザが当該表示されている犬
を叱る感覚で、液晶表示部13の犬の表示されている領
域を強くギュッとタッチすると、タブレット入力部13
を介して検出されたタッチ面積が所定面積以下でない、
すなわち、ユーザが犬キャラクタデータに対し強くギュ
ッと触ったものであると判断され、RAM16内の表示
パターンNoメモリ14fにおける絵柄表示パターンN
o(M)、及び発生パターンNoメモリ14gにおける
音声発生パターンNo(N)が、何れも「反省」の動作
に対応するパターンNo“04”にセットされる(ステ
ップB1〜B5→B7)。
On the other hand, in a state in which the character data of the basic operation in which the dog is “sit” is displayed, FIG.
As shown in FIG. 0 (C), when the user strongly touches the area where the dog is displayed on the liquid crystal display unit 13 with a sense of scolding the displayed dog, the tablet input unit 13
The touch area detected via is not less than a predetermined area,
That is, it is determined that the user has strongly touched the dog character data, and the pattern display pattern N in the display pattern No. memory 14f in the RAM 16 is determined.
o (M) and the voice generation pattern No. (N) in the generation pattern No. memory 14g are both set to the pattern No. “04” corresponding to the “reflection” operation (steps B1 to B5 → B7).

【0044】すると、RAM16内の計時データメモリ
16bに逐次更新されて記憶される計時データに基づ
き、一定時間T(例えば30秒)の計時が開始され、こ
の一定時間Tの計時動作中において、前記表示パターン
Noメモリ16fに設定されている表示パターンNo
(M=04)に応じて、絵柄表示パターンROM14b
(図3参照)における「反省」の動作に対応する絵柄表
示順序「101,102,…」での犬のキャラクタデー
タが絵柄データROM14a(図2参照)から読み出さ
れ、液晶表示部18に表示されると共に、前記発生パタ
ーンNoメモリ16gに設定されている発生パターンN
o(N=04)に応じて、音声発生パターンROM14
d(図5参照)における「反省」の動作に対応する音声
発生順序「2,2,1,…」での犬の鳴き声の音声デー
タ(この場合は「クーン・クーン,クーン・クーン,ワ
ン・ワン,…」)が音声データROM14c(図4参
照)から読み出され、スピーカ20から出力される(ス
テップB8〜B11)。
Then, based on the time data successively updated and stored in the time data memory 16b in the RAM 16, time measurement for a certain time T (for example, 30 seconds) is started. The display pattern No. set in the display pattern No. memory 16f
According to (M = 04), the picture display pattern ROM 14b
The dog character data in the picture display order “101, 102,...” Corresponding to the “reflection” operation in (see FIG. 3) is read from the picture data ROM 14a (see FIG. 2) and displayed on the liquid crystal display unit 18. And the generation pattern N set in the generation pattern No. memory 16g.
o (N = 04), the voice generation pattern ROM 14
d (see FIG. 5), the sound data of the dog's bark in the sound generation order “2, 2, 1,...” corresponding to the operation of “reflection” (in this case, “Koon Coon, Coon Coon, One. .. ") Are read from the audio data ROM 14c (see FIG. 4) and output from the speaker 20 (steps B8 to B11).

【0045】すなわち、ペットモードにおいて、液晶表
示部13に表示された犬のキャラクタデータに対して、
ユーザが当該表示されている犬を叱る感覚で強くギュッ
とタッチすると、犬が「反省」している動作のキャラク
タデータが読み出され、その鳴き声「クーン・クーン,
クーン・クーン,ワン・ワン」の発生と共に表示され
る。
That is, in the pet mode, the dog character data displayed on the liquid crystal display 13 is
If the user touches strongly with a sense of scolding the displayed dog, the character data of the action of the dog “reflecting” is read out, and its cry “Koon Kuhn,
Displayed with the occurrence of "Koon Kuhn, One One".

【0046】そして、前記一定時間Tの経過が判断され
ると、RAM16内の表示パターンNoメモリ16fに
おける絵柄表示パターンNo(M)、及び発生パターン
Noメモリ16gにおける音声発生パターンNo(N)
は、何れも基本動作に対応するパターンNo“01”に
リセットされ、前記ペットモードの設定初期の状態と同
様に、犬の「おすわり」している表示状態に復帰される
(ステップB11→B12→B1→B8〜B11)。
When it is determined that the predetermined time T has elapsed, the picture display pattern No. (M) in the display pattern No. memory 16f in the RAM 16 and the sound generation pattern No. (N) in the generation pattern No. memory 16g.
Are reset to the pattern No. “01” corresponding to the basic operation, and are returned to the display state in which the dog is “sit down” as in the initial state of the pet mode setting (step B11 → B12 →). B1 → B8 to B11).

【0047】したがって、前記構成の電子手帳によれ
ば、液晶表示部18に表示された犬のキャラクタデータ
に対して、ユーザが当該犬を呼ぶ感覚でその表示画面上
を軽くポンとタッチすると、タブレット入力部13を介
してタッチ操作が検出されると共に、該タッチ検出され
た面積が所定面積以下であると判断され、RAM16内
の絵柄表示パターンNoメモリ16fの表示パターンN
o(M)及び音声発生パターンNoメモリ16gの発生
パターンNo(N)が共に「返事」の動作に対応する
“03”にセットされる。すると、前記「返事」の動作
に対応する絵柄表示パターンNo(M)及び音声発生パ
ターンNoの“03”に応じて、対応する絵柄表示順序
及び音声発生順序に従った「返事」の動作に対応する犬
キャラクタデータ及び鳴き声データが、絵柄データRO
M14a及び音声データROM14cからそれぞれ読み
出され、液晶表示部13に表示されると共にスピーカ2
0から出力されるので、ユーザは、本物のペットに指示
するのと同様の感覚で世話を行ない、犬のキャラクタデ
ータを世話に応じたパターンに変化させて表示させるこ
とができるようになる。
Therefore, according to the electronic organizer having the above-mentioned configuration, when the user touches the character data of the dog displayed on the liquid crystal display section 18 with a light touch on the display screen as if calling the dog, the tablet is displayed. A touch operation is detected via the input unit 13 and the area where the touch is detected is determined to be smaller than or equal to a predetermined area, and the display pattern N in the picture display pattern No. memory 16f in the RAM 16 is displayed.
Both o (M) and the generation pattern No. (N) of the voice generation pattern No. memory 16g are set to “03” corresponding to the “reply” operation. Then, according to the picture display pattern No. (M) corresponding to the above-mentioned "reply" operation and "03" of the sound generation pattern No., the "reply" operation in accordance with the corresponding picture display order and sound generation order is supported. The dog character data and the crying data are
M14a and the audio data ROM 14c, respectively, and are displayed on the liquid crystal display unit 13 and the speaker 2
Since the output is made from 0, the user can take care of the same feeling as instructing the real pet, and change the character data of the dog into a pattern corresponding to the care and display it.

【0048】なお、前記実施形態では、犬のキャラクタ
データが表示されている液晶表示部18の表示画面に対
するユーザのタッチ操作に伴なうタッチ面積を検出し、
当該タッチ面積が所定面積以下か否かを判断して、所定
面積以下である場合にはユーザによる呼び出しと判断し
て「返事」の動作の犬のキャラクタデータとその鳴き
声、所定面積以下でない場合にはユーザによる叱りと判
断して「反省」の動作の犬のキャラクタデータとその鳴
き声を、表示及び発生出力する構成としたが、ユーザの
キャラクタデータに対するタッチ操作に伴なうタッチ移
動方向を検出し、当該タッチ移動方向に応じてユーザの
意思を判断して対応するキャラクタデータとその鳴き声
を表示及び発生出力する構成としてもよい。
In the above embodiment, the touch area associated with the user's touch operation on the display screen of the liquid crystal display section 18 displaying the dog character data is detected.
It is determined whether or not the touch area is equal to or less than a predetermined area, and if the touch area is equal to or less than the predetermined area, it is determined that the call is made by the user. Is configured to display and generate and output the dog character data and the squealing sound of the "reflection" action by judging that it is a scolding by the user, but detects the touch movement direction accompanying the touch operation on the user character data. Alternatively, a configuration may be adopted in which the user's intention is determined according to the touch movement direction, and the corresponding character data and its squeal are displayed and generated and output.

【0049】図11は前記電子手帳におけるペットモー
ド処理に伴なうユーザの画面接触方向に応じたキャラク
タ表示状態を示す図である。図12は前記電子手帳にお
けるペットモード処理に伴ないタッチ移動方向を検出し
て絵柄表示パターンNo及び音声発生パターンNoを設
定する処理を示す部分フローチャートである。
FIG. 11 is a diagram showing a character display state according to the user's screen contact direction accompanying the pet mode processing in the electronic organizer. FIG. 12 is a partial flowchart showing a process of detecting a touch movement direction accompanying the pet mode processing in the electronic organizer and setting a picture display pattern No. and a sound generation pattern No.

【0050】ここで、図12における部分フローチャー
トは、前記図9におけるペットモード処理の全体フロー
チャートにおけるステップB3の分岐「YES」とステ
ップB8との間の処理ルーチンとして機能する。
Here, the partial flowchart in FIG. 12 functions as a processing routine between the branch “YES” of step B3 and step B8 in the overall flowchart of the pet mode processing in FIG.

【0051】例えば前記図10(A)で示したように、
犬が「おすわり」している基本動作のキャラクタデータ
が表示されている状態で、図11(A)に示すように、
ユーザが当該表示されている犬を褒める感覚で、液晶表
示部13の犬の表示されている領域を上下方向に撫でて
タッチすると、タブレット入力部13を介して検出され
たタッチ移動方向が上下方向である、すなわち、ユーザ
が犬キャラクタデータに対し上下に撫でて触ったもので
あると判断され、RAM16内の表示パターンNoメモ
リ14fにおける絵柄表示パターンNo(M)、及び発
生パターンNoメモリ14gにおける音声発生パターン
No(N)が、何れも「喜び」の動作に対応するパター
ンNo“02”にセットされる(ステップB1〜B3→
B4a,B5a→B6a)。
For example, as shown in FIG.
With the character data of the basic action in which the dog is “sit” displayed, as shown in FIG.
When the user strokes and touches the area where the dog is displayed on the liquid crystal display unit 13 in the vertical direction as if to praise the displayed dog, the touch movement direction detected via the tablet input unit 13 is changed in the vertical direction. That is, it is determined that the user stroked and touched the dog character data up and down, and the picture display pattern No. (M) in the display pattern No. memory 14f in the RAM 16 and the voice in the occurrence pattern No. memory 14g The occurrence pattern No. (N) is set to the pattern No. “02” corresponding to the operation of “joy” (steps B1 to B3 →).
B4a, B5a → B6a).

【0052】すると、RAM16内の計時データメモリ
16bに逐次更新されて記憶される計時データに基づ
き、一定時間T(例えば30秒)の計時が開始され、こ
の一定時間Tの計時動作中において、前記表示パターン
Noメモリ16fに設定されている表示パターンNo
(M=02)に応じて、絵柄表示パターンROM14b
(図3参照)における「喜び」の動作に対応する絵柄表
示順序「11,12,…」での犬のキャラクタデータが
絵柄データROM14a(図2参照)から読み出され、
液晶表示部18に表示されると共に、前記発生パターン
Noメモリ16gに設定されている発生パターンNo
(N=02)に応じて、音声発生パターンROM14d
(図5参照)における「喜び」の動作に対応する音声発
生順序「1,3,…」での犬の鳴き声の音声データ(こ
の場合は「ワン・ワン,キャン・キャン,…」)が音声
データROM14c(図4参照)から読み出され、スピ
ーカ20から出力される(ステップB8〜B11)。
Then, based on the timekeeping data successively updated and stored in the timekeeping data memory 16b in the RAM 16, timekeeping for a fixed time T (for example, 30 seconds) is started. The display pattern No. set in the display pattern No. memory 16f
According to (M = 02), the picture display pattern ROM 14b
The dog character data in the picture display order “11, 12,...” Corresponding to the operation of “joy” in FIG. 3 is read from the picture data ROM 14a (see FIG. 2).
The generation pattern No. displayed on the liquid crystal display unit 18 and set in the generation pattern No. memory 16g
(N = 02), the voice generation pattern ROM 14d
(See FIG. 5), the voice data of the dog's bark in the voice generation order “1, 3,...” Corresponding to the action of “joy” (in this case, “one-one, can-can,. The data is read from the data ROM 14c (see FIG. 4) and output from the speaker 20 (steps B8 to B11).

【0053】すなわち、ペットモードにおいて、液晶表
示部13に表示された犬のキャラクタデータに対して、
ユーザが当該表示されている犬を褒める感覚で上下に撫
でてタッチすると、犬の「喜び」の動作のキャラクタデ
ータが読み出され、その鳴き声「ワン・ワン,キャン・
キャン」の発生と共に表示される。
That is, in the pet mode, the dog character data displayed on the liquid crystal display 13 is
When the user strokes up and down and touches the displayed dog as if to praise the character, the character data of the dog's “joy” action is read out and its cry “one-one, can-
It is displayed together with the occurrence of "can".

【0054】一方、図11(B)に示すように、ユーザ
が当該表示されている犬を叱る感覚で、液晶表示部13
の犬の表示されている領域を左右方向に擦ってタッチす
ると、タブレット入力部13を介して検出されたタッチ
移動方向が左右方向である、すなわち、ユーザが犬キャ
ラクタデータに対し左右に擦って触ったものであると判
断され、RAM16内の表示パターンNoメモリ14f
における絵柄表示パターンNo(M)、及び発生パター
ンNoメモリ14gにおける音声発生パターンNo
(N)が、何れも「反省」の動作に対応するパターンN
o“04”にセットされる(ステップB1〜B3→B4
a,B5a→B7a)。
On the other hand, as shown in FIG. 11B, the user senses that the displayed dog is scolding, and
When the user touches the displayed area of the dog by rubbing in the left and right direction, the touch movement direction detected via the tablet input unit 13 is the left and right direction, that is, the user rubs and touches the dog character data left and right. The display pattern No. memory 14f in the RAM 16
Pattern display pattern No. (M) and the sound generation pattern No. in the generation pattern No. memory 14g
(N) is a pattern N corresponding to the operation of “reflection”
o is set to “04” (steps B1 to B3 → B4
a, B5a → B7a).

【0055】すると、RAM16内の計時データメモリ
16bに逐次更新されて記憶される計時データに基づ
き、一定時間T(例えば30秒)の計時が開始され、こ
の一定時間Tの計時動作中において、前記表示パターン
Noメモリ16fに設定されている表示パターンNo
(M=04)に応じて、絵柄表示パターンROM14b
(図3参照)における「反省」の動作に対応する絵柄表
示順序「101,102,…」での犬のキャラクタデー
タが絵柄データROM14a(図2参照)から読み出さ
れ、液晶表示部18に表示されると共に、前記発生パタ
ーンNoメモリ16gに設定されている発生パターンN
o(N=04)に応じて、音声発生パターンROM14
d(図5参照)における「反省」の動作に対応する音声
発生順序「2,2,1,…」での犬の鳴き声の音声デー
タ(この場合は「クーン・クーン,クーン・クーン,ワ
ン・ワン,…」)が音声データROM14c(図4参
照)から読み出され、スピーカ20から出力される(ス
テップB8〜B11)。
Then, based on the time data sequentially updated and stored in the time data memory 16b in the RAM 16, time measurement for a fixed time T (for example, 30 seconds) is started. The display pattern No. set in the display pattern No. memory 16f
According to (M = 04), the picture display pattern ROM 14b
The dog character data in the picture display order “101, 102,...” Corresponding to the “reflection” operation in (see FIG. 3) is read from the picture data ROM 14a (see FIG. 2) and displayed on the liquid crystal display unit 18. And the generation pattern N set in the generation pattern No. memory 16g.
o (N = 04), the voice generation pattern ROM 14
d (see FIG. 5), the sound data of the dog's bark in the sound generation order “2, 2, 1,...” corresponding to the operation of “reflection” (in this case, “Koon Coon, Coon Coon, One. .. ") Are read from the audio data ROM 14c (see FIG. 4) and output from the speaker 20 (steps B8 to B11).

【0056】すなわち、ペットモードにおいて、液晶表
示部13に表示された犬のキャラクタデータに対して、
ユーザが当該表示されている犬を叱る感覚で左右に擦っ
てタッチすると、犬が「反省」している動作のキャラク
タデータが読み出され、その鳴き声「クーン・クーン,
クーン・クーン,ワン・ワン」の発生と共に表示され
る。
That is, in the pet mode, the dog character data displayed on the liquid crystal display 13 is
When the user touches the displayed dog by rubbing left and right in a sense of scolding, the character data of the motion of the dog “reflecting” is read, and the cry “Koon Kuhn,
Displayed with the occurrence of "Koon Kuhn, One One".

【0057】この場合にも、前記実施形態同様に、ユー
ザは、本物のペットに指示するのと同様の感覚で世話を
行ない、犬のキャラクタデータを世話に応じたパターン
に変化させて表示させることができるようになる。
In this case, similarly to the above embodiment, the user takes care of the same feeling as instructing the real pet, and changes the character data of the dog into a pattern corresponding to the care and displays it. Will be able to

【0058】さらに、前記各実施形態では、ユーザによ
るキャラクタデータに対するタッチ操作の面積あるいは
移動方向を検出して対応する動作のキャラクタデータに
変化させる構成としたが、ユーザのキャラクタデータに
対するタッチ操作に伴なうタッチ時間を検出し、当該タ
ッチ時間に応じてユーザの意思を判断して対応するキャ
ラクタデータとその鳴き声を表示及び発生出力する構成
としてもよい。
Further, in each of the above embodiments, the area or the moving direction of the touch operation by the user on the character data is detected and changed to the character data of the corresponding operation. A configuration may be adopted in which the touch time is detected, the user's intention is determined according to the touch time, and the corresponding character data and its squeal are displayed and generated and output.

【0059】図13は前記電子手帳におけるペットモー
ド処理に伴ないタッチ時間(速度)を検出して絵柄表示
パターンNo及び音声発生パターンNoを設定する処理
を示す部分フローチャートである。
FIG. 13 is a partial flowchart showing a process of detecting a touch time (speed) associated with the pet mode processing in the electronic organizer and setting a picture display pattern No. and a sound generation pattern No.

【0060】ここで、図13における部分フローチャー
トは、前記図9におけるペットモード処理の全体フロー
チャートにおけるステップB3の分岐「YES」とステ
ップB8との間の処理ルーチンとして機能する。
Here, the partial flowchart in FIG. 13 functions as a processing routine between the branch “YES” of step B3 and step B8 in the overall flowchart of the pet mode processing in FIG.

【0061】例えば前記図10(A)で示したように、
犬が「おすわり」している基本動作のキャラクタデータ
が表示されている状態で、図10(B)に示すように、
ユーザが当該表示されている犬を呼ぶ感覚で、液晶表示
部13の犬の表示されている領域を軽くポンとタッチす
ると、タブレット入力部13を介して検出されたタッチ
時間(速度)が所定時間以下である、すなわち、ユーザ
が犬キャラクタデータに対し軽く短く触ったものである
と判断され、RAM16内の表示パターンNoメモリ1
4fにおける絵柄表示パターンNo(M)、及び発生パ
ターンNoメモリ14gにおける音声発生パターンNo
(N)が、何れも「返事」の動作に対応するパターンN
o“03”にセットされる(ステップB1〜B3→B4
b,B5b→B6b)。
For example, as shown in FIG.
In a state in which the character data of the basic motion in which the dog is “sit” is displayed, as shown in FIG.
When the user touches the area where the dog is displayed on the liquid crystal display unit 13 lightly with a feeling of calling the displayed dog, the touch time (speed) detected via the tablet input unit 13 is changed to a predetermined time. That is, it is determined that the user touched the dog character data lightly and shortly, and the display pattern No.
Picture display pattern No. (M) at 4f, and sound generation pattern No. at generation pattern No. memory 14g
(N) is a pattern N corresponding to the “reply” operation.
o is set to “03” (steps B1 to B3 → B4
b, B5b → B6b).

【0062】すると、RAM16内の計時データメモリ
16bに逐次更新されて記憶される計時データに基づ
き、一定時間T(例えば30秒)の計時が開始され、こ
の一定時間Tの計時動作中において、前記表示パターン
Noメモリ16fに設定されている表示パターンNo
(M=03)に応じて、絵柄表示パターンROM14b
(図3参照)における「返事」の動作に対応する絵柄表
示順序「21,22,…」での犬のキャラクタデータが
絵柄データROM14a(図2参照)から読み出され、
液晶表示部18に表示されると共に、前記発生パターン
Noメモリ16gに設定されている発生パターンNo
(N=03)に応じて、音声発生パターンROM14d
(図5参照)における「返事」の動作に対応する音声発
生順序「1,−,…」での犬の鳴き声の音声データ(こ
の場合は「ワン・ワン」)が音声データROM14c
(図4参照)から読み出され、スピーカ20から出力さ
れる(ステップB8〜B11)。
Then, based on the timekeeping data sequentially updated and stored in the timekeeping data memory 16b in the RAM 16, timekeeping for a fixed time T (for example, 30 seconds) is started. The display pattern No. set in the display pattern No. memory 16f
According to (M = 03), the picture display pattern ROM 14b
The character data of the dog in the pattern display order “21, 22,...” Corresponding to the operation of “reply” in (see FIG. 3) is read from the pattern data ROM 14a (see FIG. 2).
The generation pattern No. displayed on the liquid crystal display unit 18 and set in the generation pattern No. memory 16g
(N = 03), the voice generation pattern ROM 14d
The voice data (in this case, “one-one”) of the dog's bark in the voice generation order “1, −,...” Corresponding to the “reply” operation in FIG.
(See FIG. 4) and output from the speaker 20 (steps B8 to B11).

【0063】すなわち、ペットモードにおいて、液晶表
示部13に表示された犬のキャラクタデータに対して、
ユーザが当該表示されている犬を呼ぶ感覚で軽くポンと
タッチすると、犬の「返事」の動作のキャラクタデータ
が読み出され、その鳴き声「ワン・ワン」の発生と共に
表示される。
That is, in the pet mode, the dog character data displayed on the liquid crystal display 13 is
If the user touches the displayed dog lightly with the touch of calling the dog, character data of the dog's "reply" action is read out and displayed together with the generation of the cry "one-one".

【0064】一方、図10(C)に示すように、ユーザ
が当該表示されている犬を叱る感覚で、液晶表示部13
の犬の表示されている領域をギュッと触ってタッチする
と、タブレット入力部13を介して検出されたタッチ時
間(速度)が所定時間以下でない、すなわち、ユーザが
犬キャラクタデータに対し長く触ったものであると判断
され、RAM16内の表示パターンNoメモリ14fに
おける絵柄表示パターンNo(M)、及び発生パターン
Noメモリ14gにおける音声発生パターンNo(N)
が、何れも「反省」の動作に対応するパターンNo“0
4”にセットされる(ステップB1〜B3→B4b,B
5b→B7b)。
On the other hand, as shown in FIG. 10C, the user feels that the displayed dog is scolding, and
When the user touches the area where the dog is displayed, the touch time (speed) detected via the tablet input unit 13 is not shorter than the predetermined time, that is, the user touches the dog character data for a long time. Is determined, and the picture display pattern No. (M) in the display pattern No. memory 14f in the RAM 16 and the sound generation pattern No. (N) in the generation pattern No. memory 14g.
However, the pattern No. “0” corresponding to the “reflection” operation
4 "(steps B1 to B3 → B4b, B
5b → B7b).

【0065】すると、RAM16内の計時データメモリ
16bに逐次更新されて記憶される計時データに基づ
き、一定時間T(例えば30秒)の計時が開始され、こ
の一定時間Tの計時動作中において、前記表示パターン
Noメモリ16fに設定されている表示パターンNo
(M=04)に応じて、絵柄表示パターンROM14b
(図3参照)における「反省」の動作に対応する絵柄表
示順序「101,102,…」での犬のキャラクタデー
タが絵柄データROM14a(図2参照)から読み出さ
れ、液晶表示部18に表示されると共に、前記発生パタ
ーンNoメモリ16gに設定されている発生パターンN
o(N=04)に応じて、音声発生パターンROM14
d(図5参照)における「反省」の動作に対応する音声
発生順序「2,2,1,…」での犬の鳴き声の音声デー
タ(この場合は「クーン・クーン,クーン・クーン,ワ
ン・ワン,…」)が音声データROM14c(図4参
照)から読み出され、スピーカ20から出力される(ス
テップB8〜B11)。
Then, on the basis of the time data sequentially updated and stored in the time data memory 16b in the RAM 16, time measurement for a fixed time T (for example, 30 seconds) is started. The display pattern No. set in the display pattern No. memory 16f
According to (M = 04), the picture display pattern ROM 14b
The dog character data in the picture display order “101, 102,...” Corresponding to the “reflection” operation in (see FIG. 3) is read from the picture data ROM 14a (see FIG. 2) and displayed on the liquid crystal display unit 18. And the generation pattern N set in the generation pattern No. memory 16g.
o (N = 04), the voice generation pattern ROM 14
d (see FIG. 5), the sound data of the dog's bark in the sound generation order “2, 2, 1,...” corresponding to the operation of “reflection” (in this case, “Koon Coon, Coon Coon, One. .. ") Are read from the audio data ROM 14c (see FIG. 4) and output from the speaker 20 (steps B8 to B11).

【0066】すなわち、ペットモードにおいて、液晶表
示部13に表示された犬のキャラクタデータに対して、
ユーザが当該表示されている犬を叱る感覚で長く触って
タッチすると、犬が「反省」している動作のキャラクタ
データが読み出され、その鳴き声「クーン・クーン,ク
ーン・クーン,ワン・ワン」の発生と共に表示される。
That is, in the pet mode, the dog character data displayed on the liquid crystal display unit 13 is
If the user touches and touches the displayed dog for a long time as if scolding, the character data of the motion of the dog “reflecting” is read out and its cry “Koon Kuhn, Kuhn Kuhn, Wan Wan” Is displayed with the occurrence of.

【0067】この場合にも、前記各実施形態同様に、ユ
ーザは、本物のペットに指示するのと同様の感覚で世話
を行ない、犬のキャラクタデータを世話に応じたパター
ンに変化させて表示させることができるようになる。
In this case as well, as in the above embodiments, the user takes care of the same feeling as instructing the real pet, and changes the character data of the dog into a pattern corresponding to the care and displays it. Will be able to do it.

【0068】なお、前記各実施形態では、絵柄データR
OM14aや音声データROM14cに予め記憶されて
利用されるキャラクタの種類として、犬のキャラクタを
用いて説明したが、例えば猫や猿等の他の動物、あるい
は植物のキャラクタであってもよい。
In the above embodiments, the pattern data R
Although a dog character has been described as a type of character stored and used in the OM 14a or the audio data ROM 14c in advance, the character may be another animal such as a cat or a monkey, or a plant character.

【0069】また、前記各実施形態において記載した手
法、すなわち、図7のフローチャートに示す全体処理、
図8のフローチャートに示す手帳モード処理、図9や図
12,図13のフローチャートに示すペットモード処理
等の各手法は、コンピュータに実行させることができる
プログラムとして、メモリカード(ROMカード、RA
Mカード等)、磁気ディスク(フロッピーディスク、ハ
ードディスク等)、光ディスク(CD−ROM、DVD
等)、半導体メモリ等の外部記憶媒体15aに格納して
配布することができる。そして、コンピュータは、この
外部記憶媒体15aに記録されたプログラムを外部記憶
読み取り部15によって読み込み、この読み込んだプロ
グラムによって動作が制御されることにより、前記実施
形態において説明したペット飼育表示機能を実現し、前
述した手法による同様の処理を実行することができる。
The method described in each of the above embodiments, that is, the entire processing shown in the flowchart of FIG.
The methods such as the notebook mode processing shown in the flowchart of FIG. 8 and the pet mode processing shown in the flowcharts of FIGS. 9, 12 and 13 are implemented as a memory card (ROM card, RA
M card, magnetic disk (floppy disk, hard disk, etc.), optical disk (CD-ROM, DVD
Etc.), and can be stored in an external storage medium 15a such as a semiconductor memory and distributed. The computer reads the program recorded in the external storage medium 15a by the external storage reading unit 15, and controls the operation by the read program, thereby realizing the pet breeding display function described in the above embodiment. The same processing can be executed by the above-described method.

【0070】また、前記実施形態では、液晶表示部18
の表示画面上に重ねた透明タッチパネルからなるタブレ
ット入力部13を設け、当該表示画面上に表示されたデ
ータに対する直接の指定あるいは接触操作を行なう構成
としたが、このような表示画面上での表示データに対す
る指定あるいは接触操作は、キー入力部12に備えられ
たカーソルキーや図示しないマウス型の入力機器等を利
用して行なう構成としてもよい。
In the above embodiment, the liquid crystal display 18
The tablet input unit 13 composed of a transparent touch panel superimposed on the display screen is provided to directly designate or touch the data displayed on the display screen. The designation or contact operation on the data may be performed by using a cursor key provided on the key input unit 12, a mouse-type input device (not shown), or the like.

【0071】さらに、前記実施形態では、ペットモード
処理による一連の生物画像表示制御機能を、携帯可能な
電子手帳に搭載した場合について説明したが、据置型パ
ーソナルコンピュータ等の大型の電子機器に対しても、
同様の生物画像表示制御機能を搭載して実現することが
できる。
Further, in the above-described embodiment, a case has been described in which a series of biological image display control functions based on the pet mode processing is mounted on a portable electronic notebook, but the present invention is applicable to a large-sized electronic device such as a stationary personal computer. Also,
A similar biological image display control function can be implemented.

【0072】[0072]

【発明の効果】以上のように、本発明に係わる生物画像
表示制御装置によれば、生物画像が表示された表示手段
の表示画面に対する外部からの操作状態、つまり、表示
されている生物画像に対する例えば直接の接触状態に応
じて、当該表示されている生物画像とは異なる生物画像
が生物画像記憶手段に記憶されている複数の生物画像の
中から読み出されて入れ替え表示されるので、例えば生
物画像に対する接触面積大小や操作方向、あるいは操作
時間の長短を当該生物画像に対する何等かの指示に見立
てて対応する形態の生物画像に変化させて表示できるよ
うになる。よって、本発明によれば、動物又は植物等の
生物画像を、現実の動物等の生物と同様な世話の仕方に
より飼育して表示することが可能になる。
As described above, according to the biological image display control apparatus according to the present invention, the external operation state of the display screen of the display means on which the biological image is displayed, that is, the display state of the displayed biological image is controlled. For example, depending on the direct contact state, a biological image different from the displayed biological image is read out from a plurality of biological images stored in the biological image storage means and displayed in a replaceable manner. The size of the contact area with the image, the operation direction, or the length of the operation time can be considered as some instruction for the biological image and changed to a biological image of a corresponding form and displayed. Therefore, according to the present invention, it becomes possible to breed and display a biological image of an animal or a plant in the same manner of care as a living thing such as an actual animal.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態に係わる生物画像表示制御装
置を搭載した小型携帯電子手帳の電子回路の構成を示す
ブロック図。
FIG. 1 is a block diagram showing a configuration of an electronic circuit of a small portable electronic organizer equipped with a biological image display control device according to an embodiment of the present invention.

【図2】前記電子手帳のROMに備えられた絵柄データ
ROMにおける絵柄データの記憶状態を示す図。
FIG. 2 is a diagram showing a storage state of design data in a design data ROM provided in a ROM of the electronic organizer.

【図3】前記電子手帳のROMに備えられた絵柄表示パ
ターンROMにおける絵柄表示パターンの記憶状態を示
す図。
FIG. 3 is a diagram showing a storage state of a picture display pattern in a picture display pattern ROM provided in a ROM of the electronic organizer.

【図4】前記電子手帳のROMに備えられた音声データ
ROMにおける音声データの記憶状態を示す図。
FIG. 4 is a diagram showing a storage state of audio data in an audio data ROM provided in the ROM of the electronic organizer.

【図5】前記電子手帳のROMに備えられた音声発生パ
ターンROMにおける音声発生パターンの記憶状態を示
す図。
FIG. 5 is a diagram showing a storage state of a voice generation pattern in a voice generation pattern ROM provided in the ROM of the electronic organizer.

【図6】前記電子手帳のRAMに備えられるデータメモ
リの構成を示す図。
FIG. 6 is a diagram showing a configuration of a data memory provided in a RAM of the electronic organizer.

【図7】前記電子手帳の全体処理を示すフローチャー
ト。
FIG. 7 is a flowchart showing an entire process of the electronic organizer.

【図8】前記電子手帳における手帳モード処理を示すフ
ローチャート。
FIG. 8 is a flowchart showing a notebook mode process in the electronic notebook.

【図9】前記電子手帳におけるペットモード処理を示す
フローチャート。
FIG. 9 is a flowchart showing a pet mode process in the electronic organizer.

【図10】前記電子手帳におけるペットモード処理に伴
なうユーザの画面接触面積に応じたキャラクタ表示状態
を示す図。
FIG. 10 is a view showing a character display state according to a user's screen contact area accompanying the pet mode processing in the electronic organizer.

【図11】前記電子手帳におけるペットモード処理に伴
なうユーザの画面接触方向に応じたキャラクタ表示状態
を示す図。
FIG. 11 is an exemplary view showing a character display state according to a user's screen contact direction accompanying the pet mode processing in the electronic organizer.

【図12】前記電子手帳におけるペットモード処理に伴
ないタッチ移動方向を検出して絵柄表示パターンNo及
び音声発生パターンNoを設定する処理を示す部分フロ
ーチャート。
FIG. 12 is a partial flowchart showing a process of detecting a touch movement direction accompanying a pet mode process in the electronic organizer and setting a picture display pattern No. and a sound generation pattern No.

【図13】前記電子手帳におけるペットモード処理に伴
ないタッチ時間(速度)を検出して絵柄表示パターンN
o及び音声発生パターンNoを設定する処理を示す部分
フローチャート。
FIG. 13 shows a pattern display pattern N by detecting a touch time (speed) accompanying the pet mode processing in the electronic organizer.
9 is a partial flowchart showing processing for setting o and a sound generation pattern No.

【符号の説明】[Explanation of symbols]

11 …CPU(中央処理装置)、 12 …キー入力部、 12a…「モード」キー、 13 …タブレット入力部、 14 …ROM、 14a…絵柄データROM、 14b…絵柄表示パターンROM、 14c…音声データROM、 14d…音声発生パターンROM、 15 …外部記憶読み取り部、 15a…外部記憶媒体、 16 …RAM、 16a…表示データメモリ、 16b…計時データメモリ、 16c…タッチデータメモリ、 16d…手帳データメモリ、 16e…モードフラグメモリ(F)、 16f…絵柄表示パターンNoメモリ(M)、 16g…音声発生パターンNoメモリ(N)、 16h…ポインタデータメモリ(P)、 18 …液晶表示部、 20 …スピーカ。 11: CPU (Central Processing Unit), 12: Key Input Unit, 12a: “Mode” Key, 13: Tablet Input Unit, 14: ROM, 14a: Picture Data ROM, 14b: Picture Display Pattern ROM, 14c: Voice Data ROM 14d: voice generation pattern ROM, 15: external storage reading unit, 15a: external storage medium, 16: RAM, 16a: display data memory, 16b: clock data memory, 16c: touch data memory, 16d: notebook data memory, 16e ... Mode flag memory (F), 16f ... Picture display pattern No. memory (M), 16g ... Sound generation pattern No. memory (N), 16h ... Pointer data memory (P), 18 ... Liquid crystal display unit, 20 ... Speaker.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 複数の生物画像が記憶されている生物画
像記憶手段と、 この生物画像記憶手段に記憶されている生物画像を表示
する表示画面を備えた表示手段と、 この表示手段の表示画面に対する外部からの操作状態を
検出する操作検出手段と、 前記表示手段の表示画面に前記生物画像が表示されてい
る状態において、前記操作検出手段により検出される当
該表示画面に対する外部からの操作状態に応じて、前記
表示されている生物画像とは異なる生物画像を前記生物
画像記憶手段に記憶されている複数の生物画像の中から
読み出し前記表示手段に表示させる表示制御手段とを具
備したことを特徴とする生物画像表示制御装置。
1. A biological image storage means in which a plurality of biological images are stored; a display means having a display screen for displaying biological images stored in the biological image storage means; and a display screen of the display means. An operation detecting means for detecting an external operation state with respect to, and in a state where the biological image is displayed on the display screen of the display means, an external operation state for the display screen detected by the operation detecting means is displayed. Display control means for reading out a biological image different from the displayed biological image from among the plurality of biological images stored in the biological image storage means and displaying the read biological image on the display means. Biological image display control device.
【請求項2】 前記操作検出手段は、前記表示手段の表
示画面に対する外部からの接触位置を検出する接触位置
検出手段と、前記表示手段の表示画面に対する外部から
の接触面積を検出する接触面積検出手段からなり、 前記表示制御手段は、前記表示手段の表示画面に前記生
物画像が表示され、前記接触位置検出手段により当該生
物画像の表示位置に対する外部からの接触が検出された
状態において、前記接触面積検出手段により検出される
当該生物画像の表示位置に対する接触の面積が所定面積
以下か否かに応じて、前記表示されている生物画像とは
異なる生物画像を前記生物画像記憶手段に記憶されてい
る複数の生物画像の中から読み出し前記表示手段に表示
させる表示制御手段である、ことを特徴とする請求項1
に記載の生物画像表示制御装置。
2. The operation detecting means includes: a contact position detecting means for detecting an external contact position on a display screen of the display means; and a contact area detecting means for detecting an external contact area on the display screen of the display means. The display control means, wherein the biological image is displayed on a display screen of the display means, and the contact is detected in a state where an external contact with respect to the display position of the biological image is detected by the contact position detecting means. Depending on whether the area of contact with the display position of the biological image detected by the area detecting means is equal to or less than a predetermined area, a biological image different from the displayed biological image is stored in the biological image storage means. 2. A display control means for reading out from a plurality of biological images present and displaying the read out image on the display means.
2. The biological image display control device according to item 1.
【請求項3】 前記操作検出手段は、前記表示手段の表
示画面に対する外部からの操作位置を検出する操作位置
検出手段と、前記表示手段の表示画面に対する外部から
の操作方向を検出する操作方向検出手段からなり、 前記表示制御手段は、前記表示手段の表示画面に前記生
物画像が表示され、前記操作位置検出手段により当該生
物画像の表示位置に対する外部からの操作が検出された
状態において、前記操作方向検出手段により検出される
当該生物画像の表示位置に対する操作の方向が所定の方
向か否かに応じて、前記表示されている生物画像とは異
なる生物画像を前記生物画像記憶手段に記憶されている
複数の生物画像の中から読み出し前記表示手段に表示さ
せる表示制御手段である、ことを特徴とする請求項1に
記載の生物画像表示制御装置。
3. An operation position detecting means for detecting an external operation position on a display screen of the display means, and an operation direction detecting means for detecting an external operation direction of the display screen of the display means. The display control means, wherein the biological image is displayed on a display screen of the display means, and the operation is performed in a state where an external operation on a display position of the biological image is detected by the operation position detecting means. A biological image different from the displayed biological image is stored in the biological image storage means depending on whether or not the operation direction for the display position of the biological image detected by the direction detecting means is a predetermined direction. 2. A biological image display system according to claim 1, further comprising display control means for reading out from a plurality of biological images present and displaying the read image on the display means. Apparatus.
【請求項4】 前記操作検出手段は、前記表示手段の表
示画面に対する外部からの操作位置を検出する操作位置
検出手段と、前記表示手段の表示画面に対する外部から
の操作時間を検出する操作時間検出手段からなり、 前記表示制御手段は、前記表示手段の表示画面に前記生
物画像が表示され、前記操作位置検出手段により当該生
物画像の表示位置に対する外部からの操作が検出された
状態において、前記操作時間検出手段により検出される
当該生物画像の表示位置に対する操作の時間が所定時間
以下か否かに応じて、前記表示されている生物画像とは
異なる生物画像を前記生物画像記憶手段に記憶されてい
る複数の生物画像の中から読み出し前記表示手段に表示
させる表示制御手段である、ことを特徴とする請求項1
に記載の生物画像表示制御装置。
4. An operation position detecting means for detecting an external operation position on a display screen of the display means, and an operation time detecting means for detecting an external operation time on a display screen of the display means. The display control means, wherein the biological image is displayed on a display screen of the display means, and the operation is performed in a state where an external operation on a display position of the biological image is detected by the operation position detecting means. Depending on whether the operation time for the display position of the biological image detected by the time detecting means is equal to or less than a predetermined time, a biological image different from the displayed biological image is stored in the biological image storage means. 2. A display control means for reading out from a plurality of biological images present and displaying the read out image on the display means.
2. The biological image display control device according to item 1.
【請求項5】 表示部の表示画面に生物画像を表示する
表示ステップと、 この表示ステップにおいて前記生物画像が表示された表
示部の表示画面に対し外部から操作があった際に、その
操作状態を検出する操作状態検出ステップと、 この操作状態検出ステップにおいて検出された前記生物
画像が表示された表示部の表示画面に対する外部からの
操作状態に応じて、複数の生物画像が記憶されている生
物画像記憶手段を制御して前記表示されている生物画像
とは異なる生物画像を、その複数の生物画像の中から読
み出して前記表示部に表示させる表示制御ステップとか
らなることを特徴とする生物画像表示制御方法。
5. A display step of displaying a biological image on a display screen of a display unit, and an operation state when an external operation is performed on a display screen of the display unit on which the biological image is displayed in the display step. An operation state detecting step of detecting the biological image detected in the operation state detecting step, and a biological object in which a plurality of biological images are stored in accordance with an external operation state on a display screen of the display unit on which the biological image detected is displayed. A biological image different from the displayed biological image by controlling image storage means, from among the plurality of biological images, and displaying the biological image on the display unit. Display control method.
【請求項6】 コンピュータを、 表示部の表示画面に生物画像を表示する表示手段、 この表示手段により前記生物画像が表示された表示部の
表示画面に対し外部から操作があった際に、その操作状
態を検出する操作状態検出手段、 この操作状態検出手段により検出された前記生物画像が
表示された表示部の表示画面に対する外部からの操作状
態に応じて、複数の生物画像が記憶されている生物画像
記憶手段を制御して前記表示されている生物画像とは異
なる生物画像を、その複数の生物画像の中から読み出し
て前記表示部に表示させる表示制御手段、として機能さ
せるための生物画像表示処理プログラムを記録した記録
媒体。
6. A computer, comprising: display means for displaying a biological image on a display screen of a display unit; and when a display screen of the display unit on which the biological image is displayed is externally operated by the display means, Operation state detection means for detecting an operation state; a plurality of biological images are stored in accordance with an external operation state on a display screen of the display unit on which the biological image detected by the operation state detection means is displayed. A biological image display for controlling biological image storage means to function as display control means for reading a biological image different from the displayed biological image from among the plurality of biological images and displaying the read biological image on the display unit; A recording medium on which a processing program is recorded.
JP9285035A 1997-10-17 1997-10-17 Living thing image display control device, method of controlling living thing image display, and recording medium in which living thing image display processing program is recorded Pending JPH11119641A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9285035A JPH11119641A (en) 1997-10-17 1997-10-17 Living thing image display control device, method of controlling living thing image display, and recording medium in which living thing image display processing program is recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9285035A JPH11119641A (en) 1997-10-17 1997-10-17 Living thing image display control device, method of controlling living thing image display, and recording medium in which living thing image display processing program is recorded

Publications (1)

Publication Number Publication Date
JPH11119641A true JPH11119641A (en) 1999-04-30

Family

ID=17686324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9285035A Pending JPH11119641A (en) 1997-10-17 1997-10-17 Living thing image display control device, method of controlling living thing image display, and recording medium in which living thing image display processing program is recorded

Country Status (1)

Country Link
JP (1) JPH11119641A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003015076A1 (en) * 2001-08-06 2003-02-20 Index Corporation Device and method for judging dog's feeling from cry vocal character analysis
JP2006081943A (en) * 2000-05-15 2006-03-30 Namco Ltd Game system, program for game and recording medium having the program recorded thereon
JP2006081942A (en) * 2000-05-15 2006-03-30 Namco Ltd Game system, program for game and recording medium having the program recorded thereon
JP2006081944A (en) * 2000-05-15 2006-03-30 Namco Ltd Game system, program for game and recording medium having the program recorded thereon
JP2007190134A (en) * 2006-01-18 2007-08-02 Aruze Corp Game machine
JP2010046554A (en) * 2003-12-10 2010-03-04 Nintendo Co Ltd Game program
WO2012111198A1 (en) * 2011-02-18 2012-08-23 株式会社コナミデジタルエンタテインメント Game device, game control method, program, recording medium, and game administration device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006081943A (en) * 2000-05-15 2006-03-30 Namco Ltd Game system, program for game and recording medium having the program recorded thereon
JP2006081942A (en) * 2000-05-15 2006-03-30 Namco Ltd Game system, program for game and recording medium having the program recorded thereon
JP2006081944A (en) * 2000-05-15 2006-03-30 Namco Ltd Game system, program for game and recording medium having the program recorded thereon
WO2003015076A1 (en) * 2001-08-06 2003-02-20 Index Corporation Device and method for judging dog's feeling from cry vocal character analysis
JP2010046554A (en) * 2003-12-10 2010-03-04 Nintendo Co Ltd Game program
JP2007190134A (en) * 2006-01-18 2007-08-02 Aruze Corp Game machine
WO2012111198A1 (en) * 2011-02-18 2012-08-23 株式会社コナミデジタルエンタテインメント Game device, game control method, program, recording medium, and game administration device
JP2012183293A (en) * 2011-02-18 2012-09-27 Konami Digital Entertainment Co Ltd Game device, game control method, program, and game administration device
US8808090B2 (en) 2011-02-18 2014-08-19 Konami Digital Entertainment Co., Ltd. Game device, game control method, program, recording medium and game management device

Similar Documents

Publication Publication Date Title
AU2004214467B2 (en) Hand-held interactive electronic device
US6118458A (en) Image displaying apparatus
KR100721518B1 (en) Proactive user interface
JP4225567B2 (en) Spatial access method for time-based information
US6449518B1 (en) Storage medium, robot, information processing device and electronic pet system
JPH1195650A (en) Control device of living body image display, method of controlling living body image display, and medium on which living body image display processing program is recorded
US20120007840A1 (en) Processor-controlled object
JPH05508500A (en) User interface with pseudo devices
JPH06501798A (en) Computer with tablet input to standard programs
JPH08309032A (en) Display device
JPH11119641A (en) Living thing image display control device, method of controlling living thing image display, and recording medium in which living thing image display processing program is recorded
KR19990023893A (en) Recording medium recording image display control device, image display control method and image display control processing program
JPH0668063A (en) Virtual living thing system
JP2016085680A (en) Electronic device and program
JPH1069218A (en) Graphical user interface system for visually handicapped person
JP4316819B2 (en) Robot control apparatus, robot control method, program, and storage medium
JPH11126014A (en) Device and method for controlling creature image display, and recording medium which records creature image display processing program
JP2004139151A (en) Input device for information processing apparatus
KR20190089540A (en) Device and method for keeping an animal of using a doll
JPH08305873A (en) Image generating device
JPH11143356A (en) Go learning system, its method and record medium recording go learning program
JP2013088732A (en) Foreign language learning system
JPH1063176A (en) Foreign language learning device and its recording medium
JP3044486U (en) Biological image display
JP3044485U (en) Biological image display