JPH10301756A - Selection item display method and device - Google Patents

Selection item display method and device

Info

Publication number
JPH10301756A
JPH10301756A JP9109736A JP10973697A JPH10301756A JP H10301756 A JPH10301756 A JP H10301756A JP 9109736 A JP9109736 A JP 9109736A JP 10973697 A JP10973697 A JP 10973697A JP H10301756 A JPH10301756 A JP H10301756A
Authority
JP
Japan
Prior art keywords
screen
selection item
term
searched
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9109736A
Other languages
Japanese (ja)
Inventor
Shunichi Yonemura
俊一 米村
Yukio Tokunaga
幸生 徳永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP9109736A priority Critical patent/JPH10301756A/en
Publication of JPH10301756A publication Critical patent/JPH10301756A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To easily perform the operation of selecting a selection item by outputting the selection item to be displayed on a screen corresponding to the recognition level of a user by using visual information and sound information. SOLUTION: This selection item display device is provided with a screen storage means 100, a character storage means 200, a synthesis means 300 and a display means 400. When screen information is retrieved and obtained, at least one of characters, terms, images and sound, etc., as the selection item to be displayed in the screen information is outputted together. Only the character is displayed as the selection item in the screen information first, and in the case that the user can not understand just by the character, the image and the sound, etc., can be outputted together. Also, it is possible to add and display the information from the beginning and they are synthesized by respective combinations matched with the level of the user and displayed and outputted. In such a manner, at the time of displaying the selection item to the user, respective output methods are decided corresponding to the level of the user.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、選択項目提示方法
及び装置に係り、特に、情報機器に関する選択項目を提
示するための選択項目の生成、及び表示を行うための選
択項目提示方法及び装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for presenting a selection item, and more particularly to a method and an apparatus for presenting a selection item for presenting and displaying a selection item related to an information device. .

【0002】[0002]

【従来の技術】コンピュータ技術の進展に伴い、情報機
器には多数の機能が搭載されている。このような情報機
器の多機能化に伴って機器の操作も複雑化している。特
に、表示画面を装備した多機能電話機やファクシミリ、
電子手帳といった情報機器では、内蔵されたコンピュー
タが画面上に次々と選択項目を表示するため、ユーザは
所望の機能を実行するために、それらの選択項目の意味
を理解しながら、逐次操作している。ところが、これら
の選択項目で使用される用語は、例えば、成人にとって
は、理解が容易でも、幼児には読むことができなかった
り、意味が理解できないという状況が発生する。このた
め、誰にでも分かりやすい項目を生成し、提示する方法
が求められている。
2. Description of the Related Art With the development of computer technology, information equipment has many functions. With such multifunctional information devices, the operation of the devices is becoming complicated. In particular, multifunction phones and facsimile machines equipped with display screens,
In an information device such as an electronic organizer, a built-in computer displays selection items one after another on a screen, so that a user operates the devices one by one while understanding the meaning of those selection items in order to execute a desired function. I have. However, the terms used in these selection items may be easily understood by adults, for example, but may not be read by infants or may not be understood. Therefore, there is a need for a method of generating and presenting items that are easy for anyone to understand.

【0003】従来、選択項目を分かりやすく提示する方
法としては、分かりやすい項目名を設計したり、絵文字
を使用するといった方法が使用されている。これらは、
視覚情報について分かりやすい設計を行う方法である。
また、従来、意味が分かりやすい項目名を生成する方法
としては、対象となるユーザ層に最も受入れられやすい
項目名を何らかのテストを行って評価し、その評価値が
最も高い項目名を機器に装備する方法がある。
Conventionally, as a method of presenting a selection item in an easy-to-understand manner, a method of designing an easy-to-understand item name or using a pictogram has been used. They are,
This is a method for designing an easy-to-understand visual information.
Conventionally, as a method of generating an item name that is easy to understand, an item name that is most easily accepted by the target user group is evaluated by performing some test, and the item name having the highest evaluation value is equipped on the device. There is a way to do that.

【0004】さらに、従来、用語の意味が分かりやすい
インタフェースを設定する方法としては、対象となるユ
ーザ層に最も受入れられやすい用語を何らかのテストを
行って評価し、その評価値が最も高い用語を機器に装備
する方法が使用されている。
Conventionally, as a method of setting an interface in which the meaning of a term is easy to understand, a term most easily accepted by a target user group is evaluated by performing some test, and a term having the highest evaluation value is determined by a device. The method of equipping is used.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、項目名
の意味が理解できるかどうかは、ユーザが持っている知
識、即ち、ユーザの過去の経験やユーザが日常生活で使
用する語彙に依存する。例えば、ある項目名を設計する
場合、成人にとっては項目を説明する名詞が項目名とし
てわかりやすかったとしても、幼児にとっては、動物の
マークを用いた方が覚えやすいといった状況がある。こ
のため、電話機やファクシミリといった不特定多数のユ
ーザが使用する機器においては、一つの項目名が特定の
年齢や職業といったユーザ層には意味の理解はできて
も、他のユーザ層には意味が理解できないという状況が
発生し、結果として不特定多数のユーザすべてに分かり
やすい項目名を設計することは難しいという問題があ
る。
However, whether or not the meaning of the item name can be understood depends on the knowledge possessed by the user, that is, the past experience of the user and the vocabulary used by the user in daily life. For example, when designing a certain item name, there is a situation in which even though a noun explaining an item is easy to understand as an item name for an adult, it is easier for an infant to remember using an animal mark. For this reason, in devices used by an unspecified number of users, such as telephones and facsimile machines, one item name can be understood by the user group, such as a specific age or occupation, but has meaning in other user groups. A situation arises in which the user cannot understand, and as a result, there is a problem that it is difficult to design easy-to-understand item names for all unspecified number of users.

【0006】更に、例えば、薄暗がりといった視認条件
の悪い環境下で項目の選択を行う場合や、または、視覚
能力の低いユーザが項目選択を行う場合には、視覚情報
をいくら分かりやすく設計しても、所望の項目を迅速に
誤りなく選択することが困難である。また、幼児等が項
目選択を行う場合、幼児は、「読む」能力が十分に成熟
していないため、「読んで」意味を理解しながら、選択
操作を行うことが困難である。
Further, for example, when an item is selected in an environment where viewing conditions are poor such as dim light, or when a user with low visual ability selects an item, the visual information may be designed to be easy to understand. It is difficult to quickly select a desired item without error. In addition, when an infant or the like makes an item selection, it is difficult for the infant to perform the selecting operation while understanding the meaning of "read" because the ability of the infant to read is not sufficiently mature.

【0007】本発明は、上記の点に鑑みなされたもの
で、視覚情報と聴覚情報を併用することによって、様々
なユーザが容易に選択操作を行えるように、選択項目を
提示することが可能な選択項目提示方法及び装置を提示
することを目的とする。また、本発明の目的は、不特定
多数のユーザが容易に意味を理解できるような選択項目
を生成、表示する選択項目提示方法及び装置を提示する
ことである。
The present invention has been made in view of the above points, and it is possible to present selection items by using visual information and auditory information together so that various users can easily perform a selection operation. It is an object to present a selection item presentation method and apparatus. It is another object of the present invention to provide a selection item presentation method and apparatus for generating and displaying selection items so that an unspecified number of users can easily understand the meaning.

【0008】[0008]

【課題を解決するための手段】本発明は、ユーザが特定
の項目候補を選択した際に、選択項目を表示する選択項
目提示方法において、ユーザの認識レベルに応じて画面
に表示する選択項目を、視覚情報や音声情報を用いて出
力する。図1は、本発明の原理を説明するための図であ
る。
SUMMARY OF THE INVENTION According to the present invention, in a selection item presenting method for displaying a selection item when a user selects a specific item candidate, a selection item to be displayed on a screen according to the recognition level of the user is provided. And output using visual information and audio information. FIG. 1 is a diagram for explaining the principle of the present invention.

【0009】本発明は、ユーザが特定の項目候補を選択
した際に、選択項目を表示する選択項目提示方法におい
て、選択項目を表示するための画面を記憶しておき(ス
テップ1)、選択項目名毎に文字を記憶しておき(ステ
ップ2)、記憶されている画面からユーザから入力され
た項目候補に基づいて、表示すべき画面を検索し(ステ
ップ3)、検索された画面に対応する文字を検索し(ス
テップ4)、検索された画面と、検索された文字とを合
成して表示する(ステップ5)。
According to the present invention, in a selection item presentation method for displaying a selection item when a user selects a specific item candidate, a screen for displaying the selection item is stored (step 1). Characters are stored for each name (step 2), and a screen to be displayed is searched based on the item candidates input from the stored screen (step 3), and the screen corresponding to the searched screen is searched. Characters are searched (step 4), and the searched screen and the searched characters are combined and displayed (step 5).

【0010】また、本発明は、ユーザが特定の項目候補
を選択した際に、選択項目を表示する選択項目提示方法
において、1つの選択項目について複数の用語の組と、
表示すべき画面とを記憶しておき、記憶されている画面
からユーザから入力された項目候補に基づいて、表示す
べき画面を検索し、検索された画面に対応する用語を検
索し、検索された画面と、検索された用語とを合成して
表示し、表示された画面においてユーザが理解できない
場合に、ユーザの知識に合わせて分かりやすい他の用語
を再度検索して表示する。
Further, the present invention provides a selection item presenting method for displaying a selection item when a user selects a specific item candidate.
A screen to be displayed is stored, a screen to be displayed is searched based on the item candidates input from the stored screen, and a term corresponding to the searched screen is searched. When the user does not understand the displayed screen, the user searches again for another easy-to-understand term in accordance with the user's knowledge and displays it.

【0011】また、本発明は、上記に加えて、選択項目
に対応する音声を記憶しておき、検索された画面と検索
された文字又は用語に対応する音声を合成して出力す
る。また、本発明は、上記に加えて、選択項目に対応す
る画像を記憶しておき、検索された画面と検索された文
字、または、用語、または、音声に加えて画像を合成し
て表示する。
According to the present invention, in addition to the above, a voice corresponding to the selected item is stored, and a searched screen and a voice corresponding to the searched character or term are synthesized and output. In addition, in addition to the above, the present invention stores an image corresponding to a selected item, and combines and displays an image in addition to a searched screen and a searched character, word, or voice. .

【0012】図2は、本発明の原理構成図である。本発
明は、ユーザが特定の項目候補を選択した際に、選択項
目を表示する選択項目提示装置であって、表示すべき選
択項目名を含む画面を記憶する画面記憶手段100と、
1つの選択項目について、選択項目名として文字を記憶
する文字記憶手段200と、画面記憶手段100から画
面を取得し、文字記憶手段200から選択項目名に対応
する文字を取得して合成する合成手段300と、合成手
段300により合成された情報を表示する表示手段40
0とを有する。
FIG. 2 is a diagram showing the principle of the present invention. The present invention is a selection item presentation device that displays a selection item when a user selects a specific item candidate, and a screen storage unit 100 that stores a screen including a selection item name to be displayed,
For one selection item, a character storage unit 200 that stores characters as a selection item name, a combining unit that acquires a screen from the screen storage unit 100, acquires a character corresponding to the selection item name from the character storage unit 200, and combines the characters 300 and display means 40 for displaying the information synthesized by the synthesis means 300
0.

【0013】また、本発明は、ユーザが特定の項目候補
を選択した際に、選択項目を表示する選択項目提示装置
であって、表示すべき選択項目名を含む画面を記憶する
画面記憶手段と、1つの選択項目について、複数の用語
セットを記憶する用語記憶手段と、画面記憶手段から画
面を取得し、該画面の選択項目名に対応する用語を用語
記憶手段から検索し、用語セットから1つの用語検索し
て合成する合成手段と、合成手段により合成された画面
を表示する表示手段と、表示手段に表示された用語でユ
ーザが認識できない場合に、用語記憶手段の用語セット
の中から他の用語を抽出し、再度表示する再検索手段を
有する。
Further, the present invention is a selection item presenting apparatus for displaying a selection item when a user selects a specific item candidate, and a screen storage means for storing a screen including a selection item name to be displayed. A term storage means for storing a plurality of term sets for one selection item, a screen is obtained from the screen storage means, and a term corresponding to the selection item name of the screen is searched from the term storage means. Synthesizing means for searching for and synthesizing one term, display means for displaying a screen synthesized by the synthesizing means, and, when the user cannot recognize the terms displayed on the display means, selecting from the term set in the term storage means. Has a re-searching means for extracting the term and displaying it again.

【0014】また、本発明は、上記の装置に画面の選択
項目名に対応する音声を記憶する音声記憶手段と、選択
項目名に対応する特定の音声を発生させる音声発声手段
とを更に有し、合成手段は、画面記憶手段から画面を取
得し、該画面に対応する文字または、用語に対応する音
声を音声記憶手段から検索して合成する手段を含む。ま
た、本発明は、上記の装置に加えて、画面の選択項目名
に対応する画像を記憶する画像記憶手段を更に有し、合
成手段は、画面記憶手段から画面を取得し、該画面に対
応する文字、または、用語、または、音声に加えて、画
像記憶手段から画像を検索して合成する手段を含む。
Further, the present invention further comprises a voice storage means for storing a voice corresponding to the selection item name on the screen in the above-mentioned apparatus, and a voice utterance means for generating a specific voice corresponding to the selection item name. The synthesizing unit includes a unit that acquires a screen from the screen storage unit, retrieves a voice corresponding to a character or a term corresponding to the screen from the voice storage unit, and synthesizes the voice. Further, in addition to the above-described device, the present invention further includes an image storage unit that stores an image corresponding to the selection item name of the screen, wherein the combining unit acquires the screen from the screen storage unit, and stores the image corresponding to the screen. In addition to the characters, terms, or sounds to be used, means for retrieving and synthesizing images from the image storage means is included.

【0015】上記のように、本発明では、画面情報を検
索して取得すると、当該画面情報に表示する選択項目と
しての文字、用語、画像、音声等の少なくとも1つを併
せて出力する。最初に、画面情報に選択項目として文字
のみを表示しておき、当該文字のみではユーザが理解で
きない場合に、画像や音声等を併せて出力することが可
能となる。また、最初からこれらの情報を付加して表示
するようにすることも可能であり、ユーザのレベルに合
った種々の組み合わせで合成し、表示及び出力が可能と
なる。
As described above, according to the present invention, when screen information is retrieved and acquired, at least one of a character, a term, an image, a sound, and the like as a selection item to be displayed on the screen information is output together. First, only characters are displayed as selection items in the screen information, and when the user cannot understand the characters alone, images and sounds can be output together. Also, it is possible to add and display such information from the beginning, and it is possible to combine, display, and output in various combinations according to the level of the user.

【0016】このように、選択項目をユーザに提示する
際に、ユーザのレベルに応じて種々の出力方法を決定す
ることで、年少者向き、成人向き等の表示・出力方法を
設定することが可能となる。
As described above, when the selection items are presented to the user, various output methods are determined according to the level of the user, so that a display / output method for a child, an adult, or the like can be set. It becomes possible.

【0017】[0017]

【発明の実施の形態】最初に、第1の選択項目提示装置
について説明する。図3は、本発明の第1の選択項目提
示装置の構成を示す。同図に示す選択項目提示装置は、
項目名処理部1、画面記憶部7、画面検索部8、入出力
制御部9、表示装置10、操作入力装置11、スピーカ
12から構成される。
DESCRIPTION OF THE PREFERRED EMBODIMENTS First, a first selection item presentation device will be described. FIG. 3 shows the configuration of the first selection item presentation device of the present invention. The selection item presentation device shown in FIG.
It comprises an item name processing section 1, a screen storage section 7, a screen search section 8, an input / output control section 9, a display device 10, an operation input device 11, and a speaker 12.

【0018】項目名処理部1は、文字記憶部2、文字検
索部3、文字・音声合成処理部4、音声記憶部5、及び
音声検索部6から構成される。文字・音声合成処理部4
には、画面検索部8と入出力制御部9が接続されてい
る。文字記憶部2には、操作を行う上で必要となる選択
項目を表現する文字が予め格納されている。
The item name processing unit 1 comprises a character storage unit 2, a character search unit 3, a character / speech synthesis processing unit 4, a voice storage unit 5, and a voice search unit 6. Character / speech synthesis processing unit 4
, A screen search unit 8 and an input / output control unit 9 are connected. The character storage unit 2 stores characters expressing selection items necessary for performing an operation in advance.

【0019】文字検索部3は、画面検索部8により取得
された画面に対応する文字を文字記憶部2から検索し、
文字・音声合成処理部4に渡す。音声記憶部5には、項
目の選択に伴って発声するための音声が予め格納されて
いるものとする。音声検索部6は、画面検索部8により
取得された画面に対応する音声を音声記憶部5から検索
し、文字・音声合成処理部4に渡す。
The character search unit 3 searches the character storage unit 2 for a character corresponding to the screen acquired by the screen search unit 8,
It is passed to the character / speech synthesis processing unit 4. It is assumed that the voice storage unit 5 stores voice for uttering in response to selection of an item in advance. The voice search unit 6 searches the voice storage unit 5 for a voice corresponding to the screen acquired by the screen search unit 8 and passes the voice to the character / voice synthesis processing unit 4.

【0020】文字・音声合成処理部4は、入出力制御部
9を介して、操作入力装置11から入力された画面検索
情報を取得し、画面検索部8に渡すと共に、画面検索部
8で検索された画面を文字検索部3及び音声検索部6に
渡す。これにより、文字検索部3及び音声検索部6で取
得した文字情報及び音声情報を合成して、入出力制御部
9に転送する。
The character / speech synthesis processing unit 4 acquires the screen search information input from the operation input device 11 via the input / output control unit 9, passes it to the screen search unit 8, and searches the screen search unit 8. The screen is passed to the character search unit 3 and the voice search unit 6. As a result, the character information and the voice information obtained by the character search unit 3 and the voice search unit 6 are combined and transferred to the input / output control unit 9.

【0021】画面記憶部7には、表示装置10に表示す
べき画面情報が予め格納されている。画面検索部8は、
操作入力装置11から入力された画面検索情報を、入出
力制御部9及び文字・音声合成処理部4を介して取得
し、当該画面検索情報に基づいて画面記憶部7を検索
し、該当する画面を取得し、文字・音声合成処理部4に
渡す。
Screen information to be displayed on the display device 10 is stored in the screen storage unit 7 in advance. The screen search unit 8
Screen search information input from the operation input device 11 is obtained via the input / output control unit 9 and the character / speech synthesis processing unit 4, and the screen storage unit 7 is searched based on the screen search information. Is obtained and passed to the character / speech synthesis processing unit 4.

【0022】入出力制御部9は、操作入力装置11から
の画面検索情報や合成された画面を表示装置10に表示
すると共に、音声をスピーカ12に出力する。表示装置
10は、入出力制御部9から取得した画面を表示する。
操作入力装置11は、利用者からの画面検索情報を受け
付ける。スピーカ12は、入出力制御部9から取得した
音声を出力する。
The input / output control unit 9 displays the screen search information from the operation input device 11 and the synthesized screen on the display device 10 and outputs sound to the speaker 12. The display device 10 displays the screen acquired from the input / output control unit 9.
The operation input device 11 receives screen search information from a user. The speaker 12 outputs the sound obtained from the input / output control unit 9.

【0023】図4は、本発明の第1の構成による動作を
示すフローチャートである。 ステップ101) ユーザは、操作入力装置11から画
面検索情報を入力する。 ステップ102) 入出力制御部9は、操作入力装置1
1から入力された画面検索情報を項目名処理部1の文字
・音声合成処理部4に転送し、文字・音声合成処理部4
は、画面検索情報を画面検索部8に転送する。
FIG. 4 is a flowchart showing the operation according to the first configuration of the present invention. Step 101) The user inputs screen search information from the operation input device 11. Step 102) The input / output control unit 9 controls the operation input device 1.
1 is transferred to the character / speech synthesis processing unit 4 of the item name processing unit 1,
Transfers the screen search information to the screen search unit 8.

【0024】ステップ103) これにより、画面検索
部8は、画面記憶部7より該当する画面を検索し、文字
・音声合成処理部4に転送する。 ステップ104) 文字・音声合成処理部4は、取得し
た検索結果である画面を一時的に記憶し、当該画面を文
字検索部3と音声検索部6に転送する。なお、検索され
た画面には、画面IDが付与されているものとし、実際
には、当該画面IDを文字検索部3と音声検索部6に転
送する。
Step 103) The screen search unit 8 searches the screen storage unit 7 for a corresponding screen, and transfers the screen to the character / speech synthesis processing unit 4. Step 104) The character / speech synthesis processing unit 4 temporarily stores the obtained search result screen, and transfers the screen to the character search unit 3 and the voice search unit 6. It is assumed that a screen ID is given to the searched screen, and the screen ID is actually transferred to the character search unit 3 and the voice search unit 6.

【0025】ステップ105) 文字・音声合成処理部
4から画面IDが渡された文字検索部3は、当該画面I
Dに対応する文字を文字記憶部2を検索して取得し、文
字・音声合成処理部4に渡す。 ステップ106) 音声検索部6は、当該画面IDに対
応する音声を音声記憶部5から検索して取得し、文字・
音声合成処理部4に渡す。
Step 105) The character search unit 3 to which the screen ID has been passed from the character / speech synthesis processing unit 4
The character corresponding to D is obtained by searching the character storage unit 2 and passed to the character / speech synthesis processing unit 4. Step 106) The voice search unit 6 searches the voice storage unit 5 for a voice corresponding to the screen ID, acquires
This is passed to the speech synthesis processing unit 4.

【0026】ステップ107) 文字・音声合成処理部
4は、取得した文字と音声を一時的に記憶し、ステップ
104で取得した画面と、文字と音声を同期して合成処
理する。 ステップ108) 合成処理された画面・文字・音声
は、入出力制御部9に転送され、画面と文字は表示装置
10に表示され、音声はスピーカ12に出力される。
Step 107) The character / speech synthesizing section 4 temporarily stores the obtained character and voice, and synthesizes the screen and the character and voice obtained in step 104 in synchronization with each other. Step 108) The synthesized screen, character, and voice are transferred to the input / output control unit 9, the screen and the character are displayed on the display device 10, and the voice is output to the speaker 12.

【0027】次に、第2の選択項目提示装置について説
明する。図5は、本発明の第2の選択項目提示装置の構
成を示す。同図において、図3と同一構成部分について
は、同一符号を付し、その説明を省略する。図5に示す
項目名処理部1において、図3の文字・音声合成処理部
4に代わって画面合成処理部40が設けられ、音声検索
部6に代わって画像検索部60が設けられ、音声記憶部
5に代わって画像記憶部50が設けられた構成である。
Next, the second selection item presentation device will be described. FIG. 5 shows the configuration of the second selection item presentation device of the present invention. 3, the same components as those of FIG. 3 are denoted by the same reference numerals, and the description thereof will be omitted. In the item name processing unit 1 shown in FIG. 5, a screen synthesis processing unit 40 is provided in place of the character / speech synthesis processing unit 4 in FIG. 3, an image search unit 60 is provided in place of the voice search unit 6, and voice storage is performed. The configuration is such that an image storage unit 50 is provided instead of the unit 5.

【0028】画像記憶部50には、操作を行う上で必要
となる選択項目を表現する画像が予め格納されている。
また、画面記憶部7には、表示装置10に表示すべき画
面が予め格納されている。画像検索部60は、操作の進
行に合わせて、操作入力装置11から画像検索情報が入
力されると、画像記憶部50から表示すべき画像を検索
して、画面合成処理部40に転送される。
The image storage unit 50 stores in advance images representing selection items required for performing an operation.
In addition, the screen to be displayed on the display device 10 is stored in the screen storage unit 7 in advance. When image search information is input from the operation input device 11 in accordance with the progress of the operation, the image search unit 60 searches for an image to be displayed from the image storage unit 50 and is transferred to the screen synthesis processing unit 40. .

【0029】また、第2の構成では、音声の出力は行わ
ないため、スピーカ12は設けられていない。図6は、
本発明の第2の構成による動作を示すフローチャートで
ある。 ステップ201) ユーザは、操作入力装置11から画
面検索情報を入力する。
Further, in the second configuration, since no sound is output, the speaker 12 is not provided. FIG.
6 is a flowchart illustrating an operation according to the second configuration of the present invention. Step 201) The user inputs screen search information from the operation input device 11.

【0030】ステップ202) 入出力制御部9は、操
作入力装置11から入力された画面検索情報を項目名処
理部1の画面合成処理部40に転送する。画面合成処理
部40は、画面検索情報を画面検索部8に転送する。 ステップ203) これにより、画面検索部8は、画面
記憶部7より該当する画面を検索し、画面合成処理部4
0に転送する。
Step 202) The input / output control unit 9 transfers the screen search information input from the operation input device 11 to the screen synthesis processing unit 40 of the item name processing unit 1. The screen synthesis processing unit 40 transfers the screen search information to the screen search unit 8. Step 203) Accordingly, the screen search unit 8 searches the screen storage unit 7 for a corresponding screen, and the screen synthesis processing unit 4
Transfer to 0.

【0031】ステップ204) 画面合成処理部40
は、取得した検索結果である画面を一時的に記憶し、当
該画面を文字検索部3に転送する。なお、検索された画
面には、画面IDが付与されているものとし、実際に
は、当該画面IDを文字検索部3に転送する。 ステップ205) 画面合成処理部40から画面IDが
渡された文字検索部3は、デフォルトの項目名を文字記
憶部2より取得し、画面合成処理部40に渡す。
Step 204) Screen synthesis processing section 40
Temporarily stores the screen that is the obtained search result, and transfers the screen to the character search unit 3. It is assumed that a screen ID has been assigned to the searched screen, and the screen ID is actually transferred to the character search unit 3. Step 205) The character search unit 3 to which the screen ID has been passed from the screen composition processing unit 40 acquires a default item name from the character storage unit 2 and passes it to the screen composition processing unit 40.

【0032】ステップ206) 画面合成処理部40
は、文字検索部3から取得したデフォルトの項目名を取
得すると、画面検索部8から取得した画面と項目名を合
成して入出力制御部9に渡す ステップ207) 入出力制御部9は、合成された画面
を表示装置10に表示する。
Step 206) Screen synthesis processing section 40
When the default item name obtained from the character search unit 3 is obtained, the screen and the item name obtained from the screen search unit 8 are combined and passed to the input / output control unit 9 (step 207). The displayed screen is displayed on the display device 10.

【0033】ステップ208) このとき、表示装置1
0に表示された画面上の文字がユーザに分かり難いもの
であれば、ユーザは、操作入力装置11から選択項目対
応情報要求を入力する。 ステップ209) 入出力制御部9は、操作入力装置1
1から選択項目対応情報要求を取得すると画面合成処理
部40に転送する。これにより、画面合成処理部40
は、画像検索部60に当該選択項目対応情報要求を渡
す。
Step 208) At this time, the display device 1
If the characters on the screen displayed as 0 are difficult for the user to understand, the user inputs a selection item correspondence information request from the operation input device 11. Step 209) The input / output control unit 9 sets the operation input device 1
When the selection item correspondence information request is obtained from No. 1, it is transferred to the screen synthesis processing unit 40. Thereby, the screen synthesis processing unit 40
Passes the selection item correspondence information request to the image search unit 60.

【0034】ステップ210) 画像検索部60は、当
該選択項目対応情報要求に基づいて画像記憶部50を検
索して、取得した対応する画像を画面合成処理部40に
渡す。 ステップ211) これにより、画面合成処理部40
は、取得した画像と画面及び文字を合成して入出力制御
部9に渡す。これにより、入出力制御部9は、当該画像
を表示装置10に表示する。このとき、表示装置10
は、画面検索部9から得られた画面と文字検索部3から
取得した文字とを1つの画面に混在させて表示すること
も可能である。
Step 210) The image search unit 60 searches the image storage unit 50 based on the selection item correspondence information request, and passes the acquired corresponding image to the screen composition processing unit 40. Step 211) Thereby, the screen synthesis processing unit 40
Synthesizes the acquired image, the screen, and the character, and passes it to the input / output control unit 9. Thus, the input / output control unit 9 displays the image on the display device 10. At this time, the display device 10
It is also possible to display the screen obtained from the screen search unit 9 and the characters obtained from the character search unit 3 in a single screen.

【0035】なお、上記のフローチャートでは、先に画
面に選択項目として文字のみを表示し、ユーザが表示さ
れた当該画面を見ても認識できない場合には、画像を検
索して、併せて表示する動作を示しているが、ステップ
204において、画像検索部60に対して、検索された
画面(画面ID)を通知して、画像検索部60におい
て、選択項目に対応する画像を取得して、文字と併せて
表示するようにしてもよい。このような設定の組み合わ
せの設定は種々可能である。
In the above-mentioned flowchart, only characters are first displayed on the screen as selection items, and when the user cannot recognize the displayed screen, the image is retrieved and displayed together. The operation is shown. In step 204, the searched screen (screen ID) is notified to the image search unit 60, and the image corresponding to the selected item is acquired in the image search unit 60, May be displayed together. Various settings of such a combination of settings are possible.

【0036】さらに、第2の構成に、第1の構成の音声
検索部6、音声記憶部5を付加して、当該音声検索部6
から取得した選択項目に対する音声を加えて合成し、出
力することも可能である。最後に、本発明の第3の構成
について説明する。図7は、本発明の第3の選択項目提
示装置の構成を示す。
Further, the voice search unit 6 and the voice storage unit 5 of the first configuration are added to the second configuration,
It is also possible to add and synthesize a voice for the selection item obtained from and output it. Finally, a third configuration of the present invention will be described. FIG. 7 shows the configuration of the third selection item presentation device of the present invention.

【0037】同図において、図5に示す構成と同一構成
部分には、同一符号を付し、その説明を省略する。図7
において、用語処理部100は、画面合成処理部40、
用語検索部30及び用語記憶部20から構成される。用
語記憶部20には、操作を行う上で必要となる選択項目
を表現する複数の用語セット(用語の組)が格納されて
いる。
5, the same components as those shown in FIG. 5 are denoted by the same reference numerals, and the description thereof will be omitted. FIG.
In the term processing unit 100, the screen synthesis processing unit 40,
It comprises a term search unit 30 and a term storage unit 20. The term storage unit 20 stores a plurality of term sets (sets of terms) representing selection items necessary for performing an operation.

【0038】用語検索部30は、用語記憶部20からユ
ーザから入力された画面検索情報に基づいて、表示装置
10に表示すべき用語を検索して画面合成処理部40に
渡す。画面合成処理部40は、画面検索部8から取得し
た表示すべき画面と用語検索部30から取得した検索結
果の用語を合成して、入出力制御部9に渡す。
The term search unit 30 searches for a term to be displayed on the display device 10 based on the screen search information input by the user from the term storage unit 20 and passes it to the screen synthesis processing unit 40. The screen synthesis processing unit 40 synthesizes the screen to be displayed acquired from the screen search unit 8 and the term of the search result acquired from the term search unit 30, and passes it to the input / output control unit 9.

【0039】図8は、本発明の第3の構成による動作を
示すフローチャートである。 ステップ301) ユーザは、操作入力装置11から画
面検索情報を入力する。 ステップ302) 入出力制御部9は、操作入力装置1
1から入力された画面検索情報を項目名処理部1の画面
合成処理部40に転送する。画面合成処理部40は、画
面検索情報を画面検索部8に転送する。
FIG. 8 is a flowchart showing the operation according to the third configuration of the present invention. Step 301) The user inputs screen search information from the operation input device 11. Step 302) The input / output control unit 9 sets the operation input device 1
1 is transferred to the screen synthesis processing unit 40 of the item name processing unit 1. The screen synthesis processing unit 40 transfers the screen search information to the screen search unit 8.

【0040】ステップ303) これにより、画面検索
部8は、画面記憶部7より該当する画面を検索し、画面
合成処理部40に転送する。 ステップ304) 画面合成処理部40は、取得した検
索結果である画面を一時的に記憶し、当該画面(画面I
D)を用語検索部30に転送する。なお、検索された画
面には、画面IDが付与されているものとし、実際に
は、当該画面IDを用語検索部30に転送する。
Step 303) The screen search section 8 searches the screen storage section 7 for a corresponding screen and transfers the screen to the screen synthesis processing section 40. Step 304) The screen synthesis processing unit 40 temporarily stores the screen that is the obtained search result, and stores the screen (screen I
D) to the term search unit 30. It is assumed that a screen ID is assigned to the searched screen, and the screen ID is actually transferred to the term search unit 30.

【0041】ステップ305) 画面合成処理部40か
ら画面IDが渡された用語検索部30は、用語記憶部2
0をデフォルトで決められた用語セットから用語を取得
し、画面合成処理部40に渡す。 ステップ306) 画面合成処理部40は、画面検索部
8から取得した画面と、用語検索部30から取得した用
語とを合成し、入出力制御部9に渡す。
Step 305) The term search unit 30 to which the screen ID has been passed from the screen synthesis processing unit 40 is sent to the term storage unit 2
The term “0” is acquired from the term set determined by default, and is passed to the screen composition processing unit 40. Step 306) The screen synthesis processing section 40 synthesizes the screen obtained from the screen search section 8 and the term obtained from the term search section 30 and passes the synthesized screen to the input / output control section 9.

【0042】ステップ307) 入出力制御部9は、合
成された画面を表示装置10に表示する。 ステップ308) ユーザが表示装置10に表示された
画面を見て分かりにくいものであるとき、ユーザは、操
作入力装置11から用語検索要求を入力する。 ステップ309) 操作入力装置11から入力された用
語検索要求が入出力制御部9を介して画面合成処理部4
0に転送されると、画面合成処理部40は、用語検索部
30に対して当該用語検索要求に対応する用語を検索す
るように指示する。
Step 307) The input / output controller 9 displays the synthesized screen on the display device 10. Step 308) When the user cannot easily understand the screen displayed on the display device 10, the user inputs a term search request from the operation input device 11. Step 309) The term search request input from the operation input device 11 is sent to the screen synthesis processing unit 4 via the input / output control unit 9.
When transferred to 0, the screen synthesis processing unit 40 instructs the term search unit 30 to search for a term corresponding to the term search request.

【0043】ステップ310) 用語検索部30は、当
該用語検索要求に基づいて用語記憶部20から用語セッ
トを検索して別の用語を取得して画面合成処理部40に
渡し、ステップ306に移行する。なお、上記の第3の
構成によるフローチャートでは、画面に表示される選択
項目には、用語のみしか表示されないが、前述の第1の
構成による文字検索部3、文字記憶部2、音声検索部
6、音声記憶部5を付加して文字や、音声を併せて出力
する、また、第2の構成による画像検索部60及び画像
記憶部50を付加して画像を併せて表示されるようにし
てもよい。
Step 310) The term retrieval unit 30 retrieves a term set from the term storage unit 20 based on the term retrieval request, acquires another term, passes it to the screen composition processing unit 40, and proceeds to step 306. . In the flowchart according to the third configuration, only the terms are displayed in the selection items displayed on the screen, but the character search unit 3, the character storage unit 2, and the voice search unit 6 according to the first configuration described above. The voice storage unit 5 may be added to output characters and voices together, or the image search unit 60 and the image storage unit 50 according to the second configuration may be added to display images together. Good.

【0044】[0044]

【実施例】以下に、図面と共に本発明の実施例を説明す
る。 [第1の実施例]以下に、本実施例を前述の図3及び図
4に基づいて説明する。図9は、本発明の第1の実施例
の選択項目に対応する情報の例を示し、図10は、本発
明の第1の実施例の出力の例を示す。
Embodiments of the present invention will be described below with reference to the drawings. [First Embodiment] The present embodiment will be described below with reference to FIGS. 3 and 4. FIG. 9 shows an example of information corresponding to a selection item of the first embodiment of the present invention, and FIG. 10 shows an example of output of the first embodiment of the present invention.

【0045】ユーザは、操作入力装置11から入出力制
御部9及び文字・音声合成処理部4を介して、画像検索
部8に対して画面検索情報を入力する。これにより、画
面記憶部7より表示すべき画面が検索され、文字・音声
合成処理部4に一時的に記憶される。同時に文字検索部
3により、図9に示す当該画面に表示すべき文字21
(A)が文字記憶部2より検索され、文字・音声合成処
理部4に一時的に記憶される。
The user inputs screen search information from the operation input device 11 to the image search unit 8 via the input / output control unit 9 and the character / voice synthesis processing unit 4. As a result, a screen to be displayed is retrieved from the screen storage unit 7 and temporarily stored in the character / speech synthesis processing unit 4. At the same time, the character 21 to be displayed on the screen shown in FIG.
(A) is retrieved from the character storage unit 2 and temporarily stored in the character / speech synthesis processing unit 4.

【0046】同時に音声検索部6により当該画面で発声
すべき音声21(B)が音声記憶部5より検索され、文
字・音声合成処理部4に一時的に記憶される。文字・音
声合成処理部4において、当該検索された画面と検索さ
れた文字21(A)が合成され、合成された画面は、入
出力制御部9を介して、図10に示すように、表示装置
10に表示される。同時に、文字・音声合成処理部4に
一時的に記憶されていた音声21(B)が入出力制御部
9を介してスピーカ12から発声される。その結果、表
示装置10には選択項目が表示されると同時に、当該項
目に対応する音声が図10に示すように、発声される。
At the same time, the voice 21 (B) to be uttered on the screen is searched from the voice storage unit 5 by the voice search unit 6 and is temporarily stored in the character / voice synthesis processing unit 4. In the character / speech synthesis processing unit 4, the searched screen and the searched character 21 (A) are synthesized, and the synthesized screen is displayed via the input / output control unit 9 as shown in FIG. Displayed on the device 10. At the same time, the voice 21 (B) temporarily stored in the character / voice synthesis processing unit 4 is uttered from the speaker 12 via the input / output control unit 9. As a result, the selected item is displayed on the display device 10 and, at the same time, a sound corresponding to the selected item is uttered as shown in FIG.

【0047】[第2の実施例]次に、本発明の第2の実
施例として、ユーザから選択項目が選択された場合に、
表示装置10に画面と文字が表示され、当該画面がユー
ザに理解できない場合に、画像を表示する例を説明す
る。以下、図5及び図6に基づいて本実施例の動作を説
明する。
[Second Embodiment] Next, as a second embodiment of the present invention, when a selection item is selected by the user,
An example in which a screen and characters are displayed on the display device 10 and an image is displayed when the screen cannot be understood by the user will be described. Hereinafter, the operation of this embodiment will be described with reference to FIGS.

【0048】図11は、本発明の第2の実施例の選択項
目対応情報の例を示す。文字記憶部2には、図11
(A)に示されているような操作を行う上で必要となる
選択項目を表示する文字が予め格納されているものとす
る。また、画像記憶部50には、図11(B)に示され
ているような操作を行う上で必要となる選択項目を表現
する画像が予め格納されているものとする。
FIG. 11 shows an example of the selection item correspondence information according to the second embodiment of the present invention. The character storage unit 2 stores FIG.
It is assumed that characters for displaying selection items necessary for performing the operation as shown in (A) are stored in advance. Further, it is assumed that the image storage unit 50 previously stores an image expressing selection items necessary for performing the operation as shown in FIG. 11B.

【0049】また、画面記憶部7には、表示装置10に
表示すべき画面が予め格納されているものとする。ユー
ザは、操作入力装置11から入出力制御部9及び画面合
成処理部40を介して、画面検索部8に対して画面検索
情報を入力する。これにより、画面検索部8は、画面記
憶部7より表示すべき画面が検索され、画面合成処理部
40に一時的に記憶される。同時に、文字検索部3によ
り当該画面に表示すべき文字(図11(A))がデフォ
ルトの項目名として文字記憶部2より検索され、画面合
成処理部40に一時記憶される。
It is assumed that a screen to be displayed on the display device 10 is stored in the screen storage unit 7 in advance. The user inputs screen search information to the screen search unit 8 via the input / output control unit 9 and the screen synthesis processing unit 40 from the operation input device 11. Thus, the screen search unit 8 searches the screen storage unit 7 for a screen to be displayed, and temporarily stores the screen in the screen synthesis processing unit 40. At the same time, the character (FIG. 11A) to be displayed on the screen is searched by the character search unit 3 from the character storage unit 2 as a default item name, and is temporarily stored in the screen synthesis processing unit 40.

【0050】画面合成処理部40は、検索された画面と
検索された文字(図11(A))を合成し、入出力制御
部9に渡される。これにより、入出力制御部9は、表示
装置10に図12に示す合成された画面51を表示す
る。このとき、表示装置10に表示された画面51上の
用語がユーザにとって分かり難い場合には、ユーザは操
作入力装置11から入出力制御部9を介して画面合成処
理部40に選択項目対応情報要求が渡されると、画像検
索部60に選択項目対応情報要求を渡す。これにより画
像検索部60は、画像記憶部50から対応する画像を検
索し、画面合成処理部40に渡す。
The screen synthesizing section 40 synthesizes the searched screen with the searched characters (FIG. 11A), and passes the synthesized screen to the input / output control section 9. Thus, the input / output control unit 9 displays the synthesized screen 51 shown in FIG. At this time, if it is difficult for the user to understand the terms on the screen 51 displayed on the display device 10, the user sends the selection item correspondence information request from the operation input device 11 to the screen synthesis processing unit 40 via the input / output control unit 9. Is passed to the image search unit 60, the request for selection item correspondence information is passed. As a result, the image search unit 60 searches for the corresponding image from the image storage unit 50 and passes it to the screen synthesis processing unit 40.

【0051】画面合成処理部40は、画像検索部60か
ら取得した画像により、図12に示す画面52を生成
し、これを入出力制御部9を介して表示装置10に表示
する。また、画面合成処理部40は、先に検索された文
字を記憶しておき、図12の画面53に示すように、画
像検索部60から取得した画像52に当該文字を合わせ
て表示した画面53を生成して、表示装置10に表示す
るようにしてもよい。
The screen synthesis processing unit 40 generates a screen 52 shown in FIG. 12 from the image obtained from the image search unit 60 and displays this on the display device 10 via the input / output control unit 9. In addition, the screen synthesis processing unit 40 stores the previously searched character, and as shown in a screen 53 of FIG. 12, a screen 53 that displays the character together with the image 52 obtained from the image search unit 60. May be generated and displayed on the display device 10.

【0052】これにより、年少者のように、文字が認識
できない場合でも画像が合わせて表示されるため、容易
に項目の選択が可能となる。 [第3の実施例]最後に、本発明の第3の実施例とし
て、ユーザから選択項目が選択された場合に、表示装置
10に画面と用語が表示され、当該画面に表示された用
語がユーザに理解できない場合に、他の用語セットを画
面に表示する例を説明する。
As a result, even when characters cannot be recognized, such as a young person, the image is displayed together, so that the item can be easily selected. [Third Embodiment] Finally, as a third embodiment of the present invention, when a selection item is selected by a user, a screen and terms are displayed on the display device 10, and the terms displayed on the screen are displayed. An example in which another term set is displayed on a screen when the user cannot understand the term set will be described.

【0053】以下、図7及び図8に基づいて本実施例の
動作を説明する。図13は、本発明の第3の実施例の項
目・用語対応情報の例を示す。用語記憶部20には、図
13に示すような操作を行う上で必要となる選択項目を
表現する複数の用語セットが予め格納されているものと
する。また、画面記憶部7には、表示装置10に表示す
べき画面が予め格納されている。
The operation of this embodiment will be described below with reference to FIGS. FIG. 13 shows an example of item / term correspondence information according to the third embodiment of the present invention. It is assumed that a plurality of term sets expressing selection items required for performing an operation as shown in FIG. 13 are stored in the term storage unit 20 in advance. In addition, the screen to be displayed on the display device 10 is stored in the screen storage unit 7 in advance.

【0054】ユーザは、操作入力装置11から入力され
た画面検索情報要求が入出力制御部9を介して画面合成
処理部40に渡される。これにより画面合成処理部40
は、当該画面検索情報要求を画面検索部8に転送する。
画面検索部8は、当該画面検索情報要求に基づいて画面
記憶部7を検索し、検索結果である画面を画面合成処理
部40に渡す。
The user passes the screen search information request input from the operation input device 11 to the screen synthesis processing section 40 via the input / output control section 9. Thereby, the screen synthesis processing unit 40
Transfers the screen search information request to the screen search unit 8.
The screen search unit 8 searches the screen storage unit 7 based on the screen search information request, and passes the search result screen to the screen synthesis processing unit 40.

【0055】画面合成処理部40は、画面に対応する用
語を検索する指示を用語検索部30に渡すと、用語検索
部30は、当該画面に対応する用語セットを用語記憶部
20から検索する。このとき、用語記憶部20には、図
13に示す内容が格納されているとすると、用語検索部
30は、デフォルトで決められた用語をセット(A)、
セット(B)、セット(C)から検索し、画面合成処理
部40に渡される。この例では、『転送』が選択された
ものとする。
When the screen synthesizing unit 40 sends an instruction to search for a term corresponding to a screen to the term search unit 30, the term search unit 30 searches the term storage unit 20 for a term set corresponding to the screen. At this time, assuming that the contents shown in FIG. 13 are stored in the term storage unit 20, the term search unit 30 sets the terms determined by default as set (A),
The search is performed from the set (B) and the set (C), and is passed to the screen composition processing unit 40. In this example, it is assumed that “transfer” has been selected.

【0056】画面合成処理部40は、取得した用語セッ
ト『転送』を一時的に記憶し、画面検索部8から取得し
た画面と合成し、合成された画面を入出力制御部9に渡
す。入出力制御部9は、図14に示すような取得した合
成された画面を表示装置10に表示する。このとき、ユ
ーザが表示装置10に表示された画面71を見て、『転
送』の意味が理解できない場合に、再度画面検索情報要
求を発行すると、画面合成処理部40は、先に取得して
保持している『転送』以外の用語セットを検索すること
を用語検索部30に指示する。
The screen synthesizing unit 40 temporarily stores the acquired term set “transfer”, synthesizes the acquired term set with the screen obtained from the screen search unit 8, and passes the synthesized screen to the input / output control unit 9. The input / output control unit 9 displays the acquired combined screen as shown in FIG. At this time, if the user looks at the screen 71 displayed on the display device 10 and cannot understand the meaning of “transfer”, and issues a screen search information request again, the screen synthesis processing unit 40 It instructs the term search unit 30 to search for a stored term set other than “transfer”.

【0057】用語検索部30は、先に『転送』が検索さ
れているので、それ以外の用語(B)のセット『とりつ
ぐ』を取得して、画面合成処理部40に渡す。これによ
り、画面合成処理部40は、入出力制御部9を介して、
表示装置10に当該用語セット『とりつぐ』を表示す
る。これにより、ユーザにとってより分かりやすい用語
を表示することができる。
Since “transfer” has already been searched for, the term search unit 30 acquires a set of other terms (B) “take” and passes them to the screen composition processing unit 40. As a result, the screen synthesis processing unit 40 receives the
The term set “Tsurugu” is displayed on the display device 10. This makes it possible to display terms that are easier for the user to understand.

【0058】なお、本発明は、上記の実施例に限定され
ることなく、特許請求の範囲内で種々変更・応用が可能
である。
The present invention is not limited to the above embodiment, but can be variously modified and applied within the scope of the claims.

【0059】[0059]

【発明の効果】本発明は、選択項目を表示するための画
面上に文字、音声、用語、画像の少なくともいずれか1
つまたは、複数の組み合わせで表示することにより、ユ
ーザが文字の理解の少ない年少者であっても、選択項目
毎に併せて出力される音声や画像を取得することによ
り、容易に、選択項目を選択する操作を行うことが可能
となる。
According to the present invention, at least one of a character, a voice, a term, and an image is displayed on a screen for displaying a selection item.
Or by displaying a plurality of combinations, even if the user is a young person with little understanding of characters, by acquiring voices and images output together with each selection item, the selection items can be easily changed. It is possible to perform an operation of selecting.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理を説明するための図である。FIG. 1 is a diagram for explaining the principle of the present invention.

【図2】本発明の原理構成図である。FIG. 2 is a principle configuration diagram of the present invention.

【図3】本発明の第1の選択項目提示装置の構成図であ
る。
FIG. 3 is a configuration diagram of a first selection item presentation device of the present invention.

【図4】本発明の第1の構成による動作を示すフローチ
ャートである。
FIG. 4 is a flowchart showing an operation according to the first configuration of the present invention.

【図5】本発明の第2の選択項目提示装置の構成図であ
る。
FIG. 5 is a configuration diagram of a second selection item presentation device of the present invention.

【図6】本発明の第2の構成による動作を示すフローチ
ャートである。
FIG. 6 is a flowchart showing an operation according to the second configuration of the present invention.

【図7】本発明の第3の選択項目提示装置の構成図であ
る。
FIG. 7 is a configuration diagram of a third selection item presentation device of the present invention.

【図8】本発明の第3の構成による動作を示すフローチ
ャートである。
FIG. 8 is a flowchart showing an operation according to a third configuration of the present invention.

【図9】本発明の第1の実施例の選択項目に対応する情
報の例である。
FIG. 9 is an example of information corresponding to a selection item according to the first embodiment of this invention.

【図10】本発明の第1の実施例の出力の例である。FIG. 10 is an example of output of the first embodiment of the present invention.

【図11】本発明の第2の実施例の選択項目対応情報の
例である。
FIG. 11 is an example of selection item correspondence information according to the second embodiment of this invention.

【図12】本発明の第2の実施例の出力の例である。FIG. 12 is an example of output of the second embodiment of the present invention.

【図13】本発明の第3の実施例の項目・用語対応情報
の例である。
FIG. 13 is an example of item / term correspondence information according to the third embodiment of the present invention.

【図14】本発明の第3の実施例の出力の例である。FIG. 14 is an example of output of the third embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 項目名処理部 2 文字記憶部 3 文字検索部 4 文字・音声合成処理部 5 音声記憶部 6 音声検索部 7 画面記憶部 8 画面検索部 9 入出力制御部 10 表示装置 11 操作入力装置 12 スピーカ 20 用語記憶部 21 選択項目対応情報 30 用語検索部 31 表示画面 40 画面合成処理部 41 選択項目対応情報 50 画像記憶部 51 画面表示例 52 画像を合成した画面表示例 53 文字と画像を合成した画面表示例。 60 画像検索部 61 項目・用語対応情報 71 画面例 100 画面記憶手段 200 文字記憶手段 300 合成手段 400 表示手段 DESCRIPTION OF SYMBOLS 1 Item name processing part 2 Character storage part 3 Character search part 4 Character / speech synthesis processing part 5 Voice storage part 6 Voice search part 7 Screen storage part 8 Screen search part 9 Input / output control part 10 Display device 11 Operation input device 12 Speaker Reference Signs List 20 term storage unit 21 selection item correspondence information 30 term search unit 31 display screen 40 screen combination processing unit 41 selection item correspondence information 50 image storage unit 51 screen display example 52 screen combination example of image 53 screen combining character and image Display example. 60 Image search unit 61 Item / term correspondence information 71 Screen example 100 Screen storage means 200 Character storage means 300 Synthesis means 400 Display means

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G06F 15/403 380D ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 6 Identification code FIG06F 15/403 380D

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 ユーザが特定の項目候補を選択した際
に、選択項目を表示する選択項目提示方法において、 前記ユーザの認識レベルに応じて画面に表示する選択項
目を、視覚情報や音声情報を用いて出力することを特徴
とする選択項目提示方法。
1. A selection item presenting method for displaying a selection item when a user selects a specific item candidate, wherein the selection item to be displayed on a screen according to the recognition level of the user includes visual information and audio information. A method for presenting a selection item, characterized in that the selection item is output using the selection item.
【請求項2】 ユーザが特定の項目候補を選択した際
に、選択項目を表示する選択項目提示方法において、 選択項目を表示するための画面を記憶しておき、 選択項目名毎に文字を記憶しておき、 記憶されている前記画面から前記ユーザから入力された
項目候補に基づいて、表示すべき画面を検索し、 検索された前記画面に対応する文字を検索し、 検索された前記画面と、検索された前記文字とを合成し
て表示する請求項1記載の選択項目提示方法。
2. A selection item presenting method for displaying a selection item when a user selects a specific item candidate, wherein a screen for displaying the selection item is stored, and a character is stored for each selection item name. In addition, a screen to be displayed is searched from the stored screen based on the item candidates input by the user, a character corresponding to the searched screen is searched, and the searched screen and 2. The selection item presentation method according to claim 1, wherein the selected item is combined with the searched character and displayed.
【請求項3】 ユーザが特定の項目候補を選択した際
に、選択項目を表示する選択項目提示方法において、 1つの選択項目について複数の用語と、表示すべき画面
とを記憶しておき、 記憶されている画面から前記ユーザから入力された項目
候補に基づいて、表示すべき画面を検索し、 検索された前記画面に対応する用語を検索し、 検索された前記画面と、検索された前記用語とを合成し
て表示し、 表示された画面において前記ユーザが理解できない場合
に、ユーザの知識に合わせて分かりやすい用語を再度検
索して表示することを特徴とする請求項1記載の選択項
目提示方法。
3. A selection item presentation method for displaying a selection item when a user selects a specific item candidate, wherein a plurality of terms for one selection item and a screen to be displayed are stored. A screen to be displayed is searched based on an item candidate input from the user from the screen being searched, a term corresponding to the searched screen is searched, and the searched screen and the searched term are searched. 2. The selection item presentation according to claim 1, wherein when the user cannot understand the displayed screen, an easy-to-understand term is searched again according to the user's knowledge and displayed. Method.
【請求項4】 前記選択項目に対応する音声を記憶して
おき、 前記検索された画面と前記検索された文字又は用語に対
応する音声を合成して出力する請求項2または3記載の
選択項目提示方法。
4. The selection item according to claim 2, wherein a voice corresponding to the selection item is stored, and a voice corresponding to the searched screen and the searched character or term is synthesized and output. Presentation method.
【請求項5】 前記選択項目に対応する画像を記憶して
おき、 前記検索された画面と前記検索された文字又は用語、及
び前記画像を合成して表示する請求項2乃至4記載の選
択項目提示方法。
5. The selection item according to claim 2, wherein an image corresponding to the selection item is stored, and the searched screen, the searched character or term, and the image are combined and displayed. Presentation method.
【請求項6】ユーザが特定の項目候補を選択した際に、
選択項目を表示する選択項目提示装置であって、 表示すべき選択項目名を含む画面を記憶する画面記憶手
段と、 1つの選択項目について、選択項目名として文字を記憶
する文字記憶手段と、 前記画面記憶手段から画面を取得し、前記文字記憶手段
から選択項目名に対応する文字を取得して合成する合成
手段と、 前記合成手段により合成された情報を表示する表示手段
とを有することを特徴とする選択項目提示装置。
6. When a user selects a specific item candidate,
A selection item presentation device that displays selection items, a screen storage unit that stores a screen including a selection item name to be displayed, a character storage unit that stores characters as a selection item name for one selection item, A combination unit that acquires a screen from the screen storage unit, acquires a character corresponding to the selected item name from the character storage unit and combines the acquired characters, and a display unit that displays information combined by the combination unit. Selection item presentation device.
【請求項7】 ユーザが特定の項目候補を選択した際
に、選択項目を表示する選択項目提示装置であって、 表示すべき選択項目名を含む画面を記憶する画面記憶手
段と、 1つの選択項目について、複数の用語セットを記憶する
用語記憶手段と、 前記画面記憶手段から画面を取得し、該画面の選択項目
名に対応する用語を前記用語記憶手段から検索し、前記
用語セットから1つの用語を検索して合成する合成手段
と、 前記合成手段により合成された画面を表示する表
示手段と、 前記表示手段に表示された用語でユーザが認識できない
場合に、前記用語記憶手段の用語セットの中から他の用
語を抽出し、再度表示する再検索手段を有することを特
徴とする選択項目提示装置。
7. A selection item presenting device for displaying a selection item when a user selects a specific item candidate, comprising: a screen storage unit for storing a screen including a selection item name to be displayed; A term storage means for storing a plurality of term sets for an item; acquiring a screen from the screen storage means; searching for a term corresponding to a selected item name of the screen from the term storage means; A synthesizing unit for searching for and synthesizing a term; a display unit for displaying a screen synthesized by the synthesizing unit; and a term set in the term storage unit when the user cannot recognize the term displayed on the display unit. A selection item presentation device characterized by having a re-search means for extracting another term from the inside and displaying the term again.
【請求項8】 前記画面の選択項目名に対応する音声を
記憶する音声記憶手段と、 前記選択項目名に対応する特定の音声を発生させる音声
発声手段とを更に有し、 前記合成手段は、 前記画面記憶手段から画面を取得し、該画面に対応する
文字または、用語に対応する音声を前記音声記憶手段か
ら検索して合成する手段を含む請求項6または、7記載
の選択項目提示装置。
8. A voice storage means for storing a voice corresponding to a selection item name on the screen, and a voice utterance means for generating a specific voice corresponding to the selection item name, wherein the synthesis means comprises: 8. The selection item presenting apparatus according to claim 6, further comprising: a unit for acquiring a screen from the screen storage unit, and searching and synthesizing a voice corresponding to a character or a term corresponding to the screen from the voice storage unit.
【請求項9】 前記画面の選択項目名に対応する画像を
記憶する画像記憶手段を更に有し、 前記合成手段は、 前記画面記憶手段から画面を取得し、該画面に対応する
文字、または、用語、または、音声に加えて、前記画像
記憶手段から画像を検索して合成する手段を含む請求項
6乃至8記載の選択項目提示装置。
9. An image storage unit for storing an image corresponding to a selection item name of the screen, wherein the synthesizing unit acquires the screen from the screen storage unit, and a character corresponding to the screen, or 9. The selection item presenting apparatus according to claim 6, further comprising means for retrieving and synthesizing an image from the image storage means in addition to a term or a sound.
JP9109736A 1997-04-25 1997-04-25 Selection item display method and device Pending JPH10301756A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9109736A JPH10301756A (en) 1997-04-25 1997-04-25 Selection item display method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9109736A JPH10301756A (en) 1997-04-25 1997-04-25 Selection item display method and device

Publications (1)

Publication Number Publication Date
JPH10301756A true JPH10301756A (en) 1998-11-13

Family

ID=14517955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9109736A Pending JPH10301756A (en) 1997-04-25 1997-04-25 Selection item display method and device

Country Status (1)

Country Link
JP (1) JPH10301756A (en)

Similar Documents

Publication Publication Date Title
US6377925B1 (en) Electronic translator for assisting communications
CN1894687B (en) An electronic device and a method in an electronic device for performing language configurations of a user interface
JP2004347786A (en) Speech display output controller, image display controller, and speech display output control processing program, image display control processing program
JP2010224236A (en) Voice output device
JP2005031882A (en) Information processing method and device
JP6166889B2 (en) Dialog support apparatus, dialog system, dialog support method and program
JP7200533B2 (en) Information processing device and program
JP4509074B2 (en) Lyric telop display control system for karaoke equipment
JP2007271817A (en) Karaoke system with ruby display function
JPH10301756A (en) Selection item display method and device
JPH07181992A (en) Device and method for reading document out
JP7298638B2 (en) SERVER DEVICE, LEARNING SUPPORT METHOD AND PROGRAM
JP2000278624A (en) Information display device
JP2000056789A (en) Speech synthesis device and telephone set
JPH1020870A (en) Karaoke sing-along device
JP3344527B2 (en) Translation apparatus and translation method
JP2004072274A (en) Sound processing system and control method therefor
JP2009301266A (en) User interface device
JPH08272388A (en) Device and method for synthesizing voice
JP2002108601A (en) Information processing system, device and method
JP2005106844A (en) Voice output device, server, and program
JP2003223178A (en) Electronic song card creation method and receiving method, electronic song card creation device and program
JP5125404B2 (en) Abbreviation determination device, computer program, text analysis device, and speech synthesis device
JPH05290095A (en) Online manual retrieval device
JP4526272B2 (en) Karaoke system