JPH0981352A - Method and device user interfacing applying display of human image - Google Patents
Method and device user interfacing applying display of human imageInfo
- Publication number
- JPH0981352A JPH0981352A JP7232638A JP23263895A JPH0981352A JP H0981352 A JPH0981352 A JP H0981352A JP 7232638 A JP7232638 A JP 7232638A JP 23263895 A JP23263895 A JP 23263895A JP H0981352 A JPH0981352 A JP H0981352A
- Authority
- JP
- Japan
- Prior art keywords
- motion
- information
- task
- display
- human
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Digital Computer Display Output (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、計算機システムあ
るいは計算機を内蔵する装置のユーザインタフェースに
関し、特に動作や表情を伴う人物像を利用者に提示し
て、利用者と装置との対話、及び計算機装置に実行して
いるタスクの状態や装置のメッセージなどの表示を行う
人物像表示によるユーザインタフェース方法とその装置
に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a user interface of a computer system or a device incorporating a computer, and in particular, presenting a human image accompanied by motions and facial expressions to the user, and a dialog between the user and the device, and a computer. The present invention relates to a user interface method for displaying a state of a task executed on a device, a message of the device, and the like, and a device for displaying the same.
【0002】[0002]
【従来の技術】従来の計算機システム、あるいは計算機
を内蔵した装置において、タスクの実行情報をユーザに
知らせるため、テキストメッセージによる文字表示や、
グラフやビットマップによるグラフィカルな表示手法が
ある。例えば、特願昭61−075571の「演算処理
装置の稼働状態表示方式」では、テキストメッセージで
システムの状態をユーザに知らせる技術が開示された。
また、システムのメツセージなどの出力に、音声データ
を出力する技術もある。例えば、平3−282945の
「音声付き画像情報生成装置」には、画像の出力に合わ
せて音声データを出力する技術が開示された。そして、
「実時間音声対話システムにおけるマルチモーダル応
答」(8th Symposium on Human Interface,pp.693-698,
1992年)においては、ユーザと計算機との音声対話
に合わせて、人物像のアニメーションを表示する技術が
あった。2. Description of the Related Art In a conventional computer system or a device having a built-in computer, in order to inform a user of task execution information, character display by a text message,
There is a graphical display method using graphs and bitmaps. For example, in Japanese Patent Application No. 61-075571, "Operating state display method of arithmetic processing unit", a technique of notifying a user of a system state by a text message is disclosed.
There is also a technique of outputting voice data to output a message of the system. For example, a technique of outputting audio data in accordance with the output of an image is disclosed in “Image information generating device with audio” of HEI 3-282945. And
"Multimodal Response in Real-Time Spoken Dialogue System" (8th Symposium on Human Interface, pp.693-698,
In 1992), there was a technique for displaying an animation of a human figure in accordance with a voice dialogue between a user and a computer.
【0003】[0003]
【解決しようとする課題】利用者が計算機システムや計
算機を内蔵する装置と対話を行う際には、その対話部分
であるユーザインタフェースの特性や品質がシステムや
装置全体の使い勝手に大きく影響する。このユ−ザイン
タフェースに人間の動作などを導入することによって、
システムに提示される情報の直観的な理解を助け、対話
の効率を高めることが期待される。When a user has a dialogue with a computer system or a device incorporating a computer, the characteristics and quality of the user interface, which is the dialogue portion, greatly affect the usability of the system and the entire device. By introducing human movements into this user interface,
It is expected to help intuitive understanding of the information presented in the system and improve the efficiency of the dialogue.
【0004】従来、例えば、ネットワークの負荷やプロ
セスのCPU消費量などをグラフで表示する技術が開発
されてきた。ところが、これらの技術が、システム負荷
やCPU消費量などの数字で表せる情報の伝達に適する
が、データの検索やファイルの転送などの必ずしも数字
で表せない情報の場合、有効に表現できない問題があ
る。また、こうしたタスク情報のグラフやビットマップ
による表現が、数字や図形を詳しく観察しないと、理解
しにくい問題がある。そして、システムメッセージなど
を音声で出力する技術があるが、音声のみが出力される
と、利用者が違和感を感じる問題がある。また、音声対
話と人物像のアニメーション表示技術では、システムの
音声応答の状況を人物像を用いて表示するが、対話の内
容、タスクの種類、またはシステムの内部状態などを有
効にユーザに示せない問題がある。Conventionally, for example, a technique for displaying a network load, a CPU consumption amount of a process, and the like in a graph has been developed. However, although these techniques are suitable for transmitting information that can be expressed numerically such as system load and CPU consumption, there is a problem that it cannot be effectively expressed in the case of information that cannot be expressed numerically such as data retrieval and file transfer. . In addition, there is a problem that it is difficult to understand the graph or bitmap representation of the task information unless the numbers and figures are observed in detail. There is a technique for outputting a system message or the like by voice, but if only voice is output, there is a problem that the user feels strange. In addition, in the animation display technology of voice dialogue and human image, the situation of the voice response of the system is displayed by using the human image, but the contents of the dialogue, the type of task, or the internal state of the system cannot be effectively shown to the user. There's a problem.
【0005】本発明の目的は、計算機システムのユーザ
インタフェースにおいて、擬人化表示と音声合成を利用
して、ユーザとの対話、システムの情報表示を効果的に
行う人物像表示によるインタフェース方法とその装置を
提供することである。An object of the present invention is to provide an interface method and apparatus for displaying a human figure, which effectively uses a personified display and voice synthesis in a user interface of a computer system to interact with a user and display system information. Is to provide.
【0006】[0006]
【課題を解決するための手段】本発明の人物像表示によ
るユーザインタフェース方法は、利用者と対話を行いな
がら作業を行う計算機装置または計算機を内蔵する装置
に設けられ、人物像の動作などの擬人化要素を用いたユ
ーザインタフェースを提供する人物像表示によるユーザ
インタフェース方法であって、入力デバイスを制御し、
ユーザからの入力を文字列として受け取るステップと、
計算機装置で実行されるタスクの命令の名前や属性など
の構成情報を定義し、タスク命令辞書に格納するステッ
プと、ユーザとの対話を制御し、前記タスク命令辞書を
参照して、ユーザから入力される文字列を解析し、タス
ク命令として生成し、出力するステップと、タスク命令
を計算機装置に送信し、タスク命令の実行を行うステッ
プと、計算機装置に問い合わせて、実行中のタスクの状
態をタスク状態情報とし、タスクの実行の結果をタスク
結果情報とし、計算機装置の発生したメッセージをシス
テム情報として収集して、出力し、さらにこれらの情報
の表現形式を定義する表示制御情報を出力するステップ
と、タスク命令に対応して、擬人化表示に用いられる人
物像の動作の種類と、人物像の動作を記述する動作情報
を定義し、擬人化表示データベースに格納するステップ
と、前記表示制御情報とタスク状態情報に従い、前記擬
人化表示データベースを参照して、タスク命令の種類や
実行状態などを人物像の動作や姿勢などの形式で表示す
るための動作制御情報を生成するステップと、前記表示
制御情報とタスク結果情報に従い、タスク結果情報のテ
キストデータを、音声データに合成して、出力し、テキ
ストを読上げる人物像の動作を生成するための動作制御
情報を生成するステップと、前記表示制御情報とシステ
ム情報に従い、システム情報を表示するメッセージウィ
ンドウのイメージデータを生成して、出力し、さらに、
該ウィンドウを指し示す人物像の動作を生成するための
動作制御情報を生成して、出力するステップと、前記動
作制御情報に従い、人物像動作の映像信号を生成して、
出力するステップと、人物像動作の映像信号と、メッセ
ージウィンドウのイメージデータを出力装置に出力する
ステップとを有する。A user interface method for displaying a human figure according to the present invention is provided in a computer device or a device having a built-in computer for working while interacting with a user. A user interface method by a human figure display that provides a user interface using a computerized element, which controls an input device,
Receiving input from the user as a string,
Define the configuration information such as the name and attribute of the task instruction to be executed on the computer device, store the task information in the task instruction dictionary and control the dialogue with the user, and refer to the task instruction dictionary and input from the user Parse the generated character string, generate it as a task command, and output it, send the task command to the computer device, execute the task command, and inquire the computer device to check the status of the task being executed. A step of collecting task status information, task execution information as task result information, and messages generated by a computer as system information, outputting the information, and further outputting display control information defining the expression format of these information. And, in response to the task command, the type of motion of the human image used for anthropomorphic display and the motion information describing the motion of the human image are defined, and In order to display the type and execution state of the task instruction in the form of the motion and posture of the human figure by referring to the anthropomorphic display database according to the step of storing in the display database and the display control information and the task state information. And generating text motion of task result information into voice data according to the display control information and the task result information, and outputting and reading the text. And generating image data of a message window displaying the system information according to the display control information and the system information, and outputting the operation control information.
A step of generating and outputting motion control information for generating a motion of a human figure pointing to the window, and generating a video signal of the human figure motion according to the motion control information,
The output step includes the step of outputting the image signal of the person image motion and the image data of the message window to the output device.
【0007】また、本発明の人物像表示によるインタフ
ェース装置は、利用者と対話を行いながら作業を行う計
算機装置または計算機を内蔵する装置に設けられ、人物
像の動作などの擬人化要素を用いたユーザインタフェー
スを提供する人物像表示によるユーザインタフェース装
置であって、入力デバイスを制御し、ユーザからの入力
を文字列として受け取る入力制御部と、計算機装置で実
行されるタスクの命令の名前や属性などの構成情報を定
義して、格納するタスク命令辞書と、ユーザとの対話を
制御し、前記タスク命令辞書を参照して、ユーザから入
力される文字列を解析し、タスク命令として生成、出力
する対話制御部と、タスク命令を計算機装置に送信し、
タスク命令の実行を行うタスク実行部と、計算機装置に
問い合わせて、実行中のタスクの状態をタスク状態情報
とし、タスクの実行の結果をタスク結果情報とし、計算
機装置の発生したメッセージをシステム情報として収集
して、出力し、さらにこれらの情報の表現形式を定義す
る表示制御情報を出力する情報表示制御部と、タスク命
令に対応して、擬人化表示に用いられる人物像の動作の
種類と、人物像の動作を記述する動作情報を定義して、
格納した擬人化表示データベースと、前記表示制御情報
とタスク状態情報に従い、前記擬人化表示データベース
を参照して、タスク命令の種類や実行状態などを人物像
の動作や姿勢などの形式で表示するための動作制御情報
を生成するタスク擬人化表示制御部と、前記表示制御情
報とタスク結果情報に従い、タスク結果情報のテキスト
データを、音声データに合成して、出力し、テキストを
読上げる人物像の動作を生成するための動作制御情報を
生成するテキスト読上げ部と、前記表示制御情報とシス
テム情報に従い、システム情報を表示するメッセージウ
ィンドウのイメージデータを生成して、出力し、さら
に、該ウィンドウを指し示す人物像の動作を生成するた
めの動作制御情報を生成して、出力するメッセージ表示
部と、前記動作制御情報に従い、人物像動作の映像信号
を生成して、出力する人物像動作生成部と、人物像動作
の映像信号、メッセージウィンドウのイメージデータを
出力装置に出力する映像出力部とを有する。Further, the interface device for displaying a human figure of the present invention is provided in a computer device or a device having a built-in computer which carries out work while interacting with a user, and uses an anthropomorphic element such as a motion of a human image. A user interface device for providing a user interface by displaying a human figure, which controls an input device, receives an input from a user as a character string, and an instruction name or attribute of a task executed by a computer device. Of the task instruction dictionary to be stored by controlling the configuration information of the user and the dialogue with the user, and by referring to the task instruction dictionary, the character string input by the user is analyzed and generated and output as the task instruction. The dialogue control unit and the task command are transmitted to the computer device,
The task execution unit that executes the task instruction and the computer are inquired, and the status of the task being executed is used as the task status information, the result of the task execution is used as the task result information, and the message generated by the computer is used as the system information. An information display control unit that collects, outputs, and further outputs display control information that defines the expression format of these information, and the type of motion of the person image used for anthropomorphic display in response to the task command, By defining motion information that describes the motion of a human figure,
In order to display the type and execution state of the task command in the form of the motion and posture of the human figure by referring to the stored anthropomorphic display database and the display control information and task state information and referring to the anthropomorphic display database. According to the task anthropomorphic display control unit that generates the operation control information, the text data of the task result information is synthesized with the voice data according to the display control information and the task result information, and is output to read the text. A text-to-speech section for generating motion control information for generating a motion, and for generating and outputting image data of a message window displaying the system information according to the display control information and the system information, and further pointing to the window. A message display unit for generating and outputting motion control information for generating a motion of a human figure; and the motion control According broadcast has to generate a video signal of a person image operation, a human image motion generating unit for outputting a video signal of a person image operation, a video output unit that outputs to the output device image data of the message window.
【0008】また、前記テキスト読上げ部は、タスク結
果情報からのテキストデータを語句の単位に分解して、
出力するテキスト解析部と、テキストから分解された語
句を基に、テキストに対応する人物像動作を生成するた
めの動作制御情報を生成して、出力する動作命令生成部
と、人物像の動作の種類と、人物像の各部分の動作を記
述する動作情報と、動作の種類と動作情報の関係を定義
して、格納した動作パターンデータベースと、テキスト
の音声出力と人物像の動作との同期を制御する音声動作
同期制御部と、テキスト情報を音声に合成して出力する
音声合成部とを有する。The text-to-speech unit decomposes the text data from the task result information into word units,
Based on the text analysis unit to output, and the words and phrases decomposed from the text, generate motion control information for generating a human figure motion corresponding to the text, and output the motion command generation unit and the motion of the human image. By defining the type, motion information that describes the motion of each part of the human figure, and the relationship between the motion type and the motion information, the stored motion pattern database is synchronized with the voice output of text and the motion of the human figure. It has a voice action synchronization control unit for controlling and a voice synthesizing unit for synthesizing text information into voice and outputting it.
【0009】さらにまた、前記メッセージ表示部は、人
物像の手の動作種類に対応した手の各部分の動作情報を
格納した手の動作パターンデータベースと、手の動作パ
ターンデータベースを参照して、人物像の手の動作を生
成するための動作制御情報を生成して、出力する手の動
作生成部と、動作制御情報を用いて、システム情報を表
示するメッセージウィンドウのイメージデータの生成を
行うメッセージウィンドウ生成部とを有する。Furthermore, the message display unit refers to the hand motion pattern database that stores motion information of each part of the hand corresponding to the motion type of the hand of the person image and the hand motion pattern database, and A motion generation unit that generates and outputs motion control information for generating a motion of an image hand, and a message window that generates image data of a message window that displays system information using the motion control information. And a generation unit.
【0010】[0010]
【発明の実施の形態】本発明によれば、タスク擬人化表
示手段、人物像の動作生成手段及び手の動作生成手段な
どを用いて、計算機装置が実行しているタスクの種類や
状態などの擬人化表示と、テキストの音声合成出力と同
時に、テキストを読上げるときの人物像動作の生成と、
システムのメッセージなどの情報を人物像が明確に指し
示すような表示を行うことが可能となる。According to the present invention, by using a task personification display means, a person image motion generation means, a hand motion generation means, etc. At the same time as anthropomorphic display and text-to-speech output, generation of human figure action when reading text,
It is possible to display information such as system messages so that the person's image clearly points.
【0011】本発明は、ユーザの入力が解析され、解析
結果の文字列がタスク命令辞書の参照によって、タスク
命令として出力され、その命令実行により、タスク状態
情報と、タスク結果情報と、システム情報が収集され、
表示制御情報が生成される。この表示制御情報と他の情
報の組合せにより、擬人化表現データベースを参照し、
擬人化表示と、テキスト読み上げと、メッセージ表示の
動作制御情報を得る。この動作制御情報に従い、人物像
の動作映像データが生成され、人物像の動作映像データ
とメッセージウィンドウのイメージデータがテキスト読
み上げの音声と共に出力される。According to the present invention, the input of the user is analyzed, the character string of the analysis result is output as a task command by referring to the task command dictionary, and by executing the command, task status information, task result information, and system information. Is collected,
Display control information is generated. By combining this display control information and other information, refer to the anthropomorphic expression database,
Obtain operation control information for anthropomorphic display, text reading, and message display. In accordance with this operation control information, the operation image data of the person image is generated, and the operation image data of the person image and the image data of the message window are output together with the text reading voice.
【0012】[0012]
【実施例】図1は、本発明の人物像表示によるユーザイ
ンタフェース装置の一実施例を示す図であって、第1の
発明の実施例の構成を示す図である。入力制御部100
が、ユーザからの入力を受け取り、文字列に変換して出
力する。入カ制御部100からのユーザ入力の文宇列を
対話制御部101で解析して、タスクの命令の名前や属
性などを定義したタスク命令辞書102を参照し、タス
ク命令119を出力する。タスク実行部103は、入力
されたタスク命令119を計算機装置に送り、タスクの
実行を始める。タスクの実行が始まってから、情報表示
制御部104は、計算機装置に問い合わせて、実行中の
タスクの状態に関するデータをタスク状態情報、タスク
の実行の結果に関するデータをタスク結果情報、そして
計算機装置からのメッセージデータをシステム情報とし
て、収集、出力し、さらにこれらの情報。表現形式を定
義する表示制御情報123を生成、出力する。タスク擬
人化表示制御部105は、表示制御情報123とタスク
状態情報121に従い、タスク命令に対応して、擬人化
表示に用いられる人物像の動作の種類と、人物像の動作
を記述する動作情報を定義、格納した擬人化表示データ
ベース106を参照して、タスク命令の種類や実行状態
などを人物像の動作や姿勢などの形式で表示するための
動作制御情報124を生成する。テキスト読上げ部10
7は、表示制御情報123に従い、タスク結果情報12
1のテキストデータを、音声データに合成、出力し、そ
して、テキストを読上げる人物像の動作を定義する動作
制御情報124を生成する。メッセージ表示部108
は、表示制御情報123に従い、システム情報122を
表示するメッセージウィンドウのイメージデータ126
を生成、出力し、及び該ウィンドウを指し示す人物像の
動作を生成する動作制御情報124を生成、出力する。
人物像動作生成部109は動作制御情報124に従い、
人物像の映像信号125を生成、出力する。そして、映
像出力部110が人物像の映像信号125とメッセージ
ウィンドウのイメージデータ126を出力装置に出力す
る。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a diagram showing an embodiment of a user interface device for displaying a human figure according to the present invention, and is a diagram showing a configuration of an embodiment of the first invention. Input control unit 100
Receives input from the user, converts it into a character string, and outputs it. The dialogue control unit 101 analyzes the user input sequence from the input control unit 100, refers to the task instruction dictionary 102 that defines the names and attributes of the task instructions, and outputs the task instruction 119. The task execution unit 103 sends the input task command 119 to the computer device and starts executing the task. After the execution of the task is started, the information display control unit 104 makes an inquiry to the computer device, and the data regarding the state of the task under execution is the task state information, the data regarding the result of the task execution is the task result information, and the computer device. Collects and outputs the message data of as the system information, and further this information. The display control information 123 that defines the expression format is generated and output. According to the display control information 123 and the task state information 121, the task anthropomorphic display control unit 105 corresponds to the task command and the type of action of the person image used for the anthropomorphic display and the action information describing the action of the person image. With reference to the anthropomorphic display database 106 that defines and stores, the operation control information 124 for displaying the type and execution state of the task command in the form of the motion and posture of the human figure is generated. Text-to-speech section 10
7 is task result information 12 according to the display control information 123.
The text data of No. 1 is synthesized with the voice data, output, and the motion control information 124 that defines the motion of the person image reading the text is generated. Message display unit 108
According to the display control information 123, the image data 126 of the message window displaying the system information 122.
Is generated and output, and motion control information 124 that generates a motion of a human figure pointing to the window is generated and output.
The person image motion generation unit 109 follows the motion control information 124
A video signal 125 of a person image is generated and output. Then, the video output unit 110 outputs the video signal 125 of the person image and the image data 126 of the message window to the output device.
【0013】以下、各部分について詳しく説明する。Each part will be described in detail below.
【0014】入力制御部100について説明する。計算
機装置または計算機を内蔵した装置を操作する際、ユー
ザは、キーボード、マウスやライトペンなどのデバイス
を用いて、計算機装置とのやり取りを行い、計算機装置
に対して、命令を入力する。入力制御部100において
は、ユーザの入力を、これらのデバイスを制御するデバ
イスドライパというソフトウェアを用いて、文字列の形
に変換して出力する。The input control unit 100 will be described. When operating a computer device or a device with a built-in computer, a user uses a device such as a keyboard, a mouse, or a light pen to communicate with the computer device and input a command to the computer device. In the input control unit 100, the input of the user is converted into the form of a character string and output by using software called a device driver that controls these devices.
【0015】タスク命令辞書102には、システムが認
識、実行できるタスクの種類、およびそのタスクに対応
して、必要なパラメータの種類や数などを定義する。例
えば、タスク命令辞書102の中に、次のような形式の
データを定義、格納している。The task command dictionary 102 defines the types of tasks that can be recognized and executed by the system, and the types and number of necessary parameters corresponding to the tasks. For example, the task instruction dictionary 102 defines and stores data in the following format.
【0016】 タスク名 パラメータ数 タイプ search >=1 文字 help =1 文字 guide =0 なし 例えば、第1行のタスク名searchに関する定義は、必要
なパラメータ数が一つまたは一つ以上であり、パラメー
タのタイプが文字であることを示している。Number of task name parameters Type search> = 1 character help = 1 character guide = 0 None For example, the definition for the task name search in the first line is that the number of required parameters is one or more, and Indicates that the type is character.
【0017】対話制御部101について説明する。対話
制御部101では、ユーザから入力された文宇列を解析
して、タスク命令としての正当性を判別する。例えば、
ユーザが ”search 計算機” という文字列を入力した場合、まず、二つの文字列”se
arch”と”計算機”に分解する。分解された一つ目の文
字列”search”をタスク名、二つ目の文字列“計算機”
をパラメータとする。分解されたタスク名”search”を
基に、タスク命令辞書102を参照して、入力された命
令の正当性を判別する。命令の正当性の判別は、解析さ
れたタスク名が存在するかどうか、パラメータの数が要
求されるパラメータ数の条件を満たすかどうか、そし
て、パラメータのタイプが定義されたタイプに一致する
かどうかによって行われる。正当でない命令の場合、そ
れを無視し、入力制御部100に対する新たなユーザ入
力を要求する。正当であれば、解析されたタスク名とパ
ラメータをタスク命令119として、出力する。The dialogue control unit 101 will be described. The dialogue control unit 101 analyzes the sentence sequence input by the user and determines the validity as a task command. For example,
If the user enters the string "search calculator", first the two strings "se
It is decomposed into "arch" and "calculator". The decomposed first character string "search" is the task name and the second character string "calculator"
Is a parameter. Based on the decomposed task name "search", the task instruction dictionary 102 is referenced to determine the validity of the input instruction. Determining the correctness of an instruction consists of whether the parsed task name exists, whether the number of parameters meets the required number of parameters, and whether the parameter type matches the defined type. Done by If the command is not valid, it is ignored and a new user input to the input control unit 100 is requested. If it is valid, the analyzed task name and parameter are output as the task instruction 119.
【0018】タスク実行部103について説明する。タ
スク実行部103は、対話制御部101から得られたタ
スク命令119を計算機装置に送り、タスク実行の開始
を要求する。そして、タスクの実行が開始してから、タ
スクの状態の収集、表示の要求などを情報表示制御部1
04に出力する。The task execution unit 103 will be described. The task execution unit 103 sends the task command 119 obtained from the dialogue control unit 101 to the computer device, and requests the start of task execution. Then, after the execution of the task is started, the information display control unit 1 requests the collection of the task status, the display request, and the like.
04.
【0019】情報表示制御部104について説明する。
タスクの実行が開始した後、計算機装置に問い合わせ
て、実行中のタスクの状態の情報を得る。例えば、タス
クが実行中、あるいは終了といった情報を収集して、タ
スク状態情報120として出力する。そして、タスクが
終了して、その実行の結果を計算機装置から取得し、タ
スク結果情報121として出力する。また、タスクの実
行中に、計算機装置はエラーや警告などを発生する可能
性がある。エラーや警告などのメッセージが発生した場
合、情報表示制御部104がこれらのメッセージを計算
機装置から取得して、システム情報122として出力す
る。また、これらのデータを表示する形式を定義する表
示制御情報123を生成する。例えば、タスクがまだ実
行中であれば、タスクの擬人化表示を行うように、表示
制御情報123を定義する。そして、タスクが終了し、
タスク結果情報のテキストを読上げるように表示制御情
報123を定義する。また、計算機装置がエラーや警告
などのメッセージを発生した場合、システム情報122
の出力を行うように表示制御情報123を定義する。The information display control unit 104 will be described.
After the execution of the task is started, the computer is inquired to obtain the information on the status of the task being executed. For example, the task status information 120 is output by collecting information such as whether the task is being executed or completed. Then, when the task ends, the execution result is acquired from the computer device and output as the task result information 121. In addition, the computer device may generate an error or a warning during the execution of the task. When a message such as an error or a warning occurs, the information display control unit 104 acquires these messages from the computer device and outputs them as the system information 122. Also, the display control information 123 that defines the format for displaying these data is generated. For example, if the task is still being executed, the display control information 123 is defined so as to perform an anthropomorphic display of the task. And the task is finished,
The display control information 123 is defined so that the text of the task result information is read aloud. Further, when the computer device generates a message such as an error or a warning, the system information 122
The display control information 123 is defined so as to output.
【0020】タスク擬人化表示制御部105について説
明する。表示制御情報123がタスクの擬人化表示を指
示したとき、実行中のタスクの状態、種類を、人物像の
動作を用いて、擬人的にユーザに表示することが可能で
ある。計算機装置で、データをコピーするタスクを例に
すると、人物像が、コピー元のデータを表す図形である
アイコンを持ち上げ、コピー先を表すアイコンに移動す
る動作を行うことにより、直観的な表現ができる。デー
タを表すアイコンがまだ移動の途中であれば、コピーが
実行している状態を表し、目的のアイコンに到達した
ら、タスクが完了したということを示すことができる。The task personification display control unit 105 will be described. When the display control information 123 instructs the anthropomorphic display of the task, the state and type of the task being executed can be displayed to the user in an anthropomorphic manner by using the action of the human figure. Taking the task of copying data on a computer as an example, an intuitive expression can be achieved by performing an operation in which a person image lifts an icon that is a graphic representing the data of the copy source and moves it to an icon that represents the copy destination. it can. If the icon representing the data is still in the middle of movement, it indicates that the copy is being executed, and when the target icon is reached, it can indicate that the task is completed.
【0021】擬人化表現データベース106について説
明する。擬人化表現データベース106において、人物
像の動作表現を生成するための動作パターン及びタスク
命令の擬人化表示と動作パターンの対応関係を定義、格
納している。動作パターンとは、人間の代表的な動作を
区分、分類したものである。動作パターンは、動作の種
類と動作パラメータによって記述される。動作の種類と
は例えば、「うなづく」、「手を上げる」、「ものを持
ち上げる」といった具合に動作を区分したものである。
動作パラメータとは、人体の各部位の動きの方向や量、
また動きの時間などを定義したものである。したがっ
て、動作パターンとは、「を移動する、左ヘ5」といっ
た具合に人間の動作を記述したものである。ここの記述
は、「手を移動する」が動作の種類、「左ヘ」が方向、
そして「5」が動作の度合いを表している。そして、タ
スクに対応して、前記の一連の動作パターンを関連づけ
ており、動作パターンを取得、生成することにより、人
物像の動作を生成することできる。 タスク擬人化表示
制御部105は、タスク状態情報120を用いて擬人化
表示データベース106にアクセスして、該タスクに対
応した人物像の動作を定義した人物像の動作パターンの
系列を取得し、動作制御情報124として出力する。
テキスト読上げ部107について説明する。表示制御情
報123に従い、タスクの実行が終了後、タスク結果情
報121の読上げを行う。テキスト読上げ部107は、
情報表示制御部104から出力されたタスク結果情報1
21のテキストデータを音声にて合成出力する機能、そ
して実際にテキストを読上げながら、人物像の動作や表
情などを生成するための動作制御情報124を生成する
機能を持つ。The anthropomorphic expression database 106 will be described. The anthropomorphic expression database 106 defines and stores the correspondence between the motion pattern and the anthropomorphic display of task commands for generating a motion expression of a human figure and the motion pattern. The motion pattern is a pattern in which typical human motions are classified and classified. The operation pattern is described by an operation type and an operation parameter. The types of motions are classified into motions such as “nodling”, “raising hands”, and “lifting things”.
The motion parameters are the direction and amount of movement of each part of the human body,
It also defines the time of movement. Therefore, the motion pattern is a description of a human motion such as "move, left f 5". In this description, "move hand" is the type of action, "left" is the direction,
And "5" represents the degree of motion. Then, the series of motion patterns described above are associated with the task, and the motion of the person image can be generated by acquiring and generating the motion pattern. The task anthropomorphic display control unit 105 accesses the anthropomorphic display database 106 by using the task state information 120, acquires a series of motion patterns of a human image that defines the motion of the human image corresponding to the task, and performs the operation. It is output as the control information 124.
The text reading unit 107 will be described. According to the display control information 123, the task result information 121 is read aloud after the execution of the task is completed. The text reading unit 107
Task result information 1 output from the information display control unit 104
It has a function of synthesizing and outputting 21 text data by voice, and a function of generating motion control information 124 for generating motions and facial expressions of a human image while actually reading the text.
【0022】メッセージ表示部108は、システム情報
122と、システム情報122が表示されるメッセージ
ウィンドウのイメージデータ126を生成、出力する機
能と、メッセージウィンドウ及びその上に表示されるシ
ステム情報122をユーザの注意を引き起こすために、
人物像がメッセージウィンドウを指し示す動作を生成す
るための動作制御情報124を生成、出力する機能を持
つ。The message display unit 108 displays the system information 122 and the function of generating and outputting the image data 126 of the message window in which the system information 122 is displayed, and the message window and the system information 122 displayed on it. To bring attention to
It has a function of generating and outputting motion control information 124 for generating a motion in which a person image points a message window.
【0023】人物像動作生成部109について説明す
る。人物像生成部109は動作制御情報124に従い、
人物像の映像を生成する。人物像生成部109の内部に
は、映像信号125を生成するために必要な人物像のデ
ータが動作制御情報124を構成する動作パターンと対
応づけられて格納されており、また、その人物像のデー
タを読みだし、映像信号125を生成する機能が備わっ
ている。例えば、人物像の表示を行う場合には、人物像
のデータを座標値またはポリゴンなどの情報として動作
パターンごとに対応づけて格納しており、人物像のデー
タを動作制御情報124の動作パターン情報に従い、順
次読み出し人物像の映像信号125の生成を行う。The person image motion generator 109 will be described. The person image generation unit 109 follows the operation control information 124
Generates an image of a human figure. In the inside of the person image generation unit 109, the person image data necessary for generating the video signal 125 is stored in association with the operation pattern forming the operation control information 124. It has a function of reading data and generating a video signal 125. For example, when a person image is displayed, the person image data is stored as information such as coordinate values or polygons in association with each operation pattern, and the person image data is stored in the operation pattern information of the operation control information 124. In accordance with this, the video signal 125 of the human image is sequentially read out.
【0024】映像出力部110について説明する。人物
像動作生成部109によって生成された人物像の映像信
号125、またはメッセージ表示部108によって生成
されたイメージデータ126を実際のディスプレイ装置
に表示できる物理信号に変換し、表示する。The video output unit 110 will be described. The image signal 125 of the person image generated by the person image motion generation unit 109 or the image data 126 generated by the message display unit 108 is converted into a physical signal that can be displayed on an actual display device and displayed.
【0025】第2の発明の実施例について説明する。図
2は本発明の一実施例を示す。第1の発明のテキスト読
上げ部107において、表示制御情報123がテキスト
の音声出力を指定した場合、タスク結果情報121から
のテキストデータが、テキスト解析部201において解
析され、語句の単位に分解され、各部ヘ送られる。An embodiment of the second invention will be described. FIG. 2 shows an embodiment of the present invention. In the text-to-speech unit 107 of the first invention, when the display control information 123 specifies voice output of text, the text data from the task result information 121 is analyzed by the text analysis unit 201 and decomposed into word units. It is sent to each part.
【0026】動作命令生成部202が、テキストデータ
から分解された語句を基に、人物像の動作の種類と、人
物像の各部分の動作を記述する動作情報と、動作の種類
と動作情報の関係を定義、格納した動作パターンデータ
ベース203を参照して、テキストに対応する人物像動
作を生成するための動作制御情報124を生成、出力す
る。そして、音声動作同期制御部204がテキストの音
声出力と人物像の動作との同期を制御する。音声合成部
205においては、テキスト情報を音声に合成して出力
する。Based on the words and phrases decomposed from the text data, the motion command generation unit 202 includes the motion type of the human image, the motion information describing the motion of each part of the human image, and the motion type and the motion information. By referring to the motion pattern database 203 that defines and stores the relationship, the motion control information 124 for generating the human figure motion corresponding to the text is generated and output. Then, the voice action synchronization control unit 204 controls the synchronization between the voice output of the text and the action of the person image. The speech synthesis unit 205 synthesizes text information into speech and outputs it.
【0027】以下それぞれの部分について詳しく説明す
る。Each part will be described in detail below.
【0028】テキスト解析部201について説明する。
表示制御情報123がテキストの音声出力を指定した場
合、タスク結果情報121のテキストを受け取り、テキ
ストの区切り符号を基準に、テキストを語句ごとに分解
して、出力する。The text analysis unit 201 will be described.
When the display control information 123 specifies voice output of text, the text of the task result information 121 is received, and the text is decomposed into words based on the delimiter of the text and output.
【0029】動作命令生成部202について説明する。
分解されたテキストの語句に対応して、人物像の動作を
定義する動作パターンの系列を生成する。動作パターン
は、語句の先頭に対応する先頭動作パターンのグループ
と、それ以外の一般動作パターンのグループとに分けら
れる。つまり、ある語句に対して、人物像の動作を生成
するとき、まず先頭動作パターンを選び、その後、一般
動作パターンを選ぶ。先頭動作パターンのグループにあ
る動作パターンは、一般的に発話を始めるときに見られ
る動作パターンから構成されており、一般動作パターン
のグループは、話の途中によく見られる動作パターンか
ら構成される。The operation command generator 202 will be described.
A series of motion patterns that define the motion of the human figure is generated corresponding to the words of the decomposed text. The motion patterns are divided into a group of head motion patterns corresponding to the head of a word and a group of other general motion patterns. That is, when a person image motion is generated for a certain phrase, first, the leading motion pattern is selected, and then the general motion pattern is selected. The motion patterns in the group of head motion patterns are composed of motion patterns that are generally found when starting speech, and the group of general motion patterns are composed of motion patterns that are often seen in the middle of a conversation.
【0030】動作パターンデータベース203について
説明する。動作パターンデータベース203の中に、第
1の発明の実施例で説明したような動作パターンとその
動作情報を定義、格納している。さらに、動作パターン
が先頭動作パターンか一般動作パターンかを示すラベル
を付けられており、そして、動作パターンが、図4に示
されるように、動作パターン(MPO)に対応して次に
動く動作パターンのグループ(MP1、MP2、...
MPn、継続動作パターンと呼ぶ)の定義を格納してい
る。また、動作パターンデータベース203の中に、各
動作パターンの動作を完成するために必要な時間に関す
る時間情報も格納している。The operation pattern database 203 will be described. The motion pattern database 203 defines and stores motion patterns and motion information thereof as described in the first embodiment of the invention. Further, a label indicating whether the motion pattern is the head motion pattern or the general motion pattern is attached, and the motion pattern moves to the next motion pattern (MPO) as shown in FIG. Groups (MP1, MP2, ...
MPn, called continuous operation pattern) is stored. Further, the operation pattern database 203 also stores time information regarding the time required to complete the operation of each operation pattern.
【0031】分解されたテキストの語句に対して、人物
像の連続動作を記述する動作パターンの系列から構成さ
れる動作制御情報124の生成について説明する。ま
ず、最初の動作パターンは、動作パターンデータベース
203の先頭動作パターングループから、任意に一つ選
ばれ(例えば、図4のMP0が選ばれたとする)、そし
て、MP0に続く動作パターンのグループ(MP1、M
P2、…、MPn)の中から、一つの任意の動作パター
ン(例えば、MP1)が選択される。MP0と同様に、
MP1に対しても、図4のような継続動作パターンが定
義されており、MP1の継続動作パターンの中から、任
意に一つの動作パターンを選択する。このように、繰り
返して、以下に説明する動作の総時間以内(一つの動作
パターンを生成するための時間情報は動作パターンデー
タベース203の中に格納されている)に、動作パター
ンの選択ができる。こうして選択された動作パターンの
系列を動作制御情報124として人物像動作生成部10
9に出力して、人物像の連続動作生成を行う。The generation of the motion control information 124, which is composed of a series of motion patterns that describe continuous motions of a human figure, for the words and phrases of the decomposed text will be described. First, one initial operation pattern is arbitrarily selected from the first operation pattern group of the operation pattern database 203 (for example, MP0 in FIG. 4 is selected), and the operation pattern group (MP1 after MP0 is selected. , M
One arbitrary operation pattern (for example, MP1) is selected from P2, ..., MPn). Like MP0,
A continuous operation pattern as shown in FIG. 4 is defined for MP1 as well, and one operation pattern is arbitrarily selected from the continuous operation patterns of MP1. In this way, the operation pattern can be repeatedly selected within the total time of the operation described below (time information for generating one operation pattern is stored in the operation pattern database 203). The sequence of motion patterns selected in this way is used as motion control information 124 for the person image motion generation unit 10
It is output to 9, and continuous motion generation of a human image is performed.
【0032】音声動作同期制御部204について説明す
る。人物像にテキストを読上げながら、動作を行う際、
動作と音声の同期を考慮しなければならない。ここで
は、テキスト音声合成部205の音声合成速度(文字数
/秒)を基に、テキストの語句の文字数を用いて、該テ
キストの音声合成出力に必要な音声出力総時間として計
算できる。The voice operation synchronization control section 204 will be described. When performing an action while reading the text to the person image,
Consideration must be given to the synchronization of motion and voice. Here, based on the voice synthesis speed (the number of characters / second) of the text-to-speech synthesis unit 205, the number of characters of the text phrase can be used to calculate the total voice output time required for the voice synthesis output of the text.
【0033】次に動作の開始位置の決定について説明す
る。テキストの語句の先頭、あるいは語句の固定位置を
動作生成の開始位置とする。例えば、語句の長さがある
一定の文字数(文字数のしきい値)より短いとき、語句
の先頭を動作開始の時刻とする。この場合、テキストの
音声出力総時間は、人物像の動作の総時間に等しい。逆
に、語句がこの文字数(文字数のしきい値)より長い場
合、語句の先頭から一定の間隔を置いて、人物像の動作
を開始させる。この場合、人物像の動作の総時間は、音
声出力総時間からこのずれた間隔を引いた値にあたる。
こうして、動作の生成及び音声出力の開始信号をそれぞ
れ、人物像動作生成部109とテキスト音声合成部20
5に伝えることによって、動作と合成音声の同期出力が
可能になる。Next, the determination of the operation start position will be described. The beginning of the phrase of the text or the fixed position of the phrase is set as the start position of the action generation. For example, when the length of the phrase is shorter than a certain number of characters (threshold of the number of characters), the beginning of the phrase is set as the operation start time. In this case, the total voice output time of the text is equal to the total movement time of the human figure. On the contrary, when the word / phrase is longer than this number of characters (threshold of the number of characters), the operation of the person image is started at a certain interval from the beginning of the word / phrase. In this case, the total time of the movement of the person image corresponds to a value obtained by subtracting the shifted interval from the total audio output time.
In this way, the motion generation and voice output start signals are respectively sent to the person image motion generation unit 109 and the text-to-speech synthesis unit 20.
By transmitting the result to 5, the synchronized output of the motion and the synthesized voice becomes possible.
【0034】テキスト音声合成部205について説明す
る。従来の規則音声合成手法を用いて、テキストのデー
タを人間の発話のように音声として出力できる。例え
ば、まず、テキストの単語または文字に対応する音声波
形のデータを計算機装置に用意する。合成されるテキス
トを単語また文字に分解し、その単語また文字に対応す
る音声波形のデータを得る。それぞれの単語また文字の
音声波形データを連続的に、スピーカなどの音声出力装
置に出力して、テキストを音声に合成する。The text-to-speech synthesizer 205 will be described. It is possible to output text data as voice by using a conventional rule voice synthesis method, like a human utterance. For example, first, voice waveform data corresponding to a word or a character in a text is prepared in a computer device. The synthesized text is decomposed into words or characters, and speech waveform data corresponding to the words or characters is obtained. The voice waveform data of each word or character is continuously output to a voice output device such as a speaker to synthesize text with voice.
【0035】第3の発明の実施例について説明する。図
3は、本発明の一実施例を示す。第1の発明のメッセー
ジ表示部108において、システム情報122と表示制
御情報123を用いて、手の動作生成部301が、人物
像の手の動作種類に対応した手の各部分の動作情報を格
納した手の動作パターンデータベース302を参照し
て、人物像の手の動作を生成するための動作制御情報1
24を生成、出力する。メッセージウィンドウ生成部3
03は、動作制御情報124からのデータを用いて、シ
ステム情報122を表示するためのメッセージウィンド
ウのイメージデータ126の生成を行う。An embodiment of the third invention will be described. FIG. 3 shows an embodiment of the present invention. In the message display unit 108 of the first invention, the hand motion generation unit 301 uses the system information 122 and the display control information 123 to store motion information of each part of the hand corresponding to the motion type of the hand of the human figure. Motion control information 1 for generating a motion of a hand of a person by referring to the motion pattern database 302
24 is generated and output. Message window generator 3
03 uses the data from the operation control information 124 to generate message window image data 126 for displaying the system information 122.
【0036】以下それぞれの部分について詳しく説明す
る。Each part will be described in detail below.
【0037】まず、手の動作パターンデータベース30
2について説明する。人物像の手の動作が、上腕の動き
と前腕の動きから合成される。上腕の動きが、肩を中心
とする回転、前腕の動きが肘を中心とする回転、手のひ
らの動きが手首を中心とする回転で生成できる。手の動
作パターンデータベース302の中には、手の動作パタ
ーンに対応した、上腕と前腕などの回転動作の角度を動
作情報として格納している。例えば、「左手を横にあげ
る」という手の動作パターンに対して、「上腕(0、
0、30)、 前腕(15、0、−20)」という具合
に、具体的に上腕と前腕の回転データを定義している。
ただし、「上腕(0、0、30)」といったデータは、
人物像の肩を原点として、左右肩を結ぶ方向をX軸、頭
部を向く方向をY軸、そして、人物像の正面に直行する
方向をZ軸とするXYZ座標系のX、Y、Z軸に対する
上腕の回転角度を表している。First, the hand movement pattern database 30
2 will be described. The motion of the hand of the person image is synthesized from the motion of the upper arm and the motion of the forearm. The movement of the upper arm can be generated by rotation around the shoulder, the movement of the forearm around the elbow, and the movement of the palm around the wrist. The hand movement pattern database 302 stores, as movement information, the angle of the rotational movement of the upper arm and the forearm, which corresponds to the hand movement pattern. For example, for the motion pattern of the hand "raise your left hand to the side,"
0, 30), forearm (15, 0, -20) ", specifically, the rotation data of the upper arm and the forearm are defined.
However, data such as "upper arm (0, 0, 30)"
With the shoulder of the person image as the origin, the direction connecting the left and right shoulders is the X axis, the direction facing the head is the Y axis, and the direction orthogonal to the front of the person image is the Z axis. X, Y, Z It represents the rotation angle of the upper arm with respect to the axis.
【0038】手の動作生成部301について説明する。
表示制御情報123に従い、システム情報122を表示
するとき、システム情報122を表示するためのメッセ
ージウィンドウの移動、及びそれを指し示す人物像の動
作によって、システム情報122を効果的にユーザに表
示することができる。図5は、人物像の手が、計算機装
置のディスプレイ装置の下部より、メッセージウィンド
ウを持ち上げるように、連続的に動作する一例を示す。
ここでは、手の動作を開始、途中、また終了のいくつか
の段階にわけて、対応する動作パターンを定義し、手の
動作パターンデータベース302から、各手の動作パタ
ーンの動作情報、つまり、手の各関節の回転角度を取得
する。こうして得られた手の動作パターンのデータを動
作制御情報124として、人物像動作生成部109及び
メッセージウィンドウ生成部303に出力する。The hand motion generator 301 will be described.
When the system information 122 is displayed according to the display control information 123, the system information 122 can be effectively displayed to the user by moving the message window for displaying the system information 122 and the action of the person image pointing to it. it can. FIG. 5 shows an example in which the person's hand continuously operates to lift the message window from the lower part of the display device of the computer device.
Here, corresponding motion patterns are defined at several stages of starting, midway, and ending the hand motion, and the motion information of each hand motion pattern, that is, the hand motion pattern is defined from the hand motion pattern database 302. Get the rotation angle of each joint. The data of the motion pattern of the hand thus obtained is output as motion control information 124 to the person image motion generation unit 109 and the message window generation unit 303.
【0039】メッセージウィンドウ生成部303につい
て説明する。手の動作生成部301から出力された手の
動作制御借報124を用いて、ディスプレイ上にメッセ
ージウィンドウを表示する位置情報を生成する。ここで
は、手の動作データに含まれた上腕と前腕の回転角度
で、手の先端の位置を計算することができる。例えば、
図6には、前記XYZ座標系におけるXY平面における
手の上腕と前腕の回転の様子を示しているが、3次元の
座標系においても同様な計算が行える。点A、B、C
が、それぞれ肩、肘と手の先端の位置を示し、α1、α
2がそれぞれ上腕、前腕のZ軸に対する回転角度(前記
の(0、0、30)、(15、0、−20)のz成分で
ある30、−20のようなデータ)である。人物像の上
腕と前腕の長さ(wl、w2)が決まっているので、手
の先端Cの位置を容易に回転角度α1とα2及び上腕と
前腕の長さwlとw2より計算できる。計算された手の
先端の位置をメッセージウィンドウの左上コーナーの位
置とし、さらにウィンドウの横と縦の長さを一定値に決
めると、メッセージウィンドウを一意に決定することが
できる。計算機装置の文字出力や図形などの描画ルーチ
ンを用いて、システム情報122及びメッセージウィン
ドウをイメージデータ126に生成、出力する。The message window generator 303 will be described. The position information for displaying the message window on the display is generated using the hand movement control borrowing information 124 output from the hand movement generation unit 301. Here, the position of the tip of the hand can be calculated based on the rotation angles of the upper arm and the forearm included in the motion data of the hand. For example,
FIG. 6 shows how the upper arm and the forearm of the hand rotate on the XY plane in the XYZ coordinate system, but the same calculation can be performed in the three-dimensional coordinate system. Points A, B, C
Indicate the positions of the shoulder, elbow and tip of the hand, respectively, and α1, α
Reference numerals 2 are rotation angles of the upper arm and the forearm with respect to the Z axis (data such as 30 and -20, which are z components of (0, 0, 30) and (15, 0, -20) described above). Since the lengths (wl, w2) of the upper arm and the forearm of the person image are determined, the position of the tip C of the hand can be easily calculated from the rotation angles α1 and α2 and the lengths wl and w2 of the upper arm and the forearm. When the calculated tip position of the hand is set as the upper left corner position of the message window, and the horizontal and vertical lengths of the window are set to constant values, the message window can be uniquely determined. The system information 122 and the message window are generated and output to the image data 126 by using a character output routine or a drawing routine for a graphic of the computer.
【0040】[0040]
【発明の効果】以上説明した通り、本発明が提供する人
物像表示によるユーザインタフェース装置により、計算
機装置に実行しているタスクの種類や状態などを人物像
の動作により直感的に表示、そして、テキストの音声合
成出力と同時に、テキストを読上げるときの人物像の動
作を生成、またシステムのメッセージなどの情報を人物
像が明確に指し示すように表示することができるように
なり、効果的でかつ快適な装置操作性が実現される。As described above, the user interface device for displaying a human image provided by the present invention intuitively displays the type and status of the task executed on the computer device by the operation of the human image, and Simultaneously with the text-to-speech output of text, it is possible to generate the action of the human figure when reading the text, and to display information such as system messages so that the human figure clearly points, which is effective and Comfortable device operability is realized.
【図1】第1の発明の一実施例を示す人物像表示による
ユーザインタフェース装置の構成図である。FIG. 1 is a configuration diagram of a user interface device for displaying a person image according to an embodiment of the first invention.
【図2】第2の発明の一実施例を示す人物像表示による
ユーザインタフェース装置の構成図である。FIG. 2 is a configuration diagram of a user interface device for displaying a person image according to an embodiment of the second invention.
【図3】第3の発明の一実施例を示す人物像表示による
ユーザインタフェース装置の構成図である。FIG. 3 is a configuration diagram of a user interface device for displaying a person image according to an embodiment of the third invention.
【図4】動作パターンとその継続動作パターンの構造の
一例を示す図である。FIG. 4 is a diagram showing an example of a structure of an operation pattern and its continuous operation pattern.
【図5】メッセージウィンドウの表示と手の動作の一例
を示す図である。FIG. 5 is a diagram showing an example of display of a message window and movement of a hand.
【図6】手の上腕と前腕の回転角度から手の先端位置を
計算する一例を示す図である。FIG. 6 is a diagram showing an example of calculating the tip position of the hand from the rotation angles of the upper arm and the forearm of the hand.
【符号の説明】 100 入力制御部 101 対話制御部 102 タスク命令辞書 103 タスク実行部 104 情報表示制御部 105 タスク擬人化表示制御部 106 擬人化表示データベース 107 テキスト読上げ部 108 メッセージ表示部 109 人物像動作生成部 110 映像出力部 119 タスク命令 120 タスク状態情報 121 タスク結果情報 122 システム情報 123 表示制御情報 124 動作制御情報 125 映像信号 126 イメージデータ 201 テキスト解析部 202 動作命令生成部 203 動作パターンデータベース 204 音声動作同期制御部 205 音声合成部 301 手の動作生成部 302 手の動作パターンデータベース 303 メッセージウィンドウ生成部[Explanation of reference numerals] 100 input control unit 101 dialogue control unit 102 task command dictionary 103 task execution unit 104 information display control unit 105 task anthropomorphic display control unit 106 anthropomorphic display database 107 text reading unit 108 message display unit 109 person image action Generation unit 110 Video output unit 119 Task command 120 Task status information 121 Task result information 122 System information 123 Display control information 124 Motion control information 125 Video signal 126 Image data 201 Text analysis unit 202 Motion command generation unit 203 Motion pattern database 204 Voice motion Synchronization control unit 205 Speech synthesis unit 301 Hand motion generation unit 302 Hand motion pattern database 303 Message window generation unit
Claims (4)
算機装置または計算機を内蔵する装置に設けられ、人物
像の動作などの擬人化要素を用いたユーザインタフェー
スを提供する人物像表示によるユーザインタフェース方
法であって、 入力デバイスを制御し、ユーザからの入力を文字列とし
て受け取るステップと、 計算機装置で実行されるタスクの命令の名前や属性など
の構成情報を定義し、タスク命令辞書に格納するステッ
プと、 ユーザとの対話を制御し、前記タスク命令辞書を参照し
て、ユーザから入力される文字列を解析し、タスク命令
として生成し、出力するステップと、 タスク命令を計算機装置に送信し、タスク命令の実行を
行うステップと、 計算機装置に問い合わせて、実行中のタスクの状態をタ
スク状態情報とし、タスクの実行の結果をタスク結果情
報とし、計算機装置の発生したメッセージをシステム情
報として収集して、出力し、さらにこれらの情報の表現
形式を定義する表示制御情報を出力するステップと、 タスク命令に対応して、擬人化表示に用いられる人物像
の動作の種類と、人物像の動作を記述する動作情報を定
義し、擬人化表示データベースに格納するステップと、 前記表示制御情報とタスク状態情報に従い、前記擬人化
表示データベースを参照して、タスク命令の種類や実行
状態などを人物像の動作や姿勢などの形式で表示するた
めの動作制御情報を生成するステップと、 前記表示制御情報とタスク結果情報に従い、タスク結果
情報のテキストデータを、音声データに合成して、出力
し、テキストを読上げる人物像の動作を生成するための
動作制御情報を生成するステップと、 前記表示制御情報とシステム情報に従い、システム情報
を表示するメッセージウィンドウのイメージデータを生
成して、出力し、さらに、該ウィンドウを指し示す人物
像の動作を生成するための動作制御情報を生成して、出
力するステップと、 前記動作制御情報に従い、人物像動作の映像信号を生成
して、出力するステップと、 人物像動作の映像信号と、メッセージウィンドウのイメ
ージデータを出力装置に出力するステップとを有する人
物像表示によるユーザインタフェース方法。1. A user interface by a human figure display provided in a computer device or a device having a built-in computer for performing work while interacting with a user, and providing a user interface using an anthropomorphic element such as movement of a human image. A method for controlling an input device, receiving input from a user as a character string, and defining configuration information such as an instruction name and attributes of a task executed on a computer, and storing it in a task instruction dictionary. Controlling the step and the interaction with the user, referring to the task instruction dictionary, analyzing the character string input by the user, generating as a task instruction, outputting, and transmitting the task instruction to the computer device. , The step of executing the task instruction, and the computer device is inquired, and the state of the task being executed is used as the task state information. Corresponding to the task command, the step of collecting the output of the execution result as the task result information, the message generated by the computer as the system information, and outputting the display control information that defines the expression format of these information. A type of motion of a person image used for anthropomorphic display and a step of defining motion information describing the motion of the human image and storing the motion information in an anthropomorphic display database, according to the display control information and task state information, Referring to the anthropomorphic display database, generating operation control information for displaying the type and execution state of the task instruction in the form of the movement and posture of the human image, and according to the display control information and the task result information. , Text data of task result information is synthesized with voice data, output, and motion for generating the motion of a human figure that reads the text aloud. Generating control information, generating image data of a message window displaying the system information according to the display control information and the system information, outputting the image data, and further generating an action of a human figure pointing to the window. Generating and outputting motion control information, generating and outputting a video signal of a human figure motion according to the motion control information, outputting a video signal of a human image motion, and outputting image data of a message window A user interface method for displaying a person image, the method including: outputting to a device.
算機装置または計算機を内蔵する装置に設けられ、人物
像の動作などの擬人化要素を用いたユーザインタフェー
スを提供する人物像表示によるユーザインタフェース装
置であって、 入力デバイスを制御し、ユーザからの入力を文字列とし
て受け取る入力制御部と、 計算機装置で実行されるタスクの命令の名前や属性など
の構成情報を定義し、格納するタスク命令辞書と、 ユーザとの対話を制御し、前記タスク命令辞書を参照し
て、ユーザから入力される文字列を解析し、タスク命令
として生成し、出力する対話制御部と、 タスク命令を計算機装置に送信し、タスク命令の実行を
行うタスク実行部と、 計算機装置に問い合わせて、実行中のタスクの状態をタ
スク状態情報とし、タスクの実行の結果をタスク結果情
報とし、計算機装置の発生したメッセージをシステム情
報として収集して、出力し、さらにこれらの情報の表現
形式を定義する表示制御情報を出力する情報表示制御部
と、 タスク命令に対応して、擬人化表示に用いられる人物像
の動作の種類と、人物像の動作を記述する動作情報を定
義し、格納した擬人化表示データベースと、 前記表示制御情報とタスク状態情報に従い、前記擬人化
表示データベースを参照して、タスク命令の種類や実行
状態などを人物像の動作や姿勢などの形式で表示するた
めの動作制御情報を生成するタスク擬人化表示制御部
と、 前記表示制御情報とタスク結果情報に従い、タスク結果
情報のテキストデータを、音声データに合成して、出力
し、テキストを読上げる人物像の動作を生成するための
動作制御情報を生成するテキスト読上げ部と、 前記表示制御情報とシステム情報に従い、システム情報
を表示するメッセージウィンドウのイメージデータを生
成して、出力し、さらに、該ウィンドウを指し示す人物
像の動作を生成するための動作制御情報を生成して、出
力するメッセージ表示部と、 前記動作制御情報に従い、人物像動作の映像信号を生成
して、出力する人物像動作生成部と、 人物像動作の映像信号と、メッセージウィンドウのイメ
ージデータを出力装置に出力する映像出力部とを有する
人物像表示によるユーザインタフェース装置。2. A user interface with a human figure display provided in a computer device or a device having a built-in computer for performing work while interacting with a user, and providing a user interface using an anthropomorphic element such as a motion of a human image. A device that controls input devices, receives input from the user as a character string, and a task instruction that defines and stores configuration information such as the name and attribute of the task instruction executed by the computer. A dialogue control unit that controls a dialogue between a dictionary and a user, refers to the task instruction dictionary, analyzes a character string input by the user, generates a task instruction, and outputs the task instruction, and a task instruction to a computer device. Inquires of the task execution unit that sends and executes the task instruction and the computer device, and sets the status of the task being executed as task status information, and An information display control unit that collects and outputs the message generated by the computer as system information, and outputs the display control information that defines the expression format of these information, and the task instruction. Corresponding to, the type of motion of the person image used for anthropomorphic display, define the motion information that describes the motion of the human image, stored anthropomorphic display database, according to the display control information and task state information, A task anthropomorphic display control unit for generating operation control information for displaying the type and execution state of a task instruction in a form such as a motion and posture of a human image by referring to the anthropomorphic display database; According to the information and the task result information, the text data of the task result information is combined with the voice data and output, and the action of the person image to read the text is generated. A text-to-speech unit for generating operation control information for generating a message window image data for displaying the system information according to the display control information and the system information, and further outputting an image of a person pointing to the window. And a message display unit for generating and outputting motion control information for generating a motion image, and a human image motion generating unit for generating and outputting a video signal of a human image motion according to the motion control information, A user interface device for displaying a human image, which has a video signal and a video output section for outputting image data of a message window to an output device.
解して、出力するテキスト解析部と、 テキストから分解された語句を基に、テキストに対応す
る人物像動作を生成するための動作制御情報を生成し
て、出力する動作命令生成部と、 人物像の動作の種類と、人物像の各部分の動作を記述す
る動作情報と、動作の種類と動作情報の関係を定義し
て、格納した動作パターンデータベースと、 テキストの音声出力と人物像の動作との同期を制御する
音声動作同期制御部と、 テキスト情報を音声に合成して出力する音声合成部とを
有する請求項2に記載の人物像表示によるユーザインタ
フェース装置。3. The text reading unit decomposes the text data from the task result information into word units, and outputs the text analysis unit, and a person image corresponding to the text based on the words decomposed from the text. A motion command generation unit that generates and outputs motion control information for generating a motion, motion type of a human image, motion information that describes the motion of each part of the human image, motion type and motion information And a stored action pattern database, a voice action synchronization control unit that controls the synchronization between the voice output of text and the action of a human figure, and a voice synthesis unit that synthesizes text information into voice and outputs it. The user interface device according to claim 2, further comprising:
を格納した手の動作パターンデータベースと、 手の動作パターンデータベースを参照して、人物像の手
の動作を生成するための動作制御情報を生成して、出力
する手の動作生成部と、 動作制御情報を用いて、システム情報を表示するメッセ
ージウィンドウのイメージデータの生成を行うメッセー
ジウィンドウ生成部とを有する請求項2に記載の人物像
表示によるユーザインタフェース装置。4. The message display unit refers to a hand motion pattern database that stores motion information of each part of the hand corresponding to a motion type of a human image Motion control information to generate and output the motion control information for generating the hand motion, and message window generation that generates the image data of the message window that displays the system information using the motion control information. The user interface device according to claim 2, further comprising a section.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7232638A JPH0981352A (en) | 1995-09-11 | 1995-09-11 | Method and device user interfacing applying display of human image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7232638A JPH0981352A (en) | 1995-09-11 | 1995-09-11 | Method and device user interfacing applying display of human image |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0981352A true JPH0981352A (en) | 1997-03-28 |
Family
ID=16942444
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7232638A Pending JPH0981352A (en) | 1995-09-11 | 1995-09-11 | Method and device user interfacing applying display of human image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0981352A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019049733A (en) * | 2018-10-15 | 2019-03-28 | 日本電信電話株式会社 | Conversation support system, conversation support device and conversation support program |
-
1995
- 1995-09-11 JP JP7232638A patent/JPH0981352A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019049733A (en) * | 2018-10-15 | 2019-03-28 | 日本電信電話株式会社 | Conversation support system, conversation support device and conversation support program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9431027B2 (en) | Synchronized gesture and speech production for humanoid robots using random numbers | |
Oviatt et al. | Designing the user interface for multimodal speech and pen-based gesture applications: State-of-the-art systems and future research directions | |
US5990878A (en) | Sign language editing apparatus | |
JP3338992B2 (en) | Sign language / word conversion system | |
US6549887B1 (en) | Apparatus capable of processing sign language information | |
US20070033526A1 (en) | Method and system for assisting users in interacting with multi-modal dialog systems | |
US6820056B1 (en) | Recognizing non-verbal sound commands in an interactive computer controlled speech word recognition display system | |
US20040080507A1 (en) | Freely specifiable real-time control | |
Gibet et al. | High-level specification and animation of communicative gestures | |
Wachsmuth et al. | Lifelike gesture synthesis and timing for conversational agents | |
Pausch et al. | Tailor: creating custom user interfaces based on gesture | |
JP7201984B2 (en) | Android gesture generator and computer program | |
JP2993872B2 (en) | Multimodal information integration analyzer | |
JPH0981352A (en) | Method and device user interfacing applying display of human image | |
JP3169727B2 (en) | Sign language generator | |
Sreekanth et al. | Multimodal interface for effective man machine interaction | |
JP3345070B2 (en) | Sign language interpreting apparatus and method | |
JP3179636B2 (en) | Sign language synthesizer | |
JP2654543B2 (en) | Acoustic display device | |
Dorozhkin et al. | Implementing speech recognition in virtual reality | |
Glauert et al. | Virtual human signing as expressive animation | |
Wasfy et al. | An interrogative visualization environment for large-scale engineering simulations | |
JP2001229398A (en) | Method and device for acquiring performance animation gesture and reproducing the same on animation character | |
JPH1049701A (en) | Method for fetching operation of articulated structural body | |
Ruttkay et al. | The conductor: Gestures for embodied agents with logic programming |