JP2005222504A - Information display - Google Patents

Information display Download PDF

Info

Publication number
JP2005222504A
JP2005222504A JP2004044688A JP2004044688A JP2005222504A JP 2005222504 A JP2005222504 A JP 2005222504A JP 2004044688 A JP2004044688 A JP 2004044688A JP 2004044688 A JP2004044688 A JP 2004044688A JP 2005222504 A JP2005222504 A JP 2005222504A
Authority
JP
Japan
Prior art keywords
information
model
data
unit
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004044688A
Other languages
Japanese (ja)
Other versions
JP4379146B2 (en
Inventor
Yusuke Suzuki
雄介 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2004044688A priority Critical patent/JP4379146B2/en
Publication of JP2005222504A publication Critical patent/JP2005222504A/en
Application granted granted Critical
Publication of JP4379146B2 publication Critical patent/JP4379146B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain an information display capable of providing 3D animation with high power of expression of information while maintaining high interactivity. <P>SOLUTION: The information display 1 is characterized in that it is provided with a monitoring part 113 which monitors elements of a 3D model 111 appearing on a two-dimensional screen 18 and notifies a fact that the information lacks when lack of the information is detected and an information lack prevention part 114 which operates the 3D model upon receiving notification of the monitoring part and prevents the lack of meaning expressed by operations by the 3D model. The 3D animation with the high power of expression of the information is provided while maintaining the high interactivity of a system for a user by adding elements to complement the information lost from the operations expressed by the 3D model by another method. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は,手話,ジェスチャ,パントマイムなど特定の意味を持った動作を3Dモデルに表現させることを目的とした3D(3次元:3−Dimension)アニメーション利用の情報表示装置に関するものである。   The present invention relates to an information display device using a 3D (3-dimension) animation for the purpose of causing a 3D model to express a motion having a specific meaning such as a sign language, a gesture, or a pantomime.

モデルの動作,変化などで情報を提示するための3Dアニメーション表示装置では仮想空間上に配置されたユーザの視点と,同じく仮想空間に配置された3次元情報を持つ3Dモデルとの関係から2次元画面に投影される画像を計算によって求め,それを画面上に表示する。文章またはあらわすべき意味を入力することでそれを表現する3Dアニメーションを作成,表示するシステムの例として手話アニメーション表示装置がある。特開平5−26448号公報に開示されるように,入力として文章を用い,人間を模した3Dモデルに文章の意味をあらわす動作をさせて手話を表現する3Dアニメーションを得る手話アニメーション表示装置の典型的な処理プロセスは以下の通りである。   In the 3D animation display device for presenting information by model movement, change, etc., it is 2D from the relationship between the viewpoint of the user placed in the virtual space and the 3D model having the 3D information also placed in the virtual space. The image projected on the screen is obtained by calculation and displayed on the screen. There is a sign language animation display device as an example of a system that creates and displays a 3D animation that expresses a sentence or a meaning to be expressed. As disclosed in Japanese Patent Laid-Open No. 5-26448, a typical sign language animation display device that uses a sentence as an input and obtains a 3D animation that expresses a sign language by performing an action that represents the meaning of the sentence in a 3D model that imitates a human being. A typical processing process is as follows.

(1)文章入力:キーボードなどの文章入力手段によって文章を入力する。
(2)文章解析:文章を形態素解析し,品詞を割り当て単語に分解する。
(3)データ読み出し:単語に割り当てられた3Dモデルに対する動作指令情報を登録された辞書から読み出し,3Dモデルへの動作指令となる時系列データを作成する。
(4)データ修正:単語間のわたり部,副詞などデータの単純な割り当てで解決できない部分を補完,修正して時系列データを完成させる。
(5)アニメーション出力:ユーザからの再生開始の指示の後,時系列データに従って3Dモデルを動作させ,視点との関係から2次元投影画像を決定し2次元画面上に描写する。
(1) Sentence input: A sentence is input by a sentence input means such as a keyboard.
(2) Sentence analysis: The sentence is morphologically analyzed and the parts of speech are assigned and decomposed into words.
(3) Data reading: The operation command information for the 3D model assigned to the word is read from the registered dictionary, and time-series data serving as an operation command to the 3D model is created.
(4) Data correction: Time series data is completed by complementing and correcting data that cannot be solved by simple assignment of data such as inter-word parts and adverbs.
(5) Animation output: After an instruction to start playback from the user, the 3D model is operated according to time-series data, and a two-dimensional projection image is determined from the relationship with the viewpoint and depicted on the two-dimensional screen.

近年では,“手の動的拡大による手話アニメーションの可読性向上手法”黒田知宏,千原國宏:ヒューマンインタフェースシンポジウム ’99論文集,pp.721−724,特開平8−16821号公報に開示されるように,生成する手話アニメーションを表現する3D人体モデルの手の部分を拡大して手話の可読性を高める手話アニメーション表示システムが存在する。   In recent years, "a method for improving the readability of sign language animation by dynamically expanding the hand" Tomohiro Kuroda, Kunihiro Chihara: Human Interface Symposium '99 Proceedings, pp. As disclosed in JP-A-8-16821, there is a sign language animation display system that enlarges the hand portion of a 3D human body model that expresses a sign language animation to be generated to improve the readability of the sign language.

特開平6−243230号公報JP-A-6-243230 特開平8−16821号公報Japanese Patent Laid-Open No. 8-16821 論文,“手の動的拡大による手話アニメーションの可読性向上手法”,黒田知宏,千原國宏:ヒューマンインタフェースシンポジウム ’99論文集,pp.721−724Thesis, “A method for improving the readability of sign language animation by dynamically expanding the hand”, Tomohiro Kuroda, Kunihiro Chihara: Human Interface Symposium '99 Proceedings, pp. 721-724

ところで,特許文献1のようなシステムでは以下のような問題があった。すなわち,実際の動作を撮影した動画を表示するシステムに比べ,3Dモデルの精緻さが不十分であり,3次元情報を含まない情報であるため,動作の遠近感,奥行きの情報が失われ易いなどの問題があった。例えば,手話において,利き腕の手の指を握った状態から人差し指と中指の2本だけ伸ばし,顔に近づける動作は,その動作を目のそばへ向けて行えば「見なさい」という意味になり,鼻のそばへ向けて行えば,「においをかぐ」という意味になる。3Dモデルにこのような動作を行わせた場合,視点とモデルの位置関係によってはこれら二つの手話を間違い易い場合がある。このような手話の例は数多くある。   Incidentally, the system as disclosed in Patent Document 1 has the following problems. In other words, compared to a system that displays a moving image of actual motion, the 3D model is not sufficiently detailed and does not include 3D information, so the perspective and depth information of the motion is easily lost. There were problems such as. For example, in sign language, the action of extending only two forefinger and middle finger from the hand holding the finger of the dominant arm and bringing it closer to the face means “look” if the action is directed toward the eyes, If you go to the side of your nose, it means “smell”. When the 3D model performs such an operation, the two sign languages may be easily mistaken depending on the positional relationship between the viewpoint and the model. There are many examples of such sign language.

特許文献2のようなシステムでは以下のような問題があった。
意味を表現する動作アニメーション以外に強調のための拡大などのアニメーション効果が加わることによって,動作アニメーションの持つ意味を壊してしまう場合がある。すなわち,手話アニメーションの場合に3D人体モデルの手先の部分を拡大する処理によって重要な意味を表現している人体モデルの唇の部分が隠され,意味が失われてしまうことがある。例えば,手話において「そば」「うどん」を表す動作では,利き腕の手の指を握った状態から人差し指と中指の2本だけ伸ばした手を箸に見立てて,そば猪口を持っているように見立てた非利き腕から麺を手繰るような動作,手の形はまったく同じであって,ただ音を表現する口の形の違いによって区別される。このような動作では手の拡大動作によって唇が隠れてしまうようなことがあると二つの単語を区別することができない。
The system as in Patent Document 2 has the following problems.
In addition to motion animation that expresses meaning, an animation effect such as enlargement for emphasis may be added to destroy the meaning of motion animation. That is, in the case of sign language animation, the lip portion of the human body model expressing the important meaning may be hidden by the process of enlarging the hand portion of the 3D human body model, and the meaning may be lost. For example, in a sign language action that represents “Soba” or “Udon”, the hand that is extended from the index finger and the middle finger of the hand of the dominant arm is regarded as a chopstick, with the appearance of having a buckwheat mouth. The action of handing noodles from the non-dominant arm, the shape of the hand is exactly the same, and is distinguished by the difference in the shape of the mouth that merely expresses the sound. In such an operation, the two words cannot be distinguished if the lips may be hidden by the hand enlargement operation.

さらに特許文献1の持つ問題と同じように,拡大により距離感が失われ,手を拡大する処理のアニメーションによって,3Dモデルが手を前に突き出しているのだとアニメーションを見る側に誤解され,動作アニメーションの表現する意味が壊れてしまう場合があるなどの問題もあった。   Furthermore, as with the problem of Patent Document 1, the sense of distance is lost due to enlargement, and the animation of the process of enlarging the hand is misunderstood by the viewer who sees the 3D model sticking out the hand, There was also a problem that the meaning expressed by motion animation might be broken.

本発明は,従来の情報表示装置が有する上記問題点に鑑みてなされたものであり,本発明の目的は,仮想空間に配置された3Dモデルとそれを見る視点から決定される,3Dモデルの2次元画像上への投影を常に監視する要素をシステムに配置することで,システムのユーザが3Dアニメーションの表示中に視点や速度を自由に変更できるようなインタラクティビティの高い構成としても,または3Dアニメーションを表示する画像表示部分に,小さい,描画能力が低いなどの物理的な制限がある場合でも3Dモデルを制御して重要な情報をあらわす3Dモデルの部位が常に画面にあらわれるようにすることの可能な,新規かつ改良された情報表示装置を提供することである。   The present invention has been made in view of the above-described problems of conventional information display devices, and an object of the present invention is a 3D model determined from a 3D model arranged in a virtual space and a viewpoint of viewing the 3D model. By placing an element in the system that constantly monitors projection onto a two-dimensional image, the system user can change the viewpoint and speed freely while displaying a 3D animation. Even if there is a physical limitation such as small or low drawing ability in the image display part that displays the animation, the part of the 3D model that represents important information is always displayed on the screen by controlling the 3D model. It is to provide a new and improved information display device that is possible.

また本発明の他の目的は,3Dモデルの表現する動作から失われた情報を別の方法で補完するための要素を追加することによりシステムのユーザにとってのインタラクティビティを高く維持したまま,情報の表現力が高い3Dアニメーションを提供することの可能な,新規かつ改良された情報表示装置を提供することである。   Another object of the present invention is to add an element for supplementing information lost from the operation represented by the 3D model by another method, while maintaining high interactivity for the user of the system. A new and improved information display device capable of providing 3D animation with high expressive power is provided.

上記課題を解決するため,本発明によれば,3Dアニメーション利用の情報表示装置が提供される。本発明の情報表示装置(1)は,複数の要素から構成され,指令によって動作することを特徴とする3Dモデル(19)と,3Dモデルに与えるべき指令を作成する指令作成部(10)と,3Dモデルが動作するアニメーションの画像が表示される2次元画面(18)と,3Dモデルと,3Dモデルを観察する仮想空間上の視点を表すデータとの関係から2次元画面上にアニメーション画像を表示する描画部(110)と,2次元画面上にあらわれる3Dモデルの要素を監視し,情報の欠落を検出した場合に,欠落した事実を通知する監視部(113,25,33)と,監視部の通知を受けて3Dモデルを動作させ,3Dモデルが動作で表す意味が欠落することを防ぐ情報欠落防止部(114)と,を備えたことを特徴とする(請求項1)。   In order to solve the above problems, according to the present invention, an information display device using 3D animation is provided. An information display device (1) according to the present invention includes a 3D model (19), which includes a plurality of elements and operates according to a command, and a command creation unit (10) that creates a command to be given to the 3D model. The animation image is displayed on the two-dimensional screen from the relationship between the two-dimensional screen (18) on which the animation image on which the 3D model operates is displayed, the 3D model, and the data representing the viewpoint in the virtual space for observing the 3D model. A drawing unit (110) to be displayed, a monitoring unit (113, 25, 33) for monitoring the element of the 3D model appearing on the two-dimensional screen, and notifying the missing fact when the lack of information is detected; An information omission prevention unit (114) that operates the 3D model in response to the notification of the unit and prevents the meaning represented by the operation of the 3D model from being lost (claim 1).

かかる情報表示装置によれば,監視部が2次元画面上にあらわれる3Dモデルの要素(例えば,手先や唇など)を常に監視し,それらの重なりを検出した場合に情報欠落防止部が3Dモデルが動作で表す意味が欠落することを防ぐ(例えば,3Dモデルに対し手先を縮小させる指示を出す)ことが可能である。このことにより,ユーザが3Dモデルによるアニメーションの表示中に常に画面内での視点方向を変更できるようなインタラクティビティの高い構成としても,また3Dモデルが指文字を表現するときに手を拡大するという単純なルールに基づいた強調処理を行った場合でも,表現すべき手話の情報をあらわす唇の部分が画面に表示されるようになり,情報の欠落を防ぐことができる。   According to such an information display device, the monitoring unit constantly monitors the elements of the 3D model (for example, the hand and the lips) appearing on the two-dimensional screen, and when the overlap is detected, the information loss prevention unit detects the 3D model. It is possible to prevent the meaning represented by the action from being lost (for example, to issue an instruction to reduce the hand to the 3D model). As a result, the user can expand the hand when the 3D model expresses a finger character even when the 3D model expresses a finger character even if the user can change the viewpoint direction in the screen while displaying the animation by the 3D model. Even when emphasis processing based on simple rules is performed, the lip portion representing the information of sign language to be expressed is displayed on the screen, so that information loss can be prevented.

本発明の情報表示装置において,以下のような応用が可能である。   In the information display device of the present invention, the following applications are possible.

指令作成部(10)の一構成例としては,ユーザが表したい意味を表す言語を入力する言語入力部(11)と,入力された言語を単語単位に分解して出力する形態素解析部(12)と,3Dモデルに動作を行わせるための指令と,単語の意味との対応関係が格納されている単語辞書(14)と,形態素解析部から出力される単語と単語辞書の情報とを用いて,3Dモデルに入力された文章の意味を表現する動作を行わせるための一連の指令を作成するデータ作成部(13)と,を備える構成とすることが可能である(請求項2)。言語(例えば,日本語,英語,中国語などの自然言語)を入力として,その意味を表す3Dアニメーションを表示することが可能である。   As a configuration example of the command creation unit (10), a language input unit (11) that inputs a language that represents a meaning that the user wants to express, and a morpheme analysis unit (12) that decomposes and outputs the input language into words. ), A command for causing the 3D model to perform an operation, and a word dictionary (14) in which a correspondence relationship between word meanings is stored, and information on the word and word dictionary output from the morphological analyzer And a data creation unit (13) for creating a series of commands for performing an operation to express the meaning of the text input to the 3D model. A language (for example, a natural language such as Japanese, English, or Chinese) can be input and a 3D animation representing the meaning can be displayed.

指令作成部は,ユーザの動作を計測する動作計測部を備え,動作計測部により計測されたデータから3Dモデルに与えるべき指令を作成するようにしてもよい(請求項3)。ユーザの動作を入力として用い,それを表す3Dアニメーションを表示することが可能である。   The command creation unit may include a motion measurement unit that measures a user's motion, and may create a command to be given to the 3D model from data measured by the motion measurement unit. It is possible to display a 3D animation representing the user's action as input.

監視部は,2次元画面上での3Dモデルの要素の重なりを監視し,要素が重なる場合に,他の要素に情報が欠落したことを通知するようにしてもよい(請求項4)。3Dモデルの要素が重なる場合に,他の要素に情報が欠落したことを通知することで,要素が画面上にあらわれることによって表される情報を維持することが可能である。   The monitoring unit may monitor the overlap of the elements of the 3D model on the two-dimensional screen, and may notify the other elements that information has been lost when the elements overlap (claim 4). When the elements of the 3D model overlap, it is possible to maintain the information represented by the elements appearing on the screen by notifying other elements that information has been lost.

また,監視部は,2次元画面上における3Dモデルの要素間における遠近感のあらわれ方を監視し,遠近感が損なわれていると判断する場合に,他の要素に情報が欠落したことを通知するようにしてもよい(請求項5)。3Dモデルの要素間における遠近感が損なわれていると判断する場合に,他の要素に情報が欠落したことを通知することで,遠近感によって表される情報を維持することが可能である。   In addition, the monitoring unit monitors the appearance of perspective between elements of the 3D model on the 2D screen, and when it is determined that the perspective is impaired, notifies other elements that information has been lost. (Claim 5). When it is determined that the perspective between the elements of the 3D model is impaired, it is possible to maintain the information represented by the perspective by notifying other elements that information has been lost.

また,監視部は,2次元画面上における3Dモデルの要素の動作速度を監視し,速度が一定の範囲外にあると判断する場合に,他の要素に情報が欠落したことを通知するようにしてもよい(請求項6)。3Dモデルの要素の動作速度が一定の範囲外にあると判断する場合に,他の要素に情報が欠落したことを通知することで,速度によって表される情報を維持することが可能である。   In addition, the monitoring unit monitors the operation speed of the element of the 3D model on the two-dimensional screen, and when it is determined that the speed is out of a certain range, notifies the other elements that information has been lost. (Claim 6). When it is determined that the operation speed of the element of the 3D model is out of a certain range, it is possible to maintain the information represented by the speed by notifying other elements that information has been lost.

アニメーションの表示速度を変更することができる速度変更入力部(115)をさらに備えるようにしてもよい(請求項7)。アニメーションの表示速度を変更することができ,ユーザの利便性が向上する。   You may make it further provide the speed change input part (115) which can change the display speed of an animation (Claim 7). The animation display speed can be changed, improving the convenience for the user.

2次元画面上にあらわれる3Dモデルの方向を変更する視点変更入力部(116)をさらに備えるようにしてもよい(請求項8)。アニメーションの表示方向を変更することができ,ユーザの利便性が向上する。   You may make it further provide the viewpoint change input part (116) which changes the direction of the 3D model which appears on a two-dimensional screen (Claim 8). The animation display direction can be changed, improving the convenience for the user.

単語と,その単語の意味を表すために,必要となる3Dモデルの要素とその要素の監視の方法を示すデータを格納している属性辞書(22)と,形態素解析部(21)の出力と属性辞書の持つ情報を用いて,2次元画面上で監視すべき要素と監視の方法を3Dモデルが行っている動作と動作を行っている時刻に対応して示す監視情報データを作成する監視情報作成部(23)と,をさらに備えるようにしてもよい。そして,監視部は,監視情報作成部が作成する監視情報データを用いて,監視の方法と監視すべき要素を3Dモデルが行っている動作と動作を行っている時刻に対応して変更し,変更した監視の方法に基づいて2次元画面上の要素を監視し,情報が欠落していると判断した場合に通知を行うようにしてもよい(請求項9)。   An attribute dictionary (22) storing data indicating the word, the elements of the 3D model necessary to express the meaning of the word, and the monitoring method of the element, and the output of the morphological analysis unit (21) Monitoring information for creating monitoring information data indicating the elements to be monitored on the two-dimensional screen and the monitoring method corresponding to the operation performed by the 3D model and the time at which the operation is performed using the information of the attribute dictionary And a creation unit (23). Then, the monitoring unit uses the monitoring information data created by the monitoring information creation unit to change the monitoring method and the elements to be monitored according to the operation performed by the 3D model and the time when the operation is performed, Elements on the two-dimensional screen may be monitored based on the changed monitoring method, and notification may be made when it is determined that information is missing (claim 9).

かかる構成によれば,属性辞書と監視情報作成部が,3Dモデルの動作が表現する単語ごとに監視すべき要素と,情報欠落が起こりうる場合に採るべき処理を指定した監視情報データを作成することで,より細かく情報欠落の防止方法を指定することができる。結果,より幅広く情報欠落を防いだ3Dアニメーションを表現することができる。   According to this configuration, the attribute dictionary and the monitoring information creation unit create monitoring information data that specifies the elements to be monitored for each word expressed by the operation of the 3D model and the processing to be taken when information loss may occur. Thus, it is possible to specify a method for preventing information loss in more detail. As a result, it is possible to express a 3D animation that prevents information loss more widely.

監視部からの通知を受けて,2次元画面上に情報を補完するための要素を追加する情報欠落補完部(34)をさらに備えるようにしてもよい。そして,監視情報作成部(23)は,監視部が情報欠落していると判断した場合に,補完すべき3Dモデルの要素を示すデータと,補完すべき意味を表す文字列とをさらに含む監視情報データを作成し,監視部は,さらに,補完すべき3Dモデルの要素を示すデータと,補完すべき文字列とを,3Dモデルが行っている動作と動作を行っている時刻に対応して変更し,情報が欠落していると判断した場合に,補完すべき情報を情報欠落補完部(34)に通知するようにしてもよい(請求項10)。   In response to the notification from the monitoring unit, an information missing complementing unit (34) for adding an element for complementing information on the two-dimensional screen may be further provided. When the monitoring information creation unit (23) determines that the monitoring unit lacks information, the monitoring information creation unit (23) further includes data indicating elements of the 3D model to be complemented and a character string representing the meaning to be complemented. Information data is created, and the monitoring unit further includes data indicating the elements of the 3D model to be complemented and character strings to be complemented in accordance with the operation performed by the 3D model and the time at which the operation is performed. When it is determined that information is missing, information to be complemented may be notified to the information missing complement unit (34).

かかる構成によれば,監視部からの指令を受けて欠落した情報を補完する情報欠落補完部によってユーザからの速度指令,視点変更指令によって画面上にモデルが表すべき情報があらわれなくなってしまうような場合でもユーザに情報を提示することが可能になる。   According to such a configuration, information that should be displayed on the screen may not be displayed on the screen due to the speed command or viewpoint change command from the user by the information missing complement unit that supplements the missing information in response to the command from the monitoring unit. Even in this case, information can be presented to the user.

情報欠落補完部は,監視部からの通知を受けて,2次元画面上に情報を補完するための文字列を,字幕として表示するようにしてもよく(請求項11),あるいは,2次元画面上にサブ画面として表示するようにしてもよい(請求項12)。あるいは,字幕と2次元画面上のサブ画面とを併用するようにしてもよい。2次元画面上に情報を補完するための情報を表示することで,ユーザの利便性が向上する。   The information missing complement unit may receive a notification from the monitoring unit and display a character string for complementing the information on the two-dimensional screen as subtitles (claim 11) or the two-dimensional screen. It may be displayed as a sub-screen on top (claim 12). Or you may make it use a subtitle and a subscreen on a two-dimensional screen together. Displaying information for complementing information on the two-dimensional screen improves user convenience.

単語辞書は言語と手話との対応関係を表現するようにしてもよい(請求項13)。また,3Dモデルは,人体を表現するようにしてもよい(請求項16)。言語の入力によって,手話のアニメーションを表示することが可能である。   The word dictionary may express the correspondence between language and sign language (claim 13). Further, the 3D model may represent a human body (claim 16). Sign language animation can be displayed by inputting language.

単語辞書は,データ構造の異なる形容詞,副詞を含む修飾用辞書とその他の単語をふくむその他辞書とから構成され,データ作成部は,修飾語が他のデータによって表される動作の変更を必要とするものである場合に,蓄積されたデータの一部を変更するようにしてもよい(請求項14)。データ作成部が単にデータの追加をするだけでなく蓄積されたデータの一部の変更も可能となる。   The word dictionary consists of a modifier dictionary containing adjectives and adverbs with different data structures, and other dictionaries that contain other words, and the data generator needs to change the behavior of modifiers represented by other data. If this is the case, a part of the accumulated data may be changed (claim 14). The data creation unit can not only add data but also change part of the accumulated data.

データ作成部は,単語間の連接規則として表される手話の文法知識をデータとして有するようにしてもよい(請求項15)。入力された順に単語を表すデータを割り当てていくのではなく,手話にふさわしい順序となるようにデータの順序を変更することが可能である。   The data creation unit may have grammatical knowledge of sign language expressed as a connection rule between words as data (claim 15). Rather than assigning data representing words in the order in which they are entered, it is possible to change the order of the data so that the order is appropriate for sign language.

また,本発明の他の観点によれば,コンピュータを,上記情報表示装置として機能させるためのプログラムと,そのプログラムを記録した,コンピュータにより読み取り可能な記録媒体が提供される。ここで,プログラムはいかなるプログラム言語により記述されていてもよい。また,記録媒体としては,例えば,CD−ROM,DVD−ROM,フレキシブルディスク(FD)など,プログラムを記録可能な記録媒体として現在一般に用いられている記録媒体,あるいは将来用いられるいかなる記録媒体をも採用することができる。   According to another aspect of the present invention, there are provided a program for causing a computer to function as the information display device, and a computer-readable recording medium on which the program is recorded. Here, the program may be described in any programming language. In addition, as a recording medium, for example, a recording medium that is currently used as a recording medium capable of recording a program, such as a CD-ROM, a DVD-ROM, or a flexible disk (FD), or any recording medium that is used in the future. Can be adopted.

なお上記において,構成要素に付随して括弧書きで記した参照符号は,理解を容易にするため,後述の実施形態および図面における対応する構成要素を一例として記したに過ぎず,本発明がこれに限定されるものではない。   In the above description, the reference numerals in parentheses attached to the constituent elements are merely shown as examples of corresponding constituent elements in the embodiments and drawings described below for easy understanding. It is not limited to.

以上説明したように,本発明によれば,仮想空間に配置された3Dモデルとそれを見る視点から決定される,3Dモデルの2次元画像上への投影を常に監視する要素をシステムに配置することで,システムのユーザが3Dアニメーションの表示中に視点や速度を自由に変更できるようなインタラクティビティの高い構成としても,または3Dアニメーションを表示する画像表示部分に,小さい,描画能力が低いなどの物理的な制限がある場合でも3Dモデルを制御して重要な情報をあらわす3Dモデルの部位が常に画面にあらわれるようにすることが可能である。   As described above, according to the present invention, an element that constantly monitors the projection of a 3D model onto a two-dimensional image determined from the 3D model arranged in the virtual space and the viewpoint of viewing the 3D model is arranged in the system. As a result, the system user can change the viewpoint and speed freely while displaying the 3D animation, or the image display part that displays the 3D animation is small, the drawing ability is low, etc. Even when there is a physical limitation, it is possible to control the 3D model so that a part of the 3D model that represents important information always appears on the screen.

また,3Dモデルの表現する動作から失われた情報を別の方法で補完するための要素を追加することによりシステムのユーザにとってのインタラクティビティを高く維持したまま,情報の表現力が高い3Dアニメーションを提供することが可能である。   In addition, by adding elements to complement the information lost from the motion represented by the 3D model by another method, 3D animation with high information expressive power is maintained while maintaining high interactivity for users of the system. It is possible to provide.

以下に添付図面を参照しながら,本発明にかかる情報表示装置の好適な実施の形態について詳細に説明する。なお,本明細書および図面において,実質的に同一の機能構成を有する構成要素については,同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of an information display apparatus according to the present invention will be described below in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

(第1の実施の形態)
第1の実施の形態では,入力された日本語文章に対してその意味を表す手話アニメーションを表示し,3D人体モデルの唇と,手先要素の2次元画面上での状態を監視することで,手先と重なることによって唇のあらわす情報が失われることを防ぐためのシステム構成例について述べる。
(First embodiment)
In the first embodiment, a sign language animation representing the meaning of the input Japanese sentence is displayed, and the state of the lips of the 3D human body model and the hand element on the 2D screen is monitored, An example of a system configuration for preventing the information expressed by the lips from being lost by overlapping with the hand will be described.

図1は,第1の実施の形態を示すブロック図である。
本実施の形態にかかる情報表示装置1は,図1に示したように,指令作成部10と,タイマ17と,2次元画面18と,3Dモデル19と,描画部110と,3Dモデル111と,監視部113と,情報欠落防止部114と,視点112を変更する視点変更入力部115と,速度変更入力部116と,から構成されている。指令作成部10は,文入力部11と,形態素解析部12と,時系列データ16を作成する時系列データ作成部13と,単語辞書14と,修飾用辞書15と,から構成されている。2次元画面18上には,3Dモデル111が表示されている。以下に,各構成要素について詳細に説明する。
FIG. 1 is a block diagram showing the first embodiment.
As shown in FIG. 1, the information display apparatus 1 according to the present embodiment includes a command creation unit 10, a timer 17, a two-dimensional screen 18, a 3D model 19, a drawing unit 110, a 3D model 111, , A monitoring unit 113, an information loss prevention unit 114, a viewpoint change input unit 115 that changes the viewpoint 112, and a speed change input unit 116. The command creation unit 10 includes a sentence input unit 11, a morpheme analysis unit 12, a time series data creation unit 13 that creates time series data 16, a word dictionary 14, and a modification dictionary 15. A 3D model 111 is displayed on the two-dimensional screen 18. Each component will be described in detail below.

文入力部11はユーザによって使用され3Dアニメーションで表したい意味の文章を入力するための機能部である。キーボードによる文字入力受付,また音声入力をテキスト変換しての入力など多様な形態を想定している。   The sentence input unit 11 is a functional unit that is used by a user to input a sentence having a meaning that is desired to be represented by a 3D animation. Various forms are assumed, such as accepting character input using a keyboard and inputting voice input into text.

形態素解析部12は入力された文章を形態素解析し,品詞を割り当てて単語に分割する機能部である。   The morpheme analysis unit 12 is a functional unit that performs morphological analysis on an input sentence, assigns parts of speech, and divides it into words.

時系列データ作成部13は分割された単語をキーとして単語辞書14を検索し,辞書から単語に対応する時系列データを読み出して時系列データ16として蓄積し,必要に応じてデータを修正,追加する機能部である。   The time series data creation unit 13 searches the word dictionary 14 using the divided words as keys, reads out the time series data corresponding to the words from the dictionary, accumulates them as time series data 16, and corrects and adds the data as necessary. It is a functional part to do.

単語辞書14は手話単語を構成する動作を3Dモデル19に表現させるためのデータを保持する記憶手段である。単語辞書14の詳細については,図4〜図16を参照しながらさらに後述する。   The word dictionary 14 is a storage unit that holds data for causing the 3D model 19 to express the actions constituting the sign language word. Details of the word dictionary 14 will be described later with reference to FIGS.

修飾用辞書15は副詞,形容詞的な意味を持つ手話単語を構成する動作を3Dモデル19に表現させるためのデータを保持する記憶手段である。修飾用辞書15は名詞,動詞,接続詞を表す動作を表すため以外のデータを含み,時系列データ作成部から参照され,時系列データを作成,変更するのに用いられる。修飾用辞書15の詳細については,図17を参照しながらさらに後述する。   The modification dictionary 15 is a storage unit that holds data for causing the 3D model 19 to express an action that constitutes a sign language word having an adverb or adjective meaning. The dictionaries 15 for modification include data other than for representing actions representing nouns, verbs, and conjunctions, are referred to by the time-series data creation unit, and are used to create and change time-series data. Details of the decoration dictionary 15 will be described later with reference to FIG.

時系列データ16は時系列データ作成部13によって作成された3Dモデル19に対する動作指令を行うためのデータである。   The time series data 16 is data for issuing an operation command to the 3D model 19 created by the time series data creation unit 13.

タイマ17は時間経過とともに時系列データを読み出し3Dモデル19の状態を更新する。   The timer 17 reads the time series data with the passage of time and updates the state of the 3D model 19.

2次元画面18は3Dアニメーションが表示される部分である。   The two-dimensional screen 18 is a portion where a 3D animation is displayed.

3Dモデル19は,実際に動きを表現する人体のモデルの例である。3Dモデル19の詳細については,図2〜図3を参照しながらさらに後述する。   The 3D model 19 is an example of a human body model that actually expresses movement. Details of the 3D model 19 will be described later with reference to FIGS.

描画部110はタイマ17と独立した一定時間ごとに視点112と3Dモデル19の関係から2次元画面18に3Dモデル19を3Dモデル111として描写する機能部である。   The rendering unit 110 is a functional unit that renders the 3D model 19 as the 3D model 111 on the two-dimensional screen 18 from the relationship between the viewpoint 112 and the 3D model 19 at regular intervals independent of the timer 17.

視点112は3次元空間上にベクトルとして定義されるデータである。   The viewpoint 112 is data defined as a vector in a three-dimensional space.

視点変更入力部115はユーザが3Dアニメーション描写中に視点112を変更するための機能部である。   The viewpoint change input unit 115 is a functional unit for the user to change the viewpoint 112 during 3D animation rendering.

速度変更入力部116はユーザがタイマ17の状態更新時間間隔を変更するための機能部である。タイマ17の更新時間を変更することでアニメーションの速度を変更することができる。   The speed change input unit 116 is a functional unit for the user to change the state update time interval of the timer 17. The speed of the animation can be changed by changing the update time of the timer 17.

監視部113は2次元画面18上にあらわれる3Dモデル111の部分の中で,意味を表現する上で重要となる部分を監視し,情報の欠落を検知した場合に情報欠落防止部114に通知をする機能部である。本実施の形態では,2次元画面18上にあらわれる3Dモデル111の口の要素を監視し,3Dモデルの手で口が覆われるなどと3Dモデルの動作によって口が画面上にあらわれなくなると予測した場合に情報欠落防止部114に通知をする。   The monitoring unit 113 monitors the part of the 3D model 111 appearing on the two-dimensional screen 18 that is important for expressing the meaning, and notifies the information loss prevention unit 114 when the information loss is detected. It is a functional part to do. In the present embodiment, the elements of the mouth of the 3D model 111 appearing on the two-dimensional screen 18 are monitored, and when the mouth is covered with the hand of the 3D model, it is predicted that the mouth will not appear on the screen due to the operation of the 3D model. In this case, the information loss prevention unit 114 is notified.

情報欠落防止部114は監視部113からの通知を受けて,視点112または3Dモデル19に重要な部分を2次元画面18上にあらわすようにするための指令を送信する機能部である。   The information loss prevention unit 114 is a functional unit that receives a notification from the monitoring unit 113 and transmits a command for causing the viewpoint 112 or the 3D model 19 to appear on the two-dimensional screen 18.

本実施の形態では,時系列データ作成部13に対する入力を文入力部11からのものとしたが,人間の動作を計測するための三次元計測手段やデータグローブなどを用いて,ジェスチャなどユーザの動作を計測し,計測されたデータの特徴量を検索キーとし時系列データ作成部13の入力として,ユーザの行った動作の意図をあらわすアニメーションを作成する構成とすることも可能である。   In this embodiment, the input to the time-series data creation unit 13 is from the sentence input unit 11, but a user's gesture or the like is used by using a three-dimensional measurement means or a data glove for measuring a human motion. It is also possible to adopt a configuration in which an action is measured, and an animation representing the intention of the action performed by the user is created by using the feature quantity of the measured data as a search key and as an input to the time-series data creation unit 13.

次いで,本実施の形態に特徴的な構成要素である,3Dモデル19,単語辞書14,および修飾用辞書15について説明する。   Next, the 3D model 19, the word dictionary 14, and the modification dictionary 15 that are characteristic components of the present embodiment will be described.

(3Dモデル19)
図2は,実際に動きを表現する人体の3Dモデルの説明図である。
この3Dモデル19は,人間の上半身のみを模擬しており,大きく頭,首,胴体,両腕から構成される。腕の部分は関節を3つ剛体リンクでつないだ3関節3リンクのリンク系となっており,胴体部分に肩の関節で接している。腕リンクの肩側の端と反対側の端に手先がある。肩と手先の中間部分の関節を肘関節とする。
(3D model 19)
FIG. 2 is an explanatory diagram of a 3D model of a human body that actually expresses movement.
The 3D model 19 simulates only the upper body of a human and is largely composed of a head, a neck, a torso, and both arms. The arm part has a three-joint three-link system in which three joints are connected by a rigid link, and is in contact with the body part through a shoulder joint. There is a hand on the end opposite to the shoulder end of the arm link. The joint between the shoulder and the hand is the elbow joint.

首は胴体の上面に接しており,頭部と胴体をつないでいる。接続する部分に関節を持つ。3Dモデル19の要素は独立した部分から成り立っている。肩関節を回転させると肩につながれた要素すべてが肩の関節の軸を回転軸として回転するような階層性を持った構造をしているが,要素ごとに独立的に指令を与えて動作を行わせたり,要素の大きさ,形状などの属性を変更させたりすることも可能である。   The neck is in contact with the top of the torso and connects the head and torso. It has a joint at the connecting part. The elements of the 3D model 19 are composed of independent parts. When the shoulder joint is rotated, all elements connected to the shoulder have a hierarchical structure that rotates with the axis of the shoulder joint as the rotation axis. It is also possible to change the attributes such as the size and shape of the element.

3Dモデル19を構成する各要素は代表点と呼ばれる点を3つずつ持つ。他要素との接続によって移動に拘束を受ける代表点を固定点と呼ぶ。固定点とその他二つの代表点の相対的な位置関係を変更することで要素の位置,姿勢を自由に指定できる。図2中の(x0,y0,z0)を固定点とすると,(x1,y1,z1)と(x2,y2,z2)の値を変更することで前腕要素の姿勢を指示することができる。   Each element constituting the 3D model 19 has three points called representative points. A representative point that is restrained by movement due to connection with another element is called a fixed point. By changing the relative positional relationship between the fixed point and the other two representative points, the position and orientation of the element can be freely specified. If (x0, y0, z0) in FIG. 2 is a fixed point, the posture of the forearm element can be indicated by changing the values of (x1, y1, z1) and (x2, y2, z2).

図3は,3Dモデル19の手先(右手先)19aを示す説明図である。左手先も鏡対称の同様な構造を持つ。このように手先19aは指一本あたりa,b,cと3つの操作可能な要素を持ち,指5本で計15の要素を持つ。各要素の姿勢を指定することで指の形を決定するためのデータは指形データ辞書(図9を参照しながら後述する)に格納されている。   FIG. 3 is an explanatory view showing the hand (right hand) 19a of the 3D model 19. As shown in FIG. The left hand has a similar structure with mirror symmetry. As described above, the hand 19a has three operable elements a, b, and c per finger, and a total of 15 elements with five fingers. Data for determining the shape of the finger by designating the posture of each element is stored in a finger shape data dictionary (described later with reference to FIG. 9).

3Dモデル19は時間ごとの各要素の代表点2点の固定点に対する相対位置情報を動作指令として動作する。代表点の固定点に対する相対位置情報は位置ベクトルデータ(図7を参照しながら後述する)として与えられる。前腕部にとっての上腕部のように,上位階層の要素の姿勢と位置によって,下位階層の要素の固定点が定まる。3Dモデルの基本的な構造は点を各要素でつないだようなリンク系として与えられているが,リンクの表面に楕円体などの要素を重ねることによってより立体的に見えるようにされている。   The 3D model 19 operates using relative position information with respect to two fixed points of representative points of each element for each time as an operation command. The relative position information of the representative point with respect to the fixed point is given as position vector data (described later with reference to FIG. 7). Like the upper arm for the forearm, the fixed point of the lower layer element is determined by the posture and position of the upper layer element. The basic structure of the 3D model is given as a link system in which points are connected by each element, but it is made to appear more three-dimensional by overlaying elements such as ellipsoids on the surface of the link.

3Dモデルの頭部の前面を顔とする。顔は多角形,いわゆるポリゴンで構成されている。唇,眉,頬などの顔上にある要素も同様に多数の頂点で構成される多角形として表現されている。多角形の頂点の3次元位置を変更することで形状を変形させることができる。変形に必要なデータは口形データ辞書(図11を参照しながら後述する),眉形データ辞書(図14を参照しながら後述する),頬形データ辞書(図15を参照しながら後述する),あご形データ辞書(図16を参照しながら後述する)に示すような形で与えられる。   The front of the head of the 3D model is the face. The face is composed of polygons, so-called polygons. Elements on the face such as lips, eyebrows, and cheeks are similarly expressed as polygons composed of a number of vertices. The shape can be changed by changing the three-dimensional position of the vertex of the polygon. Necessary data for deformation is a mouth shape data dictionary (described later with reference to FIG. 11), an eyebrow data dictionary (described later with reference to FIG. 14), a cheek shape data dictionary (described later with reference to FIG. 15), It is given in the form shown in a jaw data dictionary (described later with reference to FIG. 16).

(単語辞書14)
以下に,単語辞書14内部のデータ構造の例を,図4〜図16を参照しながら説明する。
単語辞書14内部は複数の辞書で構成されている。ここでは単語辞書14の一例として,単語辞書(図4),時系列データ辞書(図5),口形時系列データ辞書(図6),位置ベクトルデータ辞書(図7),手形パタン辞書(図8),指形データ辞書(図9),口形パタン辞書(図10),口形データ辞書(図11),表情パタン辞書(図12),表情データ辞書(図13),眉形データ辞書(図14),頬形データ辞書(図15),あご形データ辞書(図16)について説明する。なお,本実施の形態では,取り扱う言語を日本語とし,表現される手話を日本手話とする。
(Word dictionary 14)
Hereinafter, an example of the data structure in the word dictionary 14 will be described with reference to FIGS.
The inside of the word dictionary 14 is composed of a plurality of dictionaries. Here, as an example of the word dictionary 14, a word dictionary (FIG. 4), a time series data dictionary (FIG. 5), a mouth shape time series data dictionary (FIG. 6), a position vector data dictionary (FIG. 7), a hand pattern pattern dictionary (FIG. 8). ), Finger shape data dictionary (FIG. 9), mouth shape pattern dictionary (FIG. 10), mouth shape data dictionary (FIG. 11), facial expression pattern dictionary (FIG. 12), facial expression data dictionary (FIG. 13), eyebrow data dictionary (FIG. 14). ), Cheek data dictionary (FIG. 15), and chin data dictionary (FIG. 16). In the present embodiment, the language to be handled is Japanese, and the sign language expressed is Japanese sign language.

図4は,単語辞書の構成を示す説明図である。
インデックスはデータを管理するために振られた番号である。単語意味ラベルはそのデータの表現する手話単語に対応する日本語の意味を示す。時系列データ作成部はこのラベルをキーにして日本語単語と手話データの対応付けを行う。単語文字ラベルはそのデータの表現する手話に対応する日本語の文字を表す。このデータを後の補完処理に用いることがある。品詞ラベルはそのデータの表現する手話単語に対応する日本語の品詞を表す。後述するが品詞によって時系列データ作成部13の行う処理が異なる。時系列データへのポインタは該当する単語をあらわす時系列データのポインタの構成を表す。
FIG. 4 is an explanatory diagram showing the configuration of the word dictionary.
An index is a number assigned to manage data. The word meaning label indicates the Japanese meaning corresponding to the sign language word represented by the data. The time series data creation unit associates Japanese words with sign language data using this label as a key. The word character label represents a Japanese character corresponding to the sign language represented by the data. This data may be used for later complement processing. The part-of-speech label represents the Japanese part-of-speech corresponding to the sign language word represented by the data. As will be described later, the processing performed by the time-series data creation unit 13 differs depending on the part of speech. The pointer to the time series data represents the configuration of the pointer of the time series data representing the corresponding word.

手話においては異なる単語の意味をあらわす動作を組み合わせることで別の単語の意味を作ることがある。そのため1つの単語を表現するために二つ以上の時系列データを用いることがある。例えば,図4の表中「公園」という単語のデータは「公園」が「遊ぶ」という手話の動作と「場所」という手話の動作の組み合わせで表されることを表現している。   In sign language, the meaning of another word may be created by combining actions that represent the meaning of different words. Therefore, two or more time-series data may be used to express one word. For example, the data of the word “park” in the table of FIG. 4 expresses that “park” is represented by a combination of a sign language action “play” and a sign language action “place”.

口形時系列データへのポインタは該単語の音を表す口形時系列データを表す。手話動作が同じでも表現する単語が異なる場合があり,その場合には口の形のデータをそれぞれの単語に適したものにしなければならない。図4の表に例として「公園」の例が示されている。口形時系列データへのポインタは時系列データと異なり,単純に「遊ぶ」,「場所」を足しあわせたものではなく「こうえん」を表現する口形データを指している。このようにデータを再利用できるので単語辞書と時系列データ,口形時系列データの独立性を高めておくことがデータ管理上好適である。   The pointer to the mouth shape time series data represents mouth shape time series data representing the sound of the word. Even if the sign language action is the same, the expressed word may be different. In that case, the mouth shape data must be suitable for each word. An example of “park” is shown in the table of FIG. 4 as an example. Unlike time-series data, the pointer to mouth-shaped time-series data points to mouth-shaped data representing “Kouen”, not simply “play” and “place”. Since data can be reused in this way, it is preferable in terms of data management to increase the independence of the word dictionary, time series data, and mouth shape time series data.

図5は,時系列データ辞書の構成を示す説明図である。
インデックスは単語辞書などからの参照キーである。手話動作を表現する命令と,その命令の指示する動作を始める相対時間,終了する相対時間を組にした構成になっている。命令部分には位置ベクトルデータ,手形パタンへのポインタ,表情パタンへのポインタが格納される。その種類はデータの種類によって示される。
FIG. 5 is an explanatory diagram showing the configuration of the time-series data dictionary.
The index is a reference key from a word dictionary or the like. This is a combination of a command expressing a sign language action, a relative time for starting the action indicated by the command, and a relative time for ending. The instruction part stores position vector data, a pointer to a bill pattern, and a pointer to an expression pattern. The type is indicated by the type of data.

図6は,口形時系列データ辞書の構成を示す説明図である。
図5の時系列データ辞書と同様の構成である。データ部分には口形パタンへのポインタが格納される。データの種類を表すキーはすべて同一である。
FIG. 6 is an explanatory diagram showing the configuration of the mouth shape time series data dictionary.
The configuration is similar to that of the time-series data dictionary of FIG. A pointer to the mouth pattern is stored in the data portion. All keys representing the data type are the same.

図7は,位置ベクトルデータの構成を示す説明図である。
前述の3Dモデル19に特定の動作を行わせるために3Dモデル19に与えるべき命令が列挙されている。手話話者の利き手の側を強手,反対の手を弱手と称するが,強手,弱手の順にモデルの肩,肘,手首,首,あごの姿勢,位置を指定するための各要素の代表点2点の固定点に対する相対位置ベクトルデータが格納されている。
FIG. 7 is an explanatory diagram showing the structure of position vector data.
The instructions to be given to the 3D model 19 in order to cause the 3D model 19 to perform a specific operation are listed. The dominant hand side of the sign language speaker is called the strong hand and the opposite hand is called the weak hand, but the representative of each element for specifying the posture, position of the model's shoulder, elbow, wrist, neck, chin in the order of strong hand and weak hand Relative position vector data for two fixed points is stored.

図8は,手形パタン辞書の構成を示す説明図である。
図4の時系列データのポインタから参照されるインデックスと強手側,弱手側,あるいは両方の手の区別と指の形を表現するための指形データへのポインタを並べている。
FIG. 8 is an explanatory diagram showing the configuration of the bill pattern dictionary.
The index referenced from the time-series data pointers in FIG. 4 and the pointers to the finger data for expressing the hand shape and the finger shape of the strong side, the weak side, or both are arranged.

図9は,指形データ辞書の構成を示す説明図である。
図9の各要素の中の値は,図3に示した手先19aの指の形をあらわすための位置ベクトルデータの情報を保持している。親指から小指までの5本の指に対し指を構成するa,b,cの各要素に対して姿勢を示すデータを元に,指の形を決定する。姿勢の指示をする情報は位置ベクトルデータと同様の構成をしている。
FIG. 9 is an explanatory diagram showing a configuration of the finger data dictionary.
The values in each element of FIG. 9 hold the position vector data information for representing the shape of the finger of the hand 19a shown in FIG. The shape of the finger is determined based on the data indicating the posture with respect to each of the elements a, b, and c constituting the finger for the five fingers from the thumb to the little finger. The information for instructing the posture has the same configuration as the position vector data.

図10は,口形パタン辞書の構成を示す説明図である。
図4の時系列データのポインタから参照されるインデックスと口の形に対応する音,口型データへのポインタを並べている。
FIG. 10 is an explanatory diagram showing the configuration of the mouth shape pattern dictionary.
The index referenced from the time-series data pointers in FIG. 4, the sound corresponding to the mouth shape, and the pointers to the mouth-shaped data are arranged.

図11は,口形データ辞書の構成を示す説明図である。
図10の口形パタン辞書から参照されるインデックスと口の形をポリゴンで表現したときの多角形の頂点座標として表される。
FIG. 11 is an explanatory diagram showing the configuration of the mouth shape data dictionary.
The index referred from the mouth shape pattern dictionary of FIG. 10 and the mouth shape are expressed as the vertex coordinates of the polygon when it is expressed as a polygon.

図12は,表情パタン辞書の構成を示す説明図である。
図4の時系列データのポインタから参照されるインデックスと対応する表情の表す意味のラベル,表情データへのポインタを並べている。
FIG. 12 is an explanatory diagram showing the configuration of the expression pattern dictionary.
The index referred to from the time-series data pointer in FIG. 4 and the meaning label representing the corresponding expression and the pointer to the expression data are arranged.

図13は,表情データ辞書の構成を示す説明図である。
図12の表情パタン辞書から参照されるインデクスと左右の眉,頬の形状パタンへのポインタ,左右の眉,頬の位置を表す3次元座標位置,あごの形状をあらわすパタンへのポインタ,あごの3次元座標位置をあらわしている。ここでの3次元座標位置とはそれぞれの要素の初期位置からの変量を示している。
FIG. 13 is an explanatory diagram showing the structure of the expression data dictionary.
Index and left and right eyebrows, pointers to cheek shape pattern, left and right eyebrows, 3D coordinate position representing cheek position, pointer to pattern representing jaw shape, jaw reference 3D coordinate position is shown. Here, the three-dimensional coordinate position indicates a variable from the initial position of each element.

図14は,眉形データ辞書の構成を示す説明図である。図15は,頬形データ辞書の構成を示す説明図である。図16は,あご形データ辞書の構成を示す説明図である。それぞれ図13に示される表情データ辞書のポインタから参照されるインデックスと形状パタンにつけられた名前,形状を表現するポリゴンの頂点座標の組を有している。   FIG. 14 is an explanatory diagram showing the structure of the eyebrow data dictionary. FIG. 15 is an explanatory diagram showing the configuration of the cheek data dictionary. FIG. 16 is an explanatory diagram showing the configuration of the jaw data dictionary. Each has a set of an index referenced from the pointer of the expression data dictionary shown in FIG. 13, a name given to the shape pattern, and a vertex coordinate of the polygon expressing the shape.

(修飾用辞書15)
次に修飾用辞書15の内部構成について図17を用いて説明する。インデックス,単語意味ラベル,単語文字ラベル,品詞ラベルは単語辞書のものと同様である。
(Modification dictionary 15)
Next, the internal structure of the modification dictionary 15 will be described with reference to FIG. The index, word meaning label, word character label, and part-of-speech label are the same as those in the word dictionary.

手話における副詞,形容詞的要素の表現は単純な名詞,動詞的要素の表現と異なる。そのため修飾用辞書15は単語辞書14と異なる構成をしている。副詞,形容詞的要素の表現はそれぞれの単語の意味をもつ手話単語を手話動作列中に追加して行われる場合と,文の中で動詞,名詞などの要素の動作を変更することで表現される場合がある。それぞれデータ変更方法で「動作速度変更」,「動作範囲変更」,「単語の追加」の三種類の方法のうちいずれかを指定する。変更品詞はこの動作によって変更される単語の品詞を示している。単語の追加を行う場合にはデータは空である。データの最後の要素は変更のパラメータ,または挿入される単語を示す単語辞書へのポインタを示す。   The expression of adverb and adjective elements in sign language is different from the expression of simple nouns and verb elements. Therefore, the modification dictionary 15 has a different configuration from the word dictionary 14. Adverbs and adjective elements are expressed by adding sign language words with the meaning of each word to the sign language action sequence and by changing the actions of verbs, nouns and other elements in the sentence. There is a case. Each of the data change methods specifies one of three methods: “change operation speed”, “change operation range”, and “add word”. The changed part of speech indicates the part of speech of the word changed by this action. When adding a word, the data is empty. The last element of the data indicates the parameter of change or a pointer to a word dictionary indicating the word to be inserted.

本実施の形態にかかる情報表示装置1は,以上のように構成されている。
次いで,本実施の形態の動作について説明する。
The information display device 1 according to the present embodiment is configured as described above.
Next, the operation of this embodiment will be described.

本実施の形態における動作の流れを示す。時系列データ作成の流れを図18に,アニメーションの表示の流れを図19に示す。また,実際のプログラムの画面動作例を図20に示す。   The flow of operation in this embodiment is shown. The flow of time series data creation is shown in FIG. 18, and the flow of animation display is shown in FIG. An example of the actual program screen operation is shown in FIG.

(1.文章入力)
ステップS181でユーザはキーボードなどの文章入力手段によって3Dアニメーションで表現したい文章を入力する。ステップS182のように音声入力などで文章を入力する場合,ステップS183の音声テキスト変換をすることにより入力された音声を文章に変換し,次のステップへの入力とする。
(1. Text input)
In step S181, the user inputs a sentence to be expressed by 3D animation using a sentence input unit such as a keyboard. When a sentence is input by voice input or the like as in step S182, the input voice is converted into a sentence by performing the voice-to-text conversion in step S183, and input to the next step.

(2.単語への割り当て)
形態素解析部12は入力された文章をステップS184で形態素解析し,形態素に分解する。さらにステップS185で形態素に一般的な日本語の辞書を用いて品詞を割り当てる。品詞を割り当てられた形態素を以下では単語と呼ぶ。
(2. Assignment to words)
In step S184, the morpheme analyzer 12 analyzes the input sentence and decomposes it into morphemes. In step S185, parts of speech are assigned to morphemes using a general Japanese dictionary. A morpheme assigned a part of speech is hereinafter referred to as a word.

(3.時系列データの作成と編集)
(3−1.データの割り当て)
時系列データ作成部13は,単語を1つ読み出し,ステップS186で単語の品詞を調べ,「て」「に」「を」「は」などの手話として表されない非自立語である場合にはステップS187で無視する。その他の場合に単語を次のステップS188への入力とする。
(3. Creation and editing of time series data)
(3-1. Data allocation)
The time-series data creation unit 13 reads one word, checks the part of speech of the word in step S186, and if it is a non-independent word that is not expressed as a sign language such as “te” “ni” “wo” “ha” Ignored in S187. In other cases, the word is input to the next step S188.

ステップS188で単語の品詞が形容詞,または副詞であるかどうか判断する。
単語の品詞が形容詞,または副詞以外である場合には時系列データ作成部はステップS189で単語の意味ラベルと品詞名をキーとして単語辞書からその単語の意味をあらわすための時系列データを検索する。単語として単語辞書に登録されていない場合にはステップS1810で文字の表す音を表現する指文字で表現する。単語として登録されている場合には時系列データ作成部13は単語辞書14からデータをステップS1811で読み出し,ステップS1812で仮データ(1)に追加する。
In step S188, it is determined whether the word part of speech is an adjective or an adverb.
If the part of speech of the word is other than an adjective or adverb, the time series data creation unit searches time series data for representing the meaning of the word from the word dictionary using the word meaning label and the part of speech name as keys in step S189. . If it is not registered in the word dictionary as a word, it is expressed by a finger character that expresses the sound represented by the character in step S1810. If it is registered as a word, the time-series data creation unit 13 reads the data from the word dictionary 14 in step S1811 and adds it to the temporary data (1) in step S1812.

単語が副詞または形容詞であった場合はステップS1813で単語の意味ラベルと品詞名をキーとして修飾用辞書からその単語の意味を表すための時系列データを検索する。単語として登録されていない場合はステップS1810に進む。単語として登録されている場合は既存のデータをステップS1814で読み,ステップS1815で仮データ(1)とは別系統の仮データ(2)に追加する。   If the word is an adverb or adjective, in step S1813, time series data for representing the meaning of the word is retrieved from the modifier dictionary using the word meaning label and the part of speech name as keys. If it is not registered as a word, the process proceeds to step S1810. If it is registered as a word, the existing data is read in step S1814, and is added to temporary data (2) of a different system from temporary data (1) in step S1815.

ステップS186からステップS1812,ステップS1815までの処理を単語がなくなるまで繰り返す。   The processes from step S186 to step S1812, and step S1815 are repeated until there are no more words.

(3−2.指文字で表現)
ステップS1821で時系列データ作成部13は単語の単語文字ラベルから一文字読み出し,ステップS1822でその文字を検索キーとして単語辞書から指文字を表現するための時系列データを読む。単語文字ラベルの文字がなくなるまで指文字データを追加する。
(3-2. Expressed with finger characters)
In step S1821, the time-series data creation unit 13 reads one character from the word character label of the word, and in step S1822 reads time-series data for expressing a finger character from the word dictionary using the character as a search key. Finger character data is added until there are no more characters in the word character label.

(3−3.順序の変更)
ステップS1816で時系列データ作成部13は得られた仮データ(1)の組を既存の研究と同様に単語間の状態遷移として表現されている文法に従った並び順に変更して配置する。
(3-3. Change of order)
In step S1816, the time-series data creation unit 13 arranges the set of the obtained temporary data (1) by changing the arrangement order according to the grammar expressed as the state transition between words as in the existing research.

(3−4.位置データの補完)
ステップS1817では時系列データ作成部13が仮データ(2)の指示する指令に従って仮データ(1)に修飾的単語を示す時系列データを挿入する。処理はステップS1811と同様である。文の区切りを示すためのうなずく様子の動作を表すための時系列データもこのステップで同様に追加する。
(3-4. Complementation of position data)
In step S1817, the time-series data creation unit 13 inserts time-series data indicating a modifier word into the temporary data (1) in accordance with a command instructed by the temporary data (2). Processing is the same as in step S1811. In this step, time series data is also added in the same manner to express the behavior of a nod to show sentence breaks.

(3−5.位置データの修正)
ステップS1818では位置データの修正を行う。例えば「大きい」という形容詞が「地震」という名詞にかかる場合がある。この場合修飾用辞書中の「大きい」の変更方法は「範囲の変更」であるので,時系列データ作成部は修飾用辞書を参照して単語意味ラベルを書きかえ「大きな地震」とし,パラメータを参照して文中の「地震」という名詞の動作位置の終点を位置パラメータによって変更した値として,動作の範囲を拡大する。さらに3Dモデルが指文字での表現を行う場合に見易さを向上させるため3Dモデルに手の拡大を行わせる指令などの強調を表すための指令データを追加する。
(3-5. Correction of position data)
In step S1818, the position data is corrected. For example, the adjective “large” may be applied to the noun “earthquake”. In this case, since the change method of “large” in the modifier dictionary is “change of range”, the time-series data creation section refers to the modifier dictionary and rewrites the word meaning label to “large earthquake” and sets the parameter. The range of motion is expanded by referring to the end point of the motion position of the noun “earthquake” in the sentence as a value changed by the position parameter. Furthermore, command data for expressing emphasis such as a command for causing the 3D model to enlarge the hand in order to improve visibility when the 3D model expresses with a finger character is added.

(3−6.時間データの修正)
ステップS1819で時系列データ作成部13は単語を表現する一群の時系列データに同一のインデックスを割り当て,相対時間で表現されている動作開始時間,動作終了時間を前の単語が終了した時間を加算して絶対時間表現とする。仮データの指示する指令に従って時系列データに動作速度を変更するため開始時間,動作終了時間を修正する処理を行う。例えば図21に示されるように「ゆっくり」という副詞が「いう」という動詞にかかる場合がある。この場合修飾用辞書中の「ゆっくり」の変更方法は「速度の変更」であるので,時系列データ作成部は修飾用辞書を参照して単語意味ラベルを書きかえ「ゆっくりいう」とし,パラメータを参照して文中の「言う」という動詞の動作開始から終了までの時間を時間パラメータを乗じた値とする。
(3-6. Correction of time data)
In step S1819, the time-series data creation unit 13 assigns the same index to a group of time-series data representing a word, and adds the operation start time and operation end time expressed in relative time to the time when the previous word ended. And absolute time representation. A process for correcting the start time and the operation end time is performed in order to change the operation speed to time-series data in accordance with a command indicated by the provisional data. For example, as shown in FIG. 21, the adverb “slow” may be applied to the verb “say”. In this case, since the “slow” change method in the modification dictionary is “change speed”, the time-series data creation unit refers to the modification dictionary and rewrites the word meaning label as “slow say” and sets the parameter. The time from the start to the end of the verb “say” in the sentence is referred to as a value multiplied by the time parameter.

(3−7.その他の修正)
ステップS1820で時系列データ作成部13は編集中の時系列データの各単語間をつなぐ部分,いわゆるわたり部の位置データを,時間データを参照して動作が滑らかになるようスプラインなどを用いて補間処理して修正する。
(3-7. Other corrections)
In step S1820, the time series data creation unit 13 interpolates the position data of the so-called crossing part, which connects the words of the time series data being edited, using a spline or the like so that the operation is smooth with reference to the time data. Process and correct.

(4.アニメーションの表示)
ステップS191でユーザがアニメーション再生の指示を出して後,ステップS192で時系列データを読み出し,それに従って3Dモデルを動作させる,すなわち,タイマ17が指示された時間ごとに時系列データの指令を3Dモデルに伝える。
(4. Animation display)
After the user issues an animation playback instruction in step S191, the time series data is read out in step S192, and the 3D model is operated accordingly. That is, the time series data is instructed every time the timer 17 is instructed. To tell.

ステップS193で描画部がタイマ17とは独立した時間間隔で3Dモデルと視点をあらわすベクトルデータとの関係から投影される像を計算し2次元画面上に描写する。   In step S193, the drawing unit calculates an image projected from the relationship between the 3D model and the vector data representing the viewpoint at a time interval independent of the timer 17, and draws it on the two-dimensional screen.

アニメーションの操作中にユーザは次のような操作が可能である。
a)画面上の視点変更入力部116を用いて視点を変更する。
b)速度変更入力部115を用いてモデルの動作速度を変更する。
c)停止ボタンを押すことでアニメーションの表示を途中で停止する。
The user can perform the following operations during the operation of the animation.
a) Change the viewpoint using the viewpoint change input unit 116 on the screen.
b) The operation speed of the model is changed using the speed change input unit 115.
c) The animation display is stopped halfway by pressing the stop button.

これらの処理はステップS194に示される。それぞれ図20の画面に示された入力部を操作することで操作指令を出す。ステップS195でユーザの入力が終了指示である場合を検出しステップS196で終了させる。   These processes are shown in step S194. An operation command is issued by operating the input unit shown on the screen of FIG. In step S195, a case where the user input is an end instruction is detected, and the process ends in step S196.

(4−1.監視による情報損失防止)
本実施の形態の構成の場合,監視部113は,3Dモデル19の唇の要素と手先の要素の2次元画面上へのあらわれ方を常に監視している。ステップS197で監視部が一般的な重なり検出アルゴリズムを用いて2次元画面18上の手先19aと,唇の重なりを検査し,重なりが検出された場合にステップS198で情報欠落防止部に通知を行う。
(4-1. Information loss prevention by monitoring)
In the case of the configuration of the present embodiment, the monitoring unit 113 constantly monitors how the lip element and the hand element of the 3D model 19 appear on the two-dimensional screen. In step S197, the monitoring unit inspects the overlap between the hand 19a on the two-dimensional screen 18 and the lips using a general overlap detection algorithm, and notifies the information loss prevention unit in step S198 if an overlap is detected. .

重なり検出のためのアルゴリズムの例を以下に述べる。図22に示したように3Dモデル19の手を表現する要素の重心を中心点とし,要素を表現する多角形の頂点のうち重心から最も遠く離れた点と中心の距離を半径として中心点を中心にして円を描き,視線ベクトルの方向,円とスクリーン間の距離から,スクリーン上に投影される中心点と半径を得て,同様に唇に対しても円の中心となる点と半径を得る,画面上での二つの中心点のユークリッド距離を求めそれが二つの円半径の和よりも小さくなる場合に二つの要素が重なると判断する。   An example of an algorithm for overlap detection is described below. As shown in FIG. 22, the center of gravity of the element representing the hand of the 3D model 19 is set as the center point, and the center point is determined by setting the distance between the center farthest from the center of gravity of the polygon representing the element and the center as the radius. Draw a circle at the center, and obtain the center point and radius projected on the screen from the direction of the line-of-sight vector and the distance between the circle and the screen. Obtain the Euclidean distance between the two center points on the screen, and if it is smaller than the sum of the two circle radii, determine that the two elements overlap.

(4−2.再描画)
ステップS199で情報欠落防止部114は監視部113からの通知を受けて,3Dモデル19に指示を出す,すなわちこの本実施の形態の構成例の場合には3Dモデル19に唇と重なった手を縮小させる指令を行う。ステップS1910で3Dモデルが指示に従って動作する。ステップS1911で変更された3Dモデル19,視点,速度の状況を反映して描画部110が2次元画面18を描写する。
(4-2. Redraw)
In step S199, the information loss prevention unit 114 receives the notification from the monitoring unit 113 and issues an instruction to the 3D model 19, that is, in the case of the configuration example of this embodiment, the hand that overlaps the lips is placed on the 3D model 19. Command to reduce. In step S1910, the 3D model operates according to the instruction. The drawing unit 110 draws the two-dimensional screen 18 reflecting the state of the 3D model 19, viewpoint, and speed changed in step S1911.

(4.)の処理を時系列データがなくなるか,ユーザから終了の指示が出るまで繰り返す。 The process of (4) is repeated until there is no time series data or an end instruction is issued from the user.

(第1の実施の形態の効果)
以上説明したように,本実施の形態によれば,監視部113が2次元画面18上にあらわれる3Dモデル19の手先19aと唇を常に監視し,それらの重なりを検出した場合に情報欠落防止部114がモデルに対し手先を縮小させる指示を出す。このことにより,ユーザが3Dモデル19によるアニメーションの表示中に常に画面内での視点方向を変更できるようなインタラクティビティの高い構成としても,また3Dモデル19が指文字を表現するときに手を拡大するという単純なルールに基づいた強調処理を行った場合でも,表現すべき手話の情報をあらわす唇の部分が画面に表示されるようになり,情報の欠落を防ぐことができる。
(Effects of the first embodiment)
As described above, according to the present embodiment, when the monitoring unit 113 constantly monitors the hand 19a and lips of the 3D model 19 appearing on the two-dimensional screen 18, and detects their overlap, the information loss prevention unit 114 instructs the model to reduce the hand. This allows the user to change the viewpoint direction on the screen at all times while the animation is displayed by the 3D model 19, and to expand the hand when the 3D model 19 expresses a finger character. Even when emphasis processing based on the simple rule of doing is performed, the lip portion representing the information of the sign language to be expressed is displayed on the screen, and the loss of information can be prevented.

(第2の実施の形態)
第2の実施の形態では,第1の実施の形態のシステム構成に属性辞書22,監視情報作成部23,監視情報データ24という要素を追加することにより,3Dモデル19の要素の「重なり検出」に加えて,「遠近感の欠如」によって情報が欠落することを防ぐための例を示す。
(Second Embodiment)
In the second embodiment, by adding the elements of the attribute dictionary 22, the monitoring information creation unit 23, and the monitoring information data 24 to the system configuration of the first embodiment, “overlap detection” of the elements of the 3D model 19 is performed. In addition, an example is provided to prevent information loss due to “lack of perspective”.

図23は第2の実施の形態を示すブロック図である。
本実施の形態にかかる情報表示装置2は,図23に示したように,第1の実施の形態にかかる情報表示装置1の構成要素に加えて,属性辞書22と,監視情報作成部23を含んで構成されている。また,タイマ27,監視部25,情報欠落防止部26に新たな機能を加えている。以下では,これら本実施の形態に特徴的な構成要素を中心に説明し,上記第1の実施の形態と実質的に同様の機能を有する構成要素については,同一符号を付すことで重複説明を省略する。
FIG. 23 is a block diagram showing the second embodiment.
As shown in FIG. 23, the information display device 2 according to the present embodiment includes an attribute dictionary 22 and a monitoring information creation unit 23 in addition to the components of the information display device 1 according to the first embodiment. It is configured to include. In addition, new functions are added to the timer 27, the monitoring unit 25, and the information loss prevention unit 26. In the following, description will be made focusing on these characteristic components of the present embodiment, and components having substantially the same functions as those of the first embodiment will be described with the same reference numerals. Omitted.

属性辞書22は入力された文章中の単語を鍵とし,情報欠落を防ぐために3Dモデル19のどの要素を監視すべきか,欠落を防止するためにどのような処理を行うべきかなどの情報を格納する記憶手段である。   The attribute dictionary 22 stores information such as which elements of the 3D model 19 should be monitored to prevent information loss and what processing should be performed to prevent loss, using words in the input sentence as keys. Storage means.

監視情報作成部23は属性辞書22と時系列データ16を用い,形態素解析部21の出力を参照して監視部25が参照するための監視情報データ24を作成する機能部である。   The monitoring information creation unit 23 is a functional unit that creates the monitoring information data 24 to be referred to by the monitoring unit 25 with reference to the output of the morphological analysis unit 21 using the attribute dictionary 22 and the time series data 16.

監視情報データ24は3Dモデル111の動作中に監視部25が監視に必要なデータを時系列に並べた構成をしている。3Dアニメ表示中に監視すべき3Dモデル111の要素と監視すべき状態,また情報欠落防止部26から指示すべき内容の情報を含んでいる。これは監視部25によって参照される。   The monitoring information data 24 has a configuration in which data necessary for monitoring by the monitoring unit 25 is arranged in time series during the operation of the 3D model 111. It includes information about the elements of the 3D model 111 to be monitored and the status to be monitored during the 3D animation display, and contents to be instructed from the information loss prevention unit 26. This is referred to by the monitoring unit 25.

監視部25は監視情報データ24を参照し,その指示内容に従って2次元画面18上の3Dモデル111を監視する。各種情報の欠落を検出した場合に,情報欠落防止部に通知を行う機能部である。   The monitoring unit 25 refers to the monitoring information data 24 and monitors the 3D model 111 on the two-dimensional screen 18 according to the instruction content. This is a functional unit that notifies the information loss prevention unit when a loss of various types of information is detected.

情報欠落防止部26は監視部25からの通知を受け,3Dモデル19または視点112に情報欠落を防止するための指示を出す機能部である。   The information loss prevention unit 26 is a functional unit that receives a notification from the monitoring unit 25 and issues an instruction to the 3D model 19 or the viewpoint 112 to prevent information loss.

図24は,属性辞書22のデータの構成を示す説明図である。
属性辞書22のインデックスは対応する単語の単語辞書のインデックスと同じ値が入っている。このインデックスを用いて単語との対応付けを行う。監視対象は3Dモデル19がインデックスに示された単語を表現している動作中に,監視部25が情報の欠落を防ぐために監視を行うべき3Dモデル19の要素を示す。
FIG. 24 is an explanatory diagram showing a data structure of the attribute dictionary 22.
The index of the attribute dictionary 22 contains the same value as the index of the corresponding word dictionary. This index is used to associate with a word. The monitoring target indicates an element of the 3D model 19 that the monitoring unit 25 should monitor in order to prevent a loss of information during the operation in which the 3D model 19 represents the word indicated by the index.

監視アルゴリズムの種類は3Dモデル19の要素のどの状態を監視すべきかを示す。具体的には「重なり検出」,「遠近感検出」から選択されている。   The type of the monitoring algorithm indicates which state of the elements of the 3D model 19 should be monitored. Specifically, “overlap detection” or “perspective detection” is selected.

パラメータにはそれぞれ重なりの余裕範囲,遠近感を表す場合の許容範囲,を含む。これらのパラメータについては後に詳述する。   Each parameter includes an overlap margin range and an allowable range for expressing perspective. These parameters will be described in detail later.

防止用のアルゴリズムは監視部25から指令を受けた際に3Dモデル19に与えるべき指令の種類を示している。「拡大/縮小」「回転」「透過」の中から選択され,格納されている。   The prevention algorithm indicates the type of command to be given to the 3D model 19 when a command is received from the monitoring unit 25. “Enlarged / reduced”, “rotated”, or “transparent” is selected and stored.

パラメータにはそれぞれ,要素の透過率,拡大/縮小率,回転速度が格納されている。
監視情報データ24の構成は図25のようになっている。監視情報データのインデックス(index)は対応する時系列データのインデックスと同じ値が入っている。また,動作開始時間,終了時間は,意味を表す動作の単位の開始時間,終了時間を示すものであり,時系列データから求める。その他のパラメータは属性辞書25の持つデータと同じものである。
Each parameter stores the element transmittance, the enlargement / reduction ratio, and the rotation speed.
The configuration of the monitoring information data 24 is as shown in FIG. The index (index) of the monitoring information data contains the same value as the index of the corresponding time series data. Further, the operation start time and end time indicate the start time and end time of the unit of motion representing meaning, and are obtained from time series data. Other parameters are the same as the data possessed by the attribute dictionary 25.

本実施の形態にかかる情報表示装置2は,以上のように構成されている。
次いで,本実施の形態の動作について説明する。
The information display device 2 according to the present embodiment is configured as described above.
Next, the operation of this embodiment will be described.

第2の実施の形態における動作の流れから,監視情報データ作成の流れについて図26,その後のアニメーション表示処理について図27にそれぞれ示す。   From the flow of operations in the second embodiment, FIG. 26 shows the flow of creating monitoring information data, and FIG. 27 shows the subsequent animation display processing.

(1.文章入力),(2.単語への割り当て),(3.時系列データの作成と編集),までは,上記第1の実施の形態と同様である。 (1. Text input), (2. Assignment to word), (3. Creation and editing of time series data) are the same as those in the first embodiment.

(4−b:監視情報データの作成)
図26に示された流れで監視情報作成部23が監視情報データを作成する。
ステップS261で監視情報作成部23が作成された時系列データ16からデータを1つ読み出す。
(4-b: Creation of monitoring information data)
The monitoring information creation unit 23 creates monitoring information data in the flow shown in FIG.
In step S261, the monitoring information creation unit 23 reads one piece of data from the time series data 16 created.

ステップS262で監視情報作成部23が読み出されたデータのインデックスをキーにして属性辞書22を検索する。該当データがない場合にはステップS261に戻り,次のデータを読み出す。該当データがある場合にはステップS263で時系列データから意味を表す動作の単位の開始時間,終了時間を抜きだし,属性辞書からそれぞれの時間ごとのアルゴリズム選択,アルゴリズムの対象,パラメータ,防止用のアルゴリズム,パラメータを読み出し,ステップS264でデータに追加する。時系列データがなくなるまでステップS261からステップS264までの処理を繰り返し,完成したデータを監視情報データとする。   In step S262, the monitoring information creation unit 23 searches the attribute dictionary 22 using the index of the read data as a key. If there is no corresponding data, the process returns to step S261 to read the next data. If there is such data, in step S263, the start time and end time of the operation unit expressing the meaning are extracted from the time series data, and the algorithm selection, algorithm target, parameter, prevention for each time are selected from the attribute dictionary. The algorithm and parameters are read out and added to the data in step S264. The processing from step S261 to step S264 is repeated until there is no time series data, and the completed data is set as monitoring information data.

(5−b:アニメーションの表示)
ステップS196までは,第1の実施の形態と同様である。これらの処理と並列に監視情報データから監視部25へのデータの読み込みを行う。
(5-b: Animation display)
Up to step S196, the process is the same as in the first embodiment. In parallel with these processes, data is read from the monitoring information data to the monitoring unit 25.

ステップS271で監視部25はタイマ27の指令で3Dモデルの動作状況と同期して監視情報データを読み出す。   In step S <b> 271, the monitoring unit 25 reads the monitoring information data in synchronization with the operation state of the 3D model in response to a command from the timer 27.

ステップS272で監視部25はステップS271で読み出したデータに従って,監視する要素,監視する状態とそのためのアルゴリズム,情報欠落防止部26へ通知する欠落防止の処理をする。監視情報データが「重なり検出」の処理を持っている場合は,検出に使用するアルゴリズムは上記第1の実施の形態と同様であるが,本実施の形態では監視するべき3Dモデルの要素,余裕範囲を任意に指定できる。ここで余裕範囲とは,実際に2次元画面18上に表示される円の半径をパラメータで指定した値だけ拡大することで,重なりが生ずる状態に余裕を持って監視部25からの指令を発生させることができるその余裕の範囲のことである。   In step S272, the monitoring unit 25 performs a process for preventing loss to be notified to the element to be monitored, the state to be monitored and the algorithm for monitoring, and the information loss prevention unit 26 in accordance with the data read in step S271. When the monitoring information data has a process of “overlap detection”, the algorithm used for detection is the same as that in the first embodiment, but in this embodiment, the elements of the 3D model to be monitored, the margin The range can be specified arbitrarily. Here, the margin range means that a command from the monitoring unit 25 is generated with a margin in a state where overlap occurs by enlarging the radius of a circle actually displayed on the two-dimensional screen 18 by a value specified by a parameter. It is the range of the margin that can be made.

監視情報データによって指定される監視状態が「遠近感検出」である場合の情報欠落検出のためのアルゴリズムを図28で説明する。3Dモデル19上でつながりのある要素における3つの点を監視し,動作によって変更される要素の動作が直線的である場合に遠近感が欠落したとして情報欠落防止部26に通知する。具体的には各要素上の3点に対し2本のベクトルを設定し,ベクトルの角度変化を計算してその値が監視情報データのパラメータの値以下である場合に情報欠落防止部26への指令を発生させるというものである。このベクトルは3Dモデル19の持つ3次元情報を無視し,2次元平面上での位置関係から計算する。時系列データの指令によってP2がP2’に移動するが図28(a)の例では遠近感が表現されており,図28(b)の例では欠落しているとする。   An algorithm for detecting missing information when the monitoring state specified by the monitoring information data is “perspective detection” will be described with reference to FIG. Three points in connected elements on the 3D model 19 are monitored, and when the movement of the element changed by the movement is linear, the information loss prevention unit 26 is notified that the perspective has been lost. Specifically, two vectors are set for three points on each element, the change in the angle of the vector is calculated, and when the value is less than or equal to the parameter value of the monitoring information data, the information loss prevention unit 26 A command is generated. This vector is calculated from the positional relationship on the two-dimensional plane, ignoring the three-dimensional information of the 3D model 19. Although P2 moves to P2 'by the command of the time series data, it is assumed that a sense of perspective is expressed in the example of FIG. 28A and is missing in the example of FIG.

ステップS273で監視部25は指定されたアルゴリズムに基づいて,指定された要素を観察し情報の欠落が検出された場合に情報欠落防止部26にステップS274で通知を行う。通知には情報欠落防止部26が3Dモデルのどの要素に対してどのような情報欠落防止処理を行うかの情報が含まれている。   In step S273, the monitoring unit 25 observes the specified element based on the specified algorithm, and notifies the information loss prevention unit 26 in step S274 when the information loss is detected. The notification includes information on what information loss prevention processing the information loss prevention unit 26 performs for which element of the 3D model.

ステップS275で監視部25から指令を受けた情報欠落防止部26は「拡大縮小」「回転」「透過」のうちのいずれかの指令を3Dモデルに対して行う。「拡大縮小」の場合は監視情報データに示されるパラメータの値を倍率として要素を拡大または縮小する。「回転」の場合は,監視情報データに示されるパラメータの値を回転量として3Dモデルを体の中心軸周りに回転させる。「透過」の場合は,監視情報データに示されるパラメータの値を物体の光の透過率として要素を半透明または透明にする。   Receiving the command from the monitoring unit 25 in step S275, the information loss prevention unit 26 performs any one of “enlargement / reduction”, “rotation”, and “transmission” on the 3D model. In the case of “enlargement / reduction”, the element is enlarged or reduced using the value of the parameter indicated in the monitoring information data as a magnification. In the case of “rotation”, the 3D model is rotated around the center axis of the body using the parameter value indicated in the monitoring information data as the rotation amount. In the case of “transmission”, the element is made translucent or transparent by using the parameter value indicated in the monitoring information data as the light transmittance of the object.

ステップS276で情報欠落防止部26によって通知された指令に従って3Dモデル19または視点が動作する。   In step S276, the 3D model 19 or the viewpoint operates according to the instruction notified by the information loss prevention unit 26.

ステップS277で描画部110が更新された視点と3Dモデル19に対する情報から再度2次元画像を描画する。   In step S277, the drawing unit 110 draws the two-dimensional image again from the updated viewpoint and information on the 3D model 19.

5−bの処理を時系列データがなくなるまで繰り返す。   The process of 5-b is repeated until there is no time series data.

(第2の実施の形態の効果)
以上説明したように,本実施の形態によれば,属性辞書22と監視情報作成部23が,3Dモデル19の動作が表現する単語ごとに監視すべき要素と,情報欠落が起こりうる場合に採るべき処理を指定した監視情報データを作成することで,より細かく情報欠落の防止方法を指定することができる。結果,上記第1の実施の形態よりも幅広く情報欠落を防いだ3Dアニメーションを表現することができる。
(Effect of the second embodiment)
As described above, according to the present embodiment, the attribute dictionary 22 and the monitoring information creation unit 23 are used when the elements to be monitored for each word expressed by the operation of the 3D model 19 and information loss may occur. By creating monitoring information data that specifies the processing to be performed, it is possible to specify a method for preventing information loss in more detail. As a result, it is possible to express a 3D animation in which information loss is prevented more widely than in the first embodiment.

(第3の実施の形態)
第3の実施の形態では,第2の実施の形態の監視情報データに補完用情報という要素を,さらにシステムに情報欠落補完部34という要素を追加することにより,ユーザの操作などによって3Dモデルが表現するアニメーションから欠落してしまった情報を3Dモデルの動作とは別の情報提示によって補完するための構成例を示す。
(Third embodiment)
In the third embodiment, a 3D model is created by a user's operation or the like by adding an element of complementary information to the monitoring information data of the second embodiment and further adding an element of an information missing complement unit 34 to the system. An example of a configuration for complementing information missing from an animation to be represented by information presentation different from the operation of the 3D model is shown.

図29は第3の実施の形態を示すブロック図である。
本実施の形態にかかる情報表示装置3は,図29に示したように,第2の実施の形態にかかる情報表示装置2の構成要素に加えて,2次元画面18上に,サブ画面35または字幕36を含んで構成されている。また,監視部33,情報欠落補間部34に新たな機能を加えている。以下では,これら本実施の形態に特徴的な構成要素を中心に説明し,上記第1,第2の実施の形態と実質的に同様の機能を有する構成要素については,同一符号を付すことで重複説明を省略する。
FIG. 29 is a block diagram showing the third embodiment.
As shown in FIG. 29, the information display device 3 according to the present embodiment includes a sub-screen 35 or a sub screen 35 on the two-dimensional screen 18 in addition to the components of the information display device 2 according to the second embodiment. The subtitle 36 is included. In addition, new functions are added to the monitoring unit 33 and the missing information interpolation unit 34. In the following, description will be made focusing on the components that are characteristic of the present embodiment, and components having substantially the same functions as those of the first and second embodiments will be denoted by the same reference numerals. Duplicate explanation is omitted.

監視部33は監視情報データ31にしたがって,2次元画面上18に描かれた3Dモデル111の要素のうち,監視情報データによって指定された要素を同じく指定されたアルゴリズムに従って監視し,情報の欠落を検知した場合に情報欠落補完部34に通知する。通知の内容には補完の方法と,補完すべきデータの内容も含まれている。   The monitoring unit 33 monitors the elements specified by the monitoring information data among the elements of the 3D model 111 drawn on the two-dimensional screen 18 according to the monitoring information data 31 according to the same specified algorithm. When it is detected, it is notified to the information loss complementing unit 34. The content of the notification includes the method of completion and the content of the data to be supplemented.

情報欠落補完部34としては字幕による表示手段,サブ画面による表示手段の2種類を想定している。   As the information loss complementing unit 34, two types of display means such as subtitle display means and sub-screen display means are assumed.

サブ画面35は3Dモデル19の要素の一部だけを拡大して2次元画面18上に重ねて表示するための画面である。   The sub screen 35 is a screen for enlarging only a part of the elements of the 3D model 19 and displaying the enlarged images on the two-dimensional screen 18.

字幕36は3Dモデル19が表している動作の意味を表す文字を2次元画面18中に重ねて表示する。   The caption 36 displays characters representing the meaning of the operation represented by the 3D model 19 in an overlapping manner on the two-dimensional screen 18.

補完用情報32を追加した監視情報データ31の構成を図34に示す。字幕用のデータには字幕表示手段が表示すべき文字列が格納されている。サブ画面用のデータには,サブ画面に表示すべき要素,すなわち口形データ,手形データへのポインタが格納されている。それぞれ監視情報作成部23が時系列データから読み出したものである。   The configuration of the monitoring information data 31 to which the supplementary information 32 is added is shown in FIG. The character string to be displayed by the caption display means is stored in the caption data. The sub-screen data stores elements to be displayed on the sub-screen, that is, mouth shape data and pointers to bill data. Each is read from the time-series data by the monitoring information creation unit 23.

また属性辞書22の監視用アルゴリズムとして「速度検出」を追加する。これは,要素の重心位置における画面上移動平均を微分することで要素の動作速度を得るというものである。図30を参照しながら説明する。時間T0と時間T1の間に重心が距離D0だけ進んでいる。これからV=D0/T1−T0という計算で速度を求めることができる。この値がパラメータに示された範囲の外にある場合に速度情報が欠落したと判断して情報欠落補完部34に通知する。   Further, “speed detection” is added as a monitoring algorithm of the attribute dictionary 22. This is to obtain the operation speed of the element by differentiating the moving average on the screen at the position of the center of gravity of the element. This will be described with reference to FIG. The center of gravity advances by a distance D0 between time T0 and time T1. From this, the speed can be obtained by the calculation of V = D0 / T1-T0. If this value is outside the range indicated by the parameter, it is determined that the speed information has been lost and notifies the information loss complementing unit 34.

本実施の形態にかかる情報表示装置3は,以上のように構成されている。
次いで,本実施の形態の動作について説明する。
The information display device 3 according to the present embodiment is configured as described above.
Next, the operation of this embodiment will be described.

(1.文章入力),(2.単語への割り当て),(3.時系列データの作成と編集)までは,上記第1,第2の実施の形態と同様である。   The steps up to (1. sentence input), (2. assignment to word), and (3. creation and editing of time series data) are the same as those in the first and second embodiments.

(4−c:監視情報データの作成)
ステップ自体は,上記第2の実施の形態の(4−b)と同様であるが,検索される監視情報データの構成は前述したように上記第2の実施の形態と異なっている。字幕用のデータ,サブ画面用データを他のデータと同様に読み込む。
(4-c: Creation of monitoring information data)
The steps themselves are the same as (4-b) in the second embodiment, but the structure of the retrieved monitoring information data is different from that in the second embodiment as described above. Read subtitle data and sub-screen data in the same way as other data.

(5−c:アニメーションの表示)
アニメーション表示のフローを図31に示す。
(5-c: Animation display)
The animation display flow is shown in FIG.

監視部33によって2次元画面18上にあらわれる3Dモデル111の要素の情報が欠落したことが情報欠落補完部34に通知された場合,情報欠落補完部34は2次元画面上に欠落情報を補完するための表示を行うための処理をする。   When the information missing complementing unit 34 is notified by the monitoring unit 33 that the information of the elements of the 3D model 111 appearing on the two-dimensional screen 18 is missing, the information missing complementing unit 34 supplements the missing information on the two-dimensional screen. For the display for the purpose.

ステップS191からS196までは,上記第1,第2の実施の形態と同様。これらの処理と並列に監視情報データから監視部33へのデータの読み込みを行う。   Steps S191 to S196 are the same as those in the first and second embodiments. In parallel with these processes, the monitoring information data is read into the monitoring unit 33.

ステップS311で監視部33はタイマ27の指令で3Dモデル19の動作状況と同期して監視情報データを読み出す。   In step S <b> 311, the monitoring unit 33 reads the monitoring information data in synchronization with the operation status of the 3D model 19 in response to a command from the timer 27.

ステップS312で監視部33はステップS311で読み出したデータに従って,監視する要素,監視する状態とそのためのアルゴリズム,情報欠落補完部34へ通知する補完すべき内容の情報を決定する。   In step S312, the monitoring unit 33 determines the element to be monitored, the state to be monitored and the algorithm for the monitoring, and information on the contents to be complemented to be notified to the information loss complementing unit 34 according to the data read in step S311.

ステップS273で監視部33は指定されたアルゴリズムに基づいて,指定された要素を観察し情報の欠落が検出された場合に情報欠落補完部34にステップS313で通知を行う。通知にはどのような情報補完処理を行うかの情報が含まれている。   In step S273, the monitoring unit 33 observes the designated element based on the designated algorithm, and notifies the information missing complementing unit 34 in step S313 when the missing information is detected. The notification includes information on what kind of information complement processing is performed.

ステップS314で監視部33から指令を受けた情報欠落補完部34は「字幕表示」「サブ画面の追加」のいずれかの処理を行う。サブ画面表示の場合には,図32に示したように,2次元画面28上に唇の拡大画像,手の拡大画像を重畳したサブ画面35を表示する。字幕表示の場合には,図33に示したように,2次元画面18上に動作の表す意味を字幕36として表示する。   In step S314, the information loss complementing unit 34 that has received a command from the monitoring unit 33 performs either “subtitle display” or “sub screen addition” processing. In the case of the sub-screen display, as shown in FIG. 32, a sub-screen 35 on which the enlarged image of the lips and the enlarged image of the hand are superimposed on the two-dimensional screen 28 is displayed. In the case of subtitle display, as shown in FIG. 33, the meaning of the operation is displayed as the subtitle 36 on the two-dimensional screen 18.

ステップS316で描画部が更新された視点と3Dモデルに対する情報から再度2次元画像を描画,さらに字幕またはサブ画面を2次元画面上に表示する。   In step S316, the drawing unit redraws the 2D image from the updated viewpoint and information on the 3D model, and further displays the subtitle or sub-screen on the 2D screen.

(5−c)の処理を時系列データがなくなるまで繰り返す。   The process of (5-c) is repeated until there is no time series data.

(第3の実施の形態の効果)
以上説明したように,本実施の形態によれば,監視部からの指令を受けて欠落した情報を補完する情報欠落補完部34によってユーザからの速度指令,視点変更指令によって画面上にモデルが表すべき情報があらわれなくなってしまうような場合でもユーザに情報を提示することが可能になる。
(Effect of the third embodiment)
As described above, according to this embodiment, the model is displayed on the screen by the speed command from the user and the viewpoint change command by the information missing complement unit 34 that supplements the missing information in response to the command from the monitoring unit. Information can be presented to the user even if the information that should have been lost.

さらに,学習などの用途で手話アニメーションを表示する場合,3Dモデルが両手を同時に動作させるなどユーザが注目すべき要素が多数ある場合にはユーザが視点を変更して自分が見たい要素をよく見ることができるよう視点を変更することがある。その場合に視点変更動作によって画面上から欠落してしまった要素による情報をサブ画面で表示することによってシステム全体としてユーザに提示できる情報が保たれる。   Furthermore, when displaying sign language animation for learning and other purposes, if there are many elements that the user should pay attention to, such as the 3D model moving both hands at the same time, the user changes the viewpoint and looks closely at the elements he / she wants to see The viewpoint may be changed so that it is possible. In this case, information that can be presented to the user as a whole system is maintained by displaying on the sub-screen the information based on the elements that are missing from the screen due to the viewpoint changing operation.

同様にユーザが速度変更を行ったため,副詞など動作の速度によって伝わる情報が欠落してしまった場合にその情報を字幕として補完することでシステム全体としてユーザに提示できる情報を保つことが可能である。   Similarly, when the user has changed the speed, if information transmitted by the speed of movement such as adverbs is missing, it is possible to maintain information that can be presented to the user as a whole system by complementing the information as subtitles .

以上,添付図面を参照しながら本発明にかかる情報表示装置の好適な実施形態について説明したが,本発明はかかる例に限定されない。当業者であれば,特許請求の範囲に記載された技術的思想の範疇内において各種の変更例または修正例に想到し得ることは明らかであり,それらについても当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiment of the information display device according to the present invention has been described above with reference to the accompanying drawings, but the present invention is not limited to such an example. It will be obvious to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea described in the claims, and these are naturally within the technical scope of the present invention. It is understood that it belongs.

例えば,上記実施の形態においては,手話アニメーションを表示する情報表示装置について説明したが,手話に限らず手旗信号,パントマイム,ダンスなど特定の意味を表現するための動作を3Dモデルに行わせるアニメーション表示システムに応用可能である。   For example, in the above embodiment, an information display device that displays a sign language animation has been described. However, not only a sign language but also an animation display that causes a 3D model to perform an operation for expressing a specific meaning such as a hand flag signal, pantomime, and dance. Applicable to the system.

上記実施の形態においては日本語による辞書検索を行ったが,辞書のデータを変更することでその他外国語によるアニメーション表示システムとすることも可能である。   In the above embodiment, the dictionary search is performed in Japanese. However, it is also possible to provide an animation display system in other foreign languages by changing the dictionary data.

上記実施の形態においてPC上のソフトウェアとして表現される情報表示装置の例を示したがPCに限らず携帯電話,タブレットPC,PDAなどでもよい,また専用のハードウェアを用意してもよい。   In the above embodiment, an example of an information display device expressed as software on a PC is shown. However, the information display device is not limited to a PC, and may be a mobile phone, a tablet PC, a PDA, or the like, or dedicated hardware may be prepared.

上記実施の形態において各辞書の構成を表の形として示したが,ツリーなどの異なるデータ構造を用いてもよい。   In the above embodiment, the configuration of each dictionary is shown as a table, but a different data structure such as a tree may be used.

上記実施の形態において重なり検出,遠近感検出,速度検出のアルゴリズムの例を示したが同様の効果を得ることができる別のアルゴリズムを用いてもよい。   In the above embodiment, an example of an algorithm for overlap detection, perspective detection, and speed detection has been described, but another algorithm that can obtain the same effect may be used.

上記実施の形態において3Dモデルに対する動作指令を位置ベクトルとして与えたが,モデルの各関節軸の角度を指定する角度ベクトルなど,別の方法で指定してもよい。   In the above embodiment, the operation command for the 3D model is given as a position vector, but it may be specified by another method such as an angle vector for specifying the angle of each joint axis of the model.

上記第2,第3の実施の形態において情報欠落防止部を持つシステムと情報欠落補完部を持つシステムを別の構成としたがこれらの要素は排他的なものでなく,双方の要素を持つシステムとしてもよい。   In the second and third embodiments, the system having the information loss prevention unit and the system having the information loss complementation unit are configured separately, but these elements are not exclusive and have both elements. It is good.

上記実施の形態において3Dの人体モデルを設計したが,このモデルに限らず人間の全身を表現するモデルとしたり,あるいは単純化して腕だけのモデルとしたりするシステム構成も可能である。   In the above embodiment, a 3D human body model is designed. However, the present invention is not limited to this model, and a system configuration in which a model representing the whole body of a human body or a simplified model of only an arm is possible.

上記実施の形態において3D人体モデルは一体であったが、これが複数であってもよい。   In the above embodiment, the 3D human body model is integrated, but a plurality of 3D human body models may be provided.

本発明は,手話,ジェスチャ,パントマイムなど特定の意味を持った動作を3Dモデルに表現させることを目的とした3D(3次元:3−Dimension)アニメーション利用の情報表示装置に利用可能である。   INDUSTRIAL APPLICABILITY The present invention can be used for an information display device using a 3D (3-dimension) animation for the purpose of expressing a motion having a specific meaning such as a sign language, a gesture, or a mime in a 3D model.

第1の実施の形態を示すブロック図である。It is a block diagram which shows 1st Embodiment. 人体3Dモデルとその要素の姿勢の表現法を示す説明図である。It is explanatory drawing which shows the representation method of the posture of a human body 3D model and its element. 右手先の3Dモデルの例を示す説明図である。It is explanatory drawing which shows the example of 3D model of a right hand tip. 単語辞書の構成を示す説明図である。It is explanatory drawing which shows the structure of a word dictionary. 時系列データ辞書の構成を示す説明図である。It is explanatory drawing which shows the structure of a time series data dictionary. 口形時系列データ辞書の構成を示す説明図である。It is explanatory drawing which shows the structure of a mouth shape time series data dictionary. 位置ベクトルデータの構成を示す説明図である。It is explanatory drawing which shows the structure of position vector data. 手形パタン辞書の構成を示す説明図である。It is explanatory drawing which shows the structure of a bill pattern dictionary. 指形データ辞書の構成を示す説明図である。It is explanatory drawing which shows the structure of a finger shape data dictionary. 口形パタン辞書の構成を示す説明図である。It is explanatory drawing which shows the structure of a mouth shape pattern dictionary. 口形データ辞書の構成を示す説明図である。It is explanatory drawing which shows the structure of a mouth shape data dictionary. 表情パタン辞書の構成を示す説明図である。It is explanatory drawing which shows the structure of an expression pattern dictionary. 表情データ辞書の構成を示す説明図である。It is explanatory drawing which shows the structure of an expression data dictionary. 眉形データ辞書の構成を示す説明図である。It is explanatory drawing which shows the structure of an eyebrow data dictionary. 頬形データ辞書の構成を示す説明図である。It is explanatory drawing which shows the structure of a cheek shape data dictionary. あご形データ辞書の構成を示す説明図である。It is explanatory drawing which shows the structure of a jaw data dictionary. 修飾用辞書の内部構成を示す説明図である。It is explanatory drawing which shows the internal structure of the dictionary for decoration. 時系列データ作成の流れを示す説明図である。It is explanatory drawing which shows the flow of time series data creation. アニメーションの表示の流れを示す説明図である。It is explanatory drawing which shows the flow of a display of animation. 実際のプログラムの画面動作例を示す説明図である。It is explanatory drawing which shows the example of a screen operation | movement of an actual program. 副詞による時系列データ変更の例を示す説明図である。It is explanatory drawing which shows the example of the time series data change by an adverb. 重なり検出の例を示す説明図である。It is explanatory drawing which shows the example of overlap detection. 第2の実施の形態を示すブロック図である。It is a block diagram which shows 2nd Embodiment. 属性辞書のデータの構成を示す説明図である。It is explanatory drawing which shows the structure of the data of an attribute dictionary. 監視情報データの構成を示す説明図である。It is explanatory drawing which shows the structure of monitoring information data. 監視情報データ作成の流れを示す説明図である。It is explanatory drawing which shows the flow of monitoring information data creation. アニメーション表示処理を示す説明図である。It is explanatory drawing which shows an animation display process. 遠近感検出の例を示す説明図である。It is explanatory drawing which shows the example of perspective detection. 第3の実施の形態を示すブロック図である。It is a block diagram which shows 3rd Embodiment. 速度検出の例を示す説明図である。It is explanatory drawing which shows the example of speed detection. アニメーション表示のフローを示す説明図である。It is explanatory drawing which shows the flow of an animation display. サブ画面が表示された画面の例を示す説明図である。It is explanatory drawing which shows the example of the screen where the sub screen was displayed. 字幕が表示された画面の例を示す説明図である。It is explanatory drawing which shows the example of the screen on which the caption was displayed. 補完用情報を追加した監視情報データの構成を示す説明図である。It is explanatory drawing which shows the structure of the monitoring information data which added the information for complementation.

符号の説明Explanation of symbols

1 情報表示装置
10 指令作成部
11 文入力部
12 形態素解析部
13 時系列データ作成部
14 単語辞書
15 修飾用辞書
16 時系列データ
17 タイマ
18 2次元画面
19 3Dモデル
110 描画部
111 3Dモデル
112 視点
113 監視部
114 情報欠落防止部
115 視点変更入力部
116 速度変更入力部
DESCRIPTION OF SYMBOLS 1 Information display apparatus 10 Command preparation part 11 Sentence input part 12 Morphological analysis part 13 Time series data preparation part 14 Word dictionary 15 Dictionary for modification 16 Time series data 17 Timer 18 2D screen 19 3D model 110 Drawing part 111 3D model 112 View point 113 Monitoring Unit 114 Information Loss Prevention Unit 115 Viewpoint Change Input Unit 116 Speed Change Input Unit

Claims (16)

情報表示装置において,
複数の要素から構成され,指令によって動作することを特徴とする3Dモデルと,
前記3Dモデルに与えるべき指令を作成する指令作成部と,
前記3Dモデルが動作するアニメーションの画像が表示される2次元画面と,
前記3Dモデルと,前記3Dモデルを観察する仮想空間上の視点を表すデータとの関係から前記2次元画面上にアニメーション画像を表示する描画部と,
前記2次元画面上にあらわれる3Dモデルの要素を監視し,情報の欠落を検出した場合に,欠落した事実を通知する監視部と,
前記監視部の通知を受けて前記3Dモデルを動作させ,前記3Dモデルが動作で表す意味が欠落することを防ぐ情報欠落防止部と,
を備えたことを特徴とする,情報表示装置。
In an information display device,
A 3D model composed of a plurality of elements and operated by commands;
A command creation unit for creating a command to be given to the 3D model;
A two-dimensional screen on which an animation image on which the 3D model operates is displayed;
A drawing unit for displaying an animation image on the two-dimensional screen from the relationship between the 3D model and data representing a viewpoint in a virtual space for observing the 3D model;
A monitoring unit for monitoring elements of the 3D model appearing on the two-dimensional screen and notifying a missing fact when a missing information is detected;
An information loss prevention unit that operates the 3D model in response to the notification from the monitoring unit and prevents the meaning represented by the operation of the 3D model from being lost;
An information display device comprising:
前記指令作成部は,
ユーザが表したい意味を表す言語を入力する言語入力部と,
入力された言語を単語単位に分解して出力する形態素解析部と,
3Dモデルに動作を行わせるための指令と,単語の意味との対応関係が格納されている単語辞書と,
前記形態素解析部から出力される単語と前記単語辞書の情報とを用いて,前記3Dモデルに入力された文章の意味を表現する動作を行わせるための一連の指令を作成するデータ作成部と,
を備えたことを特徴とする,請求項1に記載の情報表示装置。
The command creation unit
A language input section for inputting a language representing the meaning the user wants to express;
A morphological analyzer that decomposes the input language into words and outputs it,
A word dictionary in which correspondences between commands for causing the 3D model to perform operations and meanings of words are stored;
A data creation unit for creating a series of commands for performing an operation of expressing the meaning of the text input to the 3D model using the word output from the morpheme analysis unit and the information of the word dictionary;
The information display device according to claim 1, further comprising:
前記指令作成部は,ユーザの動作を計測する動作計測部を備え,前記動作計測部により計測されたデータから前記3Dモデルに与えるべき指令を作成することを特徴とする,請求項1または2に記載の情報表示装置。   The said command creation part is provided with the operation | movement measurement part which measures a user's operation | movement, and produces the instruction | command given to the said 3D model from the data measured by the said operation | movement measurement part, It is characterized by the above-mentioned. The information display device described. 前記監視部は,前記2次元画面上での前記3Dモデルの要素の重なりを監視し,要素が重なる場合に,他の要素に情報が欠落したことを通知することを特徴とする,請求項1〜3のいずれかに記載の情報表示装置。   The monitoring unit monitors an overlap of elements of the 3D model on the two-dimensional screen, and notifies the other elements that information has been lost when the elements overlap. The information display apparatus in any one of -3. 前記監視部は,前記2次元画面上における3Dモデルの要素間における遠近感のあらわれ方を監視し,遠近感が損なわれていると判断する場合に,他の要素に情報が欠落したことを通知することを特徴とする,請求項1〜4のいずれかに記載の情報表示装置。   The monitoring unit monitors the appearance of perspective between the elements of the 3D model on the two-dimensional screen, and when it is determined that the perspective is impaired, notifies other elements that information has been lost. The information display device according to claim 1, wherein the information display device is an information display device. 前記監視部は,前記2次元画面上における前記3Dモデルの要素の動作速度を監視し,速度が一定の範囲外にあると判断する場合に,他の要素に情報が欠落したことを通知することを特徴とする,請求項1〜5のいずれかに記載の情報表示装置。   The monitoring unit monitors the operation speed of the element of the 3D model on the two-dimensional screen, and when it is determined that the speed is out of a certain range, notifies the other elements that information has been lost. The information display device according to claim 1, characterized in that: アニメーションの表示速度を変更することができる速度変更入力部をさらに備えたことを特徴とする,請求項1〜6のいずれかに記載の情報表示装置。   The information display device according to any one of claims 1 to 6, further comprising a speed change input unit capable of changing a display speed of the animation. 前記2次元画面上にあらわる3Dモデルの方向を変更する視点変更入力部をさらに備えたことを特徴とする,請求項1〜7のいずれかに記載の情報表示装置。   The information display device according to claim 1, further comprising a viewpoint change input unit that changes a direction of a 3D model appearing on the two-dimensional screen. 単語と,その単語の意味を表すために,必要となる3Dモデルの要素とその要素の監視の方法を示すデータを格納している属性辞書と,
前記形態素解析部の出力と前記属性辞書の持つ情報とを用いて,前記2次元画面上で監視すべき要素と監視の方法とを,前記3Dモデルが行っている動作と動作を行っている時刻に対応して示す監視情報データを作成する監視情報作成部と,
をさらに備え,
前記監視部は,前記監視情報作成部が作成する監視情報データを用いて,監視の方法と監視すべき要素を前記3Dモデルが行っている動作と動作を行っている時刻に対応して変更し,変更した監視の方法に基づいて前記2次元画面上の要素を監視し,情報が欠落していると判断した場合に通知を行うことを特徴とする,請求項2〜8のいずれかに記載の情報表示装置。
An attribute dictionary storing data indicating the elements of the 3D model required to represent the word and the meaning of the word and the method of monitoring the element;
Using the output of the morphological analysis unit and the information held in the attribute dictionary, the elements to be monitored on the two-dimensional screen and the monitoring method are the operations performed by the 3D model and the times at which the operations are performed. A monitoring information creation unit that creates monitoring information data shown corresponding to
Further comprising
The monitoring unit uses the monitoring information data created by the monitoring information creation unit to change the monitoring method and the elements to be monitored according to the operation performed by the 3D model and the time at which the operation is performed. The element on the two-dimensional screen is monitored based on the changed monitoring method, and notification is made when it is determined that information is missing. Information display device.
前記監視部からの通知を受けて,前記2次元画面上に情報を補完するための要素を追加する情報欠落補完部をさらに備え,
前記監視情報作成部は,前記監視部が情報欠落していると判断した場合に,補完すべき前記3Dモデルの要素を示すデータと,補完すべき意味を表す文字列とをさらに含む前記監視情報データを作成し,
前記監視部は,さらに,補完すべき前記3Dモデルの要素を示すデータと,補完すべき文字列とを,前記3Dモデルが行っている動作と動作を行っている時刻に対応して変更し,情報が欠落していると判断した場合に,補完すべき情報を前記情報欠落補完部に通知することを特徴とする,請求項9に記載の情報表示装置。
In response to the notification from the monitoring unit, the information processing unit further includes an information missing complementing unit that adds an element for complementing information on the two-dimensional screen,
The monitoring information creation unit further includes data indicating elements of the 3D model to be supplemented and a character string representing a meaning to be supplemented when the monitoring unit determines that the information is missing. Create data,
The monitoring unit further changes the data indicating the elements of the 3D model to be complemented and the character string to be complemented according to the operation performed by the 3D model and the time at which the operation is performed, 10. The information display device according to claim 9, wherein when it is determined that information is missing, information to be complemented is notified to the information missing complement unit.
前記情報欠落補完部は,前記監視部からの通知を受けて,前記2次元画面上に情報を補完するための文字列を字幕として表示することを特徴とする,請求項10に記載の情報表示装置。   11. The information display according to claim 10, wherein the missing information complement unit displays a character string for complementing information on the two-dimensional screen as a subtitle in response to a notification from the monitoring unit. apparatus. 前記情報欠落補完部は,監視部からの通知を受けて,前記2次元画面上に情報を補完するための要素を前記2次元画面上にサブ画面として表示することを特徴とする,請求項10または11に記載の情報表示装置。   The information missing complement unit displays an element for complementing information on the two-dimensional screen as a sub-screen on the two-dimensional screen in response to a notification from the monitoring unit. Or the information display apparatus of 11. 前記単語辞書は言語と手話との対応関係を表現することを特徴とする,請求項2〜12のいずれかに記載の情報表示装置。   The information display device according to claim 2, wherein the word dictionary expresses a correspondence relationship between a language and sign language. 前記単語辞書は,データ構造の異なる形容詞,副詞を含む修飾用辞書とその他の単語をふくむその他辞書とから構成され,
前記データ作成部は,修飾語が他のデータによって表される動作の変更を必要とするものである場合に,蓄積されたデータの一部を変更することを特徴とする,請求項13に記載の情報表示装置。
The word dictionary is composed of a modifier dictionary including adjectives and adverbs having different data structures, and other dictionaries including other words.
The said data preparation part changes a part of accumulated data, when a modifier requires the change of the operation | movement represented by other data, The said data creation part changes the part of the stored data, It is characterized by the above-mentioned. Information display device.
前記データ作成部は,単語間の連接規則として表される手話の文法知識をデータとして有することを特徴とする,請求項13または14に記載の情報表示装置。   The information display device according to claim 13 or 14, wherein the data creation unit has, as data, grammatical knowledge of sign language expressed as a connection rule between words. 前記3Dモデルは,人体を表現することを特徴とする,請求項1〜15のいずれかに記載の情報表示装置。   The information display device according to claim 1, wherein the 3D model represents a human body.
JP2004044688A 2004-01-07 2004-02-20 Information display device Expired - Fee Related JP4379146B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004044688A JP4379146B2 (en) 2004-01-07 2004-02-20 Information display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004002062 2004-01-07
JP2004044688A JP4379146B2 (en) 2004-01-07 2004-02-20 Information display device

Publications (2)

Publication Number Publication Date
JP2005222504A true JP2005222504A (en) 2005-08-18
JP4379146B2 JP4379146B2 (en) 2009-12-09

Family

ID=34998059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004044688A Expired - Fee Related JP4379146B2 (en) 2004-01-07 2004-02-20 Information display device

Country Status (1)

Country Link
JP (1) JP4379146B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133609A (en) * 2005-11-09 2007-05-31 Oki Electric Ind Co Ltd Video generating device and video generating method
JP2011123422A (en) * 2009-12-14 2011-06-23 Asutemu:Kk Sign language video-generating device, sign language video-outputting device, sign language video-generating method, and program
JP5564625B1 (en) * 2014-01-10 2014-07-30 ソフトバンクモバイル株式会社 Program and display control device
CN110096837A (en) * 2019-05-16 2019-08-06 哈尔滨工程大学 A kind of engine room facilities maintenance accessi bility and the access verification method of personnel based on Unity
WO2022123752A1 (en) * 2020-12-10 2022-06-16 日本電気株式会社 Image processing device, image processing method, and computer-readable recording medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133609A (en) * 2005-11-09 2007-05-31 Oki Electric Ind Co Ltd Video generating device and video generating method
JP4548313B2 (en) * 2005-11-09 2010-09-22 沖電気工業株式会社 Video creation device and video creation method
JP2011123422A (en) * 2009-12-14 2011-06-23 Asutemu:Kk Sign language video-generating device, sign language video-outputting device, sign language video-generating method, and program
JP5564625B1 (en) * 2014-01-10 2014-07-30 ソフトバンクモバイル株式会社 Program and display control device
CN110096837A (en) * 2019-05-16 2019-08-06 哈尔滨工程大学 A kind of engine room facilities maintenance accessi bility and the access verification method of personnel based on Unity
WO2022123752A1 (en) * 2020-12-10 2022-06-16 日本電気株式会社 Image processing device, image processing method, and computer-readable recording medium
JP7473012B2 (en) 2020-12-10 2024-04-23 日本電気株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP4379146B2 (en) 2009-12-09

Similar Documents

Publication Publication Date Title
Benko et al. Balloon selection: A multi-finger technique for accurate low-fatigue 3d selection
US20230315385A1 (en) Methods for quick message response and dictation in a three-dimensional environment
CN106846496A (en) DICOM images based on mixed reality technology check system and operating method
Dobrova et al. Virtual reality in teaching foreign languages
Sheldon et al. Putting the AR In (AR) chitecture
JP4379146B2 (en) Information display device
CN111739134B (en) Model processing method and device for virtual character and readable storage medium
Krüger et al. IntenSelect+: Enhancing Score-Based Selection in Virtual Reality
US10319133B1 (en) Posing animation hierarchies with dynamic posing roots
Mine Exploiting proprioception in virtual-environment interaction
Mao et al. A sketch-based gesture interface for rough 3D stick figure animation
JP5920858B1 (en) Program, information processing apparatus, depth definition method, and recording medium
Fiorentino et al. Surface design in virtual reality as industrial application
Papadogiorgaki et al. Synthesis of virtual reality animations from SWML using MPEG-4 body animation parameters
KR102404667B1 (en) Device and method for providing contents based on augmented reality
Zeng et al. Shape of the story: Story visualization techniques
Yi et al. sEditor: A prototype for a sign language interfacing system
Göttig et al. A comparison of 3d visualization technologies and their user interfaces with data specific to architecture
Papadogiorgaki et al. Gesture synthesis from sign language notation using MPEG-4 humanoid animation parameters and inverse kinematics
Yi et al. From creating virtual gestures to" writing" in sign languages
Moemedi et al. Rendering an animated avatar from SignWriting notation
Bai Mobile augmented reality: Free-hand gesture-based interaction
Pastor Virtual hands: a comparative study of two text input paradigms for VR
Butcher A framework for Web-based immersive analytics
Fourie The design of a generic signing avatar animation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090609

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090825

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090907

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4379146

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131002

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees