JP2005222504A - Information display - Google Patents
Information display Download PDFInfo
- Publication number
- JP2005222504A JP2005222504A JP2004044688A JP2004044688A JP2005222504A JP 2005222504 A JP2005222504 A JP 2005222504A JP 2004044688 A JP2004044688 A JP 2004044688A JP 2004044688 A JP2004044688 A JP 2004044688A JP 2005222504 A JP2005222504 A JP 2005222504A
- Authority
- JP
- Japan
- Prior art keywords
- information
- model
- data
- unit
- monitoring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は,手話,ジェスチャ,パントマイムなど特定の意味を持った動作を3Dモデルに表現させることを目的とした3D(3次元:3−Dimension)アニメーション利用の情報表示装置に関するものである。 The present invention relates to an information display device using a 3D (3-dimension) animation for the purpose of causing a 3D model to express a motion having a specific meaning such as a sign language, a gesture, or a pantomime.
モデルの動作,変化などで情報を提示するための3Dアニメーション表示装置では仮想空間上に配置されたユーザの視点と,同じく仮想空間に配置された3次元情報を持つ3Dモデルとの関係から2次元画面に投影される画像を計算によって求め,それを画面上に表示する。文章またはあらわすべき意味を入力することでそれを表現する3Dアニメーションを作成,表示するシステムの例として手話アニメーション表示装置がある。特開平5−26448号公報に開示されるように,入力として文章を用い,人間を模した3Dモデルに文章の意味をあらわす動作をさせて手話を表現する3Dアニメーションを得る手話アニメーション表示装置の典型的な処理プロセスは以下の通りである。 In the 3D animation display device for presenting information by model movement, change, etc., it is 2D from the relationship between the viewpoint of the user placed in the virtual space and the 3D model having the 3D information also placed in the virtual space. The image projected on the screen is obtained by calculation and displayed on the screen. There is a sign language animation display device as an example of a system that creates and displays a 3D animation that expresses a sentence or a meaning to be expressed. As disclosed in Japanese Patent Laid-Open No. 5-26448, a typical sign language animation display device that uses a sentence as an input and obtains a 3D animation that expresses a sign language by performing an action that represents the meaning of the sentence in a 3D model that imitates a human being. A typical processing process is as follows.
(1)文章入力:キーボードなどの文章入力手段によって文章を入力する。
(2)文章解析:文章を形態素解析し,品詞を割り当て単語に分解する。
(3)データ読み出し:単語に割り当てられた3Dモデルに対する動作指令情報を登録された辞書から読み出し,3Dモデルへの動作指令となる時系列データを作成する。
(4)データ修正:単語間のわたり部,副詞などデータの単純な割り当てで解決できない部分を補完,修正して時系列データを完成させる。
(5)アニメーション出力:ユーザからの再生開始の指示の後,時系列データに従って3Dモデルを動作させ,視点との関係から2次元投影画像を決定し2次元画面上に描写する。
(1) Sentence input: A sentence is input by a sentence input means such as a keyboard.
(2) Sentence analysis: The sentence is morphologically analyzed and the parts of speech are assigned and decomposed into words.
(3) Data reading: The operation command information for the 3D model assigned to the word is read from the registered dictionary, and time-series data serving as an operation command to the 3D model is created.
(4) Data correction: Time series data is completed by complementing and correcting data that cannot be solved by simple assignment of data such as inter-word parts and adverbs.
(5) Animation output: After an instruction to start playback from the user, the 3D model is operated according to time-series data, and a two-dimensional projection image is determined from the relationship with the viewpoint and depicted on the two-dimensional screen.
近年では,“手の動的拡大による手話アニメーションの可読性向上手法”黒田知宏,千原國宏:ヒューマンインタフェースシンポジウム ’99論文集,pp.721−724,特開平8−16821号公報に開示されるように,生成する手話アニメーションを表現する3D人体モデルの手の部分を拡大して手話の可読性を高める手話アニメーション表示システムが存在する。 In recent years, "a method for improving the readability of sign language animation by dynamically expanding the hand" Tomohiro Kuroda, Kunihiro Chihara: Human Interface Symposium '99 Proceedings, pp. As disclosed in JP-A-8-16821, there is a sign language animation display system that enlarges the hand portion of a 3D human body model that expresses a sign language animation to be generated to improve the readability of the sign language.
ところで,特許文献1のようなシステムでは以下のような問題があった。すなわち,実際の動作を撮影した動画を表示するシステムに比べ,3Dモデルの精緻さが不十分であり,3次元情報を含まない情報であるため,動作の遠近感,奥行きの情報が失われ易いなどの問題があった。例えば,手話において,利き腕の手の指を握った状態から人差し指と中指の2本だけ伸ばし,顔に近づける動作は,その動作を目のそばへ向けて行えば「見なさい」という意味になり,鼻のそばへ向けて行えば,「においをかぐ」という意味になる。3Dモデルにこのような動作を行わせた場合,視点とモデルの位置関係によってはこれら二つの手話を間違い易い場合がある。このような手話の例は数多くある。
Incidentally, the system as disclosed in
特許文献2のようなシステムでは以下のような問題があった。
意味を表現する動作アニメーション以外に強調のための拡大などのアニメーション効果が加わることによって,動作アニメーションの持つ意味を壊してしまう場合がある。すなわち,手話アニメーションの場合に3D人体モデルの手先の部分を拡大する処理によって重要な意味を表現している人体モデルの唇の部分が隠され,意味が失われてしまうことがある。例えば,手話において「そば」「うどん」を表す動作では,利き腕の手の指を握った状態から人差し指と中指の2本だけ伸ばした手を箸に見立てて,そば猪口を持っているように見立てた非利き腕から麺を手繰るような動作,手の形はまったく同じであって,ただ音を表現する口の形の違いによって区別される。このような動作では手の拡大動作によって唇が隠れてしまうようなことがあると二つの単語を区別することができない。
The system as in
In addition to motion animation that expresses meaning, an animation effect such as enlargement for emphasis may be added to destroy the meaning of motion animation. That is, in the case of sign language animation, the lip portion of the human body model expressing the important meaning may be hidden by the process of enlarging the hand portion of the 3D human body model, and the meaning may be lost. For example, in a sign language action that represents “Soba” or “Udon”, the hand that is extended from the index finger and the middle finger of the hand of the dominant arm is regarded as a chopstick, with the appearance of having a buckwheat mouth. The action of handing noodles from the non-dominant arm, the shape of the hand is exactly the same, and is distinguished by the difference in the shape of the mouth that merely expresses the sound. In such an operation, the two words cannot be distinguished if the lips may be hidden by the hand enlargement operation.
さらに特許文献1の持つ問題と同じように,拡大により距離感が失われ,手を拡大する処理のアニメーションによって,3Dモデルが手を前に突き出しているのだとアニメーションを見る側に誤解され,動作アニメーションの表現する意味が壊れてしまう場合があるなどの問題もあった。
Furthermore, as with the problem of
本発明は,従来の情報表示装置が有する上記問題点に鑑みてなされたものであり,本発明の目的は,仮想空間に配置された3Dモデルとそれを見る視点から決定される,3Dモデルの2次元画像上への投影を常に監視する要素をシステムに配置することで,システムのユーザが3Dアニメーションの表示中に視点や速度を自由に変更できるようなインタラクティビティの高い構成としても,または3Dアニメーションを表示する画像表示部分に,小さい,描画能力が低いなどの物理的な制限がある場合でも3Dモデルを制御して重要な情報をあらわす3Dモデルの部位が常に画面にあらわれるようにすることの可能な,新規かつ改良された情報表示装置を提供することである。 The present invention has been made in view of the above-described problems of conventional information display devices, and an object of the present invention is a 3D model determined from a 3D model arranged in a virtual space and a viewpoint of viewing the 3D model. By placing an element in the system that constantly monitors projection onto a two-dimensional image, the system user can change the viewpoint and speed freely while displaying a 3D animation. Even if there is a physical limitation such as small or low drawing ability in the image display part that displays the animation, the part of the 3D model that represents important information is always displayed on the screen by controlling the 3D model. It is to provide a new and improved information display device that is possible.
また本発明の他の目的は,3Dモデルの表現する動作から失われた情報を別の方法で補完するための要素を追加することによりシステムのユーザにとってのインタラクティビティを高く維持したまま,情報の表現力が高い3Dアニメーションを提供することの可能な,新規かつ改良された情報表示装置を提供することである。 Another object of the present invention is to add an element for supplementing information lost from the operation represented by the 3D model by another method, while maintaining high interactivity for the user of the system. A new and improved information display device capable of providing 3D animation with high expressive power is provided.
上記課題を解決するため,本発明によれば,3Dアニメーション利用の情報表示装置が提供される。本発明の情報表示装置(1)は,複数の要素から構成され,指令によって動作することを特徴とする3Dモデル(19)と,3Dモデルに与えるべき指令を作成する指令作成部(10)と,3Dモデルが動作するアニメーションの画像が表示される2次元画面(18)と,3Dモデルと,3Dモデルを観察する仮想空間上の視点を表すデータとの関係から2次元画面上にアニメーション画像を表示する描画部(110)と,2次元画面上にあらわれる3Dモデルの要素を監視し,情報の欠落を検出した場合に,欠落した事実を通知する監視部(113,25,33)と,監視部の通知を受けて3Dモデルを動作させ,3Dモデルが動作で表す意味が欠落することを防ぐ情報欠落防止部(114)と,を備えたことを特徴とする(請求項1)。 In order to solve the above problems, according to the present invention, an information display device using 3D animation is provided. An information display device (1) according to the present invention includes a 3D model (19), which includes a plurality of elements and operates according to a command, and a command creation unit (10) that creates a command to be given to the 3D model. The animation image is displayed on the two-dimensional screen from the relationship between the two-dimensional screen (18) on which the animation image on which the 3D model operates is displayed, the 3D model, and the data representing the viewpoint in the virtual space for observing the 3D model. A drawing unit (110) to be displayed, a monitoring unit (113, 25, 33) for monitoring the element of the 3D model appearing on the two-dimensional screen, and notifying the missing fact when the lack of information is detected; An information omission prevention unit (114) that operates the 3D model in response to the notification of the unit and prevents the meaning represented by the operation of the 3D model from being lost (claim 1).
かかる情報表示装置によれば,監視部が2次元画面上にあらわれる3Dモデルの要素(例えば,手先や唇など)を常に監視し,それらの重なりを検出した場合に情報欠落防止部が3Dモデルが動作で表す意味が欠落することを防ぐ(例えば,3Dモデルに対し手先を縮小させる指示を出す)ことが可能である。このことにより,ユーザが3Dモデルによるアニメーションの表示中に常に画面内での視点方向を変更できるようなインタラクティビティの高い構成としても,また3Dモデルが指文字を表現するときに手を拡大するという単純なルールに基づいた強調処理を行った場合でも,表現すべき手話の情報をあらわす唇の部分が画面に表示されるようになり,情報の欠落を防ぐことができる。 According to such an information display device, the monitoring unit constantly monitors the elements of the 3D model (for example, the hand and the lips) appearing on the two-dimensional screen, and when the overlap is detected, the information loss prevention unit detects the 3D model. It is possible to prevent the meaning represented by the action from being lost (for example, to issue an instruction to reduce the hand to the 3D model). As a result, the user can expand the hand when the 3D model expresses a finger character even when the 3D model expresses a finger character even if the user can change the viewpoint direction in the screen while displaying the animation by the 3D model. Even when emphasis processing based on simple rules is performed, the lip portion representing the information of sign language to be expressed is displayed on the screen, so that information loss can be prevented.
本発明の情報表示装置において,以下のような応用が可能である。 In the information display device of the present invention, the following applications are possible.
指令作成部(10)の一構成例としては,ユーザが表したい意味を表す言語を入力する言語入力部(11)と,入力された言語を単語単位に分解して出力する形態素解析部(12)と,3Dモデルに動作を行わせるための指令と,単語の意味との対応関係が格納されている単語辞書(14)と,形態素解析部から出力される単語と単語辞書の情報とを用いて,3Dモデルに入力された文章の意味を表現する動作を行わせるための一連の指令を作成するデータ作成部(13)と,を備える構成とすることが可能である(請求項2)。言語(例えば,日本語,英語,中国語などの自然言語)を入力として,その意味を表す3Dアニメーションを表示することが可能である。 As a configuration example of the command creation unit (10), a language input unit (11) that inputs a language that represents a meaning that the user wants to express, and a morpheme analysis unit (12) that decomposes and outputs the input language into words. ), A command for causing the 3D model to perform an operation, and a word dictionary (14) in which a correspondence relationship between word meanings is stored, and information on the word and word dictionary output from the morphological analyzer And a data creation unit (13) for creating a series of commands for performing an operation to express the meaning of the text input to the 3D model. A language (for example, a natural language such as Japanese, English, or Chinese) can be input and a 3D animation representing the meaning can be displayed.
指令作成部は,ユーザの動作を計測する動作計測部を備え,動作計測部により計測されたデータから3Dモデルに与えるべき指令を作成するようにしてもよい(請求項3)。ユーザの動作を入力として用い,それを表す3Dアニメーションを表示することが可能である。 The command creation unit may include a motion measurement unit that measures a user's motion, and may create a command to be given to the 3D model from data measured by the motion measurement unit. It is possible to display a 3D animation representing the user's action as input.
監視部は,2次元画面上での3Dモデルの要素の重なりを監視し,要素が重なる場合に,他の要素に情報が欠落したことを通知するようにしてもよい(請求項4)。3Dモデルの要素が重なる場合に,他の要素に情報が欠落したことを通知することで,要素が画面上にあらわれることによって表される情報を維持することが可能である。 The monitoring unit may monitor the overlap of the elements of the 3D model on the two-dimensional screen, and may notify the other elements that information has been lost when the elements overlap (claim 4). When the elements of the 3D model overlap, it is possible to maintain the information represented by the elements appearing on the screen by notifying other elements that information has been lost.
また,監視部は,2次元画面上における3Dモデルの要素間における遠近感のあらわれ方を監視し,遠近感が損なわれていると判断する場合に,他の要素に情報が欠落したことを通知するようにしてもよい(請求項5)。3Dモデルの要素間における遠近感が損なわれていると判断する場合に,他の要素に情報が欠落したことを通知することで,遠近感によって表される情報を維持することが可能である。 In addition, the monitoring unit monitors the appearance of perspective between elements of the 3D model on the 2D screen, and when it is determined that the perspective is impaired, notifies other elements that information has been lost. (Claim 5). When it is determined that the perspective between the elements of the 3D model is impaired, it is possible to maintain the information represented by the perspective by notifying other elements that information has been lost.
また,監視部は,2次元画面上における3Dモデルの要素の動作速度を監視し,速度が一定の範囲外にあると判断する場合に,他の要素に情報が欠落したことを通知するようにしてもよい(請求項6)。3Dモデルの要素の動作速度が一定の範囲外にあると判断する場合に,他の要素に情報が欠落したことを通知することで,速度によって表される情報を維持することが可能である。 In addition, the monitoring unit monitors the operation speed of the element of the 3D model on the two-dimensional screen, and when it is determined that the speed is out of a certain range, notifies the other elements that information has been lost. (Claim 6). When it is determined that the operation speed of the element of the 3D model is out of a certain range, it is possible to maintain the information represented by the speed by notifying other elements that information has been lost.
アニメーションの表示速度を変更することができる速度変更入力部(115)をさらに備えるようにしてもよい(請求項7)。アニメーションの表示速度を変更することができ,ユーザの利便性が向上する。 You may make it further provide the speed change input part (115) which can change the display speed of an animation (Claim 7). The animation display speed can be changed, improving the convenience for the user.
2次元画面上にあらわれる3Dモデルの方向を変更する視点変更入力部(116)をさらに備えるようにしてもよい(請求項8)。アニメーションの表示方向を変更することができ,ユーザの利便性が向上する。 You may make it further provide the viewpoint change input part (116) which changes the direction of the 3D model which appears on a two-dimensional screen (Claim 8). The animation display direction can be changed, improving the convenience for the user.
単語と,その単語の意味を表すために,必要となる3Dモデルの要素とその要素の監視の方法を示すデータを格納している属性辞書(22)と,形態素解析部(21)の出力と属性辞書の持つ情報を用いて,2次元画面上で監視すべき要素と監視の方法を3Dモデルが行っている動作と動作を行っている時刻に対応して示す監視情報データを作成する監視情報作成部(23)と,をさらに備えるようにしてもよい。そして,監視部は,監視情報作成部が作成する監視情報データを用いて,監視の方法と監視すべき要素を3Dモデルが行っている動作と動作を行っている時刻に対応して変更し,変更した監視の方法に基づいて2次元画面上の要素を監視し,情報が欠落していると判断した場合に通知を行うようにしてもよい(請求項9)。 An attribute dictionary (22) storing data indicating the word, the elements of the 3D model necessary to express the meaning of the word, and the monitoring method of the element, and the output of the morphological analysis unit (21) Monitoring information for creating monitoring information data indicating the elements to be monitored on the two-dimensional screen and the monitoring method corresponding to the operation performed by the 3D model and the time at which the operation is performed using the information of the attribute dictionary And a creation unit (23). Then, the monitoring unit uses the monitoring information data created by the monitoring information creation unit to change the monitoring method and the elements to be monitored according to the operation performed by the 3D model and the time when the operation is performed, Elements on the two-dimensional screen may be monitored based on the changed monitoring method, and notification may be made when it is determined that information is missing (claim 9).
かかる構成によれば,属性辞書と監視情報作成部が,3Dモデルの動作が表現する単語ごとに監視すべき要素と,情報欠落が起こりうる場合に採るべき処理を指定した監視情報データを作成することで,より細かく情報欠落の防止方法を指定することができる。結果,より幅広く情報欠落を防いだ3Dアニメーションを表現することができる。 According to this configuration, the attribute dictionary and the monitoring information creation unit create monitoring information data that specifies the elements to be monitored for each word expressed by the operation of the 3D model and the processing to be taken when information loss may occur. Thus, it is possible to specify a method for preventing information loss in more detail. As a result, it is possible to express a 3D animation that prevents information loss more widely.
監視部からの通知を受けて,2次元画面上に情報を補完するための要素を追加する情報欠落補完部(34)をさらに備えるようにしてもよい。そして,監視情報作成部(23)は,監視部が情報欠落していると判断した場合に,補完すべき3Dモデルの要素を示すデータと,補完すべき意味を表す文字列とをさらに含む監視情報データを作成し,監視部は,さらに,補完すべき3Dモデルの要素を示すデータと,補完すべき文字列とを,3Dモデルが行っている動作と動作を行っている時刻に対応して変更し,情報が欠落していると判断した場合に,補完すべき情報を情報欠落補完部(34)に通知するようにしてもよい(請求項10)。 In response to the notification from the monitoring unit, an information missing complementing unit (34) for adding an element for complementing information on the two-dimensional screen may be further provided. When the monitoring information creation unit (23) determines that the monitoring unit lacks information, the monitoring information creation unit (23) further includes data indicating elements of the 3D model to be complemented and a character string representing the meaning to be complemented. Information data is created, and the monitoring unit further includes data indicating the elements of the 3D model to be complemented and character strings to be complemented in accordance with the operation performed by the 3D model and the time at which the operation is performed. When it is determined that information is missing, information to be complemented may be notified to the information missing complement unit (34).
かかる構成によれば,監視部からの指令を受けて欠落した情報を補完する情報欠落補完部によってユーザからの速度指令,視点変更指令によって画面上にモデルが表すべき情報があらわれなくなってしまうような場合でもユーザに情報を提示することが可能になる。 According to such a configuration, information that should be displayed on the screen may not be displayed on the screen due to the speed command or viewpoint change command from the user by the information missing complement unit that supplements the missing information in response to the command from the monitoring unit. Even in this case, information can be presented to the user.
情報欠落補完部は,監視部からの通知を受けて,2次元画面上に情報を補完するための文字列を,字幕として表示するようにしてもよく(請求項11),あるいは,2次元画面上にサブ画面として表示するようにしてもよい(請求項12)。あるいは,字幕と2次元画面上のサブ画面とを併用するようにしてもよい。2次元画面上に情報を補完するための情報を表示することで,ユーザの利便性が向上する。 The information missing complement unit may receive a notification from the monitoring unit and display a character string for complementing the information on the two-dimensional screen as subtitles (claim 11) or the two-dimensional screen. It may be displayed as a sub-screen on top (claim 12). Or you may make it use a subtitle and a subscreen on a two-dimensional screen together. Displaying information for complementing information on the two-dimensional screen improves user convenience.
単語辞書は言語と手話との対応関係を表現するようにしてもよい(請求項13)。また,3Dモデルは,人体を表現するようにしてもよい(請求項16)。言語の入力によって,手話のアニメーションを表示することが可能である。 The word dictionary may express the correspondence between language and sign language (claim 13). Further, the 3D model may represent a human body (claim 16). Sign language animation can be displayed by inputting language.
単語辞書は,データ構造の異なる形容詞,副詞を含む修飾用辞書とその他の単語をふくむその他辞書とから構成され,データ作成部は,修飾語が他のデータによって表される動作の変更を必要とするものである場合に,蓄積されたデータの一部を変更するようにしてもよい(請求項14)。データ作成部が単にデータの追加をするだけでなく蓄積されたデータの一部の変更も可能となる。 The word dictionary consists of a modifier dictionary containing adjectives and adverbs with different data structures, and other dictionaries that contain other words, and the data generator needs to change the behavior of modifiers represented by other data. If this is the case, a part of the accumulated data may be changed (claim 14). The data creation unit can not only add data but also change part of the accumulated data.
データ作成部は,単語間の連接規則として表される手話の文法知識をデータとして有するようにしてもよい(請求項15)。入力された順に単語を表すデータを割り当てていくのではなく,手話にふさわしい順序となるようにデータの順序を変更することが可能である。 The data creation unit may have grammatical knowledge of sign language expressed as a connection rule between words as data (claim 15). Rather than assigning data representing words in the order in which they are entered, it is possible to change the order of the data so that the order is appropriate for sign language.
また,本発明の他の観点によれば,コンピュータを,上記情報表示装置として機能させるためのプログラムと,そのプログラムを記録した,コンピュータにより読み取り可能な記録媒体が提供される。ここで,プログラムはいかなるプログラム言語により記述されていてもよい。また,記録媒体としては,例えば,CD−ROM,DVD−ROM,フレキシブルディスク(FD)など,プログラムを記録可能な記録媒体として現在一般に用いられている記録媒体,あるいは将来用いられるいかなる記録媒体をも採用することができる。 According to another aspect of the present invention, there are provided a program for causing a computer to function as the information display device, and a computer-readable recording medium on which the program is recorded. Here, the program may be described in any programming language. In addition, as a recording medium, for example, a recording medium that is currently used as a recording medium capable of recording a program, such as a CD-ROM, a DVD-ROM, or a flexible disk (FD), or any recording medium that is used in the future. Can be adopted.
なお上記において,構成要素に付随して括弧書きで記した参照符号は,理解を容易にするため,後述の実施形態および図面における対応する構成要素を一例として記したに過ぎず,本発明がこれに限定されるものではない。 In the above description, the reference numerals in parentheses attached to the constituent elements are merely shown as examples of corresponding constituent elements in the embodiments and drawings described below for easy understanding. It is not limited to.
以上説明したように,本発明によれば,仮想空間に配置された3Dモデルとそれを見る視点から決定される,3Dモデルの2次元画像上への投影を常に監視する要素をシステムに配置することで,システムのユーザが3Dアニメーションの表示中に視点や速度を自由に変更できるようなインタラクティビティの高い構成としても,または3Dアニメーションを表示する画像表示部分に,小さい,描画能力が低いなどの物理的な制限がある場合でも3Dモデルを制御して重要な情報をあらわす3Dモデルの部位が常に画面にあらわれるようにすることが可能である。 As described above, according to the present invention, an element that constantly monitors the projection of a 3D model onto a two-dimensional image determined from the 3D model arranged in the virtual space and the viewpoint of viewing the 3D model is arranged in the system. As a result, the system user can change the viewpoint and speed freely while displaying the 3D animation, or the image display part that displays the 3D animation is small, the drawing ability is low, etc. Even when there is a physical limitation, it is possible to control the 3D model so that a part of the 3D model that represents important information always appears on the screen.
また,3Dモデルの表現する動作から失われた情報を別の方法で補完するための要素を追加することによりシステムのユーザにとってのインタラクティビティを高く維持したまま,情報の表現力が高い3Dアニメーションを提供することが可能である。 In addition, by adding elements to complement the information lost from the motion represented by the 3D model by another method, 3D animation with high information expressive power is maintained while maintaining high interactivity for users of the system. It is possible to provide.
以下に添付図面を参照しながら,本発明にかかる情報表示装置の好適な実施の形態について詳細に説明する。なお,本明細書および図面において,実質的に同一の機能構成を有する構成要素については,同一の符号を付することにより重複説明を省略する。 Exemplary embodiments of an information display apparatus according to the present invention will be described below in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.
(第1の実施の形態)
第1の実施の形態では,入力された日本語文章に対してその意味を表す手話アニメーションを表示し,3D人体モデルの唇と,手先要素の2次元画面上での状態を監視することで,手先と重なることによって唇のあらわす情報が失われることを防ぐためのシステム構成例について述べる。
(First embodiment)
In the first embodiment, a sign language animation representing the meaning of the input Japanese sentence is displayed, and the state of the lips of the 3D human body model and the hand element on the 2D screen is monitored, An example of a system configuration for preventing the information expressed by the lips from being lost by overlapping with the hand will be described.
図1は,第1の実施の形態を示すブロック図である。
本実施の形態にかかる情報表示装置1は,図1に示したように,指令作成部10と,タイマ17と,2次元画面18と,3Dモデル19と,描画部110と,3Dモデル111と,監視部113と,情報欠落防止部114と,視点112を変更する視点変更入力部115と,速度変更入力部116と,から構成されている。指令作成部10は,文入力部11と,形態素解析部12と,時系列データ16を作成する時系列データ作成部13と,単語辞書14と,修飾用辞書15と,から構成されている。2次元画面18上には,3Dモデル111が表示されている。以下に,各構成要素について詳細に説明する。
FIG. 1 is a block diagram showing the first embodiment.
As shown in FIG. 1, the
文入力部11はユーザによって使用され3Dアニメーションで表したい意味の文章を入力するための機能部である。キーボードによる文字入力受付,また音声入力をテキスト変換しての入力など多様な形態を想定している。
The
形態素解析部12は入力された文章を形態素解析し,品詞を割り当てて単語に分割する機能部である。
The
時系列データ作成部13は分割された単語をキーとして単語辞書14を検索し,辞書から単語に対応する時系列データを読み出して時系列データ16として蓄積し,必要に応じてデータを修正,追加する機能部である。
The time series
単語辞書14は手話単語を構成する動作を3Dモデル19に表現させるためのデータを保持する記憶手段である。単語辞書14の詳細については,図4〜図16を参照しながらさらに後述する。
The
修飾用辞書15は副詞,形容詞的な意味を持つ手話単語を構成する動作を3Dモデル19に表現させるためのデータを保持する記憶手段である。修飾用辞書15は名詞,動詞,接続詞を表す動作を表すため以外のデータを含み,時系列データ作成部から参照され,時系列データを作成,変更するのに用いられる。修飾用辞書15の詳細については,図17を参照しながらさらに後述する。
The
時系列データ16は時系列データ作成部13によって作成された3Dモデル19に対する動作指令を行うためのデータである。
The
タイマ17は時間経過とともに時系列データを読み出し3Dモデル19の状態を更新する。
The
2次元画面18は3Dアニメーションが表示される部分である。
The two-
3Dモデル19は,実際に動きを表現する人体のモデルの例である。3Dモデル19の詳細については,図2〜図3を参照しながらさらに後述する。
The
描画部110はタイマ17と独立した一定時間ごとに視点112と3Dモデル19の関係から2次元画面18に3Dモデル19を3Dモデル111として描写する機能部である。
The
視点112は3次元空間上にベクトルとして定義されるデータである。
The
視点変更入力部115はユーザが3Dアニメーション描写中に視点112を変更するための機能部である。
The viewpoint
速度変更入力部116はユーザがタイマ17の状態更新時間間隔を変更するための機能部である。タイマ17の更新時間を変更することでアニメーションの速度を変更することができる。
The speed
監視部113は2次元画面18上にあらわれる3Dモデル111の部分の中で,意味を表現する上で重要となる部分を監視し,情報の欠落を検知した場合に情報欠落防止部114に通知をする機能部である。本実施の形態では,2次元画面18上にあらわれる3Dモデル111の口の要素を監視し,3Dモデルの手で口が覆われるなどと3Dモデルの動作によって口が画面上にあらわれなくなると予測した場合に情報欠落防止部114に通知をする。
The
情報欠落防止部114は監視部113からの通知を受けて,視点112または3Dモデル19に重要な部分を2次元画面18上にあらわすようにするための指令を送信する機能部である。
The information
本実施の形態では,時系列データ作成部13に対する入力を文入力部11からのものとしたが,人間の動作を計測するための三次元計測手段やデータグローブなどを用いて,ジェスチャなどユーザの動作を計測し,計測されたデータの特徴量を検索キーとし時系列データ作成部13の入力として,ユーザの行った動作の意図をあらわすアニメーションを作成する構成とすることも可能である。
In this embodiment, the input to the time-series
次いで,本実施の形態に特徴的な構成要素である,3Dモデル19,単語辞書14,および修飾用辞書15について説明する。
Next, the
(3Dモデル19)
図2は,実際に動きを表現する人体の3Dモデルの説明図である。
この3Dモデル19は,人間の上半身のみを模擬しており,大きく頭,首,胴体,両腕から構成される。腕の部分は関節を3つ剛体リンクでつないだ3関節3リンクのリンク系となっており,胴体部分に肩の関節で接している。腕リンクの肩側の端と反対側の端に手先がある。肩と手先の中間部分の関節を肘関節とする。
(3D model 19)
FIG. 2 is an explanatory diagram of a 3D model of a human body that actually expresses movement.
The
首は胴体の上面に接しており,頭部と胴体をつないでいる。接続する部分に関節を持つ。3Dモデル19の要素は独立した部分から成り立っている。肩関節を回転させると肩につながれた要素すべてが肩の関節の軸を回転軸として回転するような階層性を持った構造をしているが,要素ごとに独立的に指令を与えて動作を行わせたり,要素の大きさ,形状などの属性を変更させたりすることも可能である。
The neck is in contact with the top of the torso and connects the head and torso. It has a joint at the connecting part. The elements of the
3Dモデル19を構成する各要素は代表点と呼ばれる点を3つずつ持つ。他要素との接続によって移動に拘束を受ける代表点を固定点と呼ぶ。固定点とその他二つの代表点の相対的な位置関係を変更することで要素の位置,姿勢を自由に指定できる。図2中の(x0,y0,z0)を固定点とすると,(x1,y1,z1)と(x2,y2,z2)の値を変更することで前腕要素の姿勢を指示することができる。
Each element constituting the
図3は,3Dモデル19の手先(右手先)19aを示す説明図である。左手先も鏡対称の同様な構造を持つ。このように手先19aは指一本あたりa,b,cと3つの操作可能な要素を持ち,指5本で計15の要素を持つ。各要素の姿勢を指定することで指の形を決定するためのデータは指形データ辞書(図9を参照しながら後述する)に格納されている。
FIG. 3 is an explanatory view showing the hand (right hand) 19a of the
3Dモデル19は時間ごとの各要素の代表点2点の固定点に対する相対位置情報を動作指令として動作する。代表点の固定点に対する相対位置情報は位置ベクトルデータ(図7を参照しながら後述する)として与えられる。前腕部にとっての上腕部のように,上位階層の要素の姿勢と位置によって,下位階層の要素の固定点が定まる。3Dモデルの基本的な構造は点を各要素でつないだようなリンク系として与えられているが,リンクの表面に楕円体などの要素を重ねることによってより立体的に見えるようにされている。
The
3Dモデルの頭部の前面を顔とする。顔は多角形,いわゆるポリゴンで構成されている。唇,眉,頬などの顔上にある要素も同様に多数の頂点で構成される多角形として表現されている。多角形の頂点の3次元位置を変更することで形状を変形させることができる。変形に必要なデータは口形データ辞書(図11を参照しながら後述する),眉形データ辞書(図14を参照しながら後述する),頬形データ辞書(図15を参照しながら後述する),あご形データ辞書(図16を参照しながら後述する)に示すような形で与えられる。 The front of the head of the 3D model is the face. The face is composed of polygons, so-called polygons. Elements on the face such as lips, eyebrows, and cheeks are similarly expressed as polygons composed of a number of vertices. The shape can be changed by changing the three-dimensional position of the vertex of the polygon. Necessary data for deformation is a mouth shape data dictionary (described later with reference to FIG. 11), an eyebrow data dictionary (described later with reference to FIG. 14), a cheek shape data dictionary (described later with reference to FIG. 15), It is given in the form shown in a jaw data dictionary (described later with reference to FIG. 16).
(単語辞書14)
以下に,単語辞書14内部のデータ構造の例を,図4〜図16を参照しながら説明する。
単語辞書14内部は複数の辞書で構成されている。ここでは単語辞書14の一例として,単語辞書(図4),時系列データ辞書(図5),口形時系列データ辞書(図6),位置ベクトルデータ辞書(図7),手形パタン辞書(図8),指形データ辞書(図9),口形パタン辞書(図10),口形データ辞書(図11),表情パタン辞書(図12),表情データ辞書(図13),眉形データ辞書(図14),頬形データ辞書(図15),あご形データ辞書(図16)について説明する。なお,本実施の形態では,取り扱う言語を日本語とし,表現される手話を日本手話とする。
(Word dictionary 14)
Hereinafter, an example of the data structure in the
The inside of the
図4は,単語辞書の構成を示す説明図である。
インデックスはデータを管理するために振られた番号である。単語意味ラベルはそのデータの表現する手話単語に対応する日本語の意味を示す。時系列データ作成部はこのラベルをキーにして日本語単語と手話データの対応付けを行う。単語文字ラベルはそのデータの表現する手話に対応する日本語の文字を表す。このデータを後の補完処理に用いることがある。品詞ラベルはそのデータの表現する手話単語に対応する日本語の品詞を表す。後述するが品詞によって時系列データ作成部13の行う処理が異なる。時系列データへのポインタは該当する単語をあらわす時系列データのポインタの構成を表す。
FIG. 4 is an explanatory diagram showing the configuration of the word dictionary.
An index is a number assigned to manage data. The word meaning label indicates the Japanese meaning corresponding to the sign language word represented by the data. The time series data creation unit associates Japanese words with sign language data using this label as a key. The word character label represents a Japanese character corresponding to the sign language represented by the data. This data may be used for later complement processing. The part-of-speech label represents the Japanese part-of-speech corresponding to the sign language word represented by the data. As will be described later, the processing performed by the time-series
手話においては異なる単語の意味をあらわす動作を組み合わせることで別の単語の意味を作ることがある。そのため1つの単語を表現するために二つ以上の時系列データを用いることがある。例えば,図4の表中「公園」という単語のデータは「公園」が「遊ぶ」という手話の動作と「場所」という手話の動作の組み合わせで表されることを表現している。 In sign language, the meaning of another word may be created by combining actions that represent the meaning of different words. Therefore, two or more time-series data may be used to express one word. For example, the data of the word “park” in the table of FIG. 4 expresses that “park” is represented by a combination of a sign language action “play” and a sign language action “place”.
口形時系列データへのポインタは該単語の音を表す口形時系列データを表す。手話動作が同じでも表現する単語が異なる場合があり,その場合には口の形のデータをそれぞれの単語に適したものにしなければならない。図4の表に例として「公園」の例が示されている。口形時系列データへのポインタは時系列データと異なり,単純に「遊ぶ」,「場所」を足しあわせたものではなく「こうえん」を表現する口形データを指している。このようにデータを再利用できるので単語辞書と時系列データ,口形時系列データの独立性を高めておくことがデータ管理上好適である。 The pointer to the mouth shape time series data represents mouth shape time series data representing the sound of the word. Even if the sign language action is the same, the expressed word may be different. In that case, the mouth shape data must be suitable for each word. An example of “park” is shown in the table of FIG. 4 as an example. Unlike time-series data, the pointer to mouth-shaped time-series data points to mouth-shaped data representing “Kouen”, not simply “play” and “place”. Since data can be reused in this way, it is preferable in terms of data management to increase the independence of the word dictionary, time series data, and mouth shape time series data.
図5は,時系列データ辞書の構成を示す説明図である。
インデックスは単語辞書などからの参照キーである。手話動作を表現する命令と,その命令の指示する動作を始める相対時間,終了する相対時間を組にした構成になっている。命令部分には位置ベクトルデータ,手形パタンへのポインタ,表情パタンへのポインタが格納される。その種類はデータの種類によって示される。
FIG. 5 is an explanatory diagram showing the configuration of the time-series data dictionary.
The index is a reference key from a word dictionary or the like. This is a combination of a command expressing a sign language action, a relative time for starting the action indicated by the command, and a relative time for ending. The instruction part stores position vector data, a pointer to a bill pattern, and a pointer to an expression pattern. The type is indicated by the type of data.
図6は,口形時系列データ辞書の構成を示す説明図である。
図5の時系列データ辞書と同様の構成である。データ部分には口形パタンへのポインタが格納される。データの種類を表すキーはすべて同一である。
FIG. 6 is an explanatory diagram showing the configuration of the mouth shape time series data dictionary.
The configuration is similar to that of the time-series data dictionary of FIG. A pointer to the mouth pattern is stored in the data portion. All keys representing the data type are the same.
図7は,位置ベクトルデータの構成を示す説明図である。
前述の3Dモデル19に特定の動作を行わせるために3Dモデル19に与えるべき命令が列挙されている。手話話者の利き手の側を強手,反対の手を弱手と称するが,強手,弱手の順にモデルの肩,肘,手首,首,あごの姿勢,位置を指定するための各要素の代表点2点の固定点に対する相対位置ベクトルデータが格納されている。
FIG. 7 is an explanatory diagram showing the structure of position vector data.
The instructions to be given to the
図8は,手形パタン辞書の構成を示す説明図である。
図4の時系列データのポインタから参照されるインデックスと強手側,弱手側,あるいは両方の手の区別と指の形を表現するための指形データへのポインタを並べている。
FIG. 8 is an explanatory diagram showing the configuration of the bill pattern dictionary.
The index referenced from the time-series data pointers in FIG. 4 and the pointers to the finger data for expressing the hand shape and the finger shape of the strong side, the weak side, or both are arranged.
図9は,指形データ辞書の構成を示す説明図である。
図9の各要素の中の値は,図3に示した手先19aの指の形をあらわすための位置ベクトルデータの情報を保持している。親指から小指までの5本の指に対し指を構成するa,b,cの各要素に対して姿勢を示すデータを元に,指の形を決定する。姿勢の指示をする情報は位置ベクトルデータと同様の構成をしている。
FIG. 9 is an explanatory diagram showing a configuration of the finger data dictionary.
The values in each element of FIG. 9 hold the position vector data information for representing the shape of the finger of the
図10は,口形パタン辞書の構成を示す説明図である。
図4の時系列データのポインタから参照されるインデックスと口の形に対応する音,口型データへのポインタを並べている。
FIG. 10 is an explanatory diagram showing the configuration of the mouth shape pattern dictionary.
The index referenced from the time-series data pointers in FIG. 4, the sound corresponding to the mouth shape, and the pointers to the mouth-shaped data are arranged.
図11は,口形データ辞書の構成を示す説明図である。
図10の口形パタン辞書から参照されるインデックスと口の形をポリゴンで表現したときの多角形の頂点座標として表される。
FIG. 11 is an explanatory diagram showing the configuration of the mouth shape data dictionary.
The index referred from the mouth shape pattern dictionary of FIG. 10 and the mouth shape are expressed as the vertex coordinates of the polygon when it is expressed as a polygon.
図12は,表情パタン辞書の構成を示す説明図である。
図4の時系列データのポインタから参照されるインデックスと対応する表情の表す意味のラベル,表情データへのポインタを並べている。
FIG. 12 is an explanatory diagram showing the configuration of the expression pattern dictionary.
The index referred to from the time-series data pointer in FIG. 4 and the meaning label representing the corresponding expression and the pointer to the expression data are arranged.
図13は,表情データ辞書の構成を示す説明図である。
図12の表情パタン辞書から参照されるインデクスと左右の眉,頬の形状パタンへのポインタ,左右の眉,頬の位置を表す3次元座標位置,あごの形状をあらわすパタンへのポインタ,あごの3次元座標位置をあらわしている。ここでの3次元座標位置とはそれぞれの要素の初期位置からの変量を示している。
FIG. 13 is an explanatory diagram showing the structure of the expression data dictionary.
Index and left and right eyebrows, pointers to cheek shape pattern, left and right eyebrows, 3D coordinate position representing cheek position, pointer to pattern representing jaw shape, jaw reference 3D coordinate position is shown. Here, the three-dimensional coordinate position indicates a variable from the initial position of each element.
図14は,眉形データ辞書の構成を示す説明図である。図15は,頬形データ辞書の構成を示す説明図である。図16は,あご形データ辞書の構成を示す説明図である。それぞれ図13に示される表情データ辞書のポインタから参照されるインデックスと形状パタンにつけられた名前,形状を表現するポリゴンの頂点座標の組を有している。 FIG. 14 is an explanatory diagram showing the structure of the eyebrow data dictionary. FIG. 15 is an explanatory diagram showing the configuration of the cheek data dictionary. FIG. 16 is an explanatory diagram showing the configuration of the jaw data dictionary. Each has a set of an index referenced from the pointer of the expression data dictionary shown in FIG. 13, a name given to the shape pattern, and a vertex coordinate of the polygon expressing the shape.
(修飾用辞書15)
次に修飾用辞書15の内部構成について図17を用いて説明する。インデックス,単語意味ラベル,単語文字ラベル,品詞ラベルは単語辞書のものと同様である。
(Modification dictionary 15)
Next, the internal structure of the
手話における副詞,形容詞的要素の表現は単純な名詞,動詞的要素の表現と異なる。そのため修飾用辞書15は単語辞書14と異なる構成をしている。副詞,形容詞的要素の表現はそれぞれの単語の意味をもつ手話単語を手話動作列中に追加して行われる場合と,文の中で動詞,名詞などの要素の動作を変更することで表現される場合がある。それぞれデータ変更方法で「動作速度変更」,「動作範囲変更」,「単語の追加」の三種類の方法のうちいずれかを指定する。変更品詞はこの動作によって変更される単語の品詞を示している。単語の追加を行う場合にはデータは空である。データの最後の要素は変更のパラメータ,または挿入される単語を示す単語辞書へのポインタを示す。
The expression of adverb and adjective elements in sign language is different from the expression of simple nouns and verb elements. Therefore, the
本実施の形態にかかる情報表示装置1は,以上のように構成されている。
次いで,本実施の形態の動作について説明する。
The
Next, the operation of this embodiment will be described.
本実施の形態における動作の流れを示す。時系列データ作成の流れを図18に,アニメーションの表示の流れを図19に示す。また,実際のプログラムの画面動作例を図20に示す。 The flow of operation in this embodiment is shown. The flow of time series data creation is shown in FIG. 18, and the flow of animation display is shown in FIG. An example of the actual program screen operation is shown in FIG.
(1.文章入力)
ステップS181でユーザはキーボードなどの文章入力手段によって3Dアニメーションで表現したい文章を入力する。ステップS182のように音声入力などで文章を入力する場合,ステップS183の音声テキスト変換をすることにより入力された音声を文章に変換し,次のステップへの入力とする。
(1. Text input)
In step S181, the user inputs a sentence to be expressed by 3D animation using a sentence input unit such as a keyboard. When a sentence is input by voice input or the like as in step S182, the input voice is converted into a sentence by performing the voice-to-text conversion in step S183, and input to the next step.
(2.単語への割り当て)
形態素解析部12は入力された文章をステップS184で形態素解析し,形態素に分解する。さらにステップS185で形態素に一般的な日本語の辞書を用いて品詞を割り当てる。品詞を割り当てられた形態素を以下では単語と呼ぶ。
(2. Assignment to words)
In step S184, the
(3.時系列データの作成と編集)
(3−1.データの割り当て)
時系列データ作成部13は,単語を1つ読み出し,ステップS186で単語の品詞を調べ,「て」「に」「を」「は」などの手話として表されない非自立語である場合にはステップS187で無視する。その他の場合に単語を次のステップS188への入力とする。
(3. Creation and editing of time series data)
(3-1. Data allocation)
The time-series
ステップS188で単語の品詞が形容詞,または副詞であるかどうか判断する。
単語の品詞が形容詞,または副詞以外である場合には時系列データ作成部はステップS189で単語の意味ラベルと品詞名をキーとして単語辞書からその単語の意味をあらわすための時系列データを検索する。単語として単語辞書に登録されていない場合にはステップS1810で文字の表す音を表現する指文字で表現する。単語として登録されている場合には時系列データ作成部13は単語辞書14からデータをステップS1811で読み出し,ステップS1812で仮データ(1)に追加する。
In step S188, it is determined whether the word part of speech is an adjective or an adverb.
If the part of speech of the word is other than an adjective or adverb, the time series data creation unit searches time series data for representing the meaning of the word from the word dictionary using the word meaning label and the part of speech name as keys in step S189. . If it is not registered in the word dictionary as a word, it is expressed by a finger character that expresses the sound represented by the character in step S1810. If it is registered as a word, the time-series
単語が副詞または形容詞であった場合はステップS1813で単語の意味ラベルと品詞名をキーとして修飾用辞書からその単語の意味を表すための時系列データを検索する。単語として登録されていない場合はステップS1810に進む。単語として登録されている場合は既存のデータをステップS1814で読み,ステップS1815で仮データ(1)とは別系統の仮データ(2)に追加する。 If the word is an adverb or adjective, in step S1813, time series data for representing the meaning of the word is retrieved from the modifier dictionary using the word meaning label and the part of speech name as keys. If it is not registered as a word, the process proceeds to step S1810. If it is registered as a word, the existing data is read in step S1814, and is added to temporary data (2) of a different system from temporary data (1) in step S1815.
ステップS186からステップS1812,ステップS1815までの処理を単語がなくなるまで繰り返す。 The processes from step S186 to step S1812, and step S1815 are repeated until there are no more words.
(3−2.指文字で表現)
ステップS1821で時系列データ作成部13は単語の単語文字ラベルから一文字読み出し,ステップS1822でその文字を検索キーとして単語辞書から指文字を表現するための時系列データを読む。単語文字ラベルの文字がなくなるまで指文字データを追加する。
(3-2. Expressed with finger characters)
In step S1821, the time-series
(3−3.順序の変更)
ステップS1816で時系列データ作成部13は得られた仮データ(1)の組を既存の研究と同様に単語間の状態遷移として表現されている文法に従った並び順に変更して配置する。
(3-3. Change of order)
In step S1816, the time-series
(3−4.位置データの補完)
ステップS1817では時系列データ作成部13が仮データ(2)の指示する指令に従って仮データ(1)に修飾的単語を示す時系列データを挿入する。処理はステップS1811と同様である。文の区切りを示すためのうなずく様子の動作を表すための時系列データもこのステップで同様に追加する。
(3-4. Complementation of position data)
In step S1817, the time-series
(3−5.位置データの修正)
ステップS1818では位置データの修正を行う。例えば「大きい」という形容詞が「地震」という名詞にかかる場合がある。この場合修飾用辞書中の「大きい」の変更方法は「範囲の変更」であるので,時系列データ作成部は修飾用辞書を参照して単語意味ラベルを書きかえ「大きな地震」とし,パラメータを参照して文中の「地震」という名詞の動作位置の終点を位置パラメータによって変更した値として,動作の範囲を拡大する。さらに3Dモデルが指文字での表現を行う場合に見易さを向上させるため3Dモデルに手の拡大を行わせる指令などの強調を表すための指令データを追加する。
(3-5. Correction of position data)
In step S1818, the position data is corrected. For example, the adjective “large” may be applied to the noun “earthquake”. In this case, since the change method of “large” in the modifier dictionary is “change of range”, the time-series data creation section refers to the modifier dictionary and rewrites the word meaning label to “large earthquake” and sets the parameter. The range of motion is expanded by referring to the end point of the motion position of the noun “earthquake” in the sentence as a value changed by the position parameter. Furthermore, command data for expressing emphasis such as a command for causing the 3D model to enlarge the hand in order to improve visibility when the 3D model expresses with a finger character is added.
(3−6.時間データの修正)
ステップS1819で時系列データ作成部13は単語を表現する一群の時系列データに同一のインデックスを割り当て,相対時間で表現されている動作開始時間,動作終了時間を前の単語が終了した時間を加算して絶対時間表現とする。仮データの指示する指令に従って時系列データに動作速度を変更するため開始時間,動作終了時間を修正する処理を行う。例えば図21に示されるように「ゆっくり」という副詞が「いう」という動詞にかかる場合がある。この場合修飾用辞書中の「ゆっくり」の変更方法は「速度の変更」であるので,時系列データ作成部は修飾用辞書を参照して単語意味ラベルを書きかえ「ゆっくりいう」とし,パラメータを参照して文中の「言う」という動詞の動作開始から終了までの時間を時間パラメータを乗じた値とする。
(3-6. Correction of time data)
In step S1819, the time-series
(3−7.その他の修正)
ステップS1820で時系列データ作成部13は編集中の時系列データの各単語間をつなぐ部分,いわゆるわたり部の位置データを,時間データを参照して動作が滑らかになるようスプラインなどを用いて補間処理して修正する。
(3-7. Other corrections)
In step S1820, the time series
(4.アニメーションの表示)
ステップS191でユーザがアニメーション再生の指示を出して後,ステップS192で時系列データを読み出し,それに従って3Dモデルを動作させる,すなわち,タイマ17が指示された時間ごとに時系列データの指令を3Dモデルに伝える。
(4. Animation display)
After the user issues an animation playback instruction in step S191, the time series data is read out in step S192, and the 3D model is operated accordingly. That is, the time series data is instructed every time the
ステップS193で描画部がタイマ17とは独立した時間間隔で3Dモデルと視点をあらわすベクトルデータとの関係から投影される像を計算し2次元画面上に描写する。
In step S193, the drawing unit calculates an image projected from the relationship between the 3D model and the vector data representing the viewpoint at a time interval independent of the
アニメーションの操作中にユーザは次のような操作が可能である。
a)画面上の視点変更入力部116を用いて視点を変更する。
b)速度変更入力部115を用いてモデルの動作速度を変更する。
c)停止ボタンを押すことでアニメーションの表示を途中で停止する。
The user can perform the following operations during the operation of the animation.
a) Change the viewpoint using the viewpoint
b) The operation speed of the model is changed using the speed
c) The animation display is stopped halfway by pressing the stop button.
これらの処理はステップS194に示される。それぞれ図20の画面に示された入力部を操作することで操作指令を出す。ステップS195でユーザの入力が終了指示である場合を検出しステップS196で終了させる。 These processes are shown in step S194. An operation command is issued by operating the input unit shown on the screen of FIG. In step S195, a case where the user input is an end instruction is detected, and the process ends in step S196.
(4−1.監視による情報損失防止)
本実施の形態の構成の場合,監視部113は,3Dモデル19の唇の要素と手先の要素の2次元画面上へのあらわれ方を常に監視している。ステップS197で監視部が一般的な重なり検出アルゴリズムを用いて2次元画面18上の手先19aと,唇の重なりを検査し,重なりが検出された場合にステップS198で情報欠落防止部に通知を行う。
(4-1. Information loss prevention by monitoring)
In the case of the configuration of the present embodiment, the
重なり検出のためのアルゴリズムの例を以下に述べる。図22に示したように3Dモデル19の手を表現する要素の重心を中心点とし,要素を表現する多角形の頂点のうち重心から最も遠く離れた点と中心の距離を半径として中心点を中心にして円を描き,視線ベクトルの方向,円とスクリーン間の距離から,スクリーン上に投影される中心点と半径を得て,同様に唇に対しても円の中心となる点と半径を得る,画面上での二つの中心点のユークリッド距離を求めそれが二つの円半径の和よりも小さくなる場合に二つの要素が重なると判断する。
An example of an algorithm for overlap detection is described below. As shown in FIG. 22, the center of gravity of the element representing the hand of the
(4−2.再描画)
ステップS199で情報欠落防止部114は監視部113からの通知を受けて,3Dモデル19に指示を出す,すなわちこの本実施の形態の構成例の場合には3Dモデル19に唇と重なった手を縮小させる指令を行う。ステップS1910で3Dモデルが指示に従って動作する。ステップS1911で変更された3Dモデル19,視点,速度の状況を反映して描画部110が2次元画面18を描写する。
(4-2. Redraw)
In step S199, the information
(4.)の処理を時系列データがなくなるか,ユーザから終了の指示が出るまで繰り返す。 The process of (4) is repeated until there is no time series data or an end instruction is issued from the user.
(第1の実施の形態の効果)
以上説明したように,本実施の形態によれば,監視部113が2次元画面18上にあらわれる3Dモデル19の手先19aと唇を常に監視し,それらの重なりを検出した場合に情報欠落防止部114がモデルに対し手先を縮小させる指示を出す。このことにより,ユーザが3Dモデル19によるアニメーションの表示中に常に画面内での視点方向を変更できるようなインタラクティビティの高い構成としても,また3Dモデル19が指文字を表現するときに手を拡大するという単純なルールに基づいた強調処理を行った場合でも,表現すべき手話の情報をあらわす唇の部分が画面に表示されるようになり,情報の欠落を防ぐことができる。
(Effects of the first embodiment)
As described above, according to the present embodiment, when the
(第2の実施の形態)
第2の実施の形態では,第1の実施の形態のシステム構成に属性辞書22,監視情報作成部23,監視情報データ24という要素を追加することにより,3Dモデル19の要素の「重なり検出」に加えて,「遠近感の欠如」によって情報が欠落することを防ぐための例を示す。
(Second Embodiment)
In the second embodiment, by adding the elements of the
図23は第2の実施の形態を示すブロック図である。
本実施の形態にかかる情報表示装置2は,図23に示したように,第1の実施の形態にかかる情報表示装置1の構成要素に加えて,属性辞書22と,監視情報作成部23を含んで構成されている。また,タイマ27,監視部25,情報欠落防止部26に新たな機能を加えている。以下では,これら本実施の形態に特徴的な構成要素を中心に説明し,上記第1の実施の形態と実質的に同様の機能を有する構成要素については,同一符号を付すことで重複説明を省略する。
FIG. 23 is a block diagram showing the second embodiment.
As shown in FIG. 23, the
属性辞書22は入力された文章中の単語を鍵とし,情報欠落を防ぐために3Dモデル19のどの要素を監視すべきか,欠落を防止するためにどのような処理を行うべきかなどの情報を格納する記憶手段である。
The
監視情報作成部23は属性辞書22と時系列データ16を用い,形態素解析部21の出力を参照して監視部25が参照するための監視情報データ24を作成する機能部である。
The monitoring
監視情報データ24は3Dモデル111の動作中に監視部25が監視に必要なデータを時系列に並べた構成をしている。3Dアニメ表示中に監視すべき3Dモデル111の要素と監視すべき状態,また情報欠落防止部26から指示すべき内容の情報を含んでいる。これは監視部25によって参照される。
The monitoring
監視部25は監視情報データ24を参照し,その指示内容に従って2次元画面18上の3Dモデル111を監視する。各種情報の欠落を検出した場合に,情報欠落防止部に通知を行う機能部である。
The
情報欠落防止部26は監視部25からの通知を受け,3Dモデル19または視点112に情報欠落を防止するための指示を出す機能部である。
The information
図24は,属性辞書22のデータの構成を示す説明図である。
属性辞書22のインデックスは対応する単語の単語辞書のインデックスと同じ値が入っている。このインデックスを用いて単語との対応付けを行う。監視対象は3Dモデル19がインデックスに示された単語を表現している動作中に,監視部25が情報の欠落を防ぐために監視を行うべき3Dモデル19の要素を示す。
FIG. 24 is an explanatory diagram showing a data structure of the
The index of the
監視アルゴリズムの種類は3Dモデル19の要素のどの状態を監視すべきかを示す。具体的には「重なり検出」,「遠近感検出」から選択されている。
The type of the monitoring algorithm indicates which state of the elements of the
パラメータにはそれぞれ重なりの余裕範囲,遠近感を表す場合の許容範囲,を含む。これらのパラメータについては後に詳述する。 Each parameter includes an overlap margin range and an allowable range for expressing perspective. These parameters will be described in detail later.
防止用のアルゴリズムは監視部25から指令を受けた際に3Dモデル19に与えるべき指令の種類を示している。「拡大/縮小」「回転」「透過」の中から選択され,格納されている。
The prevention algorithm indicates the type of command to be given to the
パラメータにはそれぞれ,要素の透過率,拡大/縮小率,回転速度が格納されている。
監視情報データ24の構成は図25のようになっている。監視情報データのインデックス(index)は対応する時系列データのインデックスと同じ値が入っている。また,動作開始時間,終了時間は,意味を表す動作の単位の開始時間,終了時間を示すものであり,時系列データから求める。その他のパラメータは属性辞書25の持つデータと同じものである。
Each parameter stores the element transmittance, the enlargement / reduction ratio, and the rotation speed.
The configuration of the monitoring
本実施の形態にかかる情報表示装置2は,以上のように構成されている。
次いで,本実施の形態の動作について説明する。
The
Next, the operation of this embodiment will be described.
第2の実施の形態における動作の流れから,監視情報データ作成の流れについて図26,その後のアニメーション表示処理について図27にそれぞれ示す。 From the flow of operations in the second embodiment, FIG. 26 shows the flow of creating monitoring information data, and FIG. 27 shows the subsequent animation display processing.
(1.文章入力),(2.単語への割り当て),(3.時系列データの作成と編集),までは,上記第1の実施の形態と同様である。 (1. Text input), (2. Assignment to word), (3. Creation and editing of time series data) are the same as those in the first embodiment.
(4−b:監視情報データの作成)
図26に示された流れで監視情報作成部23が監視情報データを作成する。
ステップS261で監視情報作成部23が作成された時系列データ16からデータを1つ読み出す。
(4-b: Creation of monitoring information data)
The monitoring
In step S261, the monitoring
ステップS262で監視情報作成部23が読み出されたデータのインデックスをキーにして属性辞書22を検索する。該当データがない場合にはステップS261に戻り,次のデータを読み出す。該当データがある場合にはステップS263で時系列データから意味を表す動作の単位の開始時間,終了時間を抜きだし,属性辞書からそれぞれの時間ごとのアルゴリズム選択,アルゴリズムの対象,パラメータ,防止用のアルゴリズム,パラメータを読み出し,ステップS264でデータに追加する。時系列データがなくなるまでステップS261からステップS264までの処理を繰り返し,完成したデータを監視情報データとする。
In step S262, the monitoring
(5−b:アニメーションの表示)
ステップS196までは,第1の実施の形態と同様である。これらの処理と並列に監視情報データから監視部25へのデータの読み込みを行う。
(5-b: Animation display)
Up to step S196, the process is the same as in the first embodiment. In parallel with these processes, data is read from the monitoring information data to the
ステップS271で監視部25はタイマ27の指令で3Dモデルの動作状況と同期して監視情報データを読み出す。
In step S <b> 271, the
ステップS272で監視部25はステップS271で読み出したデータに従って,監視する要素,監視する状態とそのためのアルゴリズム,情報欠落防止部26へ通知する欠落防止の処理をする。監視情報データが「重なり検出」の処理を持っている場合は,検出に使用するアルゴリズムは上記第1の実施の形態と同様であるが,本実施の形態では監視するべき3Dモデルの要素,余裕範囲を任意に指定できる。ここで余裕範囲とは,実際に2次元画面18上に表示される円の半径をパラメータで指定した値だけ拡大することで,重なりが生ずる状態に余裕を持って監視部25からの指令を発生させることができるその余裕の範囲のことである。
In step S272, the
監視情報データによって指定される監視状態が「遠近感検出」である場合の情報欠落検出のためのアルゴリズムを図28で説明する。3Dモデル19上でつながりのある要素における3つの点を監視し,動作によって変更される要素の動作が直線的である場合に遠近感が欠落したとして情報欠落防止部26に通知する。具体的には各要素上の3点に対し2本のベクトルを設定し,ベクトルの角度変化を計算してその値が監視情報データのパラメータの値以下である場合に情報欠落防止部26への指令を発生させるというものである。このベクトルは3Dモデル19の持つ3次元情報を無視し,2次元平面上での位置関係から計算する。時系列データの指令によってP2がP2’に移動するが図28(a)の例では遠近感が表現されており,図28(b)の例では欠落しているとする。
An algorithm for detecting missing information when the monitoring state specified by the monitoring information data is “perspective detection” will be described with reference to FIG. Three points in connected elements on the
ステップS273で監視部25は指定されたアルゴリズムに基づいて,指定された要素を観察し情報の欠落が検出された場合に情報欠落防止部26にステップS274で通知を行う。通知には情報欠落防止部26が3Dモデルのどの要素に対してどのような情報欠落防止処理を行うかの情報が含まれている。
In step S273, the
ステップS275で監視部25から指令を受けた情報欠落防止部26は「拡大縮小」「回転」「透過」のうちのいずれかの指令を3Dモデルに対して行う。「拡大縮小」の場合は監視情報データに示されるパラメータの値を倍率として要素を拡大または縮小する。「回転」の場合は,監視情報データに示されるパラメータの値を回転量として3Dモデルを体の中心軸周りに回転させる。「透過」の場合は,監視情報データに示されるパラメータの値を物体の光の透過率として要素を半透明または透明にする。
Receiving the command from the
ステップS276で情報欠落防止部26によって通知された指令に従って3Dモデル19または視点が動作する。
In step S276, the
ステップS277で描画部110が更新された視点と3Dモデル19に対する情報から再度2次元画像を描画する。
In step S277, the
5−bの処理を時系列データがなくなるまで繰り返す。 The process of 5-b is repeated until there is no time series data.
(第2の実施の形態の効果)
以上説明したように,本実施の形態によれば,属性辞書22と監視情報作成部23が,3Dモデル19の動作が表現する単語ごとに監視すべき要素と,情報欠落が起こりうる場合に採るべき処理を指定した監視情報データを作成することで,より細かく情報欠落の防止方法を指定することができる。結果,上記第1の実施の形態よりも幅広く情報欠落を防いだ3Dアニメーションを表現することができる。
(Effect of the second embodiment)
As described above, according to the present embodiment, the
(第3の実施の形態)
第3の実施の形態では,第2の実施の形態の監視情報データに補完用情報という要素を,さらにシステムに情報欠落補完部34という要素を追加することにより,ユーザの操作などによって3Dモデルが表現するアニメーションから欠落してしまった情報を3Dモデルの動作とは別の情報提示によって補完するための構成例を示す。
(Third embodiment)
In the third embodiment, a 3D model is created by a user's operation or the like by adding an element of complementary information to the monitoring information data of the second embodiment and further adding an element of an information missing
図29は第3の実施の形態を示すブロック図である。
本実施の形態にかかる情報表示装置3は,図29に示したように,第2の実施の形態にかかる情報表示装置2の構成要素に加えて,2次元画面18上に,サブ画面35または字幕36を含んで構成されている。また,監視部33,情報欠落補間部34に新たな機能を加えている。以下では,これら本実施の形態に特徴的な構成要素を中心に説明し,上記第1,第2の実施の形態と実質的に同様の機能を有する構成要素については,同一符号を付すことで重複説明を省略する。
FIG. 29 is a block diagram showing the third embodiment.
As shown in FIG. 29, the
監視部33は監視情報データ31にしたがって,2次元画面上18に描かれた3Dモデル111の要素のうち,監視情報データによって指定された要素を同じく指定されたアルゴリズムに従って監視し,情報の欠落を検知した場合に情報欠落補完部34に通知する。通知の内容には補完の方法と,補完すべきデータの内容も含まれている。
The
情報欠落補完部34としては字幕による表示手段,サブ画面による表示手段の2種類を想定している。
As the information
サブ画面35は3Dモデル19の要素の一部だけを拡大して2次元画面18上に重ねて表示するための画面である。
The
字幕36は3Dモデル19が表している動作の意味を表す文字を2次元画面18中に重ねて表示する。
The
補完用情報32を追加した監視情報データ31の構成を図34に示す。字幕用のデータには字幕表示手段が表示すべき文字列が格納されている。サブ画面用のデータには,サブ画面に表示すべき要素,すなわち口形データ,手形データへのポインタが格納されている。それぞれ監視情報作成部23が時系列データから読み出したものである。
The configuration of the monitoring
また属性辞書22の監視用アルゴリズムとして「速度検出」を追加する。これは,要素の重心位置における画面上移動平均を微分することで要素の動作速度を得るというものである。図30を参照しながら説明する。時間T0と時間T1の間に重心が距離D0だけ進んでいる。これからV=D0/T1−T0という計算で速度を求めることができる。この値がパラメータに示された範囲の外にある場合に速度情報が欠落したと判断して情報欠落補完部34に通知する。
Further, “speed detection” is added as a monitoring algorithm of the
本実施の形態にかかる情報表示装置3は,以上のように構成されている。
次いで,本実施の形態の動作について説明する。
The
Next, the operation of this embodiment will be described.
(1.文章入力),(2.単語への割り当て),(3.時系列データの作成と編集)までは,上記第1,第2の実施の形態と同様である。 The steps up to (1. sentence input), (2. assignment to word), and (3. creation and editing of time series data) are the same as those in the first and second embodiments.
(4−c:監視情報データの作成)
ステップ自体は,上記第2の実施の形態の(4−b)と同様であるが,検索される監視情報データの構成は前述したように上記第2の実施の形態と異なっている。字幕用のデータ,サブ画面用データを他のデータと同様に読み込む。
(4-c: Creation of monitoring information data)
The steps themselves are the same as (4-b) in the second embodiment, but the structure of the retrieved monitoring information data is different from that in the second embodiment as described above. Read subtitle data and sub-screen data in the same way as other data.
(5−c:アニメーションの表示)
アニメーション表示のフローを図31に示す。
(5-c: Animation display)
The animation display flow is shown in FIG.
監視部33によって2次元画面18上にあらわれる3Dモデル111の要素の情報が欠落したことが情報欠落補完部34に通知された場合,情報欠落補完部34は2次元画面上に欠落情報を補完するための表示を行うための処理をする。
When the information missing
ステップS191からS196までは,上記第1,第2の実施の形態と同様。これらの処理と並列に監視情報データから監視部33へのデータの読み込みを行う。
Steps S191 to S196 are the same as those in the first and second embodiments. In parallel with these processes, the monitoring information data is read into the
ステップS311で監視部33はタイマ27の指令で3Dモデル19の動作状況と同期して監視情報データを読み出す。
In step S <b> 311, the
ステップS312で監視部33はステップS311で読み出したデータに従って,監視する要素,監視する状態とそのためのアルゴリズム,情報欠落補完部34へ通知する補完すべき内容の情報を決定する。
In step S312, the
ステップS273で監視部33は指定されたアルゴリズムに基づいて,指定された要素を観察し情報の欠落が検出された場合に情報欠落補完部34にステップS313で通知を行う。通知にはどのような情報補完処理を行うかの情報が含まれている。
In step S273, the
ステップS314で監視部33から指令を受けた情報欠落補完部34は「字幕表示」「サブ画面の追加」のいずれかの処理を行う。サブ画面表示の場合には,図32に示したように,2次元画面28上に唇の拡大画像,手の拡大画像を重畳したサブ画面35を表示する。字幕表示の場合には,図33に示したように,2次元画面18上に動作の表す意味を字幕36として表示する。
In step S314, the information
ステップS316で描画部が更新された視点と3Dモデルに対する情報から再度2次元画像を描画,さらに字幕またはサブ画面を2次元画面上に表示する。 In step S316, the drawing unit redraws the 2D image from the updated viewpoint and information on the 3D model, and further displays the subtitle or sub-screen on the 2D screen.
(5−c)の処理を時系列データがなくなるまで繰り返す。 The process of (5-c) is repeated until there is no time series data.
(第3の実施の形態の効果)
以上説明したように,本実施の形態によれば,監視部からの指令を受けて欠落した情報を補完する情報欠落補完部34によってユーザからの速度指令,視点変更指令によって画面上にモデルが表すべき情報があらわれなくなってしまうような場合でもユーザに情報を提示することが可能になる。
(Effect of the third embodiment)
As described above, according to this embodiment, the model is displayed on the screen by the speed command from the user and the viewpoint change command by the information missing
さらに,学習などの用途で手話アニメーションを表示する場合,3Dモデルが両手を同時に動作させるなどユーザが注目すべき要素が多数ある場合にはユーザが視点を変更して自分が見たい要素をよく見ることができるよう視点を変更することがある。その場合に視点変更動作によって画面上から欠落してしまった要素による情報をサブ画面で表示することによってシステム全体としてユーザに提示できる情報が保たれる。 Furthermore, when displaying sign language animation for learning and other purposes, if there are many elements that the user should pay attention to, such as the 3D model moving both hands at the same time, the user changes the viewpoint and looks closely at the elements he / she wants to see The viewpoint may be changed so that it is possible. In this case, information that can be presented to the user as a whole system is maintained by displaying on the sub-screen the information based on the elements that are missing from the screen due to the viewpoint changing operation.
同様にユーザが速度変更を行ったため,副詞など動作の速度によって伝わる情報が欠落してしまった場合にその情報を字幕として補完することでシステム全体としてユーザに提示できる情報を保つことが可能である。 Similarly, when the user has changed the speed, if information transmitted by the speed of movement such as adverbs is missing, it is possible to maintain information that can be presented to the user as a whole system by complementing the information as subtitles .
以上,添付図面を参照しながら本発明にかかる情報表示装置の好適な実施形態について説明したが,本発明はかかる例に限定されない。当業者であれば,特許請求の範囲に記載された技術的思想の範疇内において各種の変更例または修正例に想到し得ることは明らかであり,それらについても当然に本発明の技術的範囲に属するものと了解される。 The preferred embodiment of the information display device according to the present invention has been described above with reference to the accompanying drawings, but the present invention is not limited to such an example. It will be obvious to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea described in the claims, and these are naturally within the technical scope of the present invention. It is understood that it belongs.
例えば,上記実施の形態においては,手話アニメーションを表示する情報表示装置について説明したが,手話に限らず手旗信号,パントマイム,ダンスなど特定の意味を表現するための動作を3Dモデルに行わせるアニメーション表示システムに応用可能である。 For example, in the above embodiment, an information display device that displays a sign language animation has been described. However, not only a sign language but also an animation display that causes a 3D model to perform an operation for expressing a specific meaning such as a hand flag signal, pantomime, and dance. Applicable to the system.
上記実施の形態においては日本語による辞書検索を行ったが,辞書のデータを変更することでその他外国語によるアニメーション表示システムとすることも可能である。 In the above embodiment, the dictionary search is performed in Japanese. However, it is also possible to provide an animation display system in other foreign languages by changing the dictionary data.
上記実施の形態においてPC上のソフトウェアとして表現される情報表示装置の例を示したがPCに限らず携帯電話,タブレットPC,PDAなどでもよい,また専用のハードウェアを用意してもよい。 In the above embodiment, an example of an information display device expressed as software on a PC is shown. However, the information display device is not limited to a PC, and may be a mobile phone, a tablet PC, a PDA, or the like, or dedicated hardware may be prepared.
上記実施の形態において各辞書の構成を表の形として示したが,ツリーなどの異なるデータ構造を用いてもよい。 In the above embodiment, the configuration of each dictionary is shown as a table, but a different data structure such as a tree may be used.
上記実施の形態において重なり検出,遠近感検出,速度検出のアルゴリズムの例を示したが同様の効果を得ることができる別のアルゴリズムを用いてもよい。 In the above embodiment, an example of an algorithm for overlap detection, perspective detection, and speed detection has been described, but another algorithm that can obtain the same effect may be used.
上記実施の形態において3Dモデルに対する動作指令を位置ベクトルとして与えたが,モデルの各関節軸の角度を指定する角度ベクトルなど,別の方法で指定してもよい。 In the above embodiment, the operation command for the 3D model is given as a position vector, but it may be specified by another method such as an angle vector for specifying the angle of each joint axis of the model.
上記第2,第3の実施の形態において情報欠落防止部を持つシステムと情報欠落補完部を持つシステムを別の構成としたがこれらの要素は排他的なものでなく,双方の要素を持つシステムとしてもよい。 In the second and third embodiments, the system having the information loss prevention unit and the system having the information loss complementation unit are configured separately, but these elements are not exclusive and have both elements. It is good.
上記実施の形態において3Dの人体モデルを設計したが,このモデルに限らず人間の全身を表現するモデルとしたり,あるいは単純化して腕だけのモデルとしたりするシステム構成も可能である。 In the above embodiment, a 3D human body model is designed. However, the present invention is not limited to this model, and a system configuration in which a model representing the whole body of a human body or a simplified model of only an arm is possible.
上記実施の形態において3D人体モデルは一体であったが、これが複数であってもよい。 In the above embodiment, the 3D human body model is integrated, but a plurality of 3D human body models may be provided.
本発明は,手話,ジェスチャ,パントマイムなど特定の意味を持った動作を3Dモデルに表現させることを目的とした3D(3次元:3−Dimension)アニメーション利用の情報表示装置に利用可能である。 INDUSTRIAL APPLICABILITY The present invention can be used for an information display device using a 3D (3-dimension) animation for the purpose of expressing a motion having a specific meaning such as a sign language, a gesture, or a mime in a 3D model.
1 情報表示装置
10 指令作成部
11 文入力部
12 形態素解析部
13 時系列データ作成部
14 単語辞書
15 修飾用辞書
16 時系列データ
17 タイマ
18 2次元画面
19 3Dモデル
110 描画部
111 3Dモデル
112 視点
113 監視部
114 情報欠落防止部
115 視点変更入力部
116 速度変更入力部
DESCRIPTION OF
Claims (16)
複数の要素から構成され,指令によって動作することを特徴とする3Dモデルと,
前記3Dモデルに与えるべき指令を作成する指令作成部と,
前記3Dモデルが動作するアニメーションの画像が表示される2次元画面と,
前記3Dモデルと,前記3Dモデルを観察する仮想空間上の視点を表すデータとの関係から前記2次元画面上にアニメーション画像を表示する描画部と,
前記2次元画面上にあらわれる3Dモデルの要素を監視し,情報の欠落を検出した場合に,欠落した事実を通知する監視部と,
前記監視部の通知を受けて前記3Dモデルを動作させ,前記3Dモデルが動作で表す意味が欠落することを防ぐ情報欠落防止部と,
を備えたことを特徴とする,情報表示装置。 In an information display device,
A 3D model composed of a plurality of elements and operated by commands;
A command creation unit for creating a command to be given to the 3D model;
A two-dimensional screen on which an animation image on which the 3D model operates is displayed;
A drawing unit for displaying an animation image on the two-dimensional screen from the relationship between the 3D model and data representing a viewpoint in a virtual space for observing the 3D model;
A monitoring unit for monitoring elements of the 3D model appearing on the two-dimensional screen and notifying a missing fact when a missing information is detected;
An information loss prevention unit that operates the 3D model in response to the notification from the monitoring unit and prevents the meaning represented by the operation of the 3D model from being lost;
An information display device comprising:
ユーザが表したい意味を表す言語を入力する言語入力部と,
入力された言語を単語単位に分解して出力する形態素解析部と,
3Dモデルに動作を行わせるための指令と,単語の意味との対応関係が格納されている単語辞書と,
前記形態素解析部から出力される単語と前記単語辞書の情報とを用いて,前記3Dモデルに入力された文章の意味を表現する動作を行わせるための一連の指令を作成するデータ作成部と,
を備えたことを特徴とする,請求項1に記載の情報表示装置。 The command creation unit
A language input section for inputting a language representing the meaning the user wants to express;
A morphological analyzer that decomposes the input language into words and outputs it,
A word dictionary in which correspondences between commands for causing the 3D model to perform operations and meanings of words are stored;
A data creation unit for creating a series of commands for performing an operation of expressing the meaning of the text input to the 3D model using the word output from the morpheme analysis unit and the information of the word dictionary;
The information display device according to claim 1, further comprising:
前記形態素解析部の出力と前記属性辞書の持つ情報とを用いて,前記2次元画面上で監視すべき要素と監視の方法とを,前記3Dモデルが行っている動作と動作を行っている時刻に対応して示す監視情報データを作成する監視情報作成部と,
をさらに備え,
前記監視部は,前記監視情報作成部が作成する監視情報データを用いて,監視の方法と監視すべき要素を前記3Dモデルが行っている動作と動作を行っている時刻に対応して変更し,変更した監視の方法に基づいて前記2次元画面上の要素を監視し,情報が欠落していると判断した場合に通知を行うことを特徴とする,請求項2〜8のいずれかに記載の情報表示装置。 An attribute dictionary storing data indicating the elements of the 3D model required to represent the word and the meaning of the word and the method of monitoring the element;
Using the output of the morphological analysis unit and the information held in the attribute dictionary, the elements to be monitored on the two-dimensional screen and the monitoring method are the operations performed by the 3D model and the times at which the operations are performed. A monitoring information creation unit that creates monitoring information data shown corresponding to
Further comprising
The monitoring unit uses the monitoring information data created by the monitoring information creation unit to change the monitoring method and the elements to be monitored according to the operation performed by the 3D model and the time at which the operation is performed. The element on the two-dimensional screen is monitored based on the changed monitoring method, and notification is made when it is determined that information is missing. Information display device.
前記監視情報作成部は,前記監視部が情報欠落していると判断した場合に,補完すべき前記3Dモデルの要素を示すデータと,補完すべき意味を表す文字列とをさらに含む前記監視情報データを作成し,
前記監視部は,さらに,補完すべき前記3Dモデルの要素を示すデータと,補完すべき文字列とを,前記3Dモデルが行っている動作と動作を行っている時刻に対応して変更し,情報が欠落していると判断した場合に,補完すべき情報を前記情報欠落補完部に通知することを特徴とする,請求項9に記載の情報表示装置。 In response to the notification from the monitoring unit, the information processing unit further includes an information missing complementing unit that adds an element for complementing information on the two-dimensional screen,
The monitoring information creation unit further includes data indicating elements of the 3D model to be supplemented and a character string representing a meaning to be supplemented when the monitoring unit determines that the information is missing. Create data,
The monitoring unit further changes the data indicating the elements of the 3D model to be complemented and the character string to be complemented according to the operation performed by the 3D model and the time at which the operation is performed, 10. The information display device according to claim 9, wherein when it is determined that information is missing, information to be complemented is notified to the information missing complement unit.
前記データ作成部は,修飾語が他のデータによって表される動作の変更を必要とするものである場合に,蓄積されたデータの一部を変更することを特徴とする,請求項13に記載の情報表示装置。 The word dictionary is composed of a modifier dictionary including adjectives and adverbs having different data structures, and other dictionaries including other words.
The said data preparation part changes a part of accumulated data, when a modifier requires the change of the operation | movement represented by other data, The said data creation part changes the part of the stored data, It is characterized by the above-mentioned. Information display device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004044688A JP4379146B2 (en) | 2004-01-07 | 2004-02-20 | Information display device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004002062 | 2004-01-07 | ||
JP2004044688A JP4379146B2 (en) | 2004-01-07 | 2004-02-20 | Information display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005222504A true JP2005222504A (en) | 2005-08-18 |
JP4379146B2 JP4379146B2 (en) | 2009-12-09 |
Family
ID=34998059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004044688A Expired - Fee Related JP4379146B2 (en) | 2004-01-07 | 2004-02-20 | Information display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4379146B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007133609A (en) * | 2005-11-09 | 2007-05-31 | Oki Electric Ind Co Ltd | Video generating device and video generating method |
JP2011123422A (en) * | 2009-12-14 | 2011-06-23 | Asutemu:Kk | Sign language video-generating device, sign language video-outputting device, sign language video-generating method, and program |
JP5564625B1 (en) * | 2014-01-10 | 2014-07-30 | ソフトバンクモバイル株式会社 | Program and display control device |
CN110096837A (en) * | 2019-05-16 | 2019-08-06 | 哈尔滨工程大学 | A kind of engine room facilities maintenance accessi bility and the access verification method of personnel based on Unity |
WO2022123752A1 (en) * | 2020-12-10 | 2022-06-16 | 日本電気株式会社 | Image processing device, image processing method, and computer-readable recording medium |
-
2004
- 2004-02-20 JP JP2004044688A patent/JP4379146B2/en not_active Expired - Fee Related
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007133609A (en) * | 2005-11-09 | 2007-05-31 | Oki Electric Ind Co Ltd | Video generating device and video generating method |
JP4548313B2 (en) * | 2005-11-09 | 2010-09-22 | 沖電気工業株式会社 | Video creation device and video creation method |
JP2011123422A (en) * | 2009-12-14 | 2011-06-23 | Asutemu:Kk | Sign language video-generating device, sign language video-outputting device, sign language video-generating method, and program |
JP5564625B1 (en) * | 2014-01-10 | 2014-07-30 | ソフトバンクモバイル株式会社 | Program and display control device |
CN110096837A (en) * | 2019-05-16 | 2019-08-06 | 哈尔滨工程大学 | A kind of engine room facilities maintenance accessi bility and the access verification method of personnel based on Unity |
WO2022123752A1 (en) * | 2020-12-10 | 2022-06-16 | 日本電気株式会社 | Image processing device, image processing method, and computer-readable recording medium |
JP7473012B2 (en) | 2020-12-10 | 2024-04-23 | 日本電気株式会社 | Image processing device, image processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP4379146B2 (en) | 2009-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Benko et al. | Balloon selection: A multi-finger technique for accurate low-fatigue 3d selection | |
US20230315385A1 (en) | Methods for quick message response and dictation in a three-dimensional environment | |
CN106846496A (en) | DICOM images based on mixed reality technology check system and operating method | |
Dobrova et al. | Virtual reality in teaching foreign languages | |
Sheldon et al. | Putting the AR In (AR) chitecture | |
JP4379146B2 (en) | Information display device | |
CN111739134B (en) | Model processing method and device for virtual character and readable storage medium | |
Krüger et al. | IntenSelect+: Enhancing Score-Based Selection in Virtual Reality | |
US10319133B1 (en) | Posing animation hierarchies with dynamic posing roots | |
Mine | Exploiting proprioception in virtual-environment interaction | |
Mao et al. | A sketch-based gesture interface for rough 3D stick figure animation | |
JP5920858B1 (en) | Program, information processing apparatus, depth definition method, and recording medium | |
Fiorentino et al. | Surface design in virtual reality as industrial application | |
Papadogiorgaki et al. | Synthesis of virtual reality animations from SWML using MPEG-4 body animation parameters | |
KR102404667B1 (en) | Device and method for providing contents based on augmented reality | |
Zeng et al. | Shape of the story: Story visualization techniques | |
Yi et al. | sEditor: A prototype for a sign language interfacing system | |
Göttig et al. | A comparison of 3d visualization technologies and their user interfaces with data specific to architecture | |
Papadogiorgaki et al. | Gesture synthesis from sign language notation using MPEG-4 humanoid animation parameters and inverse kinematics | |
Yi et al. | From creating virtual gestures to" writing" in sign languages | |
Moemedi et al. | Rendering an animated avatar from SignWriting notation | |
Bai | Mobile augmented reality: Free-hand gesture-based interaction | |
Pastor | Virtual hands: a comparative study of two text input paradigms for VR | |
Butcher | A framework for Web-based immersive analytics | |
Fourie | The design of a generic signing avatar animation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090601 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090609 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090730 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090825 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090907 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121002 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4379146 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121002 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121002 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121002 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131002 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |