JP2007272534A - Apparatus, method and program for complementing ellipsis of word - Google Patents

Apparatus, method and program for complementing ellipsis of word Download PDF

Info

Publication number
JP2007272534A
JP2007272534A JP2006096921A JP2006096921A JP2007272534A JP 2007272534 A JP2007272534 A JP 2007272534A JP 2006096921 A JP2006096921 A JP 2006096921A JP 2006096921 A JP2006096921 A JP 2006096921A JP 2007272534 A JP2007272534 A JP 2007272534A
Authority
JP
Japan
Prior art keywords
information
user
abbreviation
character information
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006096921A
Other languages
Japanese (ja)
Inventor
Ichiro Umada
一郎 馬田
Tomoji Toriyama
朋二 鳥山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2006096921A priority Critical patent/JP2007272534A/en
Publication of JP2007272534A publication Critical patent/JP2007272534A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus for complementing ellipsis of words or the like that is capable of more appropriately complementing ellipsis of words in a situation where two or persons converse. <P>SOLUTION: The apparatus includes: a voice information accepting part 11 for accepting voice information indicating voice issued by at least one user in a situation where two or more users converse; a character information conversion part 13 for converting the voice information into corresponding character information; a zero pronoun specifying part 14 for specifying a zero pronoun as a case element omitted in a document shown by the character information; an action information accepting part 15 for accepting action information as information including at least user position information, i.e., information about the position of the two or more users, and as information about the action of the two or more users; an ellipsis of words complementing part 21 for creating complementing character information such that the omitted word is complemented in the position of the zero pronoun using the action information; and a complementing character information output part 22 for outputting complementing character information. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、省略語を補完する省略語補完装置等に関する。   The present invention relates to an abbreviation complement device that complements abbreviations.

自然言語では、冗長な表現を避けるために、主語や目的語等が省略されることがある。特に、日本語では、文脈や状況から容易に推察できる言葉については、省略される傾向の強いことが知られている。そのような省略語が存在すると、文脈解析、音声対話、機械翻訳等において、適切な処理を実行することができないという問題がある。したがって、そのような省略語を補完する技術に関する研究が行われてきている(例えば、非特許文献1参照)。
山本和英、隅田英一郎、「決定木学習による日本語対話文の格要素省略補完」、自然言語処理、Vol.6,No.1,p3−28,1999年
In natural language, in order to avoid redundant expressions, the subject, object, etc. may be omitted. In particular, in Japanese, it is known that words that can be easily inferred from the context and situation tend to be omitted. When such abbreviations exist, there is a problem that appropriate processing cannot be executed in context analysis, speech dialogue, machine translation, and the like. Therefore, research on techniques for complementing such abbreviations has been conducted (for example, see Non-Patent Document 1).
Kazuhide Yamamoto, Eiichiro Sumida, “Completion of case element omission in Japanese dialogue sentence by decision tree learning”, Natural language processing, Vol. 6, no. 1, p3-28, 1999

しかしながら、対話の場面においては、身振りやアイコンタクト等を用いて意思の疎通を図ることもある。したがって、その対話の状況から聞き手にとって当然のことを省略する傾向があり、そのような場合には、言葉のみを解析することによって省略語を補完する方法には限界がある。   However, in dialogue situations, communication may be attempted using gestures or eye contact. Accordingly, there is a tendency for the listener to omit the natural matter from the situation of the dialogue, and in such a case, there is a limit to the method of complementing the abbreviation by analyzing only the word.

本発明は、上記問題を解決するためになされたものであり、2人以上のユーザが会話している状況において、省略語をより適切に補完することができる省略語補完装置等を提供することを目的とする。   The present invention has been made to solve the above problem, and provides an abbreviation complement device that can more appropriately complement abbreviations in a situation where two or more users are conversing. With the goal.

上記目的を達成するため、本発明による省略語補完装置は、2人以上のユーザが会話している状況における、少なくとも1人のユーザの発した音声を示す情報である音声情報を受け付ける音声情報受付部と、前記音声情報受付部が受け付けた音声情報を、当該音声情報の示す音声に対応する文字を示す情報である文字情報に変換する文字情報変換部と、前記文字情報の示す文書において省略された格要素であるゼロ代名詞を特定するゼロ代名詞特定部と、前記2人以上のユーザの位置に関する情報であるユーザ位置情報を少なくとも含む情報であり、前記2人以上のユーザの行動に関する情報である行動情報を受け付ける行動情報受付部と、前記行動情報受付部が受け付けた行動情報を用いて、前記文字情報の示す文書における、前記ゼロ代名詞特定部によって特定されたゼロ代名詞の位置に、省略されている言葉である省略語を補完した情報である補完文字情報を生成する省略語補完部と、前記補完文字情報を出力する補完文字情報出力部と、を備えたものである。   In order to achieve the above object, the abbreviation completion apparatus according to the present invention receives voice information that receives voice information, which is information indicating voice uttered by at least one user, in a situation where two or more users are talking. Is omitted in the document indicated by the character information, the character information converting unit that converts the voice information received by the voice information receiving unit into character information that is information indicating the character corresponding to the voice indicated by the voice information, and the character information. Information including at least a zero pronoun specifying unit that specifies a zero pronoun that is a case element and user location information that is information relating to the location of the two or more users, and information relating to the behavior of the two or more users. Using the behavior information receiving unit that receives the behavior information and the behavior information received by the behavior information receiving unit, the zero cost in the document indicated by the character information An abbreviation completion unit that generates supplementary character information that is information obtained by supplementing an abbreviation that is an abbreviated word at the position of the zero pronoun specified by the verb specification unit, and supplementary character information that outputs the supplementary character information And an output unit.

このような構成により、2人以上のユーザが会話している状況において、行動情報を用いることにより、省略語をより適切に補完することができる。例えば、ユーザの会話の文脈からは知ることができない省略語を補完することも可能である。   With such a configuration, abbreviations can be complemented more appropriately by using behavior information in a situation where two or more users are talking. For example, abbreviations that cannot be known from the user's conversation context can be supplemented.

また、本発明による省略語補完装置では、前記行動情報は、ユーザの動きを示す情報であるモーション情報も含んでもよい。
このような構成により、行動情報から、ユーザの指差し行為や、視線方向、うなずき行為等を検出することができ、それらの行為等を用いることによって、より適切に省略語を補完することができる。
In the abbreviation complement device according to the present invention, the behavior information may also include motion information that is information indicating a user's movement.
With such a configuration, the user's pointing action, gaze direction, nodding action, etc. can be detected from the action information, and abbreviations can be complemented more appropriately by using these actions, etc. .

また、本発明による省略語補完装置では、前記省略語補完部は、前記行動情報を用いて、人のゼロ代名詞に対応するユーザを特定するユーザ特定手段と、前記ゼロ代名詞に対応するユーザを示す文字の情報であるユーザ文字情報を決定するユーザ文字情報決定手段と、前記ゼロ代名詞の位置に補完される省略語を示す情報であり、前記ユーザ文字情報決定手段が決定したユーザ文字情報を含む情報であるユーザ省略語情報を、対応するゼロ代名詞の位置に挿入するユーザ省略語情報挿入手段と、を備えていてもよい。
このような構成により、人のゼロ代名詞に対応するユーザ省略語情報を、そのゼロ代名詞の位置に挿入することができる。
In the abbreviation completion device according to the present invention, the abbreviation completion unit indicates a user specifying means for specifying a user corresponding to a human zero pronoun and a user corresponding to the zero pronoun using the behavior information. User character information determining means for determining user character information, which is character information, and information indicating abbreviations complemented at the position of the zero pronoun, and information including user character information determined by the user character information determining means And user abbreviation information insertion means for inserting the user abbreviation information at the position of the corresponding zero pronoun.
With such a configuration, user abbreviation information corresponding to a person's zero pronoun can be inserted at the position of the zero pronoun.

また、本発明による省略語補完装置では、前記ユーザの属性に関する情報であるユーザ属性情報を受け付けるユーザ属性情報受付部をさらに備え、前記ユーザ文字情報決定手段は、前記ユーザ属性情報受付部が受け付けたユーザ属性情報を用いて前記ユーザ文字情報を決定してもよい。
このような構成により、ユーザ属性情報の示すユーザの属性を含むユーザ文字情報を決定することができる。
The abbreviation completion device according to the present invention further includes a user attribute information receiving unit that receives user attribute information that is information relating to the user's attributes, and the user character information determining unit is received by the user attribute information receiving unit. The user character information may be determined using user attribute information.
With such a configuration, user character information including a user attribute indicated by the user attribute information can be determined.

また、本発明による省略語補完装置では、前記省略語補完部は、ユーザの位置関係と、ユーザの指示語とを対応付ける情報であるユーザ指示情報が記憶されるユーザ指示情報記憶手段をさらに具備し、前記ユーザ文字情報決定手段は、前記行動情報によって示される、前記ユーザ特定手段が特定したユーザ、話し手のユーザ、聞き手のユーザの位置関係に応じた指示語を、前記ユーザ指示情報を用いて選択し、当該選択した指示語を含む文字の情報であるユーザ文字情報を決定してもよい。   In the abbreviation complementing apparatus according to the present invention, the abbreviation complementing unit further includes user instruction information storage means for storing user instruction information which is information for associating a user's positional relationship with a user's instruction word. The user character information determination means selects, using the user instruction information, an instruction word corresponding to the positional relationship of the user, the speaker user, and the listener user specified by the user specifying means indicated by the behavior information. Then, user character information that is character information including the selected instruction word may be determined.

このような構成により、ユーザの位置関係に応じた適切な指示語を選択することができ、その選択した指示語を用いて適切なユーザ文字情報を決定することができる。   With such a configuration, it is possible to select an appropriate instruction word according to the positional relationship of the user, and it is possible to determine appropriate user character information using the selected instruction word.

2人以上のユーザが会話している状況における、物に関する情報であり、当該物の位置に関する情報である物位置情報を少なくとも含む情報である物情報を受け付ける物情報受付部をさらに備え、前記省略語補完部は、前記物情報を用いて、物のゼロ代名詞に対応する物を特定する物特定手段と、前記ゼロ代名詞に対応する物を示す文字の情報である物文字情報を決定する物文字情報決定手段と、前記ゼロ代名詞の位置に補完される省略語を示す情報であり、前記物文字情報決定手段が決定した物文字情報を含む情報である物省略語情報を、対応するゼロ代名詞の位置に挿入する物省略語情報挿入手段と、を備えていてもよい。
このような構成により、物のゼロ代名詞に対応する物省略語情報を、そのゼロ代名詞の位置に挿入することができる。
The apparatus further includes an object information receiving unit that receives object information that is information related to an object in a situation where two or more users are talking and includes at least object position information that is information related to the position of the object. The word completion unit uses the object information to identify an object identifying unit that identifies an object corresponding to the zero pronoun of the object, and an object character that determines the object character information that is character information indicating the object corresponding to the zero pronoun Information determining means and information indicating abbreviations supplemented at the position of the zero pronoun, and the abbreviation information which is information including the object character information determined by the object character information determining means, the corresponding abbreviation of the corresponding zero pronoun There may be provided object abbreviation information insertion means for insertion at the position.
With such a configuration, object abbreviation information corresponding to the zero pronoun of the object can be inserted at the position of the zero pronoun.

また、本発明による省略語補完装置では、前記物情報は、物の属性に関する情報である物属性情報も含み、前記物文字情報決定手段は、前記物属性情報を用いて前記物文字情報を決定してもよい。
このような構成により、物属性情報の示す物の属性を含む物文字情報を決定することができる。
In the abbreviation complementing apparatus according to the present invention, the object information also includes object attribute information which is information related to an attribute of the object, and the object character information determining means determines the object character information using the object attribute information. May be.
With such a configuration, the object character information including the object attribute indicated by the object attribute information can be determined.

また、本発明による省略語補完装置では、前記省略語補完部は、ユーザと物の位置関係と、物の指示語とを対応付ける情報である物指示情報が記憶される物指示情報記憶手段をさらに具備し、前記物文字情報決定手段は、前記行動情報及び前記物情報によって示される、前記物特定手段が特定した物、話し手のユーザ、聞き手のユーザの位置関係に応じた指示語を、前記物指示情報を用いて選択し、当該選択した指示語を含む文字の情報である物文字情報を決定してもよい。   Moreover, in the abbreviation complement apparatus according to the present invention, the abbreviation complement unit further includes an object instruction information storage means for storing object instruction information, which is information associating the positional relationship between the user and the object, and the object instruction word. The object character information determining means includes an instruction word indicated by the action information and the object information according to the positional relationship between the object specified by the object specifying means, the user of the speaker, and the user of the listener. Selection may be made using the instruction information, and the object character information which is information of the character including the selected instruction word may be determined.

このような構成により、ユーザと物の位置関係に応じた適切な指示語を選択することができ、その選択した指示語を用いて適切な物文字情報を決定することができる。   With such a configuration, it is possible to select an appropriate instruction word according to the positional relationship between the user and the object, and it is possible to determine appropriate object character information using the selected instruction word.

また、本発明による省略語補完装置では、前記ゼロ代名詞特定部は、前記文字情報の示す文書から、動詞と当該動詞の格要素とを抽出する動詞抽出手段と、動詞と格要素との関係を示す情報である格フレーム情報が記憶される格フレーム情報記憶手段と、前記格フレーム情報を用いて、前記動詞抽出手段が抽出した動詞に対応する格要素を取得する格要素取得手段と、前記格要素取得手段が取得した格要素と、前記動詞抽出手段が抽出した格要素とを比較することにより、前記文字情報の示す文書に含まれない格要素を特定する格要素特定手段と、を備えていてもよい。
このような構成により、ゼロ代名詞の位置を特定することができる。
Further, in the abbreviation complementing apparatus according to the present invention, the zero pronoun specifying unit has a verb extracting means for extracting a verb and a case element of the verb from a document indicated by the character information, and a relationship between the verb and the case element. Case frame information storage means for storing case frame information, which is information to be shown, case element acquisition means for acquiring a case element corresponding to the verb extracted by the verb extraction means, using the case frame information, and the case A case element specifying means for specifying a case element not included in the document indicated by the character information by comparing the case element acquired by the element acquisition means and the case element extracted by the verb extraction means; May be.
With this configuration, the position of the zero pronoun can be specified.

本発明による省略語補完装置等によれば、2人以上のユーザが会話している状況において、ユーザの位置情報を少なくとも含む行動情報を用いて、省略語を補完することにより、会話をしている2人以上のユーザにとって当然のことを考慮した省略語の補完が可能となる。その結果、会話の言葉のみを解析して省略語を補完する場合よりも適切な省略語の補完が可能となる。また、省略語の補完された文書を用いることによって、機械翻訳等を適切に行うことができる。   According to the abbreviation complementing device and the like according to the present invention, in a situation where two or more users are conversing with each other, the abbreviations are complemented by using behavior information including at least the user's position information. It is possible to complement abbreviations that take into account the fact that two or more users are present. As a result, abbreviations that are more appropriate than abbreviations can be complemented by analyzing only the conversation words. In addition, machine translation and the like can be appropriately performed by using a document in which abbreviations are complemented.

以下、本発明による省略語補完装置について、実施の形態を用いて説明する。なお、以下の実施の形態において、同じ符号を付した構成要素及びステップは同一または相当するものであり、再度の説明を省略することがある。   Hereinafter, an abbreviation complement apparatus according to the present invention will be described using embodiments. In the following embodiments, components and steps denoted by the same reference numerals are the same or equivalent, and repetitive description may be omitted.

(実施の形態1)
本発明の実施の形態1による省略語補完装置について、図面を参照しながら説明する。
図1は、本実施の形態による省略語補完装置1の構成を示すブロック図である。図1において、本実施の形態による省略語補完装置1は、音声情報受付部11と、音声情報蓄積部12と、文字情報変換部13と、ゼロ代名詞特定部14と、行動情報受付部15と、行動情報蓄積部16と、ユーザ属性情報受付部17と、ユーザ属性情報蓄積部18と、物情報受付部19と、物情報蓄積部20と、省略語補完部21と、補完文字情報出力部22とを備える。
(Embodiment 1)
An abbreviation complement apparatus according to Embodiment 1 of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of an abbreviation complementing apparatus 1 according to the present embodiment. In FIG. 1, the abbreviation completion device 1 according to the present embodiment includes a voice information reception unit 11, a voice information storage unit 12, a character information conversion unit 13, a zero pronoun specification unit 14, and a behavior information reception unit 15. , Behavior information storage unit 16, user attribute information reception unit 17, user attribute information storage unit 18, object information reception unit 19, object information storage unit 20, abbreviation completion unit 21, and supplementary character information output unit 22.

音声情報受付部11は、音声情報を受け付ける。この音声情報は、2人以上のユーザが会話している状況における、少なくとも1人のユーザの発した音声を示す情報である。ここで、「会話している2人以上のユーザ」には、その会話に直接参加していないユーザも含まれるものとする。例えば、2人のユーザが会話をしており、その2人のユーザのいずれかのユーザから第3のユーザに物が渡される場合には、その第3のユーザもその会話を聞いているものと考えられ、その第3のユーザも、「会話している2人以上のユーザ」に含まれるものとする。音声情報受付部11が受け付けた音声情報に対応する文字情報に対して、後述する省略語の補完処理が行われるため、省略語の補完を行いたい音声情報が少なくとも音声情報受付部11で受け付けられればよいことになる。なお、2人以上のユーザが会話している状況における、各ユーザの発した音声を示す音声情報を受け付けてもよいことは言うまでもない。この音声情報は、後述する文字情報変換部13によって文字情報に変換されるため、ユーザの発した言葉が明確であることが好適である。   The voice information receiving unit 11 receives voice information. This voice information is information indicating a voice uttered by at least one user in a situation where two or more users are talking. Here, “two or more users having a conversation” includes users who are not directly participating in the conversation. For example, when two users are having a conversation and one of the two users is given a third user, the third user is also listening to the conversation. It is assumed that the third user is also included in “two or more users having a conversation”. Since the abbreviation word completion processing described later is performed on the character information corresponding to the voice information received by the voice information reception unit 11, at least the voice information reception unit 11 receives voice information for which abbreviation completion is to be performed. It will be good. Needless to say, voice information indicating voices uttered by each user in a situation where two or more users are talking may be accepted. Since this voice information is converted into character information by the character information converter 13 described later, it is preferable that the words uttered by the user are clear.

音声情報は、例えば、環境側に設置された単数または複数のマイクロフォンによって取得されてもよく、あるいは、ユーザが装着しているマイクロフォンによって取得されてもよい。環境側に複数のマイクロフォンを設置する場合には、そのマイクロフォンの位置と、ユーザの位置と、音声情報の信号レベルとを用いて、どのユーザが話しているのかを特定することも可能である。ユーザが装着しているマイクロフォンとは、例えば、通常のマイクロフォンでもよく、骨伝導マイクでもよく、スロート(咽喉)マイクでもかまわない。骨伝導マイクやスロートマイクを用いて音声情報を取得する場合には、環境音を含まない音声情報の取得が可能となる。なお、後の処理のために、どのユーザがどの音声を発したのかがわかるように音声情報を取得することが好適である。   The voice information may be acquired by, for example, one or a plurality of microphones installed on the environment side, or may be acquired by a microphone worn by the user. When a plurality of microphones are installed on the environment side, it is also possible to specify which user is speaking using the position of the microphone, the position of the user, and the signal level of the voice information. The microphone worn by the user may be, for example, a normal microphone, a bone conduction microphone, or a throat microphone. In the case of acquiring sound information using a bone conduction microphone or a throat microphone, it is possible to acquire sound information that does not include environmental sound. In addition, it is preferable to acquire audio | voice information so that it can be understood which user uttered which audio | voice for the subsequent process.

音声情報受付部11は、例えば、音声デバイス(例えば、マイクロフォン等)から入力された情報を受け付けてもよく、有線もしくは無線の通信回線を介して送信された情報を受信してもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリ等)から読み出された情報を受け付けてもかまわない。なお、音声情報受付部11は、受け付けを行うためのデバイス(例えば、モデムやネットワークカード等)を含んでいてもよく、あるいは含んでいなくてもよい。また、音声情報受付部11は、ハードウェアによって実現されてもよく、あるいは所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。本実施の形態では、音声情報受付部11は、図1で示されるように、マイクロフォンによって取得された各ユーザの音声を示す音声情報をそれぞれ受け付けるものとする。   For example, the audio information receiving unit 11 may receive information input from an audio device (for example, a microphone or the like), may receive information transmitted via a wired or wireless communication line, Information read from a recording medium (for example, an optical disk, a magnetic disk, a semiconductor memory, etc.) may be accepted. Note that the voice information receiving unit 11 may or may not include a device (for example, a modem or a network card) for receiving. The audio information receiving unit 11 may be realized by hardware, or may be realized by software such as a driver that drives a predetermined device. In the present embodiment, as shown in FIG. 1, the voice information receiving unit 11 receives voice information indicating each user's voice acquired by a microphone.

音声情報蓄積部12は、音声情報受付部11が受け付けた音声情報を所定の記録媒体に蓄積する。この記録媒体は、例えば、半導体メモリや、光ディスク、磁気ディスク等であり、音声情報蓄積部12が有していてもよく、あるいは音声情報蓄積部12の外部に存在してもよい。本実施の形態では、音声情報蓄積部12がその記録媒体を有するものとする。また、この記録媒体は、音声情報を一時的に記憶するものであってもよく、そうでなくてもよい。   The audio information storage unit 12 stores the audio information received by the audio information reception unit 11 in a predetermined recording medium. This recording medium is, for example, a semiconductor memory, an optical disk, a magnetic disk, or the like, and may be included in the audio information storage unit 12 or may exist outside the audio information storage unit 12. In the present embodiment, it is assumed that the audio information storage unit 12 has the recording medium. Further, this recording medium may or may not temporarily store audio information.

文字情報変換部13は、音声情報を文字情報に変換する。その文字情報は、音声情報受付部11が受け付けた音声情報の示す音声に対応する文字を示す情報である。この文字情報変換部13による処理は、いわゆる音声認識の技術として知られており、すでに音声認識のソフトウェア等も市販されているため、その詳細な説明は省略する。   The character information conversion unit 13 converts voice information into character information. The character information is information indicating characters corresponding to the voice indicated by the voice information received by the voice information receiving unit 11. The processing by the character information conversion unit 13 is known as a so-called voice recognition technique, and since voice recognition software and the like are already on the market, detailed description thereof is omitted.

ゼロ代名詞特定部14は、文字情報変換部13が生成した文字情報の示す文書においてゼロ代名詞を特定する。ゼロ代名詞とは、省略された格要素である。格要素とは、意味素と格助詞との組である。例えば、「あなたが」、「電車が」、「私に」、「あの方に」、「この本を」、「あの花を」等が格要素である。   The zero pronoun specifying unit 14 specifies a zero pronoun in the document indicated by the character information generated by the character information converting unit 13. Zero pronoun is an abbreviated case element. A case element is a pair of a semantic element and a case particle. For example, “you are”, “train is”, “to me”, “to that person”, “this book”, “that flower”, and so on.

図2は、本実施の形態によるゼロ代名詞特定部14の構成を示すブロック図である。図2において、本実施の形態によるゼロ代名詞特定部14は、動詞抽出手段31と、格フレーム情報記憶手段32と、格要素取得手段33と、格要素特定手段34とを備える。   FIG. 2 is a block diagram showing a configuration of the zero pronoun specifying unit 14 according to the present embodiment. In FIG. 2, the zero pronoun specifying unit 14 according to the present embodiment includes a verb extracting unit 31, a case frame information storing unit 32, a case element acquiring unit 33, and a case element specifying unit 34.

動詞抽出手段31は、文字情報の示す文書から、動詞と、その動詞の格要素とを抽出する。動詞抽出手段31は、例えば、文字情報の示す文書について、形態素解析を行うことによって、動詞を抽出し、その抽出した動詞の格要素を、「を」、「が」、「に」等の格助詞を手がかり句として用いて検索することにより抽出する。ここで、抽出した動詞に対応する格要素は、一般にその動詞よりも前の位置に存在し、その動詞の存在する文に含まれるため、そのような条件の下で「を」等の格助詞を手がかり句として用いた検索を行うことになる。なお、抽出した動詞の格要素が文字情報の示す文書にまったく含まれない場合には、動詞抽出手段31は、格要素を抽出しなくてよい。文書から動詞と格要素とを抽出する方法については、従来から知られており、その詳細な説明は省略する。   The verb extracting means 31 extracts a verb and a case element of the verb from the document indicated by the character information. For example, the verb extraction unit 31 extracts a verb by performing morphological analysis on a document indicated by character information, and sets the extracted case elements such as “O”, “GA”, “NI”, and the like. Extracted by searching using particles as clue phrases. Here, the case element corresponding to the extracted verb is generally present in the position before the verb and is included in the sentence in which the verb exists. The search is performed using as a clue phrase. When the extracted verb case element is not included in the document indicated by the character information, the verb extraction unit 31 does not have to extract the case element. A method for extracting a verb and a case element from a document is conventionally known, and a detailed description thereof will be omitted.

格フレーム情報記憶手段32では、動詞と格要素との関係を示す情報である格フレーム情報が記憶される。この格フレーム情報により、ある動詞がどのような格要素をとるのかについて知ることができる。格フレーム情報の具体例については後述する。格フレーム情報記憶手段32は、所定の記録媒体(例えば、半導体メモリや磁気ディスク、光ディスク等)によって実現される。格フレーム情報記憶手段32に格フレーム情報が記憶される過程は問わない。例えば、記録媒体を介して格フレーム情報が格フレーム情報記憶手段32で記憶されるようになってもよく、通信回線等を介して送信された格フレーム情報が格フレーム情報記憶手段32で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された格フレーム情報が格フレーム情報記憶手段32で記憶されるようになってもかまわない。   Case frame information storage means 32 stores case frame information, which is information indicating the relationship between verbs and case elements. With this case frame information, it is possible to know what case element a certain verb takes. A specific example of the case frame information will be described later. The case frame information storage means 32 is realized by a predetermined recording medium (for example, a semiconductor memory, a magnetic disk, an optical disk, etc.). The process in which the case frame information is stored in the case frame information storage means 32 does not matter. For example, the case frame information may be stored in the case frame information storage means 32 via a recording medium, and the case frame information transmitted via a communication line or the like is stored in the case frame information storage means 32. The case frame information input via the input device may be stored in the case frame information storage means 32.

格要素取得手段33は、格フレーム情報記憶手段32で記憶されている格フレーム情報を用いて、動詞抽出手段31が抽出した動詞に対応する格要素を取得する。すなわち、格要素取得手段33は、格フレーム情報から、動詞抽出手段31が抽出した動詞を検索し、その検索した動詞に対応する格要素を格フレーム情報から読み出す。   The case element acquisition unit 33 uses the case frame information stored in the case frame information storage unit 32 to acquire a case element corresponding to the verb extracted by the verb extraction unit 31. That is, the case element acquisition unit 33 searches the case frame information for the verb extracted by the verb extraction unit 31, and reads the case element corresponding to the searched verb from the case frame information.

格要素特定手段34は、格要素取得手段33が取得した格要素と、動詞抽出手段31が抽出した格要素とを比較することにより、文字情報の示す文書に含まれない格要素を特定する。すなわち、格要素特定手段34は、格要素取得手段33が取得した1以上の格要素に含まれるが、動詞抽出手段31が抽出した0以上の格要素に含まれない格要素を、文字情報の示す文書に含まれない格要素として特定される。このようにして特定された格要素がゼロ代名詞である。文字情報の示す文書に含まれない格要素を特定するとは、例えば、その格要素が本来含まれるべき文書の位置に、格要素が抜けている旨の情報を挿入することであってもよく、その格要素が本来含まれるべき位置と、抜けている格要素に関する情報とを対応付ける情報を図示しない記録媒体に蓄積することであってもよく、どのような格要素がどこにあるべきなのかがわかるのであれば、他の特定の方法であってもかまわない。抜けている格要素に関する情報とは、例えば、その格要素で用いられる格助詞と、意味素の種類とを示す情報である。意味素の種類としては、例えば、「人」、「物」、「場所」等がある。   The case element specifying unit 34 specifies a case element that is not included in the document indicated by the character information by comparing the case element acquired by the case element acquiring unit 33 and the case element extracted by the verb extracting unit 31. That is, the case element specifying unit 34 converts the case elements included in the one or more case elements acquired by the case element acquisition unit 33 but not included in the zero or more case elements extracted by the verb extraction unit 31 into the character information. Identified as a case element not included in the document shown. The case element specified in this way is a zero pronoun. Specifying a case element that is not included in the document indicated by the character information may be, for example, inserting information indicating that the case element is missing at the position of the document in which the case element should originally be included, Information that associates the position where the case element should originally be included with the information about the missing case element may be stored in a recording medium (not shown), and it is possible to know what kind of case element should be located. In this case, other specific methods may be used. The missing case element information is, for example, information indicating the case particle used in the case element and the type of semantic element. The types of semantic elements include, for example, “person”, “thing”, “location”, and the like.

行動情報受付部15は、行動情報を受け付ける。ここで、行動情報とは、2人以上のユーザが会話をしている状況における、その2人以上のユーザの行動に関する情報である。その行動情報は、その2人以上のユーザの位置に関する情報であるユーザ位置情報を少なくとも含む情報である。行動情報は、ユーザの動きを示す情報であるモーション情報を含んでもよい。モーション情報は、例えば、ユーザの体の動きに関する情報(以下、「身体モーション情報」と呼ぶこともある)を含んでいてもよく、ユーザの視線の動きに関する情報(以下、「視線情報」と呼ぶこともある)を含んでいてもよい。   The behavior information receiving unit 15 receives behavior information. Here, the action information is information regarding the actions of the two or more users in a situation where two or more users are having a conversation. The action information is information including at least user position information that is information regarding the positions of the two or more users. The behavior information may include motion information that is information indicating the movement of the user. The motion information may include, for example, information related to the movement of the user's body (hereinafter also referred to as “body motion information”), and information related to the movement of the user's line of sight (hereinafter referred to as “line of sight information”). May be included).

ユーザ位置情報は、例えば、モーションキャプチャシステムによって取得されてもよく、環境側に設置したカメラでユーザを撮影した画像を解析することによって取得されてもよく、その他の方法によって取得されてもかまわない。モーションキャプチャシステムを用いると、ユーザが付けているマーカの位置を検出できるため、ユーザ位置情報を容易に取得できる。モーションキャプチャシステムについては後述する。カメラでユーザを撮影した画像を解析するとは、ユーザの画像を撮影し、その撮影した画像から、肌色検出、差分抽出、またはパターンマッチング等の技術を用いてユーザの画像領域を特定し、その特定した画像領域に対応する位置を抽出することである。画像からユーザの位置を抽出した場合には、画像における位置を、ユーザの存在する座標系(以下、「世界座標系」と呼ぶこともある)での位置に変換してもよい。また、ユーザの位置は、例えば、GPS(Global Positioning System)によって取得されてもよく、LPS(Local Positioning System)によって取得されてもよく、非接触方式のサーモセンサを用いて取得されてもよく、レーザレンジファインダを用いて取得されてもかまわない。LPSとは、例えば、アクティブRFIDを用いたり、地磁気センサと加速度センサとを有する自律航法型の位置測位センサを用いたりすることによって、基準点からの座標値を算出することができる装置である。非接触方式のサーモセンサとは、赤外線等を用いることにより物体の温度を検出することができる装置である。したがって、その装置によって人の存在を検出することができ、2以上のサーモセンサを用いることにより、高精度な人の位置検出が可能となる。レーザレンジファインダとは、出射したレーザ光の反射光から、三角測量の原理を利用して距離を検出する装置である。ユーザ位置情報を取得する方法については従来から知られており、その詳細な説明は省略する。   The user position information may be acquired by, for example, a motion capture system, may be acquired by analyzing an image obtained by photographing the user with a camera installed on the environment side, or may be acquired by other methods. . When the motion capture system is used, the position of the marker attached by the user can be detected, so that the user position information can be easily acquired. The motion capture system will be described later. Analyzing an image of a user photographed by a camera means photographing the user image, identifying the user image area from the photographed image using techniques such as skin color detection, difference extraction, or pattern matching. The position corresponding to the image area is extracted. When the position of the user is extracted from the image, the position in the image may be converted to a position in a coordinate system where the user exists (hereinafter also referred to as “world coordinate system”). Further, the position of the user may be acquired by, for example, GPS (Global Positioning System), may be acquired by LPS (Local Positioning System), or may be acquired by using a non-contact type thermo sensor, You may acquire using a laser range finder. The LPS is a device that can calculate a coordinate value from a reference point by using, for example, an active RFID or an autonomous navigation type position measurement sensor having a geomagnetic sensor and an acceleration sensor. A non-contact type thermosensor is a device that can detect the temperature of an object by using infrared rays or the like. Therefore, the presence of a person can be detected by the device, and the position of a person can be detected with high accuracy by using two or more thermosensors. A laser range finder is a device that detects the distance from the reflected light of emitted laser light using the principle of triangulation. A method for acquiring user position information has been conventionally known, and a detailed description thereof will be omitted.

身体モーション情報は、ユーザの手の動きを示す情報を含んでいてもよく、ユーザの頭の動きを示す情報を含んでいてもよく、ユーザの胴体の動きを示す情報を含んでいてもよく、ユーザのその他の部分の動きを示す情報を含んでいてもかまわない。身体モーション情報は、例えば、モーションキャプチャシステムによって取得されてもよく、環境側に設置したカメラでユーザを撮影した動画を解析することによって取得されてもよく、その他の方法によって取得されてもかまわない。モーションキャプチャシステムとは、被験者の体に光を反射する所定のマーカを付け、1以上のカメラを用いることによって被験者を撮影し、そのマーカの位置を算出することによって被験者の体の動きを検出するものである。なお、反射式のマーカではなく、自ら発光するアクティブ式のマーカを用いてもよい。また、光学式のマーカではなく、磁気マーカを用いてもよい。このように、モーションキャプチャシステムは、被験者の動きを検出することができるものであれば、その種類を問わない。行動情報がモーションキャプチャシステムによって取得される場合には、身体モーション情報は、例えば、各マーカの3次元座標系における位置を示す時系列のデータである。ユーザを撮影して動画を解析するとは、ユーザの動画を撮影し、その撮影した動画から、肌色検出、差分抽出、またはパターンマッチング等の技術を用いてユーザの画像領域を特定し、その特定した画像領域からユーザの手の動きや頭の動き等を抽出することである。また、身体モーション情報を取得するその他の方法としては、例えば、被験者の体の1以上の部分に加速度センサを付け、その加速度センサによって被験者の体の動きを検出する方法等がある。また、身体モーション情報を取得する上記の2以上の方法を組み合わせてもよい。身体モーション情報を取得する方法については従来から知られており、その詳細な説明は省略する。   The body motion information may include information indicating the movement of the user's hand, may include information indicating the movement of the user's head, may include information indicating the movement of the user's torso, It may include information indicating the movement of the other part of the user. The body motion information may be acquired by, for example, a motion capture system, may be acquired by analyzing a video captured by a user with a camera installed on the environment side, or may be acquired by other methods. . The motion capture system attaches a predetermined marker that reflects light to the subject's body, images the subject by using one or more cameras, and detects the movement of the subject's body by calculating the position of the marker. Is. Instead of the reflective marker, an active marker that emits light itself may be used. Moreover, you may use a magnetic marker instead of an optical marker. Thus, the motion capture system may be of any type as long as it can detect the movement of the subject. When the behavior information is acquired by the motion capture system, the body motion information is, for example, time-series data indicating the position of each marker in the three-dimensional coordinate system. To analyze a video by shooting a user, the user's video is shot, the image area of the user is identified from the shot video using a technique such as skin color detection, difference extraction, or pattern matching. Extracting the user's hand movement, head movement, and the like from the image area. Other methods for acquiring body motion information include, for example, a method in which an acceleration sensor is attached to one or more parts of the subject's body, and the motion of the subject's body is detected by the acceleration sensor. Also, the above two or more methods for acquiring body motion information may be combined. A method for acquiring body motion information has been conventionally known, and a detailed description thereof will be omitted.

視線情報は、ユーザの視線の向きを示す情報を含んでいてもよく、ユーザの視線の向きをユーザの頭の向きで近似する場合には、ユーザの頭の向きを示す情報を含んでいてもよく、ユーザのその他の視線に関する情報を含んでいてもかまわない。ここで、被験者が立位である場合には、一般に顔の正面の向きの90度の範囲内に視線があることが知られているため、ユーザの視線の向きをユーザの頭の向きで近似することも可能である。視線情報は、例えば、アイカメラによって取得されてもよく、ユーザを環境側に設置したカメラで撮影した動画を解析することによって取得されてもよく、その他の方法によって取得されてもかまわない。アイカメラとは、被験者の眼球運動を測定する装置である。アイカメラは、例えば、リンバストラッキング法(強膜反射法)、角膜反射法、画像処理法等を用いて被験者の眼球運動を測定する。画像処理法とは、瞳孔中心を検出して視線方向を抽出する方法であり、被験者への負担がほとんどない。ユーザを撮影した動画を解析するとは、ユーザの目の位置をパターンマッチング等の技術を用いて特定し、上記の画像処理法と同様の方法や、白目と黒目の領域を比較する方法等によって視線方向を抽出することである。また、視線情報を取得するその他の方法としては、モーションキャプチャシステムを用いて被験者の頭の向きを検出する方法、被験者の頭部に加速度センサを付け、その加速度センサによって被験者の頭の動きを検出する方法、被験者の頭部に指向性と収束性を有する光線を出力する発光部を付け、その発光部からの光を環境側に設置した検出部で検出することによって被験者の頭の動きを検出する方法、被験者の頭部にヘッドマウントカメラをつけて被験者の視線方向等の画像を撮影し、その画像を解析することによって被験者の頭の動きを検出する方法等がある。また、視線情報を取得する上記の2以上の方法を組み合わせてもよい。また、視線情報が被験者の視線の方向を示す情報である場合に、局所座標系(被験者の頭部に設定される視野座標系)の情報を視線情報として用いてもよく、あるいは、局所座標系の値をモーションキャプチャシステム等のデータと同じ座標系である世界座標系に変換した情報を視線情報として用いてもよい。視線情報を取得する方法については従来から知られており、その詳細な説明は省略する。   The line-of-sight information may include information indicating the direction of the user's line of sight, and may include information indicating the direction of the user's head when approximating the direction of the user's line of sight with the direction of the user's head. Of course, it may contain information about the user's other line of sight. Here, when the subject is standing, it is generally known that the line of sight is within the range of 90 degrees of the front direction of the face, so the direction of the user's line of sight is approximated by the direction of the user's head. It is also possible to do. The line-of-sight information may be acquired by, for example, an eye camera, may be acquired by analyzing a moving image shot by a camera installed on the environment side of the user, or may be acquired by other methods. An eye camera is a device that measures the eye movement of a subject. The eye camera measures the eye movement of the subject using, for example, a Limbus tracking method (scleral reflection method), a corneal reflection method, an image processing method, or the like. The image processing method is a method of detecting the center of the pupil and extracting the line-of-sight direction, and there is almost no burden on the subject. Analyzing a video shot of a user is to identify the position of the user's eyes using a technique such as pattern matching, and use the same method as the above image processing method or a method of comparing the white and black eye areas. It is to extract the direction. In addition, as another method of acquiring line-of-sight information, a method of detecting the orientation of the subject's head using a motion capture system, an acceleration sensor is attached to the subject's head, and the motion of the subject's head is detected by the acceleration sensor. A method of detecting the movement of the subject's head by attaching a light-emitting unit that outputs light having directivity and convergence to the subject's head, and detecting the light from the light-emitting unit by a detection unit installed on the environment side And a method of detecting the movement of the subject's head by taking an image of the subject's line of sight and the like by attaching a head-mounted camera to the subject's head and analyzing the image. In addition, the above two or more methods for acquiring line-of-sight information may be combined. In addition, when the line-of-sight information is information indicating the direction of the subject's line of sight, information in the local coordinate system (the visual field coordinate system set on the subject's head) may be used as the line-of-sight information, or the local coordinate system Information obtained by converting the value of into the world coordinate system that is the same coordinate system as the data of the motion capture system or the like may be used as line-of-sight information. A method for obtaining the line-of-sight information has been conventionally known, and a detailed description thereof will be omitted.

行動情報受付部15は、例えば、入力デバイス(例えば、キーボードやマウス、タッチパネル等)から入力された情報を受け付けてもよく、有線もしくは無線の通信回線を介して送信された情報を受信してもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリ等)から読み出された情報を受け付けてもかまわない。なお、行動情報受付部15は、受け付けを行うためのデバイス(例えば、モデムやネットワークカード等)を含んでいてもよく、あるいは含んでいなくてもよい。また、受付部は、ハードウェアによって実現されてもよく、あるいは所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。本実施の形態では、行動情報受付部15は、図1で示されるように、アイカメラによって取得された視線情報と、モーションキャプチャシステムによって取得された行動情報とを受け付けるものとする。   For example, the behavior information receiving unit 15 may receive information input from an input device (for example, a keyboard, a mouse, a touch panel, etc.), or may receive information transmitted via a wired or wireless communication line. In many cases, information read from a predetermined recording medium (for example, an optical disk, a magnetic disk, a semiconductor memory, etc.) may be accepted. Note that the behavior information receiving unit 15 may or may not include a device (for example, a modem or a network card) for receiving. The accepting unit may be realized by hardware, or may be realized by software such as a driver that drives a predetermined device. In the present embodiment, as shown in FIG. 1, the behavior information receiving unit 15 receives line-of-sight information acquired by an eye camera and behavior information acquired by a motion capture system.

行動情報蓄積部16は、行動情報受付部15が受け付けた行動情報を所定の記録媒体に蓄積する。この記録媒体は、例えば、半導体メモリや、光ディスク、磁気ディスク等であり、行動情報蓄積部16が有していてもよく、あるいは行動情報蓄積部16の外部に存在してもよい。本実施の形態では、行動情報蓄積部16がその記録媒体を有するものとする。また、この記録媒体は、行動情報を一時的に記憶するものであってもよく、そうでなくてもよい。   The behavior information storage unit 16 stores the behavior information received by the behavior information reception unit 15 in a predetermined recording medium. The recording medium is, for example, a semiconductor memory, an optical disk, a magnetic disk, or the like, and may be included in the behavior information storage unit 16 or may exist outside the behavior information storage unit 16. In the present embodiment, it is assumed that the behavior information storage unit 16 has the recording medium. Moreover, this recording medium may memorize | store behavior information temporarily, and may not be so.

ユーザ属性情報受付部17は、ユーザ属性情報を受け付ける。ここで、ユーザ属性情報とは、ユーザの属性に関する情報である。ユーザ属性情報受付部17は、2人以上のユーザが会話している状況における、少なくとも1人のユーザに対応するユーザ属性情報を受け付ければよい。ユーザの属性とは、例えば、ユーザの性別、ユーザの年齢、ユーザの氏名、ユーザの職業等である。ユーザ属性情報は、最終的にユーザの属性を特定することができる情報であれば、ユーザの属性を示す情報であってもよく、あるいは、ユーザの属性と対応付けられている情報であってもよい。ユーザの属性と対応付けられている情報とは、例えば、ユーザIDである。その場合には、そのユーザIDが、所定のデータベース情報において、ユーザの属性と対応付けられていればよい。そのユーザIDを用いて、ユーザの属性を取得できるからである。ユーザ属性情報は、例えば、ユーザの服等に付けられているRFIDから取得されてもよく、ユーザの服等に付けられているバーコード等の識別情報を、ユーザを撮影した画像において特定することによって取得されてもよく、その他の方法によって取得されてもかまわない。また、ユーザ属性情報受付部17は、位置を示す情報と共に、ユーザ属性情報を受け付けてもよい。例えば、RFIDから取得されたユーザ属性情報と、そのRFIDの位置を示す情報とがユーザ属性情報受付部17で受け付けられてもよい。本実施の形態では、図1で示されるように、ユーザの服に付けられているRFIDによってユーザ属性情報と、位置を示す情報とが取得され、ユーザ属性情報受付部17で受け付けられるものとする。   The user attribute information receiving unit 17 receives user attribute information. Here, the user attribute information is information relating to user attributes. The user attribute information receiving unit 17 may receive user attribute information corresponding to at least one user in a situation where two or more users are talking. User attributes include, for example, the user's gender, the user's age, the user's name, the user's occupation, and the like. The user attribute information may be information indicating the user attribute as long as the user attribute information can be finally specified, or may be information associated with the user attribute. Good. The information associated with the user attribute is, for example, a user ID. In that case, the user ID only needs to be associated with the user attribute in the predetermined database information. This is because user attributes can be acquired using the user ID. The user attribute information may be acquired from, for example, an RFID attached to the user's clothes and the like, and identification information such as a barcode attached to the user's clothes and the like is specified in an image taken of the user Or may be obtained by other methods. Moreover, the user attribute information reception part 17 may receive user attribute information with the information which shows a position. For example, user attribute information acquired from an RFID and information indicating the position of the RFID may be received by the user attribute information receiving unit 17. In the present embodiment, as shown in FIG. 1, user attribute information and information indicating a position are acquired by an RFID attached to a user's clothes and received by the user attribute information receiving unit 17. .

ユーザ属性情報受付部17は、例えば、入力デバイス(例えば、RFIDの受信デバイス等)から入力された情報を受け付けてもよく、有線もしくは無線の通信回線を介して送信された情報を受信してもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリ等)から読み出された情報を受け付けてもかまわない。なお、ユーザ属性情報受付部17は、受け付けを行うためのデバイス(例えば、モデムやネットワークカード等)を含んでいてもよく、あるいは含んでいなくてもよい。また、ユーザ属性情報受付部17は、ハードウェアによって実現されてもよく、あるいは所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。   For example, the user attribute information receiving unit 17 may receive information input from an input device (for example, an RFID receiving device) or may receive information transmitted via a wired or wireless communication line. In many cases, information read from a predetermined recording medium (for example, an optical disk, a magnetic disk, a semiconductor memory, etc.) may be accepted. Note that the user attribute information reception unit 17 may or may not include a device (for example, a modem or a network card) for reception. Further, the user attribute information receiving unit 17 may be realized by hardware, or may be realized by software such as a driver that drives a predetermined device.

ユーザ属性情報蓄積部18は、ユーザ属性情報受付部17が受け付けたユーザ属性情報を所定の記録媒体に蓄積する。この記録媒体は、例えば、半導体メモリや、光ディスク、磁気ディスク等であり、ユーザ属性情報蓄積部18が有していてもよく、あるいはユーザ属性情報蓄積部18の外部に存在してもよい。本実施の形態では、ユーザ属性情報蓄積部18がその記録媒体を有するものとする。また、この記録媒体は、ユーザ属性情報を一時的に記憶するものであってもよく、そうでなくてもよい。   The user attribute information storage unit 18 stores the user attribute information received by the user attribute information reception unit 17 in a predetermined recording medium. The recording medium is, for example, a semiconductor memory, an optical disk, a magnetic disk, or the like, and may be included in the user attribute information storage unit 18 or may exist outside the user attribute information storage unit 18. In the present embodiment, it is assumed that the user attribute information storage unit 18 has the recording medium. In addition, this recording medium may temporarily store user attribute information or not.

物情報受付部19は、物情報を受け付ける。ここで、物情報とは、2人以上のユーザが会話している状況における、物に関する情報である。その物は、2人以上のユーザが会話しているところに存在しており、例えば、いずれかのユーザが保持していてもよく、あるいは、いずれかのユーザの近くに存在してもよい。物情報は、その物の位置に関する情報である物位置情報を少なくとも含む情報である。物情報は、物の属性に関する情報である物属性情報を含んでもよい。物の属性とは、例えば、物の名称、物の種類、物の大きさ、物の色等である。物属性情報は、最終的に物の属性を特定することができる情報であれば、物の属性を示す情報であってもよく、あるいは、物の属性と対応付けられている情報であってもよい。物の属性と対応付けられている情報とは、例えば、物IDである。その場合には、その物IDが、所定のデータベース情報において、物の属性と対応付けられていればよい。その物IDを用いて、物の属性を取得できるからである。   The object information receiving unit 19 receives object information. Here, the item information is information about the item in a situation where two or more users are talking. The thing exists in the place where two or more users are talking, for example, any user may hold | maintain or may exist in the vicinity of either user. The object information is information including at least object position information that is information regarding the position of the object. The object information may include object attribute information that is information related to the attribute of the object. The attribute of an object is, for example, the name of the object, the type of the object, the size of the object, the color of the object, and the like. The object attribute information may be information indicating the attribute of the object as long as it can finally specify the attribute of the object, or may be information associated with the attribute of the object. Good. The information associated with the attribute of the object is, for example, an object ID. In that case, the object ID only needs to be associated with the attribute of the object in the predetermined database information. This is because the attribute of the object can be acquired using the object ID.

物位置情報は、例えば、環境側に設置したカメラで物を撮影した画像を解析することによって取得されてもよく、その他の方法によって取得されてもよい。カメラで物を撮影した画像を解析するとは、物の画像を撮影し、その撮影した画像から、パターンマッチング等の技術を用いて物の画像領域を特定し、その特定した画像領域に対応する位置を抽出することである。画像から物の位置を抽出した場合には、画像における位置を、物の存在する世界座標系での位置に変換してもよい。また、物の位置は、例えば、GPSによって取得されてもよく、LPSによって取得されてもよい。   The object position information may be acquired, for example, by analyzing an image obtained by photographing an object with a camera installed on the environment side, or may be acquired by other methods. Analyzing an image of an object taken with a camera means taking an image of the object, identifying an image area of the object using a technique such as pattern matching from the taken image, and a position corresponding to the identified image area Is to extract. When the position of the object is extracted from the image, the position in the image may be converted to a position in the world coordinate system where the object exists. In addition, the position of the object may be acquired by GPS or may be acquired by LPS, for example.

物属性情報は、例えば、物に付けられているRFIDから取得されてもよく、物に付けられているバーコード等の識別情報を、物を撮影した画像において特定することによって取得されてもよく、その他の方法によって取得されてもかまわない。物情報を、物に付けられているRFIDから取得する場合には、そのRFIDによって、物属性情報と物位置情報とを一緒に取得することも可能である。本実施の形態では、図1で示されるように、物に付けられているRFIDによって、物属性情報と、物位置情報とが取得され、その物属性情報と、物位置情報とを含む物情報が物情報受付部19で受け付けられるものとする。   The object attribute information may be acquired from, for example, an RFID attached to the object, or may be acquired by specifying identification information such as a barcode attached to the object in an image obtained by photographing the object. It may be obtained by other methods. When the object information is acquired from the RFID attached to the object, the object attribute information and the object position information can be acquired together by the RFID. In the present embodiment, as shown in FIG. 1, the object attribute information and the object position information are acquired by the RFID attached to the object, and the object information including the object attribute information and the object position information. Is received by the object information receiving unit 19.

物情報受付部19は、例えば、入力デバイス(例えば、RFIDの受信デバイス等)から入力された情報を受け付けてもよく、有線もしくは無線の通信回線を介して送信された情報を受信してもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリ等)から読み出された情報を受け付けてもかまわない。なお、物情報受付部19は、受け付けを行うためのデバイス(例えば、モデムやネットワークカード等)を含んでいてもよく、あるいは含んでいなくてもよい。また、物情報受付部19は、ハードウェアによって実現されてもよく、あるいは所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもかまわない。   For example, the object information receiving unit 19 may receive information input from an input device (for example, an RFID receiving device) or may receive information transmitted via a wired or wireless communication line. Information read from a predetermined recording medium (for example, an optical disk, a magnetic disk, a semiconductor memory, etc.) may be accepted. Note that the object information reception unit 19 may or may not include a device (for example, a modem or a network card) for reception. In addition, the object information receiving unit 19 may be realized by hardware, or may be realized by software such as a driver that drives a predetermined device.

物情報蓄積部20は、物情報受付部19が受け付けた物情報を所定の記録媒体に蓄積する。この記録媒体は、例えば、半導体メモリや、光ディスク、磁気ディスク等であり、物情報蓄積部20が有していてもよく、あるいは物情報蓄積部20の外部に存在してもよい。本実施の形態では、物情報蓄積部20がその記録媒体を有するものとする。また、この記録媒体は、物情報を一時的に記憶するものであってもよく、そうでなくてもよい。   The product information storage unit 20 stores the product information received by the product information reception unit 19 in a predetermined recording medium. The recording medium is, for example, a semiconductor memory, an optical disk, a magnetic disk, or the like, and may be included in the physical information storage unit 20 or may exist outside the physical information storage unit 20. In the present embodiment, it is assumed that the object information storage unit 20 has the recording medium. In addition, this recording medium may or may not store physical information temporarily.

省略語補完部21は、行動情報受付部15が受け付けた行動情報、ユーザ属性情報受付部17が受け付けたユーザ属性情報、物情報受付部19が受け付けた物情報を用いて、補完文字情報を生成する。ここで、補完文字情報とは、文字情報の示す文書における、ゼロ代名詞特定部14によって特定されたゼロ代名詞の位置に、省略されている言葉である省略語を補完した情報である。なお、省略語補完部21は、音声情報も用いて省略語を補完してもよい。   The abbreviation complementing unit 21 generates supplementary character information using the behavior information received by the behavior information receiving unit 15, the user attribute information received by the user attribute information receiving unit 17, and the object information received by the object information receiving unit 19. To do. Here, the supplementary character information is information obtained by supplementing an abbreviation that is an abbreviated word at the position of the zero pronoun specified by the zero pronoun specifying unit 14 in the document indicated by the character information. The abbreviation complement unit 21 may supplement abbreviations using voice information.

図3は、本実施の形態による省略語補完部21の構成を示すブロック図である。図3において、本実施の形態による省略語補完部21は、ユーザ特定手段41と、ユーザ指示情報記憶手段42と、ユーザ文字情報決定手段43と、ユーザ省略語情報挿入手段44と、物特定手段45と、物指示情報記憶手段46と、物文字情報決定手段47と、物省略語情報挿入手段48とを備える。   FIG. 3 is a block diagram showing a configuration of the abbreviation complement unit 21 according to the present embodiment. In FIG. 3, the abbreviation complementing unit 21 according to the present embodiment includes a user specifying means 41, a user instruction information storage means 42, a user character information determining means 43, a user abbreviation information inserting means 44, and an object specifying means. 45, an object instruction information storage means 46, an object character information determination means 47, and an object abbreviation information insertion means 48.

ユーザ特定手段41は、行動情報を用いて、人のゼロ代名詞に対応するユーザを特定する。このユーザの特定は、ゼロ代名詞特定部14によって人のゼロ代名詞が特定された場合にのみ行ってもよい。人のゼロ代名詞とは、人を示す意味素と、格助詞との組合せであるゼロ代名詞のことである。ユーザを特定するとは、例えば、そのユーザを識別する識別情報を所定の記録媒体に蓄積することであってもよく、あるいは、そのユーザに対応する、あらかじめ記憶されている識別情報に所定のフラグを設定することであってもよく、どのユーザがゼロ代名詞に対応するのかがわかるのであれば、他の特定の方法であってもかまわない。ユーザ特定手段41は、行動情報以外の情報を用いてユーザを特定してもよい。例えば、ユーザ特定手段41は、音声情報受付部11が受け付けた音声情報を用いてユーザを特定してもよい。   The user specifying means 41 specifies a user corresponding to a person's zero pronoun using the behavior information. This user identification may be performed only when a person's zero pronoun is identified by the zero pronoun identifying unit 14. A person's zero pronoun is a zero pronoun that is a combination of a semantic element indicating a person and a case particle. Specifying the user may be, for example, accumulating identification information for identifying the user in a predetermined recording medium, or setting a predetermined flag on the identification information stored in advance corresponding to the user. Other specific methods may be used as long as it is known which user corresponds to the zero pronoun. The user specifying unit 41 may specify a user using information other than behavior information. For example, the user specifying unit 41 may specify the user using the voice information received by the voice information receiving unit 11.

次に、ユーザ特定手段41がユーザを特定する方法について説明する。
[話し手のユーザの指示行為に基づく方法]
話し手のユーザの指示行為によって、人のゼロ代名詞に対応するユーザを特定することができる場合がある。ここで、ユーザの指示行為とは、ユーザがある方向を指し示す行為であり、例えば、ある方向を指差す行為、ある方向に顔を向ける行為、ある方向に視線を向ける行為等である。例えば、話し手のユーザが聞き手のユーザに「手伝っていただけますか?」と言いながら、その他のユーザ(以下、「第三者のユーザ」とすることもある)を指差す、あるいは、第三者のユーザの方向に視線を移動させることによって、聞き手のユーザは、その第三者のユーザの手伝いを依頼されていることを知ることができる。その指示行為を検出することによって、人のゼロ代名詞に対応するユーザを特定することができる場合がある。
Next, a method in which the user specifying unit 41 specifies a user will be described.
[Method based on speaker's user instruction]
A user who corresponds to a person's zero pronoun may be able to be identified by an instruction act of a speaker's user. Here, the user's instruction act is an act of pointing the user in a certain direction, for example, an act of pointing in a certain direction, an act of directing a face in a certain direction, an act of directing a line of sight in a certain direction, or the like. For example, the user of the speaker points to another user (hereinafter sometimes referred to as a “third-party user”) while saying “Can you help?” By moving the line of sight in the direction of the user, the listener's user can know that the third-party user is requested to help. By detecting the pointing action, it may be possible to identify a user corresponding to a person's zero pronoun.

ユーザ特定手段41は、例えば、ユーザの指示行為の発生の条件を示す情報である条件情報を保持しておき、その条件情報を参照することによって、ユーザが対応する音声(例えば、「手伝っていただけますか?」等)を発している間におけるユーザの指示行為の発生を検出し、指示行為の発生を検出した場合に、その指示行為によって示される方向を特定する。そして、ユーザ特定手段41は、行動情報を用いて、その方向に位置するユーザを、人のゼロ代名詞に対応するユーザとして特定する。その方向に2人以上のユーザが存在する場合には、例えば、話し手のユーザに最も近いユーザを特定してもよい。   The user specifying means 41 holds, for example, condition information, which is information indicating the condition of occurrence of the user's instruction action, and refers to the condition information so that the user can respond to the voice (for example, “help When the occurrence of the pointing action is detected, the direction indicated by the pointing action is specified. And the user specific | specification means 41 specifies the user located in the direction as a user corresponding to a person's zero pronoun using action information. If there are two or more users in that direction, for example, the user closest to the speaker's user may be specified.

なお、指差しに関する条件情報は、例えば、少なくとも肘から指先までが水平に近い状態である方向に延びて、所定の時間(例えば、1秒等)だけ静止したこと等である。また、視線を向ける行為に関する条件情報は、例えば、視線方向が所定の時間(例えば、1秒等)だけ一定方向に固定されたこと等である。   Note that the condition information related to pointing is, for example, that at least from the elbow to the fingertip extends in a direction that is almost horizontal and is stationary for a predetermined time (for example, 1 second). Moreover, the condition information regarding the action of turning the line of sight is, for example, that the line of sight is fixed in a certain direction for a predetermined time (for example, 1 second).

[状況から判断する方法]
2人以上のユーザが会話をしている状況において、その状況から人のゼロ代名詞に対応するユーザを特定することができる場合がある。例えば、話し手のユーザが聞き手のユーザに「手伝っていただけますか?」といった状況において、その場に話し手のユーザと、聞き手のユーザの2人しかいない場合には、聞き手のユーザは、話し手のユーザの手伝いを依頼されていることを知ることができる。このように、その場の状況によって、人のゼロ代名詞に対応するユーザを特定することができる場合がある。
[How to judge from the situation]
In a situation where two or more users are having a conversation, it may be possible to identify a user corresponding to a person's zero pronoun from the situation. For example, in a situation where the speaker user asks the listener user, "Can you help?" If there are only two users, the speaker user and the listener user, the listener user is the speaker user. You can know that you are asked to help. Thus, the user corresponding to a person's zero pronoun may be able to be specified according to the situation of the place.

ユーザ特定手段41は、例えば、動詞の目的格に対応する人として、話し手のユーザ、聞き手のユーザ、第三者のユーザのうち、どのユーザが含まれるのかを示す情報である人目的格情報を保持しておき、その人目的格情報と、行動情報によって示されるユーザの人数とを用いることによって、人のゼロ代名詞に対応するユーザとして特定する。例えば、動詞「手伝う」の目的格に対応するユーザは、話し手のユーザと、第三者のユーザであるため、第三者のユーザが存在しない状況では、動詞「手伝う」の目的格に対応するユーザを、話し手のユーザに特定することができ、人のゼロ代名詞に対応するユーザを特定することができる。   For example, as the person corresponding to the purpose case of the verb, the user specifying means 41 includes personal purpose case information which is information indicating which user is included among the user of the speaker, the user of the listener, and the user of the third party. It retains, and it specifies as a user corresponding to a person's zero pronoun by using the personal purpose personality information and the number of users shown by action information. For example, the user corresponding to the purpose of the verb “help” corresponds to the purpose of the verb “help” in a situation where there is no third-party user because the user is a speaker user and a third-party user. The user can be identified as the speaker's user, and the user corresponding to the person's zero pronoun can be identified.

[ユーザの行動結果から判断する方法]
話し手のユーザが発した音声に対応してなされたユーザの行動結果から、人のゼロ代名詞に対応するユーザを特定することができる場合がある。例えば、話し手のユーザが聞き手のユーザに「手伝っていただけますか?」と言った後に、聞き手のユーザが、ある第三者のユーザに近づいていった場合には、結果として、その聞き手のユーザがその第三者のユーザを手伝うことを依頼されていたことがわかる。このように、ユーザの行動結果によって、人のゼロ代名詞に対応するユーザを特定することができる場合がある。
[Method of judging from user action results]
In some cases, a user corresponding to a person's zero pronoun can be identified from the user's action result made in response to the voice uttered by the user of the speaker. For example, if a speaker's user approaches a third-party user after the speaker's user says, "Can you help me?" Was asked to help the third-party user. Thus, the user corresponding to a person's zero pronoun may be able to be specified by a user's action result.

ユーザ特定手段41は、例えば、話し手のユーザが発した音声に対応して、聞き手のユーザが近づいていったユーザを、人のゼロ代名詞に対応するユーザと特定してもよい。この場合に、ユーザ特定手段41は、音声情報や文字情報、行動情報から、話し手のユーザに対応する聞き手のユーザの対応が肯定的なものであると判断できた場合、すなわち、「はい」、「OK」等の肯定的な音声を聞き手のユーザが発した場合や、うなずく行動を聞き手のユーザがした場合にのみ、この判断方法を用いるようにしてもよい。   The user specifying unit 41 may specify, for example, a user who has approached the listener as a user corresponding to a person's zero pronoun corresponding to the voice uttered by the user of the speaker. In this case, the user specifying unit 41 can determine from the voice information, the character information, and the behavior information that the user's response corresponding to the speaker's user is positive, that is, “Yes”, This determination method may be used only when the listener's user utters a positive sound such as “OK” or when the listener's user makes a nodding action.

なお、上記以外の方法によって、ユーザを特定することができる場合には、その方法を用いてもよいことは言うまでもない。また、話し手のユーザの位置から一定の範囲(例えば、半径10m以内の範囲等)より外に存在するユーザについては、特定するユーザに含めないようにしてもよい。話し手のユーザが、そのような遠くにいるユーザを、ゼロ代名詞に対応するユーザとして想定していることは考えにくいからである。   Needless to say, if the user can be specified by a method other than the above, that method may be used. Further, a user who exists outside a certain range (for example, a range within a radius of 10 m) from the position of the speaker's user may not be included in the specified user. This is because it is difficult for the speaker user to assume such a distant user as a user corresponding to zero pronouns.

次に、話し手のユーザと、聞き手のユーザとを特定する方法について説明する。ここで、話し手のユーザとは、省略語を補完する文字情報に対応する発話を行ったユーザのことである。したがって、第1のユーザと第2のユーザが会話を行っており、第1のユーザが発話を行い、その発話に対して第2のユーザが応答した場合であって、第1のユーザの発話に対応する文字情報に対して省略語の補完を行う場合には、第1のユーザが話し手のユーザとなり、第2のユーザが聞き手のユーザとなる。   Next, a method for identifying the speaker user and the listener user will be described. Here, the user of the speaker is a user who made an utterance corresponding to character information that complements the abbreviation. Therefore, the first user and the second user have a conversation, the first user speaks, and the second user responds to the utterance. When the abbreviations are complemented for the character information corresponding to, the first user becomes the speaker user and the second user becomes the listener user.

[話し手のユーザ]
どのユーザが話し手のユーザであるのかについて、文字情報から判断してもよく、音声情報から判断してもよい。例えば、文字情報にユーザの識別情報が対応付けられており、そのユーザの識別情報で識別されるユーザが、文字情報に対応する音声を発したユーザ、すなわち、話し手のユーザであると判断してもよい。また、例えば、音声情報にユーザの識別情報が対応付けられており、そのユーザの識別情報で識別されるユーザが、その音声情報に対応する音声を発した話し手のユーザであると判断してもよい。
[Speaker user]
Which user is the speaker's user may be determined from text information or from voice information. For example, it is determined that user identification information is associated with character information, and the user identified by the user identification information is determined to be a user who uttered a voice corresponding to the character information, that is, a speaker user. Also good. Further, for example, even if the identification information of the user is associated with the voice information, and the user identified by the identification information of the user is determined to be the user of the speaker who uttered the voice corresponding to the voice information. Good.

[聞き手のユーザ]
行動情報からユーザの視線方向や体の向きについても知ることができる場合には、話し手のユーザと顔が向き合っているユーザが聞き手のユーザであると判断してもよい。また、音声情報、文字情報、または行動情報によって、聞き手のユーザが話し手のユーザの発した音声に反応していることがわかる場合には、その反応しているユーザが聞き手のユーザであると判断してもよい。例えば、話し手のユーザの発話に対して、返事をしているユーザ、うなずいているユーザ、話し手のユーザに対して身振りで答えているユーザを、聞き手のユーザと判断してもよい。話し手のユーザの発話に対して返事をしているかどうかは、例えば、音声情報から判断してもよく、ユーザを撮影した動画の画像データを用いて、ユーザの口元が動いているかどうかによって判断してもよい。
なお、上記以外の方法によって、話し手のユーザと、聞き手のユーザとを特定することができる場合には、その方法を用いてもよいことは言うまでもない。
[Interviewer user]
When the user's line-of-sight direction and body direction can be known from the behavior information, it may be determined that the user whose face is facing the user of the speaker is the user of the listener. In addition, when the voice information, text information, or behavior information indicates that the listener user is responding to the voice of the speaker user, it is determined that the responding user is the listener user. May be. For example, a user who is responding to a speaker's user's utterance, a user who is nodding, or a user who is gesturing an answer to the user of the speaker may be determined as the listener's user. Whether or not a reply is made to the speaker's user's utterance may be determined from, for example, audio information, and is determined based on whether or not the user's mouth is moving using image data of a moving image of the user. May be.
Needless to say, if the user of the speaker and the user of the listener can be specified by a method other than the above, that method may be used.

ユーザ指示情報記憶手段42では、ユーザ指示情報が記憶される。ここで、ユーザ指示情報とは、ユーザの位置関係と、ユーザの指示語とを対応付ける情報である。ユーザの位置関係とは、話し手のユーザと、聞き手のユーザと、第三者のユーザとの位置関係である。ユーザの指示語とは、例えば、「あちらのかた」や、「こちらのかた」等である。ユーザ指示情報の具体例については後述する。   The user instruction information storage means 42 stores user instruction information. Here, the user instruction information is information that associates the positional relationship of the user with the instruction word of the user. The user's positional relationship is a positional relationship among a speaker user, a listener user, and a third party user. The user instruction word is, for example, “over there” or “here”. A specific example of the user instruction information will be described later.

ユーザ指示情報記憶手段42は、所定の記録媒体(例えば、半導体メモリや磁気ディスク、光ディスク等)によって実現される。ユーザ指示情報記憶手段42にユーザ指示情報が記憶される過程は問わない。例えば、記録媒体を介してユーザ指示情報がユーザ指示情報記憶手段42で記憶されるようになってもよく、通信回線等を介して送信されたユーザ指示情報がユーザ指示情報記憶手段42で記憶されるようになってもよく、あるいは、入力デバイスを介して入力されたユーザ指示情報がユーザ指示情報記憶手段42で記憶されるようになってもかまわない。   The user instruction information storage means 42 is realized by a predetermined recording medium (for example, a semiconductor memory, a magnetic disk, an optical disk, etc.). The process in which the user instruction information is stored in the user instruction information storage means 42 does not matter. For example, user instruction information may be stored in the user instruction information storage means 42 via a recording medium, and user instruction information transmitted via a communication line or the like is stored in the user instruction information storage means 42. Alternatively, the user instruction information input via the input device may be stored in the user instruction information storage unit 42.

ユーザ文字情報決定手段43は、ゼロ代名詞に対応するユーザを示す文字の情報であるユーザ文字情報を決定する。このユーザ文字情報と、格助詞との組である格要素が、特定されたゼロ代名詞の位置に挿入されることになる。ユーザ文字情報決定手段43は、ユーザ特定手段41によって特定されたユーザに対応するユーザ属性情報が、ユーザ属性情報受付部17で受け付けられている場合には、そのユーザ属性情報を用いてユーザ文字情報を決定してもよい。この場合には、例えば、ユーザ文字情報「あちらの女性」等が決定されることになる。また、ユーザ文字情報決定手段43は、ユーザ指示情報記憶手段42で記憶されているユーザ指示情報を用いて、行動情報によって示される位置関係に応じた指示語を選択し、その選択した指示語を含む文字の情報であるユーザ文字情報を決定してもよい。行動情報によって示される位置関係とは、話し手のユーザ、聞き手のユーザ、ユーザ特定手段41が特定したユーザの位置関係である。なお、その3者のユーザのうち、いずれか2者が同一のユーザである場合には、2者のユーザの位置関係となる。選択した指示語を含む文字の情報とは、選択した指示語そのものであってもよく、あるいは、選択した指示語以外に、ユーザ属性情報の示す言葉等を含むものであってもよい。ユーザ文字情報を決定するとは、例えば、ユーザ文字情報を生成することであってもよく、ユーザ指示情報記憶手段42で記憶されているユーザ指示情報におけるユーザの指示語のうち、ユーザ文字情報となるものに所定のフラグを立てることであってもよく、ユーザ文字情報を特定できるのであれば、ユーザ文字情報の決定方法は問わない。   The user character information determination unit 43 determines user character information that is character information indicating a user corresponding to a zero pronoun. A case element which is a combination of the user character information and a case particle is inserted at the position of the specified zero pronoun. When the user attribute information corresponding to the user specified by the user specifying unit 41 is received by the user attribute information receiving unit 17, the user character information determining unit 43 uses the user attribute information to May be determined. In this case, for example, the user character information “A woman there” is determined. Further, the user character information determination unit 43 uses the user instruction information stored in the user instruction information storage unit 42 to select an instruction word corresponding to the positional relationship indicated by the behavior information, and selects the selected instruction word. User character information, which is information of characters to be included, may be determined. The positional relationship indicated by the behavior information is the positional relationship of the speaker user, the listener user, and the user specified by the user specifying means 41. In addition, when any two of the three users are the same user, the positional relationship of the two users is obtained. The character information including the selected instruction word may be the selected instruction word itself, or may include the word indicated by the user attribute information in addition to the selected instruction word. Determining the user character information may be, for example, generating user character information, which is user character information among user instruction words in the user instruction information stored in the user instruction information storage unit 42. A predetermined flag may be set on the object, and the user character information determination method is not limited as long as the user character information can be specified.

ユーザ省略語情報挿入手段44は、ユーザ省略語情報を、対応するゼロ代名詞の位置に挿入する。ここで、ユーザ省略語情報とは、ゼロ代名詞の位置に補完される省略語を示す情報であり、ユーザ文字情報決定手段43が決定したユーザ文字情報を含む情報である。ユーザ省略語情報は、ユーザ文字情報と、格助詞とを含む格要素を示す情報である。ユーザ省略語情報の示す省略語に含まれる格助詞は、ユーザ省略語情報挿入手段44によって決定されたものであってもよく、あるいは、ゼロ代名詞特定部14によって決定されたものであってもよい。ユーザ省略語情報挿入手段44がユーザ省略語情報の挿入を行うことにより、ユーザに関する省略語の補完が行われることになる。ユーザ省略語情報に対応するゼロ代名詞の位置とは、そのユーザ省略語情報に含まれるユーザ文字情報を決定するためにユーザ特定手段41が特定したユーザに対応する人のゼロ代名詞の位置である。   User abbreviation information insertion means 44 inserts user abbreviation information at the position of the corresponding zero pronoun. Here, the user abbreviation information is information indicating an abbreviation supplemented at the position of the zero pronoun, and is information including the user character information determined by the user character information determination unit 43. The user abbreviation information is information indicating case elements including user character information and case particles. The case particles included in the abbreviations indicated by the user abbreviation information may be determined by the user abbreviation information insertion means 44, or may be determined by the zero pronoun specifying unit 14. . When the user abbreviation information insertion means 44 inserts user abbreviation information, abbreviations relating to the user are complemented. The position of the zero pronoun corresponding to the user abbreviation information is the position of the person's zero pronoun corresponding to the user specified by the user specifying means 41 in order to determine the user character information included in the user abbreviation information.

物特定手段45は、少なくとも物情報を用いて、物のゼロ代名詞に対応する物を特定する。物特定手段45は、物のゼロ代名詞に対応する物の特定において、物情報に加えて行動情報を用いてもよく、さらに、音声情報も用いてもよい。この物の特定は、ゼロ代名詞特定部14によって物のゼロ代名詞が特定された場合にのみ行ってもよい。物のゼロ代名詞とは、物を示す意味素と、格助詞との組合せであるゼロ代名詞のことである。物を特定するとは、例えば、その物を識別する識別情報を所定の記録媒体に蓄積することであってもよく、あるいは、その物に対応する、あらかじめ記憶されている識別情報に所定のフラグを設定することであってもよく、どの物がゼロ代名詞に対応するのかがわかるのであれば、他の特定の方法であってもかまわない。   The object specifying means 45 specifies an object corresponding to the zero pronoun of the object using at least the object information. The object specifying means 45 may use action information in addition to the object information, and may also use voice information in specifying the object corresponding to the zero pronoun of the object. The identification of the object may be performed only when the zero pronoun of the object is specified by the zero pronoun specifying unit 14. The zero pronoun of a thing is a zero pronoun that is a combination of a semantic element indicating a thing and a case particle. Specifying an object may be, for example, accumulating identification information for identifying the object on a predetermined recording medium, or setting a predetermined flag on identification information stored in advance corresponding to the object. It may be set, and other specific methods may be used as long as it can be understood which object corresponds to the zero pronoun.

次に、物特定手段45が物を特定する方法について説明する。
[話し手のユーザの指示行為に基づく方法]
話し手のユーザの指示行為によって、物のゼロ代名詞に対応する物を特定することができる場合がある。例えば、話し手のユーザが聞き手のユーザに「取っていただけますか?」と言いながら、ある物を指差す、あるいは、ある物の方向に視線を移動させることによって、聞き手のユーザは、その物の取得を依頼されていることを知ることができる。その指示行為を検出することによって、物のゼロ代名詞に対応するユーザを特定することができる場合がある。
Next, a method in which the object specifying unit 45 specifies an object will be described.
[Method based on speaker's user instruction]
In some cases, the thing corresponding to the zero pronoun of the thing can be specified by the instruction action of the speaker's user. For example, when the speaker user says to the listener user, "Can you take it?", Pointing the object or moving the line of sight toward the object, You can know that you have been requested to acquire. By detecting the pointing action, it may be possible to identify the user corresponding to the zero pronoun of the object.

物特定手段45は、例えば、ユーザの指示行為の発生の条件を示す情報である条件情報を保持しておき、その条件情報を参照することによって、ユーザが対応する音声(例えば、「取っていただけますか?」等)を発している間におけるユーザの指示行為の発生を検出し、指示行為の発生を検出した場合に、その指示行為によって示される方向を特定する。そして、物特定手段45は、行動情報を用いて、その方向に位置する物を、物のゼロ代名詞に対応する物として特定する。その方向に2以上の物が存在する場合には、例えば、話し手のユーザに最も近い物を特定してもよい。   The object specifying unit 45 holds, for example, condition information that is information indicating a condition of occurrence of the user's instruction act, and refers to the condition information, thereby allowing the user to respond to a voice (for example, “ When the occurrence of the pointing action is detected, the direction indicated by the pointing action is specified. And the object specific | specification means 45 specifies the thing located in the direction as an object corresponding to the zero pronoun of an object using action information. If there are two or more objects in that direction, for example, the object closest to the user of the speaker may be specified.

[状況から判断する方法]
2人以上のユーザが会話をしている状況において、その状況から物のゼロ代名詞に対応するユーザを特定することができる場合がある。例えば、話し手のユーザが聞き手のユーザに「取っていただけますか?」といった状況において、その場に物が1個しかいない場合には、聞き手のユーザは、その物の取得を依頼されていることを知ることができる。このように、その場の状況によって、物のゼロ代名詞に対応する物を特定することができる場合がある。なお、2人以上のユーザが会話をしている状況において、実際には物が2以上あったとしても、省略語補完装置1が認識できる物が1個だけであった場合には、この判断方法を用いて物の特定を行ってもよい。
[How to judge from the situation]
In a situation where two or more users are having a conversation, it may be possible to identify the user corresponding to the zero pronoun of the object from the situation. For example, in a situation where the speaker user asks the listener user to “take it?”, If there is only one item on the spot, the listener user is requested to acquire the item. Can know. Thus, the thing corresponding to the zero pronoun of a thing may be able to be specified according to the situation of the place. In a situation where two or more users are having a conversation, even if there are actually two or more objects, this determination is made when only one object can be recognized by the abbreviation complementing apparatus 1. You may identify a thing using a method.

[ユーザの行動結果から判断する方法]
話し手のユーザが発した音声に対応してなされたユーザの行動結果から、物のゼロ代名詞に対応するユーザを特定することができる場合がある。例えば、話し手のユーザが聞き手のユーザに「取っていただけますか?」と言った後に、聞き手のユーザが、ある物に近づいていった場合には、結果として、その聞き手のユーザがその物の取得を依頼されていたことがわかる。このように、ユーザの行動結果によって、物のゼロ代名詞に対応する物を特定することができる場合がある。
[Method of judging from user action results]
In some cases, the user corresponding to the zero pronoun of an object can be identified from the user's action result made in response to the voice uttered by the user of the speaker. For example, if a speaker's user approaches a certain object after the speaker's user has asked the listener's user "Can you take it?" You can see that the acquisition was requested. Thus, the thing corresponding to the zero pronoun of a thing may be able to be specified by a user's action result.

物特定手段45は、例えば、話し手のユーザが発した音声に対応して、聞き手のユーザが近づいていった物を、物のゼロ代名詞に対応する物と特定してもよい。この場合に、物特定手段45は、音声情報や文字情報、行動情報から、話し手のユーザに対応する聞き手のユーザの対応が肯定的なものであると判断できた場合、すなわち、「はい」、「OK」等の肯定的な音声を聞き手のユーザが発した場合や、うなずく行動を聞き手のユーザがした場合にのみ、この判断方法を用いるようにしてもよい。   For example, the object specifying unit 45 may specify an object that the listener's user has approached in response to a voice uttered by the user of the speaker as an object corresponding to the zero pronoun of the object. In this case, the object specifying unit 45 can determine from the voice information, the character information, and the behavior information that the user's response corresponding to the speaker user is affirmative, that is, “Yes”, This determination method may be used only when the listener's user utters a positive sound such as “OK” or when the listener's user makes a nodding action.

なお、上記以外の方法によって、物を特定することができる場合には、その方法を用いてもよいことは言うまでもない。また、話し手のユーザの位置から一定の範囲(例えば、半径10m以内の範囲等)より外に存在する物については、特定する物に含めないようにしてもよい。話し手のユーザが、そのような遠くに存在する物を、ゼロ代名詞に対応する物として想定していることは考えにくいからである。また、話し手のユーザと、聞き手のユーザとを特定する方法は、前述の通りである。   Needless to say, if an object can be specified by a method other than the above, that method may be used. In addition, an object that exists outside a certain range (for example, a range within a radius of 10 m) from the position of the speaker's user may not be included in the specified object. This is because it is unlikely that the speaker's user assumes such a distant object as an object corresponding to the zero pronoun. The method for specifying the user of the speaker and the user of the listener is as described above.

物指示情報記憶手段46では、物指示情報が記憶される。ここで、物指示情報とは、ユーザと物の位置関係と、物の指示語とを対応付ける情報である。ユーザと物の位置関係とは、話し手のユーザと、聞き手のユーザと、物との位置関係である。物の指示語とは、例えば、「あれ」や、「これ」、「それ」等である。物指示情報の具体例については後述する。   The object instruction information storage means 46 stores object instruction information. Here, the object instruction information is information that associates the positional relationship between the user and the object and the instruction word of the object. The positional relationship between the user and the object is a positional relationship between the user of the speaker, the user of the listener, and the object. The instruction word for an object is, for example, “that”, “this”, “it”, or the like. A specific example of the object instruction information will be described later.

物指示情報記憶手段46は、所定の記録媒体(例えば、半導体メモリや磁気ディスク、光ディスク等)によって実現される。物指示情報記憶手段46に物指示情報が記憶される過程は問わない。例えば、記録媒体を介して物指示情報が物指示情報記憶手段46で記憶されるようになってもよく、通信回線等を介して送信された物指示情報が物指示情報記憶手段46で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された物指示情報が物指示情報記憶手段46で記憶されるようになってもかまわない。   The object instruction information storage means 46 is realized by a predetermined recording medium (for example, a semiconductor memory, a magnetic disk, an optical disk, etc.). The process in which the object instruction information is stored in the object instruction information storage means 46 does not matter. For example, the object instruction information may be stored in the object instruction information storage means 46 via a recording medium, and the object instruction information transmitted via a communication line or the like is stored in the object instruction information storage means 46. Alternatively, the object instruction information input via the input device may be stored in the object instruction information storage means 46.

物文字情報決定手段47は、ゼロ代名詞に対応する物を示す文字の情報である物文字情報を決定する。この物文字情報と格助詞との組である格要素が、特定されたゼロ代名詞の位置に挿入されることになる。物文字情報決定手段47は、物特定手段45によって特定された物に対応する物属性情報が、物情報受付部19で受け付けられている場合には、その物属性情報を用いて物文字情報を決定してもよい。この場合には、例えば、ユーザ文字情報「あの本」等が決定されることになる。また、物文字情報決定手段47は、物指示情報記憶手段46で記憶されている物指示情報を用いて、行動情報及び物情報によって示される位置関係に応じた指示語を選択し、その選択した指示語を含む文字の情報である物文字情報を決定してもよい。行動情報及び物情報によって示される位置関係とは、話し手のユーザ、聞き手のユーザ、物特定手段45が特定した物の位置関係である。選択した指示語を含む文字の情報とは、選択した指示語そのものであってもよく、あるいは、選択した指示語以外に、物属性情報の示す言葉等を含むものであってもよい。物文字情報を決定するとは、例えば、物文字情報を生成することであってもよく、物指示情報記憶手段46で記憶されている物指示情報における物の指示語のうち、物文字情報となるものに所定のフラグを立てることであってもよく、物文字情報を特定できるのであれば、物文字情報の決定方法は問わない。   The object character information determination unit 47 determines object character information which is information of a character indicating an object corresponding to the zero pronoun. The case element, which is a combination of the object character information and the case particle, is inserted at the position of the specified zero pronoun. When the object attribute information corresponding to the object specified by the object specifying unit 45 is received by the object information receiving unit 19, the object character information determining unit 47 uses the object attribute information to obtain the object character information. You may decide. In this case, for example, the user character information “that book” is determined. Further, the object character information determination unit 47 selects an instruction word corresponding to the positional relationship indicated by the action information and the object information by using the object instruction information stored in the object instruction information storage unit 46, and selects the selected item. Object character information that is character information including the instruction word may be determined. The positional relationship indicated by the behavior information and the object information is the positional relationship between the speaker user, the listener user, and the object specified by the object specifying means 45. The character information including the selected instruction word may be the selected instruction word itself, or may include a word indicated by the object attribute information in addition to the selected instruction word. Determining the object character information may be, for example, generating object character information, which is the object character information among the object instruction words in the object instruction information stored in the object instruction information storage unit 46. A predetermined flag may be set on the object, and the method for determining the object character information is not limited as long as the object character information can be specified.

物省略語情報挿入手段48は、物省略語情報を、対応するゼロ代名詞の位置に挿入する。ここで、物省略語情報とは、ゼロ代名詞の位置に補完される省略語を示す情報であり、物文字情報決定手段47が決定した物文字情報を含む情報である。物省略語情報は、物文字情報と、格助詞とを含む格要素を示す情報である。物省略語情報の示す省略語に含まれる格助詞は、物省略語情報挿入手段48によって決定されたものであってもよく、あるいは、ゼロ代名詞特定部14によって決定されたものであってもよい。物省略語情報挿入手段48が物省略語情報の挿入を行うことにより、物に関する省略語の補完が行われることになる。物省略語情報に対応するゼロ代名詞の位置とは、その物省略語情報に含まれる物文字情報を決定するために物特定手段45が特定した物に対応する物のゼロ代名詞の位置である。   The thing abbreviation information insertion means 48 inserts the thing abbreviation information at the position of the corresponding zero pronoun. Here, the thing abbreviation information is information indicating an abbreviation supplemented at the position of the zero pronoun, and is information including the object character information determined by the object character information determination unit 47. The object abbreviation information is information indicating case elements including object character information and case particles. The case particles included in the abbreviations indicated by the thing abbreviation information may be determined by the object abbreviation information insertion means 48, or may be determined by the zero pronoun specifying unit 14. . When the abbreviation information insertion means 48 inserts the abbreviation information, the abbreviations relating to the thing are complemented. The position of the zero pronoun corresponding to the object abbreviation information is the position of the zero pronoun of the object corresponding to the object specified by the object specifying means 45 in order to determine the object character information included in the object abbreviation information.

補完文字情報出力部22は、省略語補完部21が生成した補完文字情報を出力する。ここで、この出力は、例えば、表示デバイス(例えば、CRTや液晶ディスプレイ等)への表示でもよく、所定の機器への通信回線を介した送信でもよく、プリンタによる印刷でもよく、スピーカによる音声出力でもよく、記録媒体への蓄積でもかまわない。なお、補完文字情報出力部22は、出力を行うデバイス(例えば、表示デバイスやプリンタ等)を含んでいてもよく、あるいは含んでいなくてもよい。また、補完文字情報出力部22は、ハードウェアによって実現されてもよく、あるいは、それらのデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。本実施の形態では、補完文字情報出力部22は、補完文字情報をディスプレイに表示するものとする。   The supplementary character information output unit 22 outputs the supplementary character information generated by the abbreviation complementation unit 21. Here, the output may be, for example, display on a display device (for example, a CRT or a liquid crystal display), transmission via a communication line to a predetermined device, printing by a printer, or audio output by a speaker. However, it may be stored on a recording medium. The supplementary character information output unit 22 may or may not include a device that performs output (for example, a display device or a printer). The complementary character information output unit 22 may be realized by hardware, or may be realized by software such as a driver that drives these devices. In the present embodiment, the supplementary character information output unit 22 displays the supplementary character information on the display.

なお、音声情報蓄積部12が有する記録媒体と、行動情報蓄積部16が有する記録媒体と、ユーザ属性情報蓄積部18が有する記録媒体と、物情報蓄積部20が有する記録媒体と、格フレーム情報記憶手段32と、ユーザ指示情報記憶手段42と、物指示情報記憶手段46とのうち、任意の2以上の記録媒体は、同一の記録媒体によって実現されてもよく、異なる記録媒体によって実現されてもよい。前者の場合には、例えば、その記録媒体のうち、格フレーム情報を記憶している領域が格フレーム情報記憶手段32となる。   The recording medium included in the audio information storage unit 12, the recording medium included in the behavior information storage unit 16, the recording medium included in the user attribute information storage unit 18, the recording medium included in the object information storage unit 20, and the case frame information. Of the storage unit 32, the user instruction information storage unit 42, and the object instruction information storage unit 46, any two or more recording media may be realized by the same recording medium or by different recording media. Also good. In the former case, for example, an area in which the case frame information is stored in the recording medium becomes the case frame information storage means 32.

次に、本実施の形態による省略語補完装置1の動作について、フローチャートを用いて説明する。図4は、本実施の形態による省略語補完装置1の全体動作を示すフローチャートである。   Next, the operation of the abbreviation complement device 1 according to the present embodiment will be described using a flowchart. FIG. 4 is a flowchart showing the overall operation of the abbreviation complementing apparatus 1 according to this embodiment.

(ステップS101)省略語補完装置1は、省略語を補完するかどうか判断する。そして、省略語を補完する場合には、ステップS102に進み、そうでない場合には、ステップS103に進む。ここで、省略語補完装置1は、所定のイベント(例えば、音声情報、行動情報、ユーザ属性情報、物情報の一連の蓄積が終了したことや、省略語を補完する旨の指示が受け付けられたこと等)をトリガーとして省略語を補完すると判断してもよく、所定の期間ごとに省略語を補完すると判断してもよく、その他のタイミングで省略語を補完すると判断してもかまわない。   (Step S101) The abbreviation complement device 1 determines whether to abbreviate abbreviations. If the abbreviation is complemented, the process proceeds to step S102. If not, the process proceeds to step S103. Here, the abbreviation complementing device 1 has received a predetermined event (for example, completion of a series of accumulations of voice information, behavior information, user attribute information, and object information, and an instruction to supplement abbreviations). Or the like) as a trigger, it may be determined that the abbreviation is supplemented, it may be determined that the abbreviation is supplemented every predetermined period, or it may be determined that the abbreviation is supplemented at other timings.

(ステップS102)省略語補完部21等は、省略語を補完する処理を行う。そして、ステップS101に戻る。この省略語を補完する処理の詳細については、図5のフローチャートを用いて後述する。   (Step S102) The abbreviation complement unit 21 and the like perform processing for complementing abbreviations. Then, the process returns to step S101. Details of the process of complementing this abbreviation will be described later using the flowchart of FIG.

(ステップS103)音声情報受付部11は、音声情報を受け付けたかどうか判断する。そして、音声情報を受け付けた場合には、ステップS104に進み、そうでない場合には、ステップS105に進む。
(ステップS104)音声情報蓄積部12は、音声情報受付部11が受け付けた音声情報を所定の記録媒体に蓄積する。そして、ステップS101に戻る。
(Step S103) The voice information receiving unit 11 determines whether voice information has been received. If the audio information is received, the process proceeds to step S104. If not, the process proceeds to step S105.
(Step S104) The audio information storage unit 12 stores the audio information received by the audio information reception unit 11 in a predetermined recording medium. Then, the process returns to step S101.

(ステップS105)行動情報受付部15は、行動情報を受け付けたかどうか判断する。なお、行動情報が身体モーション情報、視線情報、ユーザ位置情報等を含む場合には、そのいずれかの情報を少なくとも受け付けた場合に、行動情報を受け付けたと判断してもよい。そして、行動情報を受け付けた場合には、ステップS106に進み、そうでない場合には、ステップS107に進む。   (Step S105) The behavior information reception unit 15 determines whether behavior information has been received. When the behavior information includes body motion information, line-of-sight information, user position information, or the like, it may be determined that the behavior information has been received when at least one of the information is received. If the behavior information is accepted, the process proceeds to step S106. If not, the process proceeds to step S107.

(ステップS106)行動情報蓄積部16は、行動情報受付部15が受け付けた行動情報を所定の記録媒体に蓄積する。そして、ステップS101に戻る。
(ステップS107)ユーザ属性情報受付部17は、ユーザ属性情報を受け付けたかどうか判断する。そして、ユーザ属性情報を受け付けた場合には、ステップS108に進み、そうでない場合には、ステップS109に進む。
(Step S106) The behavior information storage unit 16 stores the behavior information received by the behavior information reception unit 15 in a predetermined recording medium. Then, the process returns to step S101.
(Step S107) The user attribute information receiving unit 17 determines whether user attribute information has been received. If user attribute information is accepted, the process proceeds to step S108, and if not, the process proceeds to step S109.

(ステップS108)ユーザ属性情報蓄積部18は、ユーザ属性情報受付部17が受け付けたユーザ属性情報を所定の記録媒体に蓄積する。そして、ステップS101に戻る。   (Step S108) The user attribute information storage unit 18 stores the user attribute information received by the user attribute information reception unit 17 in a predetermined recording medium. Then, the process returns to step S101.

(ステップS109)物情報受付部19は、物情報を受け付けたかどうか判断する。なお、物情報が物位置情報と、物属性情報とを含む場合には、そのいずれか一方を少なくとも受け付けた場合に、物情報を受け付けたと判断してもよい。そして、物情報を受け付けた場合には、ステップS110に進み、そうでない場合には、ステップS101に戻る。   (Step S109) The object information reception part 19 judges whether the object information was received. When the object information includes the object position information and the object attribute information, it may be determined that the object information is received when at least one of them is received. If the object information is accepted, the process proceeds to step S110. If not, the process returns to step S101.

(ステップS110)物情報蓄積部20は、物情報受付部19が受け付けた物情報を所定の記録媒体に蓄積する。そして、ステップS101に戻る。
なお、図4のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
(Step S110) The product information storage unit 20 stores the product information received by the product information reception unit 19 in a predetermined recording medium. Then, the process returns to step S101.
In the flowchart of FIG. 4, the process ends when the power is turned off or the process ends.

図5は、図4のフローチャートにおける省略語の補完処理(ステップS102)の詳細を示すフローチャートである。
(ステップS201)文字情報変換部13は、音声情報蓄積部12から音声情報を読み出す。文字情報変換部13は、音声情報蓄積部12が蓄積したすべての音声情報を読み出してもよく、あるいは、その一部を読み出してもよい。
FIG. 5 is a flowchart showing details of the abbreviation complementing process (step S102) in the flowchart of FIG.
(Step S201) The character information conversion unit 13 reads the voice information from the voice information storage unit 12. The character information conversion unit 13 may read all the voice information stored by the voice information storage unit 12, or may read a part thereof.

(ステップS202)文字情報変換部13は、音声情報蓄積部12から読み出した音声情報を文字情報に変換する。
(ステップS203)ゼロ代名詞特定部14は、文字情報の示す文書におけるゼロ代名詞を特定する。このゼロ代名詞を特定する処理の詳細については、図6のフローチャートを用いて後述する。
(Step S202) The character information conversion unit 13 converts the voice information read from the voice information storage unit 12 into character information.
(Step S203) The zero pronoun specifying unit 14 specifies a zero pronoun in the document indicated by the character information. Details of the process for specifying the zero pronoun will be described later with reference to the flowchart of FIG.

(ステップS204)省略語補完部21は、行動情報と、ユーザ属性情報と、物情報とを用いて、ゼロ代名詞の位置に省略語を補完した情報である補完文字情報を生成する。この補完文字情報を生成する処理の詳細については、図7のフローチャートを用いて後述する。   (Step S204) The abbreviation complementing unit 21 generates supplementary character information that is information obtained by complementing the abbreviation at the position of the zero pronoun using the behavior information, the user attribute information, and the object information. Details of the process of generating the supplementary character information will be described later with reference to the flowchart of FIG.

(ステップS205)補完文字情報出力部22は、省略語補完部21が生成した補完文字情報を出力する。そして、省略語を補完する一連の処理は終了となり、図1のステップS101に戻る。   (Step S205) The supplementary character information output unit 22 outputs the supplementary character information generated by the abbreviation complementation unit 21. Then, the series of processes for complementing the abbreviations ends, and the process returns to step S101 in FIG.

なお、本実施の形態では、省略語の補完処理を実行する際に音声情報を文字情報に変換する場合について説明するが、音声情報から文字情報への変換は、音声情報が蓄積されてから、省略語補完処理が実行されるまでの任意の時点で実行されればよい。例えば、省略語補完装置1の処理負荷の小さいときに、音声情報から文字情報への変換処理を実行してもよい。   In this embodiment, a case where speech information is converted into character information when executing abbreviation complement processing will be described. However, conversion from speech information to character information is performed after speech information is accumulated. What is necessary is just to be performed at the arbitrary time until abbreviation completion processing is performed. For example, when the processing load of the abbreviation complement device 1 is small, the conversion process from voice information to character information may be executed.

図6は、図5のフローチャートにおけるゼロ代名詞の特定処理(ステップS203)の詳細を示すフローチャートである。
(ステップS301)動詞抽出手段31は、文字情報の示す文書から、動詞と、その動詞の格要素とを抽出する。
FIG. 6 is a flowchart showing details of the zero pronoun specification process (step S203) in the flowchart of FIG.
(Step S301) The verb extracting means 31 extracts a verb and a case element of the verb from the document indicated by the character information.

(ステップS302)格要素取得手段33は、格フレーム情報記憶手段32で記憶されている格フレーム情報から、ステップS301で抽出された動詞に対応する格要素を取得する。
(ステップS303)格要素特定手段34は、ステップS301で抽出された格要素と、ステップS302で取得された格要素とを比較する。
(Step S302) The case element acquisition means 33 acquires the case element corresponding to the verb extracted in step S301 from the case frame information stored in the case frame information storage means 32.
(Step S303) The case element specifying unit 34 compares the case element extracted in Step S301 with the case element acquired in Step S302.

(ステップS304)格要素特定手段34は、ステップS302取得した1以上の格要素に含まれるが、ステップS301で抽出した0以上の格要素に含まれない格要素を、文字情報の示す文書に含まれない格要素として特定する。この特定した格要素がゼロ代名詞である。そして、ゼロ代名詞を特定する一連の処理は終了となり、図5のステップS204に進む。   (Step S304) The case element specifying means 34 includes a case element included in one or more case elements acquired in step S302 but not included in zero or more case elements extracted in step S301 in the document indicated by the character information. It is specified as a case element. This identified case element is a zero pronoun. Then, the series of processes for specifying the zero pronouns ends, and the process proceeds to step S204 in FIG.

なお、図6のフローチャートのステップS301において、2以上の動詞が抽出された場合には、その動詞ごとに、ステップS302からステップS304の処理が実行されるものとする。   When two or more verbs are extracted in step S301 in the flowchart of FIG. 6, the processing from step S302 to step S304 is executed for each verb.

図7は、図5のフローチャートにおける補完文字情報の生成処理(ステップS204)の詳細を示すフローチャートである。   FIG. 7 is a flowchart showing details of the complementary character information generation processing (step S204) in the flowchart of FIG.

(ステップS401)物特定手段45は、物のゼロ代名詞があるかどうか、すなわち、物のゼロ代名詞がゼロ代名詞特定部14によって特定されたかどうか判断する。そして、物のゼロ代名詞がある場合には、ステップS402に進み、そうでない場合には、ステップS406に進む。   (Step S401) The object specifying unit 45 determines whether there is a zero pronoun of the object, that is, whether the zero pronoun of the object is specified by the zero pronoun specifying unit 14. If there is a zero pronoun of the object, the process proceeds to step S402, and if not, the process proceeds to step S406.

(ステップS402)物特定手段45は、物のゼロ代名詞に対応する物を特定できるかどうか判断する。そして、物を特定できる場合には、ステップS403に進み、そうでない場合には、ステップS406に進む。   (Step S402) The object specifying means 45 determines whether an object corresponding to the zero pronoun of the object can be specified. If the object can be specified, the process proceeds to step S403, and if not, the process proceeds to step S406.

(ステップS403)物特定手段45は、物のゼロ代名詞に対応する物を特定する。
(ステップS404)物文字情報決定手段47は、ゼロ代名詞に対応する物を示す物文字情報を決定する。この物文字情報の決定処理の詳細については、図8のフローチャートを用いて後述する。
(Step S403) The object specifying means 45 specifies an object corresponding to the zero pronoun of the object.
(Step S404) The physical character information determination means 47 determines physical character information indicating an object corresponding to the zero pronoun. The details of the object character information determination process will be described later with reference to the flowchart of FIG.

(ステップS405)物省略語情報挿入手段48は、ステップS404で決定された物文字情報を含む物省略語情報を、文字情報における対応するゼロ代名詞の位置に挿入する。このようにして、物の省略語の補完が完了する。   (Step S405) The object abbreviation information insertion means 48 inserts the object abbreviation information including the object character information determined in step S404 at the position of the corresponding zero pronoun in the character information. In this way, the completion of the abbreviation of the object is completed.

(ステップS406)ユーザ特定手段41は、ユーザのゼロ代名詞があるかどうか、すなわち、ユーザのゼロ代名詞がゼロ代名詞特定部14によって特定されたかどうか判断する。そして、ユーザのゼロ代名詞がある場合には、ステップS407に進み、そうでない場合には、省略語を補完する一連の処理は終了となり、図5のステップS205に進む。   (Step S406) The user specifying unit 41 determines whether there is a user's zero pronoun, that is, whether the user's zero pronoun is specified by the zero pronoun specifying unit 14. If the user's zero pronoun is present, the process proceeds to step S407. If not, the series of processes for complementing the abbreviation is terminated, and the process proceeds to step S205 in FIG.

(ステップS407)ユーザ特定手段41は、ユーザのゼロ代名詞に対応するユーザを特定できるかどうか判断する。そして、ユーザを特定できる場合には、ステップS408に進み、そうでない場合には、省略語を補完する一連の処理は終了となり、図5のステップS205に進む。   (Step S407) The user specifying means 41 determines whether a user corresponding to the user's zero pronoun can be specified. If the user can be specified, the process proceeds to step S408. If not, the series of processes for complementing the abbreviation is terminated, and the process proceeds to step S205 in FIG.

(ステップS408)ユーザ特定手段41は、ユーザのゼロ代名詞に対応するユーザを特定する。
(ステップS409)ユーザ文字情報決定手段43は、ゼロ代名詞に対応するユーザを示すユーザ文字情報を決定する。このユーザ文字情報の決定処理の詳細については、図9のフローチャートを用いて後述する。
(Step S408) The user specifying means 41 specifies a user corresponding to the user's zero pronoun.
(Step S409) The user character information determination means 43 determines the user character information which shows the user corresponding to a zero pronoun. Details of the user character information determination process will be described later with reference to the flowchart of FIG.

(ステップS410)ユーザ省略語情報挿入手段44は、ステップS409で決定されたユーザ文字情報を含むユーザ省略語情報を、文字情報における対応するゼロ代名詞の位置に挿入する。このようにして、ユーザの省略語の補完が完了し、図5のステップS205に進む。   (Step S410) The user abbreviation information insertion means 44 inserts the user abbreviation information including the user character information determined in step S409 at the position of the corresponding zero pronoun in the character information. In this way, completion of the user abbreviations is completed, and the process proceeds to step S205 in FIG.

なお、図7のフローチャートでは、物省略語情報の挿入処理を行った後に、ユーザ省略語情報の挿入処理を行う場合について示しているが、ユーザ省略語情報の挿入処理を行った後に、物省略語情報の挿入処理を行ってもよい。   The flowchart of FIG. 7 shows the case where the user abbreviation information insertion process is performed after the object abbreviation information insertion process is performed. However, after the user abbreviation information insertion process is performed, the object abbreviation information is omitted. Word information insertion processing may be performed.

図8は、図7のフローチャートにおける物文字情報の決定処理(ステップS404)の詳細を示すフローチャートである。
(ステップS501)物文字情報決定手段47は、話し手のユーザ、聞き手のユーザ、物特定手段45が特定した物の位置関係を決定する。話し手のユーザ、聞き手のユーザを特定する方法は、前述の通りである。話し手のユーザ、聞き手のユーザを特定し、行動情報を用いることによって、物文字情報決定手段47は、話し手のユーザ、聞き手のユーザの位置を知ることができる。なお、話し手のユーザ、聞き手のユーザの特定は、他の構成要素、例えば、ユーザ特定手段41によってなされてもよい。また、物文字情報決定手段47は、物情報を用いることにより、物特定手段45が特定した物の位置を知ることができる。
FIG. 8 is a flowchart showing details of the object character information determination process (step S404) in the flowchart of FIG.
(Step S501) The object character information determining means 47 determines the positional relationship between the speaker user, the listener user, and the object specified by the object specifying means 45. The method for identifying the user of the speaker and the user of the listener is as described above. By specifying the user of the speaker and the user of the listener and using the action information, the object character information determination unit 47 can know the positions of the user of the speaker and the user of the listener. The user of the speaker and the user of the listener may be specified by other components, for example, the user specifying means 41. Further, the object character information determination unit 47 can know the position of the object specified by the object specifying unit 45 by using the object information.

本実施の形態では、話し手のユーザ、聞き手のユーザ、物特定手段45が特定した物の位置関係として、近称、中称、遠称があるものとする。これらの位置関係の名称「近称」、「中称」、「遠称」は、対応する代名詞の名称「近称代名詞」、「中称代名詞」、「遠称代名詞」に由来するものである。   In the present embodiment, it is assumed that the positional relationship between the speaker user, the listener user, and the object specified by the object specifying means 45 includes a near name, a middle name, and a far name. The names of these positional relations “near name”, “middle name”, and “distant name” are derived from the corresponding pronoun names “near name pronoun”, “middle name pronoun”, and “far name pronoun”. .

近称とは、物特定手段45が特定した物の位置が、聞き手よりも話し手に近く、話し手と特定された物との距離が、話し手と聞き手との間の距離よりも小さい場合である。すなわち、以下の2つの条件が満たされる場合には、近称となる。
条件1:話し手と特定された物との距離≦聞き手と特定された物との距離
条件2:話し手と特定された物との距離≦話し手と聞き手との距離
The near name is when the position of the object specified by the object specifying means 45 is closer to the speaker than the listener, and the distance between the speaker and the specified object is smaller than the distance between the speaker and the listener. In other words, the following two conditions are satisfied:
Condition 1: Distance between the speaker and the identified object ≦ Distance between the listener and the identified object Condition 2: Distance between the speaker and the identified object ≦ Distance between the speaker and the listener

中称とは、物特定手段45が特定した物の位置が、話し手よりも聞き手に近く、聞き手と特定された物との距離が、話し手と聞き手との間の距離よりも小さい場合である。すなわち、以下の2つの条件が満たされる場合には、中称となる。
条件1:聞き手と特定された物との距離<話し手と特定された物との距離
条件2:聞き手と特定された物との距離≦話し手と聞き手との距離
The middle name is a case where the position of the object specified by the object specifying unit 45 is closer to the listener than the speaker, and the distance between the listener and the specified object is smaller than the distance between the speaker and the listener. In other words, if the following two conditions are satisfied, it is an intermediate name.
Condition 1: Distance between the listener and the identified object <Distance between the speaker and the identified object Condition 2: Distance between the listener and the identified object ≦ Distance between the speaker and the listener

遠称とは、物特定手段45が特定した物の位置が、話し手と聞き手の両方から、話し手と聞き手との距離よりも遠い場合である。すなわち、以下の2つの条件が満たされる場合には、遠称となる。
条件1:話し手と特定された物との距離>話し手と聞き手との距離
条件2:聞き手と特定された物との距離>話し手と聞き手との距離
A distant name is a case where the position of the object specified by the object specifying means 45 is farther from the speaker and the listener than the distance between the speaker and the listener. That is, when the following two conditions are satisfied, it becomes a distant name.
Condition 1: Distance between the speaker and the identified object> Distance between the speaker and the listener Condition 2: Distance between the listener and the identified object> Distance between the speaker and the listener

(ステップS502)物文字情報決定手段47は、物特定手段45が特定した物に対応する物属性情報を含む物情報が物情報受付部19で受け付けられたかどうか判断する。物文字情報決定手段47は、例えば、物特定手段45が特定した物に対応する物属性情報が物情報蓄積部20の有する記録媒体で記憶されている場合に、物特定手段45が特定した物に対応する物属性情報を含む物情報が物情報受付部19で受け付けられたと判断してもよい。そして、受け付けられた場合には、ステップS503に進み、そうでない場合には、ステップS504に進む。   (Step S502) The object character information determining unit 47 determines whether or not the object information including the object attribute information corresponding to the object specified by the object specifying unit 45 is received by the object information receiving unit 19. For example, the object character information determining unit 47 may identify the object specified by the object specifying unit 45 when the object attribute information corresponding to the object specified by the object specifying unit 45 is stored in the recording medium of the object information storage unit 20. It may be determined that the item information including the item attribute information corresponding to is received by the item information receiving unit 19. If accepted, the process proceeds to step S503, and if not, the process proceeds to step S504.

(ステップS503)物文字情報決定手段47は、物指示情報記憶手段46から、ステップS501で決定した位置関係に対応する物の指示語を選択する。この場合に、物文字情報決定手段47は、物文字情報が物属性情報を含む場合の指示語を選択する。そして、物文字情報決定手段47は、その選択した指示語と、物属性情報とを用いて、物文字情報を決定する。このようにして、物文字情報を決定する一連の処理は終了となり、図7のステップS405に進む。   (Step S503) The object character information determination unit 47 selects an object instruction word corresponding to the positional relationship determined in Step S501 from the object instruction information storage unit 46. In this case, the object character information determination unit 47 selects an instruction word when the object character information includes object attribute information. Then, the object character information determining means 47 determines object character information using the selected instruction word and object attribute information. In this way, a series of processes for determining physical character information is completed, and the process proceeds to step S405 in FIG.

(ステップS504)物文字情報決定手段47は、物指示情報記憶手段46から、ステップS501で決定した位置関係に対応する物の指示語を選択する。この場合に、物文字情報決定手段47は、物文字情報が物属性情報を含まない場合の指示語を選択する。そして、物文字情報決定手段47は、その選択した指示語を物文字情報に決定する。このようにして、物文字情報を決定する一連の処理は終了となり、図7のステップS405に進む。   (Step S504) The object character information determination unit 47 selects an object instruction word corresponding to the positional relationship determined in step S501 from the object instruction information storage unit 46. In this case, the object character information determination unit 47 selects an instruction word when the object character information does not include the object attribute information. Then, the object character information determining means 47 determines the selected instruction word as object character information. In this way, a series of processes for determining physical character information is completed, and the process proceeds to step S405 in FIG.

図9は、図7のフローチャートにおける物文字情報の決定処理(ステップS409)の詳細を示すフローチャートである。
(ステップS601)ユーザ文字情報決定手段43は、話し手のユーザ、聞き手のユーザ、ユーザ特定手段41が特定したユーザの位置関係を決定する。話し手のユーザ、聞き手のユーザを特定する方法は、前述の通りである。話し手のユーザ、聞き手のユーザを特定し、行動情報を用いることによって、ユーザ文字情報決定手段43は、話し手のユーザ、聞き手のユーザ、ユーザ特定手段41によって特定されたユーザの位置を知ることができる。なお、話し手のユーザ、聞き手のユーザの特定は、他の構成要素、例えば、ユーザ特定手段41によってなされてもよい。本実施の形態では、その位置関係として、近称、中称、遠称があるものとする。この近称、中称、遠称については、物特定手段45が特定した物が、ユーザ特定手段41が特定したユーザとなる以外、ステップS501での説明と同様であり、その詳細な説明は省略する。ただし、ユーザ特定手段41が特定したユーザと、話し手あるいは聞き手のユーザとが同一である場合には、ユーザ特定手段41が特定したユーザに対応する指示語は、「私」や「あなた」等になる。
FIG. 9 is a flowchart showing details of the object character information determination process (step S409) in the flowchart of FIG.
(Step S601) The user character information determination means 43 determines the positional relationship among the speaker user, the listener user, and the user specified by the user specifying means 41. The method for identifying the user of the speaker and the user of the listener is as described above. By identifying the user of the speaker and the user of the listener and using the behavior information, the user character information determination unit 43 can know the position of the user specified by the user of the speaker, the user of the listener, and the user specifying unit 41. . The user of the speaker and the user of the listener may be specified by other components, for example, the user specifying means 41. In this embodiment, it is assumed that the positional relationship includes a near name, a middle name, and a far name. The near name, middle name, and far name are the same as those described in step S501 except that the item specified by the item specifying unit 45 is the user specified by the user specifying unit 41, and detailed description thereof is omitted. To do. However, when the user specified by the user specifying means 41 is the same as the speaker or the listener, the instruction word corresponding to the user specified by the user specifying means 41 is “I” or “you”. Become.

(ステップS602)ユーザ文字情報決定手段43は、ユーザ特定手段41が特定したユーザに対応するユーザ属性情報がユーザ属性情報受付部17で受け付けられたかどうか判断する。ユーザ文字情報決定手段43は、例えば、ユーザ特定手段41が特定したユーザに対応するユーザ属性情報がユーザ属性情報蓄積部18の有する記録媒体で記憶されている場合に、ユーザ特定手段41が特定したユーザに対応するユーザ属性情報がユーザ属性情報受付部17で受け付けられたと判断してもよい。そして、受け付けられた場合には、ステップS603に進み、そうでない場合には、ステップS604に進む。   (Step S <b> 602) The user character information determination unit 43 determines whether user attribute information corresponding to the user specified by the user specifying unit 41 has been received by the user attribute information receiving unit 17. For example, the user character information determination means 43 is specified by the user specification means 41 when the user attribute information corresponding to the user specified by the user specification means 41 is stored in the recording medium of the user attribute information storage unit 18. It may be determined that the user attribute information corresponding to the user has been received by the user attribute information receiving unit 17. If accepted, the process proceeds to step S603; otherwise, the process proceeds to step S604.

(ステップS603)ユーザ文字情報決定手段43は、ユーザ指示情報記憶手段42から、ステップS601で決定した位置関係に対応するユーザの指示語を選択する。この場合に、ユーザ文字情報決定手段43は、ユーザ文字情報がユーザ属性情報を含む場合の指示語を選択する。そして、ユーザ文字情報決定手段43は、その選択した指示語と、ユーザ属性情報とを用いて、ユーザ文字情報を決定する。このようにして、ユーザ文字情報を決定する一連の処理は終了となり、図7のステップS410に進む。   (Step S603) The user character information determination unit 43 selects a user instruction word corresponding to the positional relationship determined in step S601 from the user instruction information storage unit 42. In this case, the user character information determination unit 43 selects an instruction word when the user character information includes user attribute information. And the user character information determination means 43 determines user character information using the selected instruction word and user attribute information. In this way, a series of processes for determining the user character information ends, and the process proceeds to step S410 in FIG.

(ステップS604)ユーザ文字情報決定手段43は、ユーザ指示情報記憶手段42から、ステップS601で決定した位置関係に対応するユーザの指示語を選択する。この場合に、ユーザ文字情報決定手段43は、ユーザ文字情報がユーザ属性情報を含まない場合の指示語を選択する。そして、ユーザ文字情報決定手段43は、その選択した指示語をユーザ文字情報に決定する。このようにして、ユーザ文字情報を決定する一連の処理は終了となり、図7のステップS410に進む。   (Step S604) The user character information determination unit 43 selects a user instruction word corresponding to the positional relationship determined in step S601 from the user instruction information storage unit 42. In this case, the user character information determination unit 43 selects an instruction word when the user character information does not include user attribute information. Then, the user character information determination unit 43 determines the selected instruction word as user character information. In this way, a series of processes for determining the user character information ends, and the process proceeds to step S410 in FIG.

次に、本実施の形態による省略語補完装置1の動作について、具体例を用いて説明する。
この具体例では、各ユーザの身体モーション情報をモーションキャプチャシステムによって取得し、ユーザの視線情報をアイカメラによって取得し、身体モーション情報と視線情報とを含むモーション情報が行動情報受付部15で受け付けられるものとする。また、各ユーザの発した音声をマイクロフォンによって取得し、その音声情報が音声情報受付部11で受け付けられるものとする。それらの行動情報及び音声情報は、各ユーザを識別するユーザ識別情報に対応付けられて受け付けられ、そのユーザ識別情報に対応付けられて蓄積されるものとする。
Next, operation | movement of the abbreviation complement apparatus 1 by this Embodiment is demonstrated using a specific example.
In this specific example, body motion information of each user is acquired by a motion capture system, user's line-of-sight information is acquired by an eye camera, and motion information including body motion information and line-of-sight information is received by the behavior information receiving unit 15. Shall. In addition, it is assumed that the voice uttered by each user is acquired by a microphone and the voice information is received by the voice information receiving unit 11. It is assumed that these behavior information and audio information are received in association with user identification information for identifying each user, and are stored in association with the user identification information.

また、この具体例では、各ユーザの服に付いているRFIDにユーザ属性情報が記憶されているとする。また、物に付いているRFIDに物属性情報が記憶されているものとする。RFIDリーダは、ユーザの服に付いているRFIDから、ユーザ属性情報とRFIDの位置とを取得する。また、RFIDリーダは、物に付いているRFIDから、物属性情報とRFIDの位置とを取得する。   In this specific example, it is assumed that user attribute information is stored in the RFID attached to each user's clothes. Further, it is assumed that the object attribute information is stored in the RFID attached to the object. The RFID reader acquires user attribute information and the position of the RFID from the RFID attached to the user's clothes. Further, the RFID reader acquires the object attribute information and the position of the RFID from the RFID attached to the object.

図10は、この具体例において各ユーザが装着している装置等について説明するための図である。図10で示されるように、各ユーザは、マイクロフォンを装着しており、そのマイクロフォンによってユーザの発した音声が取得される。また、ユーザは、アイカメラを装着しており、そのアイカメラによってユーザの視線方向が取得される。また、ユーザは、体の複数の部分にモーションキャプチャシステムで位置を検出するためのマーカが取り付けられている。また、ユーザは、服にそのユーザに対応するユーザ属性情報が記憶されたRFIDが付けられている。   FIG. 10 is a diagram for explaining devices and the like worn by each user in this specific example. As shown in FIG. 10, each user wears a microphone, and the voice uttered by the user is acquired by the microphone. The user wears an eye camera, and the user's line-of-sight direction is acquired by the eye camera. In addition, the user is provided with markers for detecting positions with a motion capture system on a plurality of parts of the body. In addition, the user is provided with an RFID in which user attribute information corresponding to the user is stored.

マイクロフォンによって取得された音声情報、アイカメラによって取得された視線情報、モーションキャプチャシステムによって取得された身体モーション情報は、それぞれ、有線または無線の通信によって省略語補完装置1に渡される。そして、音声情報は音声情報受付部11で受け付けられ(ステップS103)、音声情報蓄積部12によって蓄積される(ステップS104)。また、視線情報と、身体モーション情報とは行動情報受付部15で受け付けられ(ステップS105)、行動情報蓄積部16によって蓄積される(ステップS106)。また、RFIDリーダによって取得されたユーザ属性情報とRFIDの位置とは、ユーザ属性情報受付部17で受け付けられ(ステップS107)、ユーザ属性情報蓄積部18によって蓄積される(ステップS108)。また、物属性情報とRFIDの位置を示す情報である物位置情報とを含む物情報は、物情報受付部19で受け付けられ(ステップS109)、物情報蓄積部20によって蓄積される(ステップS110)。   The voice information acquired by the microphone, the line-of-sight information acquired by the eye camera, and the body motion information acquired by the motion capture system are respectively passed to the abbreviation complementing device 1 by wired or wireless communication. The voice information is received by the voice information receiving unit 11 (step S103) and stored by the voice information storage unit 12 (step S104). The line-of-sight information and the body motion information are received by the behavior information receiving unit 15 (step S105) and accumulated by the behavior information accumulating unit 16 (step S106). The user attribute information and the RFID position acquired by the RFID reader are received by the user attribute information receiving unit 17 (step S107) and stored by the user attribute information storage unit 18 (step S108). Also, the object information including the object attribute information and the object position information that is information indicating the position of the RFID is received by the object information receiving unit 19 (step S109) and stored by the object information storing unit 20 (step S110). .

図11は、音声情報蓄積部12が蓄積した音声情報の一例を示す図である。図11で示されるように、時系列の音声情報が各ユーザのユーザ識別情報U001等に対応付けられて所定の記録媒体(図示せず)において記憶されている。   FIG. 11 is a diagram illustrating an example of audio information accumulated by the audio information accumulation unit 12. As shown in FIG. 11, time-series audio information is stored in a predetermined recording medium (not shown) in association with the user identification information U001 of each user.

図12は、行動情報蓄積部16が蓄積した行動情報の一例を示す図である。図12で示されるように、時系列の行動情報が各ユーザのユーザ識別情報U001等に対応付けられて所定の記録媒体(図示せず)において記憶されている。行動情報に含まれるモーション情報は、視線情報と、身体モーション情報とを含む。視線情報は、ユーザの視野における画素位置を示す情報であるとする。身体モーション情報は、モーションキャプチャシステムによって取得された、各マーカの3次元直交座標系における位置を示す情報である。身体モーション情報によって、ユーザの位置についても知ることができるため、この具体例の場合、身体モーション情報に位置情報が含まれることになる。例えば、身体モーション情報に含まれる1個のマーカの位置によって、ユーザの位置を代表させることができる。   FIG. 12 is a diagram illustrating an example of behavior information accumulated by the behavior information accumulation unit 16. As shown in FIG. 12, time-series action information is stored in a predetermined recording medium (not shown) in association with user identification information U001 of each user. The motion information included in the behavior information includes line-of-sight information and body motion information. The line-of-sight information is information indicating a pixel position in the user's visual field. The body motion information is information indicating the position of each marker in the three-dimensional orthogonal coordinate system acquired by the motion capture system. Since the position of the user can be known from the body motion information, in this specific example, the position information is included in the body motion information. For example, the position of the user can be represented by the position of one marker included in the body motion information.

図13は、ユーザ属性情報蓄積部18が蓄積したユーザ属性情報と、物情報蓄積部20が蓄積した物情報との一例を示す図である。図13で示されるように、ユーザ属性情報は、各ユーザの属性(この具体例では、ユーザの性別である)を示す情報と、各ユーザのRFIDの位置を示す時系列の情報とを有する。物情報も、物の属性(この具体例では、物の名称である)を示す情報と、物のRFIDの位置を示す時系列の情報とを有する。   FIG. 13 is a diagram illustrating an example of user attribute information accumulated by the user attribute information accumulation unit 18 and object information accumulated by the object information accumulation unit 20. As shown in FIG. 13, the user attribute information includes information indicating the attribute of each user (in this specific example, the gender of the user) and time-series information indicating the position of the RFID of each user. The object information also includes information indicating the attribute of the object (in this specific example, the name of the object) and time-series information indicating the position of the RFID of the object.

音声情報、行動情報、ユーザ属性情報、物情報が蓄積された後に、ユーザが図示しない入力デバイスを操作することにより、省略語を補完する指示が省略語補完装置1で受け付けられたとする。すると、省略語補完装置1は、省略語を補完するタイミングであると判断し(ステップS101)、省略語を補完する処理を開始する。以下、省略語を補完する処理について詳細に説明する。   It is assumed that after the voice information, behavior information, user attribute information, and object information are accumulated, the abbreviation complementing apparatus 1 accepts an instruction to complement abbreviations by operating the input device (not shown). Then, the abbreviation complement device 1 determines that it is time to complement the abbreviation (step S101), and starts a process of complementing the abbreviation. Hereinafter, the process of complementing abbreviations will be described in detail.

まず、文字情報変換部13は、音声情報蓄積部12が有する記録媒体(図示せず)から、音声情報を読み出す(ステップS201)。この具体例では、ユーザ識別情報U001で識別されるユーザ(以下、このユーザのことを「ユーザU001」と呼ぶこともある。他のユーザについても同様であるとする)の発した音声「すみませんが、お渡しいただけますか?」のみについて、省略語を補完する処理を実行する場合について説明する。したがって、文字情報変換部13は、そのユーザU001の発した音声を示す音声情報のみを音声情報蓄積部12が有する記録媒体から読み出すものとする。   First, the character information conversion unit 13 reads audio information from a recording medium (not shown) included in the audio information storage unit 12 (step S201). In this specific example, a voice “sorry, but uttered by a user identified by the user identification information U001 (hereinafter, this user may be referred to as“ user U001 ”; the same applies to other users). , Can you give me? ", The case of executing the process of complementing abbreviations will be described. Therefore, it is assumed that the character information conversion unit 13 reads only the voice information indicating the voice uttered by the user U001 from the recording medium included in the voice information storage unit 12.

文字情報変換部13は、その読み出した音声情報の示す音声に対して音声認識処理を実行し、音声情報に対応する文字情報を生成する(ステップS202)。図14は、そのようにして生成された文字情報の一例を示す図である。図14で示される文字情報は、音声情報から認識された平仮名について、漢字変換を行っているが、漢字変換を行わない平仮名のままであってもよい。   The character information conversion unit 13 performs voice recognition processing on the voice indicated by the read voice information, and generates character information corresponding to the voice information (step S202). FIG. 14 is a diagram showing an example of character information generated in this way. In the character information shown in FIG. 14, kanji conversion is performed for hiragana recognized from the speech information, but the hiragana may not be converted to kanji.

ゼロ代名詞特定部14は、図14で示される文字情報「すみませんが お渡しいただけますか」において、ゼロ代名詞を特定する処理を行う(ステップS203)。なお、ゼロ代名詞特定部14の格フレーム情報記憶手段32では、図15で示される格フレーム情報が記憶されているものとする。図15で示されるように、格フレーム情報では、動詞と、その動詞がとる格要素とが対応付けられている。例えば、動詞「渡す」については、物に対応する格要素と、人に対応する格要素とが対応することがわかる。また、物に対応する格要素では、格助詞「を」が用いられることがわかる。また、人に対応する格要素では、格助詞「に」が用いられることがわかる。ここで、図15で示される格フレーム情報では、主語に対応する格要素を省略しているが、主語に対応する格要素も格フレーム情報に含まれてもよい。その場合には、例えば、動詞「渡す」に対応する格要素を示す情報は、「(人が)(物を)(人に)渡す」となる。   The zero pronoun specifying unit 14 performs a process of specifying a zero pronoun in the character information “I'm sorry, can you give it?” Shown in FIG. 14 (step S203). It is assumed that the case frame information storage means 32 of the zero pronoun specifying unit 14 stores the case frame information shown in FIG. As shown in FIG. 15, in the case frame information, a verb is associated with a case element taken by the verb. For example, for the verb “pass”, it is understood that a case element corresponding to an object corresponds to a case element corresponding to a person. Further, it is understood that the case particle “O” is used in the case element corresponding to the object. It can also be seen that the case particle “ni” is used in the case element corresponding to the person. Here, in the case frame information shown in FIG. 15, the case element corresponding to the subject is omitted, but the case element corresponding to the subject may also be included in the case frame information. In this case, for example, the information indicating the case element corresponding to the verb “pass” is “(person) passes (thing) (person)”.

ゼロ代名詞を特定する処理において、まず、ゼロ代名詞特定部14の動詞抽出手段31は、文字情報「すみませんが お渡しいただけますか」について形態素解析を行い、動詞「渡す」を抽出する。また、動詞抽出手段31は、動詞「渡す」に対応する格要素を抽出するが、この場合には、対応する格要素がないため、格要素の抽出は行わない(ステップS301)。格要素取得手段33は、動詞抽出手段31が抽出した動詞「渡す」に対応する格要素を、格フレーム情報記憶手段32で記憶されている格フレーム情報から取得する(ステップS302)。ここでは、動詞「渡す」に対応する格要素「物を」、「人に」が取得される。   In the process of specifying the zero pronoun, first, the verb extracting means 31 of the zero pronoun specifying unit 14 performs a morphological analysis on the character information “Can I pass it?” And extracts the verb “pass”. The verb extracting means 31 extracts a case element corresponding to the verb “pass”. In this case, no case element is extracted because there is no corresponding case element (step S301). The case element acquisition unit 33 acquires the case element corresponding to the verb “pass” extracted by the verb extraction unit 31 from the case frame information stored in the case frame information storage unit 32 (step S302). Here, the case elements “thing” and “to person” corresponding to the verb “pass” are acquired.

次に、格要素特定手段34は、動詞抽出手段31が抽出した格要素と、格要素取得手段33が取得した格要素とを比較する(ステップS303)。ここでは、動詞抽出手段31は、格要素を抽出していないため、格要素特定手段34は、比較の結果、格要素取得手段33が取得したすべての格要素は、文字情報に含まれない格要素であると判断し、文字情報に含まれない格要素としてそれらの格要素を特定する(ステップS304)。具体的には、格要素特定手段34は、図16で示されるように、文字情報の対応する位置に物に対応するゼロ代名詞と、人に対応するゼロ代名詞とを挿入することによって、文字情報に含まれない格要素を特定する。   Next, the case element identification unit 34 compares the case element extracted by the verb extraction unit 31 with the case element acquired by the case element acquisition unit 33 (step S303). Here, since the verb extracting means 31 does not extract case elements, the case element specifying means 34 does not include all case elements acquired by the case element acquiring means 33 as a result of comparison. It is determined that it is an element, and those case elements are specified as case elements not included in the character information (step S304). Specifically, as shown in FIG. 16, the case element specifying unit 34 inserts a zero pronoun corresponding to an object and a zero pronoun corresponding to a person at a corresponding position of the character information. Identify case elements not included in.

省略語補完部21は、図16で示されるようにゼロ代名詞の特定された文字情報に対して、省略語を補完する処理を行う(ステップS204)。なお、ユーザ指示情報記憶手段42では、図17で示されるユーザ指示情報が記憶されているものとする。また、物指示情報記憶手段46では、図18で示される物指示情報が記憶されているものとする。図17で示されるユーザ指示情報、図8で示される物指示情報において、位置情報「近称」、「中称」、「遠称」と、ユーザの指示語、あるいは、物の指示語が対応付けられている。ユーザの指示語、及び物の指示語において、それぞれの指示語は、属性のある場合と、属性のない場合とがある。ユーザ属性情報や物属性情報がある場合には、属性のある場合の指示語を用い、ユーザ属性情報や物属性情報がない場合には、属性のない場合の指示語を用いることになる。属性のある場合の指示語において、(属性)の位置に、ユーザ属性情報や物属性情報を挿入すればよい。   The abbreviation complement unit 21 performs a process of complementing abbreviations on the character information for which the zero pronoun is identified as shown in FIG. 16 (step S204). Note that the user instruction information storage means 42 stores the user instruction information shown in FIG. Further, it is assumed that the object instruction information storage means 46 stores the object instruction information shown in FIG. In the user instruction information shown in FIG. 17 and the object instruction information shown in FIG. 8, the position information “near name”, “middle name”, “distant name” corresponds to the user instruction word or the object instruction word. It is attached. In the user instruction word and the object instruction word, each instruction word may or may not have an attribute. When there is user attribute information or object attribute information, an instruction word when there is an attribute is used, and when there is no user attribute information or object attribute information, an instruction word when there is no attribute is used. In the instruction word when there is an attribute, user attribute information or object attribute information may be inserted at the (attribute) position.

また、行動情報、物情報から、ユーザU001が「すみませんが お渡しいただけますか」と話した時点において、図19で示されるように、各ユーザと物の位置関係を把握できたとする。ここで、ユーザU001の指示方向とは、ユーザが指差しをした方向であるとする。   Further, it is assumed that the user U001 can grasp the positional relationship between each user and the object as shown in FIG. 19 at the time point when the user U001 speaks "I'm sorry, can you give me" from the behavior information and the object information. Here, it is assumed that the instruction direction of the user U001 is a direction in which the user points.

このような状況において、物特定手段45は、まず、図16で示されるゼロ代名詞の特定された文字情報を参照し、物のゼロ代名詞があると判断する(ステップS401)。そして、物特定手段45は、その物のゼロ代名詞に対応する物を特定することができるかどうか判断する(ステップS402)。ここでは、図19で示されるように、1個の物(本)に対応する物情報のみが受け付けられているため、物特定手段45は、物を特定可能であると判断し、その物をユーザU001の近くに存在する「本」に特定する(ステップS403)。   In such a situation, the object specifying means 45 first determines that there is a zero pronoun of the object by referring to the character information specified by the zero pronoun shown in FIG. 16 (step S401). And the thing specific | specification means 45 judges whether the thing corresponding to the zero pronoun of the thing can be specified (step S402). Here, as shown in FIG. 19, since only the object information corresponding to one object (book) is accepted, the object specifying means 45 determines that the object can be specified, and The “book” existing near the user U001 is identified (step S403).

次に、物文字情報決定手段47は、その物「本」に対応する物文字情報を決定する処理を行う(ステップS404)。具体的には、物文字情報決定手段47は、図19で示されるように、話し手であるユーザU001がユーザU002の方を向いており、ユーザU002もユーザU001の方を向いているため、話し手がユーザU001であり、聞き手がユーザU002であると判断する。そして、図19で示されるように、物「本」は、ユーザU001の近くに存在するため、話し手のユーザと、聞き手のユーザと、物特定手段45が特定した物との位置関係が「近称」であると判断する(ステップS501)。また、図13で示されるように、物属性情報「本」が物情報受付部19で受け付けられているため(ステップS502)、物文字情報決定手段47は、近称に対応する属性のある場合の指示語「この(属性)」を図18で示される物指示情報から取得し、その属性の位置に物属性情報「本」を挿入することによって、物文字情報を「この本」に決定する(ステップS503)。   Next, the object character information determination unit 47 performs a process of determining object character information corresponding to the object “book” (step S404). Specifically, as shown in FIG. 19, the object character information determination unit 47 is configured such that the user U001 who is the speaker is facing the user U002 and the user U002 is also facing the user U001. Is user U001, and the listener is user U002. As shown in FIG. 19, the object “book” exists near the user U001, and therefore the positional relationship between the speaker user, the listener user, and the object specified by the object specifying unit 45 is “near”. It is determined that it is “name” (step S501). Further, as shown in FIG. 13, since the object attribute information “book” is received by the object information receiving unit 19 (step S <b> 502), the object character information determining unit 47 has an attribute corresponding to the near name. The instruction word “this (attribute)” is acquired from the object instruction information shown in FIG. 18, and the object character information “book” is determined by inserting the object attribute information “book” at the position of the attribute. (Step S503).

物省略語情報挿入手段48は、物文字情報決定手段47が決定した物文字情報「この本」と、格助詞「を」とを組み合わせた物の省略語「この本を」を、物のゼロ代名詞の位置に挿入する(ステップS405)。その結果、文字情報は、「すみませんが この本を(人に)渡していただけますか」となる。   The object abbreviation information insertion means 48 uses the object abbreviation “this book”, which is a combination of the object character information “this book” determined by the object character information determination means 47 and the case particle “O”, as the zero of the object. It inserts into the position of a pronoun (step S405). As a result, the text information is "I'm sorry, can you give this book to someone?"

次に、ユーザ特定手段41は、物のゼロ代名詞の挿入された文字情報を参照し、人のゼロ代名詞があると判断する(ステップS406)。そして、ユーザ特定手段41は、その人のゼロ代名詞に対応するユーザを特定することができるかどうか判断する(ステップS407)。ここでは、図19で示されるように、話し手のユーザU001がユーザU003の方向を指示しているため、ユーザ特定手段41は、ユーザを特定可能であると判断し、そのユーザをユーザU003に特定する(ステップS408)。   Next, the user specifying unit 41 refers to the character information in which the zero pronoun of the object is inserted, and determines that there is a human zero pronoun (step S406). Then, the user specifying unit 41 determines whether a user corresponding to the person's zero pronoun can be specified (step S407). Here, as shown in FIG. 19, since the speaker user U001 indicates the direction of the user U003, the user specifying unit 41 determines that the user can be specified, and specifies the user as the user U003. (Step S408).

次に、ユーザ文字情報決定手段43は、そのユーザU003に対応するユーザ文字情報を決定する処理を行う(ステップS409)。具体的には、ユーザ文字情報決定手段43は、物文字情報決定手段47と同様に、ユーザU001が話し手であり、ユーザU002が聞き手であると判断する。そして、図19で示されるように、ユーザU003は、話し手のユーザU001からも、聞き手のユーザU002からも、話し手と聞き手の距離以上離れているため、話し手のユーザと、聞き手のユーザと、ユーザ特定手段41が特定したユーザとの位置関係が「遠称」であると判断する(ステップS601)。   Next, the user character information determination unit 43 performs a process of determining user character information corresponding to the user U003 (step S409). Specifically, the user character information determination unit 43 determines that the user U001 is a speaker and the user U002 is a listener, similarly to the object character information determination unit 47. As shown in FIG. 19, the user U003 is far away from the speaker user U001 and the listener user U002 by more than the distance between the speaker and the listener, so that the speaker user, the listener user, and the user It is determined that the positional relationship with the user specified by the specifying means 41 is “distant name” (step S601).

また、ユーザ文字情報決定手段43は、ユーザU003の行動情報によって示される位置と、ユーザ属性情報に含まれる位置とを比較して、両者が所定の誤差の範囲内で一致するユーザ属性情報が、ユーザU003のユーザ属性情報であると判断する。ここでは、図13で示される3番目のユーザ属性情報「男性」がユーザU003に対応するユーザ属性情報であるとする。すると、ユーザ文字情報決定手段43は、ユーザU003に対応するユーザ属性情報が存在すると判断し(ステップS602)、ユーザ文字情報決定手段43は、遠称に対応する属性のある場合の指示語「あちらの(属性)」を図17で示されるユーザ指示情報から取得し、その属性の位置にユーザU003のユーザ属性情報「男性」を挿入することによって、ユーザ文字情報を「あちらの男性」に決定する(ステップS603)。   Further, the user character information determination unit 43 compares the position indicated by the action information of the user U003 with the position included in the user attribute information, and the user attribute information in which both match within a predetermined error range, It is determined that the user attribute information is the user U003. Here, it is assumed that the third user attribute information “male” shown in FIG. 13 is user attribute information corresponding to the user U003. Then, the user character information determination unit 43 determines that there is user attribute information corresponding to the user U003 (step S602), and the user character information determination unit 43 determines that there is an instruction word “There "(Attribute)" is obtained from the user instruction information shown in FIG. 17, and the user attribute information "male" of the user U003 is inserted into the position of the attribute, whereby the user character information is determined to be "that male". (Step S603).

ユーザ省略語情報挿入手段44は、ユーザ文字情報決定手段43が決定したユーザ文字情報「あちらの男性」と、格助詞「に」とを組み合わせたユーザの省略語「あちらの男性に」を、ユーザのゼロ代名詞の位置に挿入する(ステップS410)。その結果、文字情報は、「すみませんが この本をあちらの男性に渡していただけますか」となる。この文字情報が、補完文字情報である。   The user abbreviation information insertion means 44 uses the user abbreviation “to that man” in combination with the user character information “that man” determined by the user character information decision means 43 and the case particle “ni”. Is inserted at the position of the zero pronoun (step S410). As a result, the text information is "I'm sorry, can you give this book to that man?" This character information is complementary character information.

補完文字情報出力部22は、省略語補完部21が生成した補完文字情報「すみませんが この本をあちらの男性に渡していただけますか」を、外部のディスプレイに表示する(ステップS205)。その結果、省略語補完装置1を操作しているユーザは、省略語の補完された補完文字情報を見ることができる。その後、補完文字情報が機械翻訳等に用いられてもよい。   The supplementary character information output unit 22 displays the supplementary character information generated by the abbreviation complementation unit 21 “Excuse me, but can you give this book to that man” on the external display (step S205). As a result, the user who operates the abbreviation complement device 1 can see the supplementary character information supplemented with the abbreviations. Thereafter, the supplementary character information may be used for machine translation or the like.

なお、この具体例では、音声情報、行動情報、ユーザ属性情報、物情報をすべて蓄積した後に省略語を補完する処理を開始する場合について説明したが、前述のように、音声情報や行動情報等の受け付けと並行して、省略語を補完する処理を実行してもよい。   In this specific example, the case where the process of complementing the abbreviation is started after all of the voice information, the behavior information, the user attribute information, and the object information has been accumulated is described. However, as described above, the voice information, the behavior information, etc. In parallel with the acceptance of the abbreviation, a process of complementing the abbreviation may be executed.

また、この具体例では、物のゼロ代名詞に対応する物を状況から判断し、人のゼロ代名詞に対応するユーザを話し手のユーザの指示行為に基づいて判断する場合について説明したが、前述のように、各種の判断方法があるため、この具体例で説明した以外の方法によって判断してもよいことは言うまでもない。   Moreover, in this specific example, the case where the thing corresponding to the zero pronoun of the thing is judged from the situation and the user corresponding to the person's zero pronoun is judged based on the user's instruction act of the speaker is explained. In addition, since there are various determination methods, it goes without saying that the determination may be made by methods other than those described in this specific example.

また、この具体例では、行動情報の示すユーザの位置と、ユーザ属性情報に含まれるRFIDの位置とを比較することによってユーザとユーザ属性情報とを対応付ける場合について説明したが、それ以外の方法によって、ユーザとユーザ属性情報とを対応付けてもよい。例えば、RFIDにユーザを識別するユーザ識別情報(例えば、「U001」等)が含まれており、そのユーザ識別情報を用いて、ユーザとユーザ属性情報とを対応付けてもよい。   Further, in this specific example, the case where the user and the user attribute information are associated with each other by comparing the position of the user indicated by the behavior information and the position of the RFID included in the user attribute information has been described. The user and the user attribute information may be associated with each other. For example, user identification information (for example, “U001” or the like) for identifying a user is included in the RFID, and the user and user attribute information may be associated with each other using the user identification information.

また、この具体例において、ユーザ指示情報は、ユーザ特定手段41が特定したユーザと、話し手あるいは聞き手のユーザとが同一である場合の指示語を示す情報を含んでもよい。その場合の指示語は、例えば、「私」や「あなた」等になる。   In this specific example, the user instruction information may include information indicating an instruction word when the user specified by the user specifying unit 41 is the same as the speaker or the listener. In this case, the instruction word is, for example, “I” or “you”.

以上のように、本実施の形態による省略語補完装置1では、行動情報等を用いることにより、省略語を補完することができる。したがって、言葉のみを解析して省略語を補完する場合に比べて、対話の状況に応じた適切な省略語の補完が行われることになる。その結果、その省略語の補完された補完文字情報を、文脈解析、音声対話、機械翻訳等に用いることができる。例えば、補完文字情報出力部22が出力した補完文字情報を機械翻訳装置(図示せず)が受け付けて、その補完文字情報に対して、機械翻訳処理を実行してもよい。また、省略語補完装置1と、その機械翻訳装置とによって、省略語補完機械翻訳システムを構成してもよい。   As described above, the abbreviation complement apparatus 1 according to the present embodiment can complement abbreviations by using behavior information or the like. Therefore, as compared with the case where only the words are analyzed and the abbreviations are complemented, the appropriate abbreviations according to the situation of the dialogue are complemented. As a result, the supplementary character information supplemented with the abbreviation can be used for context analysis, speech dialogue, machine translation, and the like. For example, the machine translation device (not shown) may receive the supplementary character information output by the supplementary character information output unit 22 and perform machine translation processing on the supplementary character information. An abbreviation complement machine translation system may be configured by the abbreviation complement apparatus 1 and its machine translation apparatus.

また、ユーザ属性情報を用いて省略語の補完を行うことにより、文脈からは知ることができない情報、例えば、ユーザの性別等を知ることができ、例えば、補完文字情報を英語に翻訳する場合に、人称代名詞を「him」、あるいは「her」に決定することができる。   Also, by supplementing abbreviations using user attribute information, it is possible to know information that cannot be known from the context, such as the gender of the user, for example, when translating supplementary character information into English The personal pronoun can be determined as “him” or “her”.

また、物情報に含まれる物属性情報を用いて省略語の補完を行うことにより、文脈からは知ることができない物の名前等を知ることができ、補完文字情報の示す文書を、より明確なものにすることができる。   Also, by complementing abbreviations using the object attribute information included in the object information, it is possible to know the name of the object that cannot be known from the context, and the document indicated by the supplementary character information is more clearly defined. Can be a thing.

なお、本実施の形態では、行動情報がモーション情報も含む場合について説明したが、少なくともユーザ位置情報を含むのであれば、行動情報は、モーション情報を含まなくてもよい。   Although the case has been described with the present embodiment where the behavior information also includes motion information, the behavior information may not include motion information as long as it includes at least user position information.

また、ゼロ代名詞特定部14の構成は、図2で示されるものに限定されない。ゼロ代名詞を適切に特定できるのであれば、ゼロ代名詞特定部14の構成は図2以外の構成であってもよい。   Moreover, the structure of the zero pronoun specification part 14 is not limited to what is shown by FIG. If the zero pronoun can be appropriately specified, the configuration of the zero pronoun specifying unit 14 may be a configuration other than FIG.

また、本実施の形態では、省略語補完部21が行動情報、ユーザ属性情報、物情報を用いて省略語を補完する場合について説明したが、省略語補完部21は、少なくとも行動情報を用いて省略語を補完すればよく、ユーザ属性情報や、物情報を用いなくてもよい。ユーザ属性情報を省略語の補完で用いない場合には、省略語補完装置1は、ユーザ属性情報受付部17と、ユーザ属性情報蓄積部18とを備えなくてもよい。物情報を省略語の補完で用いない場合には、省略語補完装置1は、物情報受付部19と、物情報蓄積部20とを備えなくてもよい。   Moreover, although the abbreviation complement part 21 demonstrated the case where an abbreviation complement part 21 complemented abbreviations using action information, user attribute information, and thing information in this Embodiment, the abbreviation complement part 21 uses at least action information. Abbreviations need only be complemented, and user attribute information and object information need not be used. When the user attribute information is not used for abbreviation completion, the abbreviation completion apparatus 1 may not include the user attribute information reception unit 17 and the user attribute information storage unit 18. When the object information is not used for abbreviation completion, the abbreviation complement apparatus 1 does not have to include the object information reception unit 19 and the object information storage unit 20.

また、本実施の形態では、ユーザ文字情報決定手段43がユーザ指示情報を用いてユーザ文字情報を決定する場合について説明したが、ユーザ文字情報決定手段43は、ユーザ指示情報を用いないでユーザ文字情報を決定してもよい。例えば、ユーザ文字情報決定手段43は、ユーザ属性情報のみを用いてユーザ文字情報を決定してもよい。ユーザ文字情報決定手段43がユーザ指示情報を用いない場合には、省略語補完部21は、ユーザ指示情報記憶手段42を備えなくてもよい。   In the present embodiment, the case has been described in which the user character information determination unit 43 determines user character information using the user instruction information. However, the user character information determination unit 43 does not use the user instruction information. Information may be determined. For example, the user character information determination means 43 may determine user character information using only user attribute information. When the user character information determining unit 43 does not use user instruction information, the abbreviation complementing unit 21 may not include the user instruction information storage unit 42.

また、本実施の形態では、ユーザ文字情報決定手段43がユーザ属性情報を用いてユーザ文字情報を決定する場合について説明したが、ユーザ文字情報決定手段43は、ユーザ属性情報を用いないで、例えば、ユーザ指示情報のみを用いてユーザ文字情報を決定してもよい。その場合には、ユーザ指示情報には、属性がある場合の指示語が含まれなくてもよい。   In the present embodiment, the case where the user character information determining unit 43 determines the user character information using the user attribute information has been described. However, the user character information determining unit 43 does not use the user attribute information, for example, The user character information may be determined using only the user instruction information. In this case, the user instruction information may not include an instruction word when there is an attribute.

また、本実施の形態では、物文字情報決定手段47が物指示情報を用いて物文字情報を決定する場合について説明したが、物文字情報決定手段47は、物指示情報を用いないで物文字情報を決定してもよい。例えば、物文字情報決定手段47は、物属性情報のみを用いて物文字情報を決定してもよい。物文字情報決定手段47が物指示情報を用いない場合には、省略語補完部21は、物指示情報記憶手段46を備えなくてもよい。   In the present embodiment, the case has been described in which the object character information determining unit 47 determines the object character information using the object instruction information. However, the object character information determining unit 47 does not use the object instruction information. Information may be determined. For example, the object character information determining unit 47 may determine object character information using only object attribute information. When the object character information determination unit 47 does not use the object instruction information, the abbreviation complement unit 21 may not include the object instruction information storage unit 46.

また、本実施の形態では、物文字情報決定手段47が物属性情報を用いて物文字情報を決定する場合について説明したが、物文字情報決定手段47は、物属性情報を用いないで、例えば、物指示情報のみを用いて物文字情報を決定してもよい。その場合には、物指示情報には、属性がある場合の指示語が含まれなくてもよい。   In the present embodiment, the case has been described in which the object character information determining unit 47 determines the object character information using the object attribute information. However, the object character information determining unit 47 does not use the object attribute information, for example, The object character information may be determined using only the object instruction information. In that case, the object instruction information may not include an instruction word when there is an attribute.

また、省略語補完部21の構成は、図3で示されるものに限定されない。省略語を適切に補完することができるのであれば、省略語補完部21の構成は図3以外の構成であってもよい。例えば、省略語補完部21は、人のゼロ代名詞に対応する省略語を補完するだけのものであってもよく、あるいは、物のゼロ代名詞に対応する省略語を補完するだけのものであってもよい。   Further, the configuration of the abbreviation complement unit 21 is not limited to that shown in FIG. As long as the abbreviation can be appropriately complemented, the configuration of the abbreviation complement 21 may be other than that shown in FIG. For example, the abbreviation complement unit 21 may only supplement abbreviations corresponding to human zero pronouns, or may only complement abbreviations corresponding to the zero pronouns of things. Also good.

また、本実施の形態では、位置関係を近称、中称、遠称に分ける場合について説明したが、位置関係を近称と遠称の2個に分けてもよい。例えば、英語や中国語では、中称代名詞という概念がないため、位置関係は話し手からの距離に応じて近称と遠称の2個に分けなくてはならないことになる。   Further, in this embodiment, the case where the positional relationship is divided into the near name, the middle name, and the far name has been described, but the positional relationship may be divided into two names, the near name and the far name. For example, in English and Chinese, there is no concept of a middle name pronoun, so the positional relationship must be divided into two names, near and far, according to the distance from the speaker.

また、本実施の形態では、ユーザ指示情報、及び物指示情報において、ユーザや物が単数である場合の指示語を示したが、ユーザ指示情報等は、ユーザや物が複数である場合の指示語を有してもよい。例えば、位置関係が近称のユーザの指示語であって、属性がない場合には、「こちらのかたがた」となる。この場合には、ユーザ特定手段41や、物特定手段45は、ユーザや物が単数であるのか、複数であるのかについても特定してもよい。   In the present embodiment, in the user instruction information and the object instruction information, the instruction word when there is a single user or object is shown. However, the user instruction information or the like indicates an instruction when there are a plurality of users or objects. You may have words. For example, if the positional relationship is an instruction word of a user with a short name and no attribute, “this way” is displayed. In this case, the user specifying means 41 and the object specifying means 45 may specify whether the number of users or objects is singular or plural.

また、本実施の形態では、日本語について省略語の補完処理を行う場合について説明したが、他の言語について本実施の形態で説明した省略語の補完処理を用いてもよい。   In this embodiment, the case of performing abbreviation completion processing for Japanese has been described, but the abbreviation completion processing described in this embodiment may be used for other languages.

また、上記各実施の形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、あるいは、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。   In each of the above embodiments, each processing or each function may be realized by centralized processing by a single device or a single system, or distributed processing by a plurality of devices or a plurality of systems. May be realized.

また、上記各実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、あるいは、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現される。なお、上記各実施の形態における省略語補完装置1を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータに、2人以上のユーザが会話している状況における、少なくとも1人のユーザの発した音声を示す情報である音声情報を受け付ける音声情報受付ステップと、前記音声情報受付ステップで受け付けた音声情報を、当該音声情報の示す音声に対応する文字を示す情報である文字情報に変換する文字情報変換ステップと、前記文字情報の示す文書において省略された格要素であるゼロ代名詞を特定するゼロ代名詞特定ステップと、前記2人以上のユーザの位置に関する情報であるユーザ位置情報を少なくとも含む情報であり、前記2人以上のユーザの行動に関する情報である行動情報を受け付ける行動情報受付ステップと、前記行動情報受付ステップで受け付けた行動情報を用いて、前記文字情報の示す文書における、前記ゼロ代名詞特定ステップで特定されたゼロ代名詞の位置に、省略されている言葉である省略語を補完した情報である補完文字情報を生成する省略語補完ステップと、前記補完文字情報を出力する補完文字情報出力ステップと、を実行させるためのものである。   In each of the above embodiments, each component may be configured by dedicated hardware, or a component that can be realized by software may be realized by executing a program. For example, each component is realized by a program execution unit such as a CPU reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory. In addition, the software which implement | achieves the abbreviation complement apparatus 1 in each said embodiment is the following programs. That is, the program includes a voice information receiving step for receiving voice information that is information indicating a voice uttered by at least one user in a situation where two or more users are talking to the computer; A character information conversion step for converting the speech information received in the step into character information that is information indicating characters corresponding to the speech indicated by the speech information; and a zero pronoun that is a case element omitted in the document indicated by the character information The action information reception which receives the action information which is the information which contains the zero pronoun specification step which specifies, and the user position information which is the information regarding the position of the two or more users at least, and is the information regarding the actions of the two or more users The character information is indicated using the step and the behavior information received in the behavior information reception step. An abbreviation completion step for generating supplementary character information that is information obtained by complementing an abbreviation that is an abbreviated word at the position of the zero pronoun specified in the zero pronoun specification step in the book; And a complementary character information output step to be output.

また、このプログラムでは、前記省略語補完ステップが、前記行動情報を用いて、人のゼロ代名詞に対応するユーザを特定するユーザ特定ステップと、前記ゼロ代名詞に対応するユーザを示す文字の情報であるユーザ文字情報を決定するユーザ文字情報決定ステップと、前記ゼロ代名詞の位置に補完される省略語を示す情報であり、前記ユーザ文字情報決定ステップで決定したユーザ文字情報を含む情報であるユーザ省略語情報を、対応するゼロ代名詞の位置に挿入するユーザ省略語情報挿入ステップと、を備えていてもよい。   Further, in this program, the abbreviation complementing step is a user specifying step for specifying a user corresponding to a person's zero pronoun using the behavior information, and character information indicating a user corresponding to the zero pronoun. User character information determination step for determining user character information, and information indicating abbreviations complemented to the position of the zero pronoun, and user abbreviations that are information including user character information determined in the user character information determination step A user abbreviation information insertion step of inserting information at a corresponding zero pronoun position.

また、このプログラムでは、前記ユーザの属性に関する情報であるユーザ属性情報を受け付けるユーザ属性情報受付ステップをさらにコンピュータに実行させ、前記ユーザ文字情報決定ステップにおいて、前記ユーザ属性情報受付ステップで受け付けたユーザ属性情報を用いて前記ユーザ文字情報を決定してもよい。   Further, in this program, the user attribute information receiving step for receiving the user attribute information that is information relating to the user attribute is further executed by the computer, and the user attribute received in the user attribute information receiving step in the user character information determination step The user character information may be determined using information.

また、このプログラムでは、前記ユーザ文字情報決定ステップにおいて、前記行動情報によって示される、前記ユーザ特定ステップで特定したユーザ、話し手のユーザ、聞き手のユーザの位置関係に応じた指示語を、ユーザの位置関係とユーザの指示語とを対応付ける情報であるユーザ指示情報を用いて選択し、当該選択した指示語を含む文字の情報であるユーザ文字情報を決定してもよい。   Further, in this program, in the user character information determination step, an instruction word according to the positional relationship among the user specified in the user specifying step, the user of the speaker, and the user of the listener, which is indicated by the behavior information, The user character information that is information of characters including the selected instruction word may be determined by selecting using user instruction information that is information that associates the relationship with the user instruction word.

また、このプログラムでは、2人以上のユーザが会話している状況における、物に関する情報であり、当該物の位置に関する情報である物位置情報を少なくとも含む情報である物情報を受け付ける物情報受付ステップをさらにコンピュータに実行させ、前記省略語補完ステップが、前記物情報を用いて、物のゼロ代名詞に対応する物を特定する物特定ステップと、前記ゼロ代名詞に対応する物を示す文字の情報である物文字情報を決定する物文字情報決定ステップと、前記ゼロ代名詞の位置に補完される省略語を示す情報であり、前記物文字情報決定ステップで決定した物文字情報を含む情報である物省略語情報を、対応するゼロ代名詞の位置に挿入する物省略語情報挿入ステップと、を備えていてもよい。   Further, in this program, an object information receiving step for receiving object information that is information related to an object in a situation where two or more users are talking and includes at least object position information that is information related to the position of the object. Is further executed by the computer, and the abbreviation complementing step includes an object specifying step for specifying an object corresponding to the zero pronoun of the object using the object information, and character information indicating the object corresponding to the zero pronoun. Object character information determining step for determining certain object character information, and information indicating an abbreviation supplemented to the position of the zero pronoun, and information including object character information determined in the object character information determining step An object abbreviation information insertion step of inserting word information at the position of the corresponding zero pronoun.

また、このプログラムでは、前記物情報が、物の属性に関する情報である物属性情報も含み、前記物文字情報決定ステップでは、前記物属性情報を用いて前記物文字情報を決定してもよい。   In this program, the object information may also include object attribute information that is information related to an attribute of the object. In the object character information determining step, the object character information may be determined using the object attribute information.

また、このプログラムでは、前記物文字情報決定ステップにおいて、前記行動情報及び前記物情報によって示される、前記物特定ステップで特定した物、話し手のユーザ、聞き手のユーザの位置関係に応じた指示語を、ユーザと物の位置関係と、物の指示語とを対応付ける情報である物指示情報を用いて選択し、当該選択した指示語を含む文字の情報である物文字情報を決定してもよい。   In this program, in the object character information determination step, an instruction word according to the positional relationship between the object specified in the object specifying step, the user of the speaker, and the user of the listener, which is indicated by the action information and the object information. Alternatively, the object character information that is information of characters including the selected instruction word may be determined by selecting using the object instruction information that is information that associates the positional relationship between the user and the object and the instruction word of the object.

また、このプログラムでは、前記ゼロ代名詞特定ステップが、前記文字情報の示す文書から、動詞と当該動詞の格要素とを抽出する動詞抽出ステップと、動詞と格要素との関係を示す情報である格フレーム情報を用いて、前記動詞抽出ステップで抽出した動詞に対応する格要素を取得する格要素取得ステップと、前記格要素取得ステップで取得した格要素と、前記動詞抽出ステップで抽出した格要素とを比較することにより、前記文字情報の示す文書に含まれない格要素を特定する格要素特定ステップと、を備えていてもよい。   Further, in this program, the zero pronoun identification step is a verb extraction step for extracting a verb and a case element of the verb from a document indicated by the character information, and information indicating a relationship between the verb and the case element. Using frame information, a case element acquisition step for acquiring a case element corresponding to the verb extracted in the verb extraction step, a case element acquired in the case element acquisition step, and a case element extracted in the verb extraction step A case element specifying step for specifying case elements that are not included in the document indicated by the character information.

なお、上記プログラムにおいて、情報を出力する出力ステップや、情報を受け付ける受付ステップ等では、ハードウェアでしか行われない処理、例えば、出力ステップにおけるモデムやインターフェースカード等で行われる処理は少なくとも含まれない。   In the above program, the output step for outputting information, the accepting step for receiving information, etc. do not include at least processing performed only by hardware, for example, processing performed by a modem or an interface card in the output step. .

また、このプログラムは、サーバ等からダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、CD−ROM等の光ディスクや磁気ディスク、半導体メモリ等)に記録されたプログラムが読み出されることによって実行されてもよい。   Further, this program may be executed by being downloaded from a server or the like, and a program recorded on a predetermined recording medium (for example, an optical disc such as a CD-ROM, a magnetic disc, a semiconductor memory, etc.) is read out. May be executed by

また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。   Further, the computer that executes this program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.

図20は、上記プログラムを実行して、上記実施の形態による省略語補完装置1を実現するコンピュータの外観の一例を示す模式図である。上記実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムによって実現される。   FIG. 20 is a schematic diagram showing an example of the appearance of a computer that executes the program and realizes the abbreviation complementing apparatus 1 according to the embodiment. The above-described embodiment is realized by computer hardware and a computer program executed on the computer hardware.

図20において、コンピュータシステム100は、CD−ROM(Compact Disk Read Only Memory)ドライブ105、FD(Flexible Disk)ドライブ106を含むコンピュータ101と、キーボード102と、マウス103と、モニタ104とを備える。   20, a computer system 100 includes a computer 101 including a CD-ROM (Compact Disk Read Only Memory) drive 105 and an FD (Flexible Disk) drive 106, a keyboard 102, a mouse 103, and a monitor 104.

図21は、コンピュータシステムを示す図である。図21において、コンピュータ101は、CD−ROMドライブ105、FDドライブ106に加えて、CPU(Central Processing Unit)111と、ブートアッププログラム等のプログラムを記憶するためのROM(Read Only Memory)112と、CPU111に接続され、アプリケーションプログラムの命令を一時的に記憶すると共に、一時記憶空間を提供するRAM(Random Access Memory)113と、アプリケーションプログラム、システムプログラム、及びデータを記憶するハードディスク114と、CPU111、ROM112等を相互に接続するバス115とを備える。なお、コンピュータ101は、LANへの接続を提供する図示しないネットワークカードを含んでいてもよい。   FIG. 21 is a diagram illustrating a computer system. In FIG. 21, in addition to the CD-ROM drive 105 and the FD drive 106, a computer 101 includes a CPU (Central Processing Unit) 111, a ROM (Read Only Memory) 112 for storing a program such as a bootup program, A CPU (Random Access Memory) 113 that is connected to the CPU 111 and temporarily stores application program instructions and provides a temporary storage space, a hard disk 114 that stores application programs, system programs, and data, a CPU 111 and a ROM 112. Etc. to each other. The computer 101 may include a network card (not shown) that provides connection to the LAN.

コンピュータシステム100に、上記実施の形態による省略語補完装置1の機能を実行させるプログラムは、CD−ROM121、またはFD122に記憶されて、CD−ROMドライブ105、またはFDドライブ106に挿入され、ハードディスク114に転送されてもよい。これに代えて、そのプログラムは、図示しないネットワークを介してコンピュータ101に送信され、ハードディスク114に記憶されてもよい。プログラムは実行の際にRAM113にロードされる。なお、プログラムは、CD−ROM121やFD122、またはネットワークから直接、ロードされてもよい。   A program that causes the computer system 100 to execute the functions of the abbreviation complementing apparatus 1 according to the above-described embodiment is stored in the CD-ROM 121 or the FD 122, inserted into the CD-ROM drive 105 or the FD drive 106, and the hard disk 114. May be forwarded to. Instead, the program may be transmitted to the computer 101 via a network (not shown) and stored in the hard disk 114. The program is loaded into the RAM 113 at the time of execution. The program may be loaded directly from the CD-ROM 121, the FD 122, or the network.

プログラムは、コンピュータ101に、上記実施の形態による省略語補完装置1の機能を実行させるオペレーティングシステム(OS)、またはサードパーティプログラム等を必ずしも含んでいなくてもよい。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいてもよい。コンピュータシステム100がどのように動作するのかについては周知であり、詳細な説明は省略する。
また、本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
The program does not necessarily include an operating system (OS) or a third-party program that causes the computer 101 to execute the functions of the abbreviation completion device 1 according to the above-described embodiment. The program may include only a part of an instruction that calls an appropriate function (module) in a controlled manner and obtains a desired result. How the computer system 100 operates is well known and will not be described in detail.
Further, the present invention is not limited to the above-described embodiment, and various modifications are possible, and it goes without saying that these are also included in the scope of the present invention.

以上より、本発明による省略語補完装置等によれば、ユーザの行動情報等を用いることにより、省略語を適切に補完することができ、省略語を補完する装置等として有用である。   As described above, according to the abbreviation complementing device and the like according to the present invention, it is possible to appropriately supplement abbreviations by using user behavior information and the like, which is useful as a device for complementing abbreviations.

本発明の実施の形態1による省略語補完装置の構成を示すブロック図The block diagram which shows the structure of the abbreviation complement apparatus by Embodiment 1 of this invention. 同実施の形態によるゼロ代名詞特定部の構成を示すブロック図The block diagram which shows the structure of the zero pronoun specific part by the embodiment 同実施の形態による省略語補完部の構成を示すブロック図The block diagram which shows the structure of the abbreviation complement part by the embodiment 同実施の形態による省略語補完装置の全体動作を示すフローチャートThe flowchart which shows the whole operation | movement of the abbreviation complement apparatus by the same embodiment 同実施の形態による省略語補完装置の省略語を補完する処理を示すフローチャートThe flowchart which shows the process which complements the abbreviation of the abbreviation completion apparatus by the embodiment 同実施の形態による省略語補完装置のゼロ代名詞を特定する処理を示すフローチャートThe flowchart which shows the process which specifies the zero pronoun of the abbreviation completion apparatus by the embodiment 同実施の形態による省略語補完装置の補完文字情報の生成処理を示すフローチャートThe flowchart which shows the production | generation process of the supplementary character information of the abbreviation completion apparatus by the embodiment 同実施の形態による省略語補完装置の物文字情報の決定処理を示すフローチャートThe flowchart which shows the determination process of the object character information of the abbreviation complement apparatus by the embodiment 同実施の形態による省略語補完装置のユーザ文字情報の決定処理を示すフローチャートThe flowchart which shows the determination processing of the user character information of the abbreviation complement apparatus by the embodiment 同実施の形態におけるアイカメラ等を装着したユーザの一例を示す図The figure which shows an example of the user who mounted | wore with the eye camera etc. in the embodiment 同実施の形態における音声情報の一例を示す図The figure which shows an example of the audio | voice information in the embodiment 同実施の形態における行動情報の一例を示す図The figure which shows an example of the action information in the embodiment 同実施の形態におけるユーザ属性情報及び物情報の一例を示す図The figure which shows an example of the user attribute information and the object information in the embodiment 同実施の形態における文字情報の一例を示す図The figure which shows an example of the character information in the embodiment 同実施の形態における格フレーム情報の一例を示す図The figure which shows an example of the case frame information in the embodiment 同実施の形態におけるゼロ代名詞の特定された文字情報の一例を示す図The figure which shows an example of the character information by which the zero pronoun was identified in the embodiment 同実施の形態におけるユーザ指示情報の一例を示す図The figure which shows an example of the user instruction information in the embodiment 同実施の形態における物指示情報の一例を示す図The figure which shows an example of the object instruction information in the embodiment 同実施の形態におけるユーザと物の位置関係の一例を示す図The figure which shows an example of the positional relationship of the user and the thing in the embodiment 同実施の形態におけるコンピュータシステムの外観一例を示す模式図Schematic diagram showing an example of the appearance of the computer system in the embodiment 同実施の形態におけるコンピュータシステムの構成の一例を示す図The figure which shows an example of a structure of the computer system in the embodiment

符号の説明Explanation of symbols

1 省略語補完装置
11 音声情報受付部
12 音声情報蓄積部
13 文字情報変換部
14 ゼロ代名詞特定部
15 行動情報受付部
16 行動情報蓄積部
17 ユーザ属性情報受付部
18 ユーザ属性情報蓄積部
19 物情報受付部
20 物情報蓄積部
21 省略語補完部
22 補完文字情報出力部
31 動詞抽出手段
32 格フレーム情報記憶手段
33 格要素取得手段
34 格要素特定手段
41 ユーザ特定手段
42 ユーザ指示情報記憶手段
43 ユーザ文字情報決定手段
44 ユーザ省略語情報挿入手段
45 物特定手段
46 物指示情報記憶手段
47 物文字情報決定手段
48 物省略語情報挿入手段
DESCRIPTION OF SYMBOLS 1 Abbreviation completion apparatus 11 Voice information reception part 12 Voice information storage part 13 Character information conversion part 14 Zero pronoun specification part 15 Behavior information reception part 16 Behavior information storage part 17 User attribute information reception part 18 User attribute information storage part 19 Object information Reception unit 20 Object information storage unit 21 Abbreviation completion unit 22 Complementary character information output unit 31 Verb extraction means 32 Case frame information storage means 33 Case element acquisition means 34 Case element specification means 41 User specification means 42 User instruction information storage means 43 User Character information determination means 44 User abbreviation information insertion means 45 Object identification means 46 Object instruction information storage means 47 Object character information determination means 48 Object abbreviation information insertion means

Claims (10)

2人以上のユーザが会話している状況における、少なくとも1人のユーザの発した音声を示す情報である音声情報を受け付ける音声情報受付部と、
前記音声情報受付部が受け付けた音声情報を、当該音声情報の示す音声に対応する文字を示す情報である文字情報に変換する文字情報変換部と、
前記文字情報の示す文書において省略された格要素であるゼロ代名詞を特定するゼロ代名詞特定部と、
前記2人以上のユーザの位置に関する情報であるユーザ位置情報を少なくとも含む情報であり、前記2人以上のユーザの行動に関する情報である行動情報を受け付ける行動情報受付部と、
前記行動情報受付部が受け付けた行動情報を用いて、前記文字情報の示す文書における、前記ゼロ代名詞特定部によって特定されたゼロ代名詞の位置に、省略されている言葉である省略語を補完した情報である補完文字情報を生成する省略語補完部と、
前記補完文字情報を出力する補完文字情報出力部と、を具備する省略語補完装置。
A voice information receiving unit that receives voice information that is information indicating a voice uttered by at least one user in a situation where two or more users are talking;
A character information conversion unit that converts the voice information received by the voice information reception unit into character information that is information indicating characters corresponding to the voice indicated by the voice information;
A zero pronoun specifying unit that specifies a zero pronoun that is a case element omitted in the document indicated by the character information;
An action information receiving unit that receives at least user position information that is information related to the positions of the two or more users and receives action information that is information related to the actions of the two or more users;
Information supplemented with an abbreviation that is an abbreviated word at the position of the zero pronoun specification unit specified by the zero pronoun specification unit in the document indicated by the character information, using the action information received by the action information reception unit An abbreviation completion unit for generating supplementary character information that is,
An abbreviation complementing device comprising: a supplementary character information output unit that outputs the supplementary character information.
前記行動情報は、ユーザの動きを示す情報であるモーション情報も含む、請求項1記載の省略語補完装置。 The abbreviation complement device according to claim 1, wherein the behavior information includes motion information that is information indicating a user's movement. 前記省略語補完部は、
前記行動情報を用いて、人のゼロ代名詞に対応するユーザを特定するユーザ特定手段と、
前記ゼロ代名詞に対応するユーザを示す文字の情報であるユーザ文字情報を決定するユーザ文字情報決定手段と、
前記ゼロ代名詞の位置に補完される省略語を示す情報であり、前記ユーザ文字情報決定手段が決定したユーザ文字情報を含む情報であるユーザ省略語情報を、対応するゼロ代名詞の位置に挿入するユーザ省略語情報挿入手段と、を具備する、請求項1または請求項2記載の省略語補完装置。
The abbreviation completion unit
User identifying means for identifying a user corresponding to a person's zero pronoun using the behavior information;
User character information determining means for determining user character information which is character information indicating a user corresponding to the zero pronoun;
A user who inserts user abbreviation information, which is information indicating abbreviations complemented at the position of the zero pronoun, and includes user character information determined by the user character information determination means, at the position of the corresponding zero pronoun The abbreviation complementing device according to claim 1, further comprising abbreviation information insertion means.
前記省略語補完部は、
ユーザの位置関係と、ユーザの指示語とを対応付ける情報であるユーザ指示情報が記憶されるユーザ指示情報記憶手段をさらに具備し、
前記ユーザ文字情報決定手段は、前記行動情報によって示される、前記ユーザ特定手段が特定したユーザ、話し手のユーザ、聞き手のユーザの位置関係に応じた指示語を、前記ユーザ指示情報を用いて選択し、当該選択した指示語を含む文字の情報であるユーザ文字情報を決定する、請求項3記載の省略語補完装置。
The abbreviation completion unit
Further comprising user instruction information storage means for storing user instruction information, which is information associating the positional relationship of the user with the instruction word of the user,
The user character information determining means selects, using the user instruction information, an instruction word corresponding to the positional relationship of the user specified by the user specifying means, the user of the speaker, and the user of the listener indicated by the behavior information. The abbreviation complementing device according to claim 3, wherein user character information that is character information including the selected instruction word is determined.
2人以上のユーザが会話している状況における、物に関する情報であり、当該物の位置に関する情報である物位置情報を少なくとも含む情報である物情報を受け付ける物情報受付部をさらに具備し、
前記省略語補完部は、
前記物情報を用いて、物のゼロ代名詞に対応する物を特定する物特定手段と、
前記ゼロ代名詞に対応する物を示す文字の情報である物文字情報を決定する物文字情報決定手段と、
前記ゼロ代名詞の位置に補完される省略語を示す情報であり、前記物文字情報決定手段が決定した物文字情報を含む情報である物省略語情報を、対応するゼロ代名詞の位置に挿入する物省略語情報挿入手段と、を具備する、請求項1から請求項4のいずれか記載の省略語補完装置。
In a situation where two or more users are talking, further comprising an object information receiving unit that receives object information that is information related to an object and is information including at least object position information that is information related to the position of the object,
The abbreviation completion unit
An object specifying means for specifying an object corresponding to the zero pronoun of the object using the object information;
An object character information determining means for determining object character information which is information of a character indicating an object corresponding to the zero pronoun;
Information indicating an abbreviation supplemented at the position of the zero pronoun, and an object abbreviation information which is information including the object character information determined by the object character information determining means is inserted at the position of the corresponding zero pronoun An abbreviation complementing apparatus according to any one of claims 1 to 4, further comprising abbreviation information insertion means.
前記物情報は、物の属性に関する情報である物属性情報も含み、
前記物文字情報決定手段は、前記物属性情報を用いて前記物文字情報を決定する、請求項5記載の省略語補完装置。
The product information includes product attribute information that is information related to product attributes,
6. The abbreviation complementing device according to claim 5, wherein the physical character information determining means determines the physical character information using the physical property information.
前記省略語補完部は、
ユーザと物の位置関係と、物の指示語とを対応付ける情報である物指示情報が記憶される物指示情報記憶手段をさらに具備し、
前記物文字情報決定手段は、前記行動情報及び前記物情報によって示される、前記物特定手段が特定した物、話し手のユーザ、聞き手のユーザの位置関係に応じた指示語を、前記物指示情報を用いて選択し、当該選択した指示語を含む文字の情報である物文字情報を決定する、請求項5または請求項6記載の省略語補完装置。
The abbreviation completion unit
It further comprises object instruction information storage means for storing object instruction information, which is information associating the positional relationship between the user and the object, and the instruction word of the object,
The object character information determining unit is configured to display an instruction word according to a positional relationship between the object specified by the object specifying unit, the user of the speaker, and the user of the listener, which is indicated by the action information and the object information. 7. The abbreviation complementing device according to claim 5 or 6, wherein the abbreviation complementing device determines the object character information which is the information of the character including the selected instruction word.
前記ゼロ代名詞特定部は、
前記文字情報の示す文書から、動詞と当該動詞の格要素とを抽出する動詞抽出手段と、
動詞と格要素との関係を示す情報である格フレーム情報が記憶される格フレーム情報記憶手段と、
前記格フレーム情報を用いて、前記動詞抽出手段が抽出した動詞に対応する格要素を取得する格要素取得手段と、
前記格要素取得手段が取得した格要素と、前記動詞抽出手段が抽出した格要素とを比較することにより、前記文字情報の示す文書に含まれない格要素を特定する格要素特定手段と、を具備する、請求項1から請求項7のいずれか記載の省略語補完装置。
The zero pronoun specifying unit is
Verb extraction means for extracting a verb and a case element of the verb from a document indicated by the character information;
Case frame information storage means for storing case frame information which is information indicating the relationship between the verb and the case element;
Case element acquisition means for acquiring a case element corresponding to the verb extracted by the verb extraction means using the case frame information;
A case element specifying means for specifying a case element not included in the document indicated by the character information by comparing the case element acquired by the case element acquisition means with the case element extracted by the verb extraction means; The abbreviation complement apparatus according to any one of claims 1 to 7, which is provided.
2人以上のユーザが会話している状況における、少なくとも1人のユーザの発した音声を示す情報である音声情報を受け付ける音声情報受付ステップと、
前記音声情報受付ステップで受け付けた音声情報を、当該音声情報の示す音声に対応する文字を示す情報である文字情報に変換する文字情報変換ステップと、
前記文字情報の示す文書において省略された格要素であるゼロ代名詞を特定するゼロ代名詞特定ステップと、
前記2人以上のユーザの位置に関する情報であるユーザ位置情報を少なくとも含む情報であり、前記2人以上のユーザの行動に関する情報である行動情報を受け付ける行動情報受付ステップと、
前記行動情報受付ステップで受け付けた行動情報を用いて、前記文字情報の示す文書における、前記ゼロ代名詞特定ステップで特定されたゼロ代名詞の位置に、省略されている言葉である省略語を補完した情報である補完文字情報を生成する省略語補完ステップと、
前記補完文字情報を出力する補完文字情報出力ステップと、を具備する省略語補完方法。
A voice information receiving step for receiving voice information, which is information indicating voice generated by at least one user in a situation where two or more users are talking;
A character information conversion step for converting the voice information received in the voice information reception step into character information that is information indicating characters corresponding to the voice indicated by the voice information;
A zero pronoun identifying step for identifying a zero pronoun that is a case element omitted in the document indicated by the character information;
An action information receiving step for receiving action information that is information including at least user position information that is information relating to positions of the two or more users, and is information relating to actions of the two or more users;
Information obtained by complementing an abbreviation which is an abbreviated word at the position of the zero pronoun specified in the zero pronoun specification step in the document indicated by the character information using the action information received in the action information reception step Abbreviation completion step for generating supplementary character information which is
An abbreviation complement method comprising: a supplement character information output step for outputting the supplement character information.
コンピュータに、
2人以上のユーザが会話している状況における、少なくとも1人のユーザの発した音声を示す情報である音声情報を受け付ける音声情報受付ステップと、
前記音声情報受付ステップで受け付けた音声情報を、当該音声情報の示す音声に対応する文字を示す情報である文字情報に変換する文字情報変換ステップと、
前記文字情報の示す文書において省略された格要素であるゼロ代名詞を特定するゼロ代名詞特定ステップと、
前記2人以上のユーザの位置に関する情報であるユーザ位置情報を少なくとも含む情報であり、前記2人以上のユーザの行動に関する情報である行動情報を受け付ける行動情報受付ステップと、
前記行動情報受付ステップで受け付けた行動情報を用いて、前記文字情報の示す文書における、前記ゼロ代名詞特定ステップで特定されたゼロ代名詞の位置に、省略されている言葉である省略語を補完した情報である補完文字情報を生成する省略語補完ステップと、
前記補完文字情報を出力する補完文字情報出力ステップと、を実行させるためのプログラム。
On the computer,
A voice information receiving step for receiving voice information, which is information indicating voice generated by at least one user in a situation where two or more users are talking;
A character information conversion step for converting the voice information received in the voice information reception step into character information that is information indicating characters corresponding to the voice indicated by the voice information;
A zero pronoun identifying step for identifying a zero pronoun that is a case element omitted in the document indicated by the character information;
An action information receiving step for receiving action information that is information including at least user position information that is information relating to positions of the two or more users, and is information relating to actions of the two or more users;
Information obtained by complementing an abbreviation which is an abbreviated word at the position of the zero pronoun specified in the zero pronoun specification step in the document indicated by the character information using the action information received in the action information reception step Abbreviation completion step for generating supplementary character information which is
A supplementary character information output step for outputting the supplementary character information.
JP2006096921A 2006-03-31 2006-03-31 Apparatus, method and program for complementing ellipsis of word Pending JP2007272534A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006096921A JP2007272534A (en) 2006-03-31 2006-03-31 Apparatus, method and program for complementing ellipsis of word

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006096921A JP2007272534A (en) 2006-03-31 2006-03-31 Apparatus, method and program for complementing ellipsis of word

Publications (1)

Publication Number Publication Date
JP2007272534A true JP2007272534A (en) 2007-10-18

Family

ID=38675279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006096921A Pending JP2007272534A (en) 2006-03-31 2006-03-31 Apparatus, method and program for complementing ellipsis of word

Country Status (1)

Country Link
JP (1) JP2007272534A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2050935A2 (en) 2007-10-19 2009-04-22 Nissan Motor Co., Ltd. Blow-by gas processing device for internal combustion engine
JP2013142843A (en) * 2012-01-12 2013-07-22 Fuji Xerox Co Ltd Operation analyzer, voice acquisition device, and operation analysis system
JP6370962B1 (en) * 2017-05-12 2018-08-08 ヤフー株式会社 Generating device, generating method, and generating program
CN109145315A (en) * 2018-09-05 2019-01-04 腾讯科技(深圳)有限公司 Text interpretation method, device, storage medium and computer equipment
CN109791766A (en) * 2016-10-06 2019-05-21 夏普株式会社 Interface, the control method of Interface and control program
CN111178063A (en) * 2019-12-04 2020-05-19 南京医渡云医学技术有限公司 Text processing method and device, readable medium and electronic equipment
WO2020240730A1 (en) * 2019-05-29 2020-12-03 三菱電機株式会社 Device for estimating person being spoken to, method for estimating person being spoken to, and program for estimating person being spoken to
JPWO2020116002A1 (en) * 2018-12-04 2021-11-04 ソニーグループ株式会社 Information processing device and information processing method
WO2022244178A1 (en) * 2021-05-20 2022-11-24 三菱電機株式会社 Device for estimating person being spoken to, method for estimating person being spoken to, and program for estimating person being spoken to

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2050935A2 (en) 2007-10-19 2009-04-22 Nissan Motor Co., Ltd. Blow-by gas processing device for internal combustion engine
JP2013142843A (en) * 2012-01-12 2013-07-22 Fuji Xerox Co Ltd Operation analyzer, voice acquisition device, and operation analysis system
CN109791766A (en) * 2016-10-06 2019-05-21 夏普株式会社 Interface, the control method of Interface and control program
JP6370962B1 (en) * 2017-05-12 2018-08-08 ヤフー株式会社 Generating device, generating method, and generating program
JP2018194902A (en) * 2017-05-12 2018-12-06 ヤフー株式会社 Generation apparatus, generation method and generation program
CN109145315A (en) * 2018-09-05 2019-01-04 腾讯科技(深圳)有限公司 Text interpretation method, device, storage medium and computer equipment
CN109145315B (en) * 2018-09-05 2022-03-18 腾讯科技(深圳)有限公司 Text translation method, text translation device, storage medium and computer equipment
CN111368565A (en) * 2018-09-05 2020-07-03 腾讯科技(深圳)有限公司 Text translation method, text translation device, storage medium and computer equipment
JPWO2020116002A1 (en) * 2018-12-04 2021-11-04 ソニーグループ株式会社 Information processing device and information processing method
JPWO2020240730A1 (en) * 2019-05-29 2021-09-30 三菱電機株式会社 Speaker estimation device, receiver estimation method, and receiver estimation program
WO2020240730A1 (en) * 2019-05-29 2020-12-03 三菱電機株式会社 Device for estimating person being spoken to, method for estimating person being spoken to, and program for estimating person being spoken to
CN111178063A (en) * 2019-12-04 2020-05-19 南京医渡云医学技术有限公司 Text processing method and device, readable medium and electronic equipment
CN111178063B (en) * 2019-12-04 2024-02-20 医渡云(北京)技术有限公司 Text processing method and device, readable medium and electronic equipment
WO2022244178A1 (en) * 2021-05-20 2022-11-24 三菱電機株式会社 Device for estimating person being spoken to, method for estimating person being spoken to, and program for estimating person being spoken to
JP7309095B2 (en) 2021-05-20 2023-07-14 三菱電機株式会社 Listener Estimation Apparatus, Listener Estimation Method, and Listener Estimation Program

Similar Documents

Publication Publication Date Title
CN111492328B (en) Non-verbal engagement of virtual assistants
US11848000B2 (en) Transcription revision interface for speech recognition system
US10395653B2 (en) Voice dialog device and voice dialog method
US10847162B2 (en) Multi-modal speech localization
US10438586B2 (en) Voice dialog device and voice dialog method
JP2007272534A (en) Apparatus, method and program for complementing ellipsis of word
US20190332680A1 (en) Multi-lingual virtual personal assistant
US20200335128A1 (en) Identifying input for speech recognition engine
KR102002979B1 (en) Leveraging head mounted displays to enable person-to-person interactions
KR100586767B1 (en) System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input
KR101696555B1 (en) Text location search system in image information or geographic information using voice recognition function and method thereof
US20130177296A1 (en) Generating metadata for user experiences
Hassan et al. Multiple proposals for continuous arabic sign language recognition
US20190341053A1 (en) Multi-modal speech attribution among n speakers
US20210110815A1 (en) Method and apparatus for determining semantic meaning of pronoun
JP2021176093A (en) Selective detection of visual clue for automated assistant
WO2022072752A1 (en) Voice user interface using non-linguistic input
US10788902B2 (en) Information processing device and information processing method
US10845921B2 (en) Methods and systems for augmenting images in an electronic device
CN113822187A (en) Sign language translation, customer service, communication method, device and readable medium
US11227593B2 (en) Systems and methods for disambiguating a voice search query based on gestures
CN113409770A (en) Pronunciation feature processing method, pronunciation feature processing device, pronunciation feature processing server and pronunciation feature processing medium
JP2005267380A (en) Display character translation device and computer program
US20230367960A1 (en) Summarization based on timing data
KR101661556B1 (en) Method and program for confirmation of identity by wearable glass device