JP3980331B2 - 多言語間会話支援システム - Google Patents

多言語間会話支援システム Download PDF

Info

Publication number
JP3980331B2
JP3980331B2 JP2001355157A JP2001355157A JP3980331B2 JP 3980331 B2 JP3980331 B2 JP 3980331B2 JP 2001355157 A JP2001355157 A JP 2001355157A JP 2001355157 A JP2001355157 A JP 2001355157A JP 3980331 B2 JP3980331 B2 JP 3980331B2
Authority
JP
Japan
Prior art keywords
language
field
stage
record
japanese
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001355157A
Other languages
English (en)
Other versions
JP2003157256A (ja
Inventor
豊通 山田
隆英 田村
Original Assignee
株式会社エビデンス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エビデンス filed Critical 株式会社エビデンス
Priority to JP2001355157A priority Critical patent/JP3980331B2/ja
Priority to US10/007,671 priority patent/US7162412B2/en
Publication of JP2003157256A publication Critical patent/JP2003157256A/ja
Application granted granted Critical
Publication of JP3980331B2 publication Critical patent/JP3980331B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/47Machine-assisted translation, e.g. using translation memory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、複数の言語間で会話を可能にする多言語間会話用システムに関し、特に、海外旅行等の際に有効に利用できる多言語間会話用システムに関する。
【0002】
【従来の技術】
一般に、ネイティブスピーカ以外の人が、外国語をパーフェクトに体得することは困難であり、このことが、特に、日本人と、他の国の人との文化、認識の交流を妨げているのが現状である。一方、グローバル化の波と共に、異国人との会話をする機会も増加するものと予想され、異国人間での相互の意思を理解する必要も益々増加するものと考えられる。
【0003】
従来、この種の多言語間会話を可能にする携帯機器として、会話の場面に応じた例えば、日本文の例文を選択し、当該日本文を翻訳した例えば、英文を画面に表示すると共に、表示された英文の音声を発することができるものがある。この携帯機器では、日本語に対応した外国語の簡単な挨拶等も表示し、音声を発することも可能である。
【0004】
このように、従来使用されている携帯機器は、母国語を外国語に翻訳した文章等を表示画面或いは音声によって、会話の相手側となる外国人に理解させることを企図している。換言すれば、従来のこの種の機器では、母国語の単語、文章等を文法的に忠実に外国語に翻訳することのみが考慮されている。
【0005】
また、この種の携帯機器では、会話の場面が少なく、然も、各場面毎に用意されている文章、単語も少ない。更に、画面上で選択できるのは、単一文章或いは単一の単語であり、これら単語を画面をスクロールしながら選択するため、迅速な応答を要する会話では、役立たないという欠点がある。
【0006】
【発明が解決しようとする課題】
一方、会話においては、必ずしも正確な翻訳が必要でない場合、或いは、単語を発すれば、事足りる場面も数多い。例えば、レストラン等で食事をする場合、料理の名前を店員に伝えるだけで、目的の料理を注文することができるし、また、買い物をする場合にも、会話で使用される言葉は、限られている。このことは、互いに異なる言語を話す異国人同士間の会話においても同様であり、異国人同士の間では、身体の動き、即ち、ボディランゲージと単語を並べるだけで十分に意思の疎通が取れる場合も多い。
【0007】
本発明の目的は、異国人間の実際の会話において、十分に利用できる多言語間会話システムを提供することである。
【0008】
本発明の他の目的は、異国人間の会話において使用でき、迅速な応答を可能にするデータベースの構成を提供することである。
【0009】
本発明の更に他の目的は、データベースを利用して異国人間の会話を実際に行うことができる携帯機器を提供することである。
【0010】
【課題を解決するための手段】
本発明の一態様によれば、複数の言語間の会話を可能にする多言語間会話に使用されるデータベースにおいて、会話に使用される互いに異なる言語の組合せに応じて設定されたサブデータベースを備え、当該サブデータベースには、会話の状況を設定する第1の領域と、各状況において使用される可能性の高い言語単位を格納する第2の領域とを有し、前記第1の領域の状況が選択されると、当該状況に対応する第2の領域内の言語単位を表示することができることを特徴とする多言語間会話用データベースが得られる。
【0011】
更に、前記サブデータベースの第2の領域には、前記言語単位に対応する画像表現情報および音声情報をも格納されていることが望ましい。
【0012】
本発明の別の態様によれば、上記したデータベースを格納したサーバを有することを特徴とする多言語間会話用システムが得られる。この場合、前記サーバと通信することによって、前記データベースをダウンロードした通信機能を含む多言語間会話用システムが得られる。
【0013】
本発明の更に他の態様によれば、前記データベースを予め格納した記憶媒体を有する多言語間会話用システムが得られる。
【0014】
更に、本発明の他の態様によれば、前記データベースを予め組み込んだ記憶装置を備えた携帯機器が得られる。
【0015】
【発明の実施の形態】
図1を参照すると、本発明の一実施形態において使用されるデータベース構成例が示されている。図示されたデータベース1は、複数の言語間の会話を可能にする多言語間会話に使用することができ、ここでは、日本語、米国語、中国語、韓国語、インドネシア語、タイ語、及びベトナム語間のうちのいずれかの2国語間の会話ができるように構成されているものとする。このため、図示されたデータベース1は各言語に共通な言語の概念を格納した一つの基本テーブル100と各言語の会話用の言語データを格納した複数のテーブル200〜800を備えている。テーブル200は、日本語を中心とした言語データを格納する日本語テーブルである。以下テーブル300,400,500,600,700、及び800は各々米国語、中国語、韓国語、インドネシア語、タイ語、及びベトナム語の言語データを格納する各言語のテーブルである。
【0016】
多言語間会話支援システムでは、第1の言語を理解する第1の利用者と第2の言語を理解する第2の利用者の会話を支援する。前記データベース1において第1の言語を日本語とした場合、第2の言語は米国語、中国語、韓国語、インドネシア語、タイ語、及びベトナム語の6ヶ国語のいずれかに設定することができる。第2の言語を米国語とした場合、同様に、第2の言語を日本語、中国語、韓国語、インドネシア語、タイ語、及びベトナム語の6ヶ国語のいずれかに設定することができる。このようにデータベース1の例では、第1の言語として7種類、そのおのおのの第1の言語に対して第2の言語は6種類あり、第1と第2の言語の組み合わせは合計42組が可能となる。
【0017】
以下の実施例では、第1の言語が日本語、第2の言語がインドネシア語である場合の多言語間会話支援システムの場合について説明する。
【0018】
図1に示された1000は、第1の言語が日本語、第2の言語がインドネシア語である場合の会話を支援するデータを格納するサブデータベースである。図1の実施例では、残り41の言語の組合わせに対応するサブデータベースは記述を省略してある。
【0019】
サブデータベース1000には、会話の状況を設定するためのデータを格納する領域1100と、前記領域1100から会話の状況を設定するためのデータを読み出し表示し、利用者に会話の状況を設定させるための制御プログラムを格納する制御部1200と第1の言語が日本語で第2の言語がインドネシア語である言語単位を格納する領域1300が含まれる。
【0020】
図2を参照して、前記基本テーブル100の構成例を示す。前記基本テーブルは例えば、リレーショナルデータベースのテーブルを用いて構成できる。101は言葉の識別番号を示す言葉識別番号フィールドであり、102は言葉に対応する画像表現のファイル名を示す画像表現ファイル名フィールドであり、103は言葉の概念を示す概念フィールドである。前記言葉識別番号フィールド101は主キーとして設定する。前記基本テーブル100には、前記各フィールドに対応した値を有するレコードが格納される。レコードの数は、本多言語会話支援システムで扱う言語単位の数に対応する。
【0021】
ここで、言語単位とは、「病院」のような一つの単語、あるいは、「〜に行きたい」というような単語の組み合わせ、あるいは、「病院」「〜に行きたい」というようなより多くの単語の組み合わせを言う。前記基本テーブル100では、各言語単位に関する各フィールド値を格納するレコードは省略してある。たとえば、前記基本テーブル100の1001番目のレコードは、言葉識別番号フィールド101に対応する値が「60」で、画像表現ファイル名フィールド102に対応する値が「hospital.gif」で、概念フィールド103に対応する値が「hospital」であるレコードである。
【0022】
図3を参照して、前記日本語テーブル200の構成例を示す。前記日本語テーブルは例えば、リレーショナルデータベースのテーブルを用いて構成できる。201は言葉識別番号フィールド、202は日本語での文字表示を示す日本語文字表示フィールド、203は日本語での音声表現を示す日本語音声フィールド、204は日本語の発音の米国語での発音表記フィールド、205は日本語の発音の中国語での発音表記フィールド、206は日本語の発音の韓国語での発音表記フィールド、207は日本語の発音のインドネシア語での発音表記フィールド、208は日本語の発音のタイ語での発音表記フィールド、209は日本語の発音のベトナム語での発音表記フィールドである。前記言葉識別番号フィールド201は外部キーであって、前記基本テーブル100の中の主キーである言葉識別番号フィールド101に対応する。前記日本語テーブル200には、前記各フィールドに対応した値を有するレコードが格納される。レコードの数は、本多言語会話支援システムで扱う日本語の言語単位の数に対応する。
【0023】
前記日本語テーブル200では、各日本語に関する各フィールド値を格納するレコードは省略してある。たとえば、前記日本語テーブル200の60番目のレコードは、言葉識別番号フィールド201に対応する値が「60」で、日本語文字表示フィールド202に対応する値が「hospital_jpn_c.gif」で、日本語音声フィールド203に対応する値が「hospital_jpn_v.wav」で、米国語発音表記フィールド204に対応する値が「hospital_jpn_usa.gif」で、中国語発音表記フィールド205に対応する値が「hospital_jpn_chn.gif」で、韓国語発音表記フィールド206に対応する値が「hospital_jpn_kor.gif」で、インドネシア語発音表記フィールド207に対応する値が「hospital_jpn_idn.gif」で、タイ語発音表記フィールド208に対応する値が「hospital_jpn_tha.gif」で、ベトナム語発音表記フィールド209に対応する値が「hospital_jpn_vnm.gif」である。
【0024】
前記言葉識別番号フィールド201に対応する値が「60」ということは、前記日本語テーブル200内のこのレコードは前記基本テーブル100の中の言葉識別フィールド101の値が同じ「60」であるレコードに対応することを示す。別の言い方をすれば、前記基本テーブル100の60番目のレコードは概念としての言葉「hospital」に関するデータを格納し、前記日本語テーブル200の60番目のレコードは前記概念としての言葉「hospital」に対応する日本語に関するデータを格納する。前記日本語文字表示フィールド202に対応する値が「hospital_jpn_c.gif」ということは、「hospital」という概念の日本語である「病院」という日本語文字表示を表示するためのgif形式画像ファイル名を示している。「jpn」は日本語の3文字略字ラベルである。日本語音声フィールド203に対応する値が「hospital_jpn_v.wav」ということは、「hospital」という概念の日本語の発音である「ビョウイン」という日本語音声を保存したwav形式音声ファイル名を示している。米国語発音表記フィールド204に対応する値が「hospital_jpn_usa.gif」ということは、日本語での「ビョウイン」という発音を米国語の発音表記で表示するためのgif形式画像ファイル名を示している。「usa」は米国語の3文字略字ラベルである。以下発音表記フィールド205、206、207、208、209の各値はおのおの「ビョウイン」という発音の中国語、韓国語、インドネシア語、タイ語、ベトナム語の発音表記で表示するためのgif形式画像ファイル名を示している。「chn」、「kor」、「idn」、「tha」、「vnm」はおのおの、中国語、韓国語、インドネシア語、タイ語、ベトナム語の3文字略字ラベルである。
【0025】
図4を参照して、前記インドネシア語テーブル600の構成例を示す。前記インドネシア語テーブル600は例えば、リレーショナルデータベースのテーブルを用いて構成できる。601は言葉識別番号フィールド、602はインドネシア語での文字表示を示すインドネシア語文字表示フィールド、603はインドネシア語での音声表現を示すインドネシア語音声フィールド、604はインドネシア語の発音の日本語での発音表記フィールド、605はインドネシア語の発音の米国語での発音表記フィールド、606はインドネシア語の発音の中国語での発音表記フィールド、607はインドネシア語の発音の韓国語での発音表記フィールド、608はインドネシア語の発音のタイ語での発音表記フィールド、609はインドネシア語の発音のベトナム語での発音表記フィールドである。言葉識別番号フィールド601は外部キーであって、基本テーブル100の中の主キーである言葉識別番号フィールド101に対応する。前記インドネシア語テーブルには、前記各フィールドに対応した値を有するレコードが格納される。レコードの数は、本多言語会話支援システムで扱うインドネシア語の言語単位の数に対応する。
【0026】
前記インドネシア語テーブル600では、各インドネシア語に関する各フィールド値を格納するレコードは省略してある。たとえば、前記テーブル600の60番目のレコードは、言葉識別番号フィールド601に対応する値が「60」で、インドネシア語文字表示フィールド602に対応する値が「hospital_idn_c.gif」で、インドネシア語音声フィールド603に対応する値が「hospital_idn_v.wav」で、米国語発音表記フィールド604に対応する値が「hospital_idn_usa.gif」などである。
【0027】
図5を参照して、第1の言語が日本語で第2の言語がインドネシア語である言語単位を格納する領域1300の構成例について説明する。領域1300はリレーショナルデータベースのクエリを用いて構成できる。元になるテーブルとして、前記基本テーブル100と前記日本語テーブル200と前記インドネシア語テーブル600を使用する。クエリは元になるテーブルのフィールドを組み合わせた仮想的なものである。1301は前記基本テーブル100の前記言葉識別番号フィールド101であり、1302は基本テーブル100の画像表現ファイル名フィールド102であり、1303は基本テーブル100の概念フィールド103であり、1304は日本語テーブル200の日本語文字表示フィールド202、1305はインドネシア語テーブル600のインドネシア語文字表示フィールド602であり、1306はインドネシア語テーブル600のインドネシア語音声フィールド603であり、1307はインドネシア語テーブル600のインドネシア語の発音の日本語発音表記フィールド604である。
【0028】
図6を参照して、会話の状況を設定するためのデータを格納する領域1100の構成例について説明する。前記領域1100は例えば、リレーショナルデータベースの複数のテーブルおよびクエリを用いて構成できる。場面選択テーブル1110は、会話状況を設定するための第1段階の選択肢を表示するためのデータを格納するテーブルである。なお、前記第1の言語と第2の言語はすでに決定されていることとし、以下の説明では、第1の言語が日本語、第2の言語がインドネシア語である場合を例に説明する。前記場面選択テーブル1110は、場面識別フィールド1111、表示順番フィールド1112、言葉識別番号フィールド1113、次段クエリ識別フィールド1114、次段表示方式識別フィールド1115からなる。前記場面選択テーブル1110には、前記各フィールドに対応した値を有するレコードが格納される。図6では、個々のレコードの表示は省略されている。個々のレコードの例を図7に示す。
【0029】
図7を参照して、場面選択テーブル1110の一例を説明する。図7において、レコード1141の場面識別フィールド1111の値は「101」で、表示順番フィールド1112の値は「1」で、選択肢の1番目に配置することを意味する。言葉識別番号フィールド1113の値は「14」で、この値は外部キーであり、前記基本テーブル100の主キーである言葉識別番号フィールド101に対応する。次段テーブル識別フィールド1114の値は「2」で、次の段階の選択肢に関するデータを格納してあるテーブルの番号を示す。次段表示方式識別フィールド1115の値は「10」で、次段の選択肢データを「10」に対応する表示方式で選択肢を表示することを指定している。同様に、レコード1142は、場面選択の第2番目の選択肢に関するデータであり、レコード1143は、場面選択の第3番目の選択肢に関するデータであり、レコード1144は、場面選択の第4番目の選択肢に関するデータの例である。
【0030】
図8を参照して、図7の前記場面選択テーブル1110のレコードの例に対応する前記基本テーブル100のレコードの例を示す。レコード111の言葉識別番号フィールドの値は「14」で、画像表現ファイル名フィールド102の値は「airport.gif」で、概念フィールド103の値は「空港」である。前記レコード111は、言葉識別番号をキーとして、前記場面選択テーブル1110の前記レコード1141に関連付けられる。同様に、レコード112、113,114はおのおの前記場面選択テーブル1110のレコード1142,1143,1144に両テーブルの言葉識別番号フィールドをキーにして関連付けられる。
【0031】
図9を参照して、図7の前記場面選択テーブル1110のレコードの例に対応する前記日本語テーブル200のレコードの例を示す。レコード211の言葉識別番号フィールド201の値は「14」で、この値は外部キーであり、前記基本テーブル100の主キーである言葉識別番号フィールド101に対応する。日本語文字表示フィールド202の値は「airport_jpn_c.gif」であり、選択肢と表示すべき「空港」という日本語文字が画像としてgif形式ファイル「airport_jpn_c.gif」に格納されていることを示す。
【0032】
図6の前記領域1100には、場面選択クエリ1120を含む。前記クエリ1120は前記基本テーブル100と前記場面選択テーブル1110と前記日本語テーブル200の一部のフィールドで構成される。具体的には、前記基本テーブル100の前記言葉識別番号フィールド1121と前記画像表現ファイル名フィールド1122、前記場面選択テーブル1110の場面識別フィールド1123と表示順番フィールド1124と次段クエリ識別フィールド1125と次段表示方式識別フィールド1126、および前記日本語テーブル200の前記日本語文字表示フィールド1127からなる。前記クエリ1120はレコードを含むが図6では省略してある。
【0033】
図10を参照して、前記クエリ1120のレコードの構成例を、図7、図8、図9をも参照して説明する。図7、図8、図9に示された各テーブルの前記言葉識別番号フィールドをキーにして合成されたクエリ1120が図10に示されている。図10では、前記言葉識別番号フィールドの値「14」、「15」、「16」、「17」に関連付けられた4つのレコード1131、1132、1133、1134を示している。
【0034】
図11を参照すると、第1の言語である日本語を理解する第1の利用者2はコミュニケーションを行おうとする第2の言語であるインドネシア語を理解する第2の利用者3に対して情報表示端末10を提示し、前記情報表示端末10に順次アイコン等を情報表示部51に表示しマルチメディアを駆使して会話を進展させていく場合が示されている。
【0035】
図12を参照して、情報表示端末10を説明する。図示された情報表示端末10は情報表示部51、カーソル制御部52、選択ボタン53を有し、主制御部54が主メモリ部55に保存されているプログラムと連携しながら情報表示端末10を制御し、着脱可能メモリ保持部56には着脱可能メモリ60を挿入可能である。尚、図12において、情報表示端末10はノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータ、PDA、携帯電話機、TV受像機、あるいはゲーム機等の通信機器あるいは携帯機器であってもよい。また、着脱可能メモリ60は、フロッピー(登録商標)ディスク、光磁気ディスク(MO)、CD-ROM、CD-R、DVD、メモリスティック、コンパクトフラッシュ(登録商標)メモリあるいはスマートメディア等の記憶装置あるいは記憶媒体であってもいい。
【0036】
図13を参照すると、着脱可能メモリ60の一例が示されており、図示された着脱可能メモリ60には、前記データベース1のすべて、あるいは、例えば前記第1の言語を日本語とし、前記第2の言語をインドネシア語とする会話支援に限定された前記サブデータベース1000が格納されている。後者の場合、これを日本語からインドネシア語への会話支援パッケージと呼ぶ。前記サブデータベース1000には、図1の場合と同様、前記会話の状況を設定するためのデータを格納する領域1100と、前記領域1100から会話の状況を設定するためのデータを読み出し表示し、利用者に会話の状況を設定させるための制御プログラムを格納する前記制御部1200と第1の言語が日本語で第2の言語がインドネシア語である言語単位を格納する前記領域1300が含まれる。
【0037】
図14は、会話支援の実行過程の一実施例を示すフロー図である。
【0038】
図15と図12、図14とを併せ参照して、着脱可能メモリ保持部56に、前記日本語からインドネシア語への会話支援パッケージ1000が保存されている着脱可能メモリ60を挿入し、起動した場合の動作を説明する。この場合、制御部1200の制御により、会話の状況を設定するステップS10の中の、第1段階の場面選択肢の表示・選択のステップS11を実行するために、図15に示す前記情報表示部51に場面選択メニュー70が表示される。現在、第1言語が日本語なので、前記場面選択メニュー70は日本語で表示される。前記制御部1200は、第1段階として前記会話の状況を設定するためのデータを格納する領域1100の中の、前記場面選択クエリ1120を読み取る。図10に示されているレコード1131、1132、1133、1134が順次読み取られ、各レコードの前記場面選択テーブルの表示順番フィールド1124の値に基づき、場面選択肢の表示順番が決定され、前記場面選択テーブルの表示順番フィールド1124の値が「1」である前記レコード1131のデータが第1の選択肢として表示され、以下前記レコード1132のデータが第2の選択肢として表示され、前記レコード1133のデータが第3の選択肢として、最後に前記レコード1134のデータが第4の選択肢として表示される。前記レコード1131の前記日本語テーブルの日本語文字表示フィールド1127の画像ファイル「airort_jpn_c.gif」が、前記選択メニュー70の中の位置71に表示される。前記レコード1131の前記基本テーブルの画像表現ファイル名フィールド1122の画像ファイル「airport.gif」が、位置72に表示される。以下同様にして、前記レコード1132の前記フィールド1127の画像ファイルが位置73、前記フィールド1122の画像ファイルが位置74、前記レコード1133の前記フィールド1127の画像ファイルが位置75、前記フィールド1122の画像ファイルが位置76、前記レコード1134の前記フィールド1127の画像ファイルが位置77、前記フィールド1122の画像ファイルが位置78におのおの表示される。場面選択肢である「空港」という文字を表示するために文字コードでなく前記画像ファイル71を使用するのは、ハングル文字やタイ語などの表示にも汎用的に対応できるようにするためである。また、場面選択肢である「空港」という文字表現71のほかに、画像表現ファイル72を使用するのは、文字表現だけでなく画像表現によりメニュー選択の判断をより視覚的に理解しやすくするためである。
【0039】
図15において、場面選択メニュー70の内の「空港」という場面の選択肢を選択するには、画像ファイル71の上をクリックするか、画像ファイル72の上をクリックする。他の選択肢を選択する場合も同様に前記画像ファイル73〜78の上をクリックする。
【0040】
図15で、例えば、第1の選択肢に対応する前記画像ファイル72の上がクリックされると、場面選択クエリに格納されているレコード内の第1のレコードである前記レコード1131が選択されたことになる。前記場面選択制御部1200は、前記選択されたレコード1131の場面選択テーブルの場面識別フィールド1123の値「101」を読み取り、選択された場面を「101」と設定する。前記選択されたレコード1131の前記基本テーブルの言葉識別番号が「14」であり、図8の前記基本テーブル100から対応する概念フィールド103の値は「空港」であることがわかる。つまり会話の状況を設定する第1段階として「空港」という場面が設定されたことになる。
【0041】
図16を参照して、次段クエリ識別テーブル1150を説明する。図10で選択されたレコード1131の前記場面選択テーブルの次段クエリ識別フィールド1125の値が「2」であることから、図16に示す次段クエリ識別テーブル1150に格納されているデータを用いて、次の段階の選択肢を表示する。前記次段クエリ識別テーブル1150は、図6の前記会話の状況を設定するためのデータを格納する領域1100に含まれる。前記次段クエリ識別テーブル1150は、次段クエリ識別フィールド1151と次段クエリ名フィールド1152を有する。
【0042】
図16には、レコードの具体例としてレコード1161とレコード1162を示す。前記次段クエリ識別テーブル1150で、前記次段クエリ識別フィールド1151の値が「2」のレコード1161の前記次段クエリ名は「第2段選択肢クエリ」であり、次の段階の選択肢表示は図18の第2段選択肢クエリ1190のデータを用いて行う。
【0043】
図6に示された領域1100には、第2段階選択肢テーブル1170を含んでおり、第2段階選択肢テーブル1170は、図17に示すように、場面識別フィールド1171、言語単位識別フィールド1172、表示順番フィールド1173、言葉識別番号1174、言語単位連結フィールド1175、次段クエリ識別フィールド1176、次段表示方式識別フィールド1177から構成される。前記第2段階選択肢テーブル1170は、レコードを含むが図6では、前記レコードの記述を省略する。
【0044】
図17を参照して、前記第2段階選択肢テーブル1170に含まれるレコード1181〜1184の例を示す。
【0045】
図6の前記領域1100には、第2段階選択肢クエリ1190を含む。前記第2段階選択肢クエリ1190は、第2段階選択肢テーブルの場面識別フィールド1191、第2段階選択肢テーブルの言語単位識別フィールド1192、第2段階選択肢テーブルの表示順番フィールド1193、基本テーブルの言葉識別番号フィールド1194、基本テーブルの画像表現ファイル名フィールド1195、第2段階選択肢テーブルの言語単位連結フィールド1196、第2段階選択肢テーブルの次段クエリ識別フィールド1197、第2段階選択肢テーブルの次段表示方式識別フィールド1198、日本語テーブルの日本語文字表示フィールド1199から構成される。前記第2段階選択肢クエリ1190は、レコードを含むが図6では、前記レコードの記述を省略してある。
【0046】
図18を参照して、前記第2段階選択肢クエリ1190に含まれるレコード1185〜1188の例を示す。
【0047】
図19および図14、図15、図18を併せ参照して、前記場面選択肢の表示・選択ステップS11で、前記画像72がクリックされた場合の動作を説明する。この場合、前記場面選択メニュー70で、「空港」が選択されると、図14で、言語単位選択肢の表示・選択S12に移行する。前記制御部1200は、前記場面選択クエリ1120と前記次段クエリ識別テーブル1150とから、第2段階選択肢クエリ1190のデータを読み取り、言語単位の選択肢としての表示項目を決定する。読み出された言語単位の選択肢は、前記場面選択クエリ1120の前記選択されたレコード1131の前記場面選択テーブルの次段表示方式識別フィールド1126の値が「10」であることを読み取り、対応する言語単位選択肢表示方式を決定し、例えば、図19に示すレイアウトで言語単位選択肢を表示する。前記第2段階選択肢クエリ1190で、前記第2段階選択肢テーブルの場面識別フィールド1191の値が、直前のステップS11で選択された前記場面識別フィールド1123の値である「101」に等しいレコードのみが選択され読み出される。
【0048】
図8の例では、レコード1185〜1188が読み出される。図18において、前記第2段階選択肢テーブルの表示順番フィールド1193の値は、選択された言語単位選択肢の表示順番であり、図18の例ではレコード1185、1186、1187、1188の順に表示される。その結果、図18の前記日本語テーブルの日本語文字表示フィールド1199に示された画像ファイルが順次、図19の言語単位選択メニュー80の位置81、83、85、87に表示される。同様に、図18の前記基本テーブルの画像ファイル名フィールド1195に示された画像ファイルが順次、図19の位置82、84、86、88に表示される。このようにして、言語単位選択肢の表示が完了する。
【0049】
図19において、前記言語単位選択メニュー80の内の「病院」という場面の選択肢を選択するには、対応する前記画像ファイル87の上をクリックするか、前記画像ファイル88の上をクリックする。他の言語単位選択肢を選択する場合も同様に行う。
【0050】
図19で、例えば、第4の選択肢に対応する前記画像ファイル87の上がクリックされると、前記第2段階選択肢クエリ1190で、レコード1188が選択されたことになる。前記制御部1200は、前記選択されたレコード1188の第2段階選択肢テーブルの言語単位識別フィールド1192の値から言語単位識別を「204」と読み取り、基本テーブルの言葉識別番号フィールド1194の値から言葉識別番号を「60」と読み取り、第2段階選択肢テーブルの次段クエリ識別の値が「0」であることから、次の段階の言語単位選択肢の表示・選択ステップS12には移行せず、図14で前記会話の状況を設定するステップS10は終了し、言語単位の表示ステップ20の中の言語単位の連結・表示ステップ21に移行する。前記第2段階選択肢テーブルの言語単位連結フィールド1196の値が「0」であることから、言語単位の連結も不要であると判断する。
【0051】
図20と図21とを参照して、前記選択されたレコード1188の基本テーブルの言葉識別番号フィールド1194が「60」である場合の動作を説明する。この場合、この値をキーにして制御部1200は、図5で、前記領域1300として示されたクエリから基本テーブルの言葉識別番号フィールド1301の値が同じく「60」のレコードを検索し、図20に示すレコード1311を得る。前記レコード1311の基本テーブルの画像表現ファイル名フィールド1302の値から画像ファイル名「hospital.gif」を読み取り、図21の前記情報表示部51の中に言語単位表示領域250の一部として、位置251の場所に前記画像ファイル「hospital.gif」が表示される。以下同様にして、前記レコード1311の日本語テーブルの日本語文字表示フィールド1304から画像ファイル名「hospital_jpn_c.gif」を読み取り、位置252の場所に前記画像ファイル「hospital_jpn_c.gif」が表示され、インドネシア語テーブルのインドネシア語文字表示フィールド1305から画像ファイル名「hospital_idn_c.gif」を読み取り、位置253の場所に前記画像ファイル「hospital_idn_c.gif」が表示され、インドネシア語テーブルのインドネシア語音声の日本語発音表記フィールド1307から画像ファイル名「hospital_idn_jpn.gif」を読み取り、位置254の場所に前記画像ファイル「hospital_idn_jpn.gif」が表示され、図21の表示画面を得る。さらに、前記レコード1311のインドネシア語テーブルのインドネシア語音声フィールド1306から音声ファイル名「hospital_idn_v.wav」を読み取り、例えば、発音表記の位置254にハイパーリンク255を設定し、前記254のハイパーリンクをクリックすると前記音声ファイル「hospital_idn_v.wav」が起動し、前記言語単位の概念である「病院」のインドネシア語の音声「ルマ サキッ」を図12の音声出力部57から出力させるように設定する。以上のようにして、前記言語単位の連結・表示ステップS21では、前記文字表示253、前記画像表現251、前記発音表記254、および前記音声出力255というマルチメディアを駆使した言語単位250の表示を行うことにより、日本語とインドネシア語の間の会話支援を効果的に行う。
【0052】
図14の言語単位選択肢の表示・選択S12の第2の実施例について説明する。
【0053】
図22を参照すると、前記場面選択メニュー70を表示するにあたって、前記制御部1200は図22に示す場面選択クエリ1120を使用する。前記場面選択メニュー70で、前記文字表示71の上をクリックすると、前記制御部1200は、図22の前記場面選択クエリ1120で、場面選択テーブルの表示順番フィールド1120の値が「1」のレコード1135を参照する。前記レコード1135のデータから、場面識別の値が「101」、次段クエリ識別の値が「2」、次段表示方式識別が「20」と認識し、図16の次段クエリ識別テーブル1150から次段クエリ識別の値が「2」である次段クエリ名1152を検索し、レコード1161の「第2段選択肢クエリ」であることを読み取る。
【0054】
図23を参照すると、前記制御部1200は、前記第2段階選択肢クエリ1190から、第2段階選択肢テーブルの場面識別フィールド1191の値が前記「101」のレコードを検索し、レコード1211、1212、1213、1214を得る。図15の場合と同様に、前記制御部1200は、前記次段表示方式識別が「30」である次段表示方式にもとづき、まずは図19と同様の言語単位選択メニュー80を前記情報表示部51に表示する。
【0055】
図23を参照して、前記言語単位選択メニュー80で、第4の選択肢である「病院」がたとえば、病院の文字表示87をクリックして選択された場合について説明する。前記制御部1200は、前記第2段階選択肢クエリ1190から、第2段階選択肢テーブルの表示順番フィールド1193の値が「4」のレコードを検索し、レコード1214を読み取り、言語単位識別フィールド1192の値が「304」、言語単位連結フィールド1196が「1」で言語単位の連結がONであることを認識し、次段クエリ識別フィールド1197の値が「3」で、前記次段クエリ識別テーブル1150から、第3段階目の会話状況の選択肢画面を「第3段階選択肢クエリ」を用いて表示すべきことを認識し、次段表示方式フィールド1198の値が「30」であることを認識する。
【0056】
図24を参照して、前記会話の状況を設定するためのデータを格納する領域1100に含まれる第3段階選択肢テーブル1220と第3段階選択肢クエリ1230の構成例を示す。前記第3段階選択肢テーブル1220は、前段言語単位識別フィールド1221、言語単位識別フィールド1222、表示順番フィールド1223、言葉識別番号1224、言語単位連結フィールド1225、次段クエリ識別フィールド1226、次段表示方式識別フィールド1227から構成される。前記第2段階選択肢テーブル1220は、レコードを含むが図25では、前記レコードの記述を省略する。なお、前記会話の状況を設定するためのデータを格納する領域1100は図6に示される部分と図24で示される部分とからなる。
【0057】
前記第3段階選択肢クエリ1240は、第3段階選択肢テーブルの前段言語単位識別フィールド1241、第3段階選択肢テーブルの言語単位識別フィールド1242、第3段階選択肢テーブルの表示順番フィールド1243、基本テーブルの言葉識別番号フィールド1244、基本テーブルの画像表現ファイル名フィールド1245、第3段階選択肢テーブルの言語単位連結フィールド1246、第3段階選択肢テーブルの次段クエリ識別フィールド1247、第3段階選択肢テーブルの次段表示方式識別フィールド1248、日本語テーブルの日本語文字表示フィールド1249から構成される。前記第3段階選択肢クエリ1240は、レコードを含むが図24では、前記レコードの記述を省略してある。
【0058】
図25を参照して、前記第3段階選択肢クエリ1240に含まれるレコード1251と1252の例を示す。
【0059】
図26を参照すると、前記制御部1200は、前記第3段階選択クエリ1240から、第3段階選択肢テーブルの前段言語単位フィールド1241の値が「304」であるレコードを検索し、レコード1251と1252を得、おのおのの表示順番フィールド1243の値が「1」、「2」であることから、レコード1251のデータを第3段階の選択肢の第1の選択肢に、レコード1252のデータを第3段階の第2の選択肢として表示すべきことを認識し、前記レコード1214の次段表示方式フィールドの値「30」にもとづき、図26に示すポップアップメニュー90を表示し、前記ポップアップメニュー90の中に前記レコード1251の中の日本語文字表示フィールド1249から読み取ったファイル「where_is_jpn_c.gif」を第3段階の第1のメニューとして位置91に表示し、前記レコード1252の中の日本語文字表示フィールド1249から読み取ったファイル「I_want_to_go_jpn_c.gif」を第3段階の第2のメニューとして位置92に表示し、図26に示した第1の言語である日本語表現の「はどこですか?」と「へ行きたい」の2つの選択肢からなる第3段階のメニュー表示を得る。
【0060】
図27を参照して、図14の言語単位の連結・表示ステップS21の第2の実施例を示す。図26で、第3段階の選択肢として、前記位置92の「へ行きたい」という選択肢をクリックして選択すると、前記制御部1200は前記第3段階選択肢クエリで、2番目の表示順番に対応する前記レコード1252のデータにもとづいて処理を進め、前記レコード1252の次段クエリ識別フィールド1247の値が「0」であることから、第4段目の選択肢表示はないことを認識し、言語単位の表示に移る。前記レコード1214の言語単位連結フィールドの値が「1」であったことから、図19の第2段階の選択肢で選択された「病院」の言語単位と図26の第3段階の選択肢で選択された「へ行きたい」の言語単位を連結して新たな言語単位として表示する。具体的には、前記レコード1214の言葉識別番号フィールド1194の値が「60」で、前記レコード1252の言葉識別番号フィールド1244の値が「312」であることから、この値をキーにして制御部1200は、図5で、前記第1の言語が日本語で第2の言語がインドネシア語である言語単位を格納する領域1300として示されたクエリから、基本テーブルの言葉識別番号フィールド1301の値が同じく「60」および「312」のレコードを検索し、図20に示すレコード1311と1312を得る。前記レコード1311の基本テーブルの画像表現ファイル名フィールド1302の値から画像ファイル名「hospital.gif」を読み取り、図27の前記情報表示部51の中に言語単位表示領域260の一部として、位置261の場所に前記画像ファイル「hospital.gif」が表示される。以下同様にして、前記レコード1311の日本語テーブルの日本語文字表示フィールド1304から画像ファイル名「hospital_jpn_c.gif」を読み取り、位置262の場所に前記画像ファイル「hospital_jpn_c.gif」が表示され、インドネシア語テーブルのインドネシア語文字表示フィールド1305から画像ファイル名「hospital_idn_c.gif」を読み取り、位置263の場所に前記画像ファイル「hospital_idn_c.gif」が表示され、インドネシア語テーブルのインドネシア語音声の日本語発音表記フィールド1307から画像ファイル名「hospital_idn_jpn.gifを読み取り、位置264の場所に前記画像ファイル「hospital_idn_jpn.gif」が表示される。さらに2つの言語単位の連結表示のために、前記レコード1312の基本テーブルの画像表現ファイル名フィールド1302の値から画像ファイル名「I_want_to_go.gif」を読み取り、図27の前記情報表示部51の中に言語単位表示領域260の一部として、位置265の場所に前記画像ファイル「I_want_to_go.gif」が表示される。以下同様にして、前記レコード1312の日本語テーブルの日本語文字表示フィールド1304から画像ファイル名「I_want_to_go_jpn_c.gif」を読み取り、位置266の場所に前記画像ファイル「I_want_to_go_jpn_c.gif」が表示され、インドネシア語テーブルのインドネシア語文字表示フィールド1305から画像ファイル名「I_want_to_go_idn_c.gif」を読み取り、位置267の場所に前記画像ファイル「hospital_idn_c.gif」が表示され、インドネシア語テーブルのインドネシア語音声の日本語発音表記フィールド1307から画像ファイル名「I_want_to_go_idn_jpn.gifを読み取り、位置2648の場所に前記画像ファイル「I_want_to_go_idn_jpn.gif」が表示され、図27の表示画面を得る。さらに、前記レコード1311と1312のインドネシア語テーブルのインドネシア語音声フィールド1306から音声ファイル名「hospital_idn_v.wav」と「I_want_to_go_idn_v.wav」を読み取り、例えば、言語単位表示領域260の上をクリックすると最初に前記音声ファイル「hospital_idn_v.wav」が起動し、次に、前記音声ファイル「I_want_to_go_idn_v.wav」が起動し、前記言語単位の概念である「病院」のインドネシア語の音声「ルマ サキッ」を図12の音声出力部57から出力させ、続いて前記言語単位の概念である「へ行きたい」のインドネシア語の「サヤ マウク」を出力させる。以上のようにして、前記言語単位の連結・表示ステップS21の第2の実施例では、二つの言語単位を連結し、前記文字表示263と267、前記画像表現261
と265、前記発音表記264と268、および前記音声出力というマルチメディアを駆使した言語単位表示領域260の表示を行うことにより、日本語とインドネシア語の間の会話支援を効果的に行う。
【0061】
図14の言語単位選択肢の表示・選択S12の第3の実施例について説明する。
【0062】
図22を参照して、前記場面選択メニュー70で、前記文字表示71の上をクリックすると、前記制御部1200は、図22の前記場面選択クエリ1120で、場面選択テーブルの表示順番フィールド1120の値が「1」のレコード1135を参照し、場面識別の値が「101」、次段クエリ識別の値が「2」、次段表示方式識別が「20」と認識し、図16の次段クエリ識別テーブル1150から次段クエリ識別フィールドの値が「2」である次段クエリ名フィールド1152を検索し、レコード1161の「第2段選択肢クエリ」であることを読み取る。
【0063】
図28に「第2段選択肢クエリ」の第3の実施例を示す。
【0064】
図28を参照すると、前記制御部1200は、図23の場合と同様に、第2段階選択肢クエリ1190から、第2段階選択肢テーブルの場面識別フィールド1191の値が前記「101」のレコードを検索し、レコード1215、1216、1217、1218を得、図19と同様の言語選択メニュー80を前記情報表示部51に表示する。さらに、前記言語単位選択メニュー80で、第4の選択肢である「病院」がたとえば、病院の文字表示87をクリックして選択されると、前記制御部1200は、前記第2段階選択肢クエリ1190から、第2段階選択肢テーブルの表示順番フィールド1193の値が「4」のレコードを検索し、レコード1218を読み取り、言語単位識別フィールド1192の値が「304」、言語単位連結フィールド1196が「1」で言語単位の連結がONであることを認識し、次段クエリ識別フィールド1197の値が「3」で、前記次段クエリ識別テーブル1150から、第3段階目の会話状況の選択肢画面を「第3段階選択肢クエリ」を用いて表示すべきことを認識し、次段表示方式フィールド1198の値が「30」であることを認識し、文要素フィールド1201の値が「0」つまり「目的語」であることを認識する。
【0065】
図29を参照して、前記第3段階選択肢クエリ1240に含まれるレコードの第2の例としてレコード1253と1254の例を示す。図25に示した第2の例に比べ、新たに第3段階選択肢テーブルの文要素フィールド1261を追加している。
【0066】
図26を参照して、前記制御部1200は、前記第3段階選択クエリ1240から、第3段階選択肢テーブルの前段言語単位フィールド1241の値が「304」であるレコードを検索し、レコード1253と1254を得、図26に示すポップアップメニュー90を表示する。
【0067】
図30を参照して、図14の言語単位の連結・表示ステップS21の第3の実施例を示す。
【0068】
図26で、第3段階の選択肢として、前記位置92の「へ行きたい」という選択肢をクリックして選択すると、前記制御部1200は図29の前記第3段階選択肢クエリ1240で、2番目の表示順番に対応する前記レコード1254のデータにもとづいて処理を進め、前記レコード1254の次段クエリ識別フィールド1247の値が「0」であることから、第4段目の選択肢表示はないことを認識し、言語単位の表示に移る。前記レコード1214の言語単位連結フィールドの値が「1」であったことから、図19の第2段階の選択肢で選択された「病院」の言語単位と図26の第3段階の選択肢で選択された「へ行きたい」の言語単位を連結して新たな言語単位として表示する。具体的には、前記レコード1218の言葉識別番号フィールド1194の値が「60」で、前記レコード1254の言葉識別番号フィールド1244の値が「312」であることから、この値をキーにして制御部1200は、図5で、前記第1の言語が日本語で第2の言語がインドネシア語である言語単位を格納する領域1300として示されたクエリから、基本テーブルの言葉識別番号フィールド1301の値が同じく「60」および「312」のレコードを検索し、図20に示すレコード1311と1312を得る。前記レコード1311の基本テーブルの画像表現ファイル名フィールド1302の値から画像ファイル名「hospital.gif」を読み取り、図30の前記情報表示部51の中に言語単位表示領域270の一部として、位置271の場所に前記画像ファイル「hospital.gif」が表示され、同様に、位置272の場所に画像ファイル「I_want_to_go.gif」が表示され、言語単位270の中のアイコンが表示される。続いて、位置273の場所に画像ファイル「hospital_jpn_c.gif」が表示され、位置274に画像ファイル「I_want_to_go_jpn_c.gif」が表示され、言語単位270の中の日本語表示が実行される。
【0069】
次に、言語単位の中のインドネシア語部分の表示を行うために、前記制御部1200は前記レコード1218の文要素フィールド1201の値「O」と、前記レコード1254の文要素フィールド1261の値「V」を読み取り、図31に示すインドネシア語文法テーブル1250の文法フィールド1251に「V」と「O」の2文字のみが含まれるレコード1261を検索し、文字単位の順番が「VO」であることを認識し、先に文要素が「V」の文字単位を表示し、次に文要素が「O」の文字単位を表示する。具体的には、図30で、前記レコード1218のデータと前記レコード1254のデータを使って、図27の場合と同様の処理により、位置275、276、277、278に各対応する画像ファイルをおのおの表示し、図30の表示を得る。なお、前記インドネシア語文法テーブル1250は、前記領域1100に含まれる。
【0070】
図32を参照して、会話支援システムの別の実現例として、情報表示端末10はネットワーク30を介してサーバ20と接続される。前記サーバ20は言語単位を表示するためのデータを保存するデータベース1を有し、前記情報表示端末10からの指示により指定された言語単位のデータを前記データベース1から選択し前記情報表示端末10に送信する会話支援サービス制御部41を有し、前記情報表示端末10は、該言語単位のデータをネットワーク30を介してサーバ20から受信する通信制御部58と受信した言語単位260を情報表示部51に表示する。
【0071】
図32でネットワークはインターネットあるいはモバイルネットワークあるいはインターネットとモバイルネットワークの組み合せであってもよい。図32で、情報表示端末10は、ノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータ、PDA、携帯電話機、TV受像機、あるいはゲーム機等であってもよい。
【0072】
【発明の効果】
本発明による多言語間会話支援システムは、第1の言語と第2の言語の異言語を母語とする人同士の会話を、情報表示端末を用いてアイコンや第2の言語の発音記号あるいは第2の言語の発音の出力からなる言語単位を表示することにより、容易に支援することができる。
【0073】
本多言語間会話支援システムは、着脱可能なメモリに格納される会話支援パッケージを入れ替えることにより容易に多様な第1と第2の言語の組み合せの会話を支援することができる。
【0074】
本多言語会話支援システムは、ネットワークを介してサーバに接続することにより、言語選択メニューの選択により容易に多様な第1と第2の言語の組み合せの会話を支援することができる。
【図面の簡単な説明】
【図1】本多言語間会話支援システムのデータベースの構成例を示す図である。
【図2】本多言語間会話支援システムのデータベース内の基本テーブルの構成例を示す図である。
【図3】本多言語間会話支援システムのデータベース内の日本語テーブルの構成例を示す図である。
【図4】本多言語間会話支援システムのデータベース内のインドネシア語テーブルの構成例を示す図である。
【図5】本多言語間会話支援システムのデータベース内の第1の言語が日本語で第2の言語がインドネシア語である言語単位を格納する領域の構成例を示す図である。
【図6】本多言語間会話支援システムのデータベース内の会話の状況を設定するためのデータを格納する領域の構成例を示す図である。
【図7】本多言語間会話支援システムのデータベース内の場面選択テーブルに含まれるレコードの例を示す図である。
【図8】本多言語間会話支援システムのデータベース内の基本テーブルに含まれるレコードの例を示す図である。
【図9】本多言語間会話支援システムのデータベース内の日本語テーブルに含まれるレコードの例を示す図である。
【図10】本多言語間会話支援システムのデータベース内の場面選択クエリに含まれるレコードの例を示す図である。
【図11】本多言語間会話支援システムにおいて、第1の言語を理解する利用者と第2の言語を理解する利用者と電子表示装置の関係を示す図である。
【図12】本多言語間会話支援システムの情報表示端末の構成例を示す図である。
【図13】本多言語間会話支援システムの着脱可能メモリの構成例を示す図である。
【図14】本多言語間会話支援システムの会話支援の実行過程の実施例を示す図である。
【図15】本多言語間会話支援システムの場面選択メニューの表示例を示す図である。
【図16】本多言語間会話支援システムのデータベース内の次段クエリ識別テーブルの構成例を示す図である。
【図17】本多言語間会話支援システムのデータベース内の第2段階選択肢テーブルに含まれるレコードの例を示す図である。
【図18】本多言語間会話支援システムのデータベース内の第2段階選択肢クエリに含まれるレコードの例を示す図である。
【図19】本多言語間会話支援システムの言語単位選択メニューの表示例を示す図である。
【図20】本多言語間会話支援システムのデータベース内の第1の言語が日本語で第2の言語がインドネシア語である言語単位を格納する領域のレコードの例を示す図である。
【図21】本多言語間会話支援システムの言語単位の表示例を示す図である。
【図22】本多言語間会話支援システムのデータベース内の場面選択クエリに含まれるレコードの第2の例を示す図である。
【図23】本本多言語間会話支援システムのデータベース内の第2段階選択肢クエリに含まれるレコードの第2の例を示す図である。
【図24】本多言語間会話支援システムのデータベース内の会話の状況を設定するためのデータを格納する領域の追加部分の例。
【図25】本多言語間会話支援システムのデータベース内の第3段階選択肢クエリに含まれるレコードの例。
【図26】本多言語間会話支援システムの言語単位選択メニューの第2の表示例。
【図27】本多言語間会話支援システムの言語単位表示の第2の例。
【図28】本多言語間会話支援システムの第2段階選択肢クエリに含まれるレコードの第3の実施例。
【図29】本多言語間会話支援システムの第3段階選択肢クエリに含まれるレコードの第2の実施例。
【図30】本多言語間会話支援システムの言語単位表示の第3の例。
【図31】本多言語間会話支援システムのインドネシア語文法テーブル。
【図32】本多言語間会話支援システムのネットワークを介した実施例
【符号の説明】
1 データベース
10 情報表示端末
20 サーバ
51 情報表示部
60 着脱可能メモリ
70 場面選択メニュー
80 言語単位選択メニュー
100 基本テーブル
200 日本語テーブル
250 言語単位
600 インドネシア語テーブル
1000 第1の言語が日本語で第2の言語がインドネシア語である場合の会話を支援するサブデータベース
1100 会話の状況を設定するためのデータを格納する領域
1110 場面選択テーブル
1120 場面選択クエリ
1150 次段クエリ識別テーブル
1170 第2段階選択肢テーブル
1190 第2段階選択肢クエリ
1200 制御部
1220 第3段階選択肢テーブル
1240 第3段階選択肢クエリ
1300 第1の言語が日本語で第2の言語がインドネシア語である言語単位を格納する領域
S10 会話の状況を設定するステップ
S11 場面選択肢の表示・選択のステップ
S12 言語単位選択肢の表示・選択ステップ
S21 言語単位の連結・表示ステップ

Claims (2)

  1. 多言語間における実際の会話を支援する多言語間会話支援システムにおいて、
    各言語に共通な言語の概念を格納した基本テーブル(100)と、
    各言語に対応して設けられ、各言語の言語データと、当該各言語に対応した他の言語データと共に格納する複数の言語テーブル(200〜800)と、
    複数のサブデータベース(1000)を備えたデータベース(1)を有し、
    前記基本テーブル(100)は、言葉識別番号フィールド(101)、画像表現ファイル名フィールド(102)、及び、概念フィールド(103)によって構成され、
    前記言葉識別番号フィールド(101)中の言葉識別番号は、前記言葉の概念が共通な限り、全ての言語間で共通であって主キーとして役立ち、
    前記言語毎に設けられた前記各言語テーブル(200、600)は、前記言葉識別番号フィールド(201、601)、当該言語における文字表示を示す文字表示フィールド(202、602)、当該言語での音声表現を示す音声フィールド(203、603)、及び、当該言語の発音を当該言語以外の言語での発音を表記する発音表記フィールド(204〜209:604〜609)を備え、
    前記各サブデータベース(1000)は、会話の状況を設定するデータを格納する領域(1100)、前記会話の状況を設定するデータを読み出し、表示し、利用者に会話の状況を設定させるための制御プログラムを格納する制御部(1200)と、前記言語のうち、対象となる2つの言語の言語単位を格納する領域(1300)を有し、前記サブデータベースの2つの言語の言語単位を格納する領域(1300)は、前記基本テーブルと前記対象となる2言語の前記言語テーブルのフィールドを組み合わせたクエリによって構成され、
    前記言語単位は、1つの単語または複数の単語の組み合わせからなっていることを特徴とする多言語間会話支援システム。
  2. 請求項1において、前記基本テーブルにおける共通概念を利用して、他の言語テーブルを相互に対応付けることを特徴とする多言語間会話支援システム。
JP2001355157A 2001-11-20 2001-11-20 多言語間会話支援システム Expired - Fee Related JP3980331B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001355157A JP3980331B2 (ja) 2001-11-20 2001-11-20 多言語間会話支援システム
US10/007,671 US7162412B2 (en) 2001-11-20 2001-12-10 Multilingual conversation assist system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001355157A JP3980331B2 (ja) 2001-11-20 2001-11-20 多言語間会話支援システム

Publications (2)

Publication Number Publication Date
JP2003157256A JP2003157256A (ja) 2003-05-30
JP3980331B2 true JP3980331B2 (ja) 2007-09-26

Family

ID=19166903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001355157A Expired - Fee Related JP3980331B2 (ja) 2001-11-20 2001-11-20 多言語間会話支援システム

Country Status (2)

Country Link
US (1) US7162412B2 (ja)
JP (1) JP3980331B2 (ja)

Families Citing this family (177)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US7359861B2 (en) * 2002-04-24 2008-04-15 Polyglot Systems, Inc. Inter-language translation device
US20040172236A1 (en) * 2003-02-27 2004-09-02 Fraser Grant E. Multi-language communication system
US7400785B2 (en) * 2003-08-13 2008-07-15 Hewlett-Packard Development Company, L.P. Systems and methods for associating images
GB0403202D0 (en) * 2004-02-13 2004-03-17 Payn Roger A foreign language communication aid
US7502632B2 (en) * 2004-06-25 2009-03-10 Nokia Corporation Text messaging device
US8819140B2 (en) * 2004-07-09 2014-08-26 Qualcomm Incorporated System and method for enabling the establishment and use of a personal network
JP3962766B2 (ja) * 2004-10-08 2007-08-22 松下電器産業株式会社 対話支援装置
JP4005605B2 (ja) * 2005-02-24 2007-11-07 本田技研工業株式会社 車両品質分析システム並びに複数データの管理方法およびそのプログラム
US20060259295A1 (en) * 2005-05-12 2006-11-16 Blinktwice, Llc Language interface and apparatus therefor
US20060257827A1 (en) * 2005-05-12 2006-11-16 Blinktwice, Llc Method and apparatus to individualize content in an augmentative and alternative communication device
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
JP4942142B2 (ja) * 2005-12-06 2012-05-30 キヤノン株式会社 画像処理装置及びその制御方法、プログラム
US20080065446A1 (en) * 2006-08-25 2008-03-13 Microsoft Corporation Web collaboration in multiple languages
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US20080195376A1 (en) * 2007-02-14 2008-08-14 Jon Vincent Ramer Conceptual communication via real-time translation on portable electronic devices
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US20080312902A1 (en) * 2007-06-18 2008-12-18 Russell Kenneth Dollinger Interlanguage communication with verification
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US20090228282A1 (en) * 2008-03-07 2009-09-10 Aruze Gaming America, Inc. Gaming Machine and Gaming System with Interactive Feature, Playing Method of Gaming Machine, and Control Method of Gaming System
US8032384B2 (en) * 2008-03-14 2011-10-04 Jay S Rylander Hand held language translation and learning device
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
EP2317416A4 (en) * 2008-08-11 2011-08-24 Konica Minolta Holdings Inc IMAGE DISPLAY DEVICE
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
US20120239377A1 (en) * 2008-12-31 2012-09-20 Scott Charles C Interpretor phone service
US20100223050A1 (en) * 2009-02-27 2010-09-02 Ken Kelly Method and system for evaluating a condition associated with a person
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10255566B2 (en) 2011-06-03 2019-04-09 Apple Inc. Generating and processing task items that represent tasks to perform
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
DE112011100329T5 (de) 2010-01-25 2012-10-31 Andrew Peter Nelson Jerram Vorrichtungen, Verfahren und Systeme für eine Digitalkonversationsmanagementplattform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
JP5938897B2 (ja) * 2011-12-27 2016-06-22 カシオ計算機株式会社 情報表示装置、情報表示プログラム及び情報表示方法
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
KR102698417B1 (ko) 2013-02-07 2024-08-26 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
AU2014233517B2 (en) 2013-03-15 2017-05-25 Apple Inc. Training an at least partial voice command system
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
US9430465B2 (en) * 2013-05-13 2016-08-30 Facebook, Inc. Hybrid, offline/online speech translation system
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
KR101959188B1 (ko) 2013-06-09 2019-07-02 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
AU2014278595B2 (en) 2013-06-13 2017-04-06 Apple Inc. System and method for emergency calls initiated by voice command
US10791216B2 (en) 2013-08-06 2020-09-29 Apple Inc. Auto-activating smart responses based on activities from remote devices
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
AU2015266863B2 (en) 2014-05-30 2018-03-15 Apple Inc. Multi-command single utterance input method
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
WO2016048350A1 (en) * 2014-09-26 2016-03-31 Nuance Communications, Inc. Improving automatic speech recognition of multilingual named entities
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
US20180018961A1 (en) * 2016-07-13 2018-01-18 Google Inc. Audio slicer and transcription generator
US10108600B2 (en) * 2016-09-16 2018-10-23 Entigenlogic Llc System and method of attribute, entity, and action organization of a data corpora
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10540451B2 (en) 2016-09-28 2020-01-21 International Business Machines Corporation Assisted language learning
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20190220756A1 (en) 2018-01-16 2019-07-18 Entigenlogic Llc Identifying sentiment for a portion of a knowledge base
US10943075B2 (en) 2018-02-22 2021-03-09 Entigenlogic Llc Translating a first language phrase into a second language phrase
US12430371B2 (en) 2018-02-22 2025-09-30 Entigenlogic Llc Generating a product-service query response utilizing a knowledge database
US11799664B2 (en) 2018-03-26 2023-10-24 Entigenlogic Llc Verifying authenticity of content to produce knowledge
US11003855B2 (en) 2018-03-26 2021-05-11 Entigenlogic Llc Resolving an undesired document artifact
US12493746B2 (en) * 2018-04-19 2025-12-09 Entigenlogic Llc Creating a superset of knowledge
US11232260B2 (en) 2018-04-19 2022-01-25 Entigenlogic Llc Updating a document utilizing trusted new information
US11100324B2 (en) 2018-05-25 2021-08-24 Entigenlogic Llc Interpreting an image
US10942919B2 (en) 2018-06-29 2021-03-09 Entigenlogic Llc Generating further knowledge to process query
US11748563B2 (en) 2018-07-30 2023-09-05 Entigenlogic Llc Identifying utilization of intellectual property
US11176126B2 (en) 2018-07-30 2021-11-16 Entigenlogic Llc Generating a reliable response to a query
US11720558B2 (en) 2018-07-30 2023-08-08 Entigenlogic Llc Generating a timely response to a query
US12050869B2 (en) 2018-08-21 2024-07-30 Entigenlogic Llc Generating an unambiguous interpretation of ingested content to produce knowledge
US12147907B2 (en) 2018-09-26 2024-11-19 Entigenlogic Llc Curing a deficiency of a knowledge database
US11263403B2 (en) 2018-09-26 2022-03-01 Entigenlogic Llc Interpreting a most likely meaning of a phrase
US12204863B2 (en) 2018-10-30 2025-01-21 Entigenlogic Llc Curating knowledge of a knowledge database
US11288583B2 (en) 2018-10-30 2022-03-29 Entigenlogic Llc Remedying defective knowledge of a knowledge database
US12386869B2 (en) 2018-11-29 2025-08-12 Entigenlogic Llc Image processing utilizing an entigen construct
US11544320B2 (en) 2018-11-29 2023-01-03 Entigenlogic Llc Image processing utilizing an entigen construct
US11423221B2 (en) 2018-12-31 2022-08-23 Entigenlogic Llc Generating a query response utilizing a knowledge database
US12182188B2 (en) 2018-12-31 2024-12-31 Entigenlogic Llc Generating a subjective query response utilizing a knowledge database
US11386130B2 (en) 2019-01-28 2022-07-12 Entigenlogic Llc Converting content from a first to a second aptitude level
US12314237B2 (en) 2019-01-28 2025-05-27 Entigenlogic Llc Curing impaired content utilizing a knowledge database of entigens
US11586939B2 (en) * 2019-02-28 2023-02-21 Entigenlogic Llc Generating comparison information
US11442993B2 (en) 2019-04-03 2022-09-13 Entigenlogic Llc Processing a query to produce an embellished query response
US12147908B2 (en) 2019-04-03 2024-11-19 Entigenlogic Llc Processing a contradiction in a knowledge database
US11586819B2 (en) 2019-04-29 2023-02-21 Entigenlogic Llc Interpreting meaning of content
US11693893B2 (en) 2020-05-27 2023-07-04 Entigenlogic Llc Perfecting a query to provide a query response
US12468743B2 (en) 2020-05-27 2025-11-11 Entigenlogic Llc Perfecting a query to provide a query response
US12314664B2 (en) 2020-06-30 2025-05-27 Entigenlogic Llc Accessing a knowledge database
US11960840B2 (en) 2020-07-22 2024-04-16 Entigenlogic Llc Selecting a meaning of a word of a phrase
US11816434B2 (en) 2020-08-27 2023-11-14 Entigenlogic Llc Utilizing inflection to select a meaning of a word of a phrase
US12099536B2 (en) 2020-09-23 2024-09-24 Entigenlogic Llc Extracting knowledge from a knowledge database
US12019628B2 (en) 2020-10-21 2024-06-25 Entigenlogic Llc Determination of meaning of a phrase with ambiguity resolution
US12437212B2 (en) 2022-01-19 2025-10-07 Entigenlogic Llc Utilizing meaning to find a document

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0242570A (ja) 1988-08-03 1990-02-13 Sharp Corp 電訳機
CH686984A5 (de) * 1993-09-07 1996-08-15 Max Hugentobler Elektronisches Uebersetzungsgeraet.
JPH09128397A (ja) * 1995-11-06 1997-05-16 Sharp Corp 通訳機
JPH1069484A (ja) 1996-08-27 1998-03-10 Eebuitsuku:Kk 絵文字型多言語交流システム
GB9619165D0 (en) * 1996-09-13 1996-10-23 British Telecomm Training apparatus and method
US7165020B2 (en) * 1998-05-29 2007-01-16 Citicorp Development Center, Inc. Multi-language phrase editor and method thereof
JPH11238063A (ja) 1997-12-19 1999-08-31 Sony Corp 情報処理装置および方法、並びに提供媒体
US6622123B1 (en) * 2000-06-23 2003-09-16 Xerox Corporation Interactive translation system and method
JP4135307B2 (ja) * 2000-10-17 2008-08-20 株式会社日立製作所 音声通訳サービス方法および音声通訳サーバ
US20020087302A1 (en) * 2000-11-10 2002-07-04 Miyuki Tomaru Processing system, processing method and recording medium
US20020111791A1 (en) * 2001-02-15 2002-08-15 Sony Corporation And Sony Electronics Inc. Method and apparatus for communicating with people who speak a foreign language
US7113904B2 (en) * 2001-03-30 2006-09-26 Park City Group System and method for providing dynamic multiple language support for application programs
FR2826475A1 (fr) * 2001-06-22 2002-12-27 Pierre Andre Mestre Procede et dispositif de traduction

Also Published As

Publication number Publication date
JP2003157256A (ja) 2003-05-30
US7162412B2 (en) 2007-01-09
US20030097251A1 (en) 2003-05-22

Similar Documents

Publication Publication Date Title
JP3980331B2 (ja) 多言語間会話支援システム
US9507771B2 (en) Methods for using a speech to obtain additional information
CN101621547B (zh) 从用户处接收输入或地址项目的方法和设备
US7177814B2 (en) Dynamic grammar for voice-enabled applications
JP4237915B2 (ja) ユーザが文字列の発音を設定することを可能にするためにコンピュータ上で実行される方法
US8032383B1 (en) Speech controlled services and devices using internet
US8185539B1 (en) Web site or directory search using speech recognition of letters
US8355919B2 (en) Systems and methods for text normalization for text to speech synthesis
US20060143007A1 (en) User interaction with voice information services
US20100082344A1 (en) Systems and methods for selective rate of speech and speech preferences for text to speech synthesis
US20100082349A1 (en) Systems and methods for selective text to speech synthesis
US20100082329A1 (en) Systems and methods of detecting language and natural language strings for text to speech synthesis
JP2013020411A (ja) 情報処理装置、情報処理方法及びプログラム
JPH0698026A (ja) 対話型システム内で使用されるマルチ言語機能
US6732078B1 (en) Audio control method and audio controlled device
JP6141483B1 (ja) 音声翻訳装置、音声翻訳方法、及び音声翻訳プログラム
US20060247932A1 (en) Conversation aid device
US20060190240A1 (en) Method and system for locating language expressions using context information
JP6310950B2 (ja) 音声翻訳装置、音声翻訳方法、及び音声翻訳プログラム
JP2001188795A (ja) 電子辞書との通信機能を有する電子機器及び電子辞書及び電子機器制御プログラムを記憶した記憶媒体
JP6676093B2 (ja) 異言語間コミュニケーション支援装置及びシステム
JP2017182395A (ja) 音声翻訳装置、音声翻訳方法、及び音声翻訳プログラム
JP6250209B1 (ja) 音声翻訳装置、音声翻訳方法、及び音声翻訳プログラム
JP5998298B1 (ja) 音声翻訳装置、音声翻訳方法、及び音声翻訳プログラム
JPH11252281A (ja) 電話端末装置

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040304

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20040319

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20040528

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070627

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3980331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100706

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110706

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110706

Year of fee payment: 4

S201 Request for registration of exclusive licence

Free format text: JAPANESE INTERMEDIATE CODE: R314201

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110706

Year of fee payment: 4

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110706

Year of fee payment: 4

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110706

Year of fee payment: 4

S201 Request for registration of exclusive licence

Free format text: JAPANESE INTERMEDIATE CODE: R314201

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110706

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S202 Request for registration of non-exclusive licence

Free format text: JAPANESE INTERMEDIATE CODE: R315201

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110706

Year of fee payment: 4

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110706

Year of fee payment: 4

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110706

Year of fee payment: 4

S202 Request for registration of non-exclusive licence

Free format text: JAPANESE INTERMEDIATE CODE: R315201

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110706

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110706

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120706

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130706

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130706

Year of fee payment: 6

S211 Written request for registration of transfer of exclusive licence

Free format text: JAPANESE INTERMEDIATE CODE: R314213

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130706

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees