JP2009199255A - 入力支援装置及び方法 - Google Patents

入力支援装置及び方法 Download PDF

Info

Publication number
JP2009199255A
JP2009199255A JP2008039121A JP2008039121A JP2009199255A JP 2009199255 A JP2009199255 A JP 2009199255A JP 2008039121 A JP2008039121 A JP 2008039121A JP 2008039121 A JP2008039121 A JP 2008039121A JP 2009199255 A JP2009199255 A JP 2009199255A
Authority
JP
Japan
Prior art keywords
input
information
candidate
notation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008039121A
Other languages
English (en)
Inventor
Masahide Arisei
政秀 蟻生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008039121A priority Critical patent/JP2009199255A/ja
Priority to US12/389,209 priority patent/US20090222725A1/en
Publication of JP2009199255A publication Critical patent/JP2009199255A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/274Converting codes to words; Guess-ahead of partial word inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Document Processing Apparatus (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】参照情報における時間的位置と、ユーザの入力における空間的位置との関連性に基づいて入力候補を生成可能な入力支援装置を提供する。
【解決手段】ユーザ入力のための参照情報の構成単位の表記を示す第2の表記情報と構成単位の参照情報における時間的順序を示す順序情報とを対応付けて記憶する記憶部104と;過去のユーザ入力についての表記情報が第2の表記情報であれば、表記情報と、表記情報に対応する順序情報と、入力位置情報とを含む入力履歴を記憶する記憶部105と;入力位置情報及び入力履歴に基づいて参照情報に対する検索範囲を推定する推定部106と;第1の表記情報と少なくとも一部が一致する第2の表記情報を持つ構成単位を参照情報の検索範囲から検索し、検索された第2の表記情報と、対応する順序情報とを持つ第2の入力候補を生成する第2の生成部107と;を具備する。
【選択図】 図1

Description

本発明は、ユーザの入力候補を提示することにより入力を支援する入力支援装置及び方法に関する。
計算機や携帯電話機等に、ユーザが文字、音声またはジェスチャー等の伝達手段によって入力を行う際には、文字認識、音声認識または画像認識など伝達手段に応じた認識技術が用いられ、正しい入力が得られる。ところで、ユーザが意図する内容を全て入力せずとも、入力の一部の内容からユーザの意図する内容を予測し、ユーザの入力を効率化する入力支援技術が研究開発されている。
特許文献1には、単語を入力単位とし、ユーザから入力された単語の前方または後方に連結されるフレーズ(単語の組み合わせ)候補を、フレーズ辞書から検索して、ユーザに提示する文字入力装置について記載されている。従って、このフレーズ候補にユーザの意図するフレーズが存在すれば、ユーザは当該フレーズを選択するだけで当該フレーズを入力することができるので、一字ずつ文字入力を行う場合に比べて効率的な入力が可能となる。
特許文献2には、ユーザの入力内容に加えて、入力位置に基づいて入力予測を行う入力支援装置について記載されている。具体的には、特許文献2記載の入力支援装置は、ユーザの入力内容から得られる入力候補の優先度を、入力位置に応じて変化させることにより、入力予測の精度を向上させている。例えば、特許文献2記載の入力支援装置は、入力位置が住所欄であれば、住所に相当する入力候補の優先度を高くする。
一方、例えばユーザが講演や発表等のメモを取るような場面、即ち、参照情報が存在し、ユーザが当該参照情報を参照して入力を行う場面において、上記参照情報を利用することによって、入力予測の精度を向上させることができる。
特許文献3には、ある話者の発声の音声認識結果を参照情報として、作業者(ユーザ)の行った入力の文字認識結果を用いて上記参照情報を検索し、当該文字認識結果を含む単語などを入力候補としてユーザに提示する文字列予測方法が記載されている。特許文献3記載の文字列予測方法によれば、ユーザの入力場面に応じた入力予測が可能となる。
特開2005−301699号公報 特開平8−329057号公報 特開2007−18290号公報
特許文献1記載の文字入力装置では、入力予測の予測精度はフレーズ辞書に依存する。従って、特許文献1記載の文字入力装置は、ユーザの入力場面がフレーズ辞書の想定している場面と異なる場合は、的確な入力候補の生成を期待できない。
特許文献2記載の入力支援装置は、入力位置に応じて入力候補の優先度を変化させている。従って、入力位置が住所欄である等、入力位置と優先度を変化させる入力候補との対応関係が予め設定されていなければ、特許文献2記載の入力支援装置では、入力候補の予測精度の向上を期待できない。
特許文献3記載の文字列予測方法は、ユーザの入力の文字認識結果を用いて、ある話者の発声の音声認識によって得られる参照情報を検索することにより、入力候補を得ている。従って、特許文献3記載の文字列予測方法では、例えばユーザの入力の文字認識結果が漢字の時に、表記は一致するものの読みが一致しない入力候補が得られるおそれがある。
また、特許文献3記載の文字列予測方法では、入力候補を生成する度に参照情報の全範囲を検索する必要がある。一方、例えば、ユーザが講演や発表を参照情報としてメモを取るような場合であれば、参照情報における時間的(順序的)情報と、ユーザの入力における空間的情報とは関連する傾向にある。即ち、特許文献3記載の文字列予測方法は、このような関連性を考慮しない、冗長な検索を行っており、参照情報の量が膨大になると、検索処理の負担が問題となる。また、特許文献3記載の文字予測方法では、最近の一定時間内の音声認識結果を参照情報とすることもできるが、その場合でも入力の度に参照情報を全て探索することは変わらない。
従って、本発明は参照情報における時間的位置と、ユーザの入力における空間的位置との関連性に基づいて入力候補を生成可能な入力支援装置を提供することを目的とする。
本発明の一態様に係る入力支援装置は、ユーザ・インタフェース上におけるユーザ入力の内容及び位置を表す入力内容情報及び入力位置情報を検出する検出部と;前記入力内容情報に基づいて第1の表記情報を持つ第1の入力候補を生成する第1の生成部と;前記ユーザ入力のための参照情報を構成する構成単位毎に、当該構成単位の表記を示す第2の表記情報と当該構成単位の前記参照情報における時間的順序を示す順序情報とを対応付けて記憶する第1の記憶部と;過去のユーザ入力についての表記情報が前記第2の表記情報であれば、当該表記情報と、当該表記情報に対応する前記順序情報と、当該入力位置情報とを含む入力履歴を記憶する第2の記憶部と;前記入力位置情報及び前記入力履歴に基づいて前記参照情報に対する検索範囲を推定する推定部と;前記第1の表記情報と少なくとも一部が一致する前記第2の表記情報を持つ前記構成単位を前記参照情報の前記検索範囲から検索し、検索された第2の表記情報と当該検索された第2の表記情報に対応付けられている前記順序情報とを持つ第2の入力候補を生成する第2の生成部と;前記第1入力候補及び第2の入力候補から提示入力候補を生成してユーザに提示する提示部と;提示された前記提示入力候補に対する前記ユーザから確定入力の選択を受理する受理部と;を具備する。
本発明の他の態様に係る入力支援装置は、ユーザ・インタフェース上におけるユーザ入力の内容及び位置を表す入力内容情報及び入力位置情報を検出する検出部と;前記入力内容情報に基づいて第1の表記情報と第1の読み情報を持つ第1の入力候補とを生成する第1の生成部と;前記ユーザ入力のための参照情報を構成する構成単位毎に、当該構成単位の表記を示す第2の表記情報と、当該構成単位の読みを示す第2の読み情報と、当該構成単位の前記参照情報における時間的順序を示す順序情報とを対応付けて記憶する第1の記憶部と;過去のユーザ入力についての前記読み情報が前記第2の読み情報であれば、当該第2の読み情報と、当該第2の読み情報に対応する前記順序情報と、当該入力位置情報とを含む入力履歴を記憶する第2の記憶部と;前記入力位置情報及び前記入力履歴に基づいて前記参照情報に対する検索範囲を推定する推定部と;前記第1の読み情報と少なくとも一部が一致する前記第2の読み情報を持つ前記構成単位を前記参照情報の前記検索範囲から検索し、検索された第2の読み情報と当該検索された第2の読み情報に対応付けられている前記第2の表記情報と前記順序情報とを持つ第2の入力候補を生成する第2の生成部と;前記第1入力候補及び第2の入力候補から提示入力候補を生成してユーザに提示する提示部と;提示された提示入力候補に対する前記ユーザから候補選択を受理する受理部と;を具備する。
本発明によれば、参照情報における時間的位置と、ユーザの入力における空間的位置との関連性に基づいて入力候補を生成可能な入力支援装置を提供できる。
以下、図面を参照して、本発明の実施形態について説明する。
(第1の実施形態)
図1に示すように、本発明の第1の実施形態に係る入力支援装置100は、入力検出部101、第1の入力候補生成部102、参照詳細情報抽出部103、参照詳細情報記憶部104、入力履歴記憶部105、検索範囲推定部106、第2の入力候補生成部107、入力候補提示部108及び候補選択受理部109を有する。
入力検出部101は、ユーザ21が参照情報11を参照して行う入力10の後述する入力内容情報及び入力位置情報を検出する。入力部101は、入力内容情報を第1の入力候補生成部102に渡し、入力位置情報を検索範囲推定部106に渡す。尚、入力検出部101は、入力が確定されるまで、あるいは所定の条件で初期化されるまでは、それまでの入力内容情報及び入力位置情報を保持するものとする。
具体的には、図1の入力支援装置100のユーザ・インタフェースは、例えばタブレット型パーソナルコンピュータやPDA(Personal Digital Assistant)におけるユーザ・インタフェースと同様の構成で実現される。以下の説明では、上記ユーザ・インタフェースは、図2に示すように、入力位置指定及び確定入力表示領域31、文字入力領域32及び入力候補表示領域33を有する。入力位置指定及び確定入力表示領域31にはカーソル34が表示され、当該カーソル34によってユーザ21は入力位置を指定する。参照情報11を参照したユーザ21は、文字入力領域32において例えばペン装置等で構成される入力装置22を用いて入力を行う。後述するように、入力が確定されると、入力位置指定及び確定入力表示領域31中のカーソル34で指定される位置に確定入力が表示される。尚、カーソル34の位置は、上記入力装置22によって指定できるものとする。入力検出部101は、上記例であれば、文字入力領域32における入力内容を入力内容情報として検出し、カーソル34の座標(行及び列)を入力位置情報として検出する。尚、以下の説明ではユーザ21からの入力10は文字入力としているが、これに限らず音声入力等であってもよい。
第1の入力候補生成部102は、入力検出部101によって検出された入力内容情報の文字認識を行って入力10の表記情報を得る。第1の入力候補生成部102は、当該表記情報に応じた第1の入力候補を第2の入力候補生成部107及び入力候補提示部108に渡す。尚、第1の入力候補生成部102の具体的構成は特に限定されないが、例えば、既存の文字認識技術を実現可能なプログラム、回路等で構成される。また、第1の入力候補生成部102は、上記文字認識のスコアに応じて、複数の第1の入力候補を生成してもよい。ここで、文字認識のスコアとは、候補の当てはまりの度合い(尤度)や信頼度を表現するものとする。また、第1の入力候補生成部102は、単に表記情報だけでなくスコアを併せて第1の入力候補として出力してもよく、以下の説明では表記情報及び対応するスコアを第1の入力候補として出力するものとする。
参照詳細情報抽出部103は、参照情報11から参照詳細情報を抽出する。ここで、図1の入力支援装置100が扱う参照情報11は、音声、文章または映像等の時間的(順序的)な意味を持ち得る情報とする。即ち、参照情報11は、音素、単語または画像等のような、情報の構成単位を単に集積したものではない。以下の説明では、参照情報11は文章であるとし、参照詳細情報とは当該文章の構成単位毎の表記情報及び当該単語の順序情報を含むものとする。ここで、文章の構成単位は、例えば単語であるが、単語の組み合わせであるフレーズ等でもよい。また、表記情報は、上記参照情報の構成単位に対して与えられるシンボルであり、以下の説明では単語の文字表記を示す。また、順序情報は、上記参照情報の構成単位の、当該参照情報における時間的位置を示し、具体例については後述する。尚、参照詳細情報が予め与えられていれば、参照詳細情報抽出部103は不要である。
参照詳細情報記憶部104には、参照詳細情報抽出部103によって抽出された参照詳細情報が記憶される。具体的には、参照詳細情報記憶部104において、参照情報11を構成する各単語の表記情報と、当該表記情報に対応する順序情報とが記憶される。参照詳細情報記憶部104は、参照詳細情報を所定の位置に記憶し、外部からの要求に応じて任意の位置に記憶される参照詳細情報を取り出すことのできるRAM(Random Access Memory)で構成される。参照詳細情報記憶部104は、その他、ランダム・アクセス可能な記憶回路または記憶媒体で構成されてもよい。
入力履歴記憶部105には、入力履歴が記憶される。ここで、入力履歴は、過去の確定入力14の入力位置情報と、表記情報とを少なくとも含んでいる。また、上記確定入力14が後述する第2の入力候補から選ばれたものであれば、入力履歴には上記表記情報に対応する順序情報も含まれる。また、上記表記情報に対応する順序情報が複数ある場合には、1つの確定入力14に対して複数の入力履歴が入力履歴記憶部105に記憶されてもよいし、1つの入力履歴が複数の順序情報を持つものとして入力履歴記憶部105に記憶されてもよい。入力履歴記憶部105は、入力履歴を所定の位置に記憶し、外部からの要求に応じて任意の位置に記憶される入力履歴を取り出すことのできるRAMで構成される。入力履歴記憶部105は、その他、ランダム・アクセス可能な記憶回路または記憶媒体で構成されてもよい。
検索範囲推定部106は、入力検出部101によって検出された入力位置情報と、入力履歴記憶部105に記憶される入力履歴とを用いて検索範囲を推定し、推定された検索範囲を第2の入力候補生成部107に渡す。具体的な検索範囲の推定動作については後述するが、検索範囲推定部106は、当該推定動作を実行可能な回路または計算機上のプログラムで構成される。
第2の入力候補生成部107は、上記検索範囲に含まれる参照詳細情報から、第1の入力候補生成部102によって生成された第1の入力候補に含まれる表記情報と一部または全部一致する表記情報を持つ参照詳細情報を検索し、検索された参照詳細情報に基づいて第2の入力候補を生成して、当該第2の入力候補を入力候補提示部108に渡す。
尚、第2の入力候補は、検索された参照詳細情報の表記情報に加えて、当該参照詳細情報の順序情報を含むものとする。また、第2の入力候補生成部107は、上記検索の当てはまりの程度に応じてスコアを与えてもよい。また、第2の入力候補として、同一の表記情報を持ち、かつ、異なる順序情報を持つ候補が複数得られた場合には、第2の入力候補生成部107は、当該複数の候補を統合し、1つの表記情報と、複数の順序情報を持つ第2の入力候補を生成する。具体的な第2の入力候補の生成動作については後述するが、第2の入力候補推定部107は、当該生成動作を実行可能な回路または計算機上のプログラムで構成される。
入力候補提示部108は、第1の入力候補生成部102によって生成された第1の入力候補と、第2の入力候補生成部107によって生成された第2の入力候補から提示入力候補12を生成して、その中の一部または全てをユーザ21に提示する。第1の入力候補と第2の入力候補からの提示入力候補12の生成については後述する。入力候補提示部108は、例えば図2に示すような、図1の入力支援装置100のユーザ・インタフェースを利用して、提示入力候補12の一部または全てをユーザ21に提示する。図2の例であれば、入力候補提示部108は、入力候補表示領域33に提示入力候補12を表示可能な数だけ提示する。また、入力候補提示部108は、候補選択受理部109に、上記提示入力候補12を通知する。
提示入力候補の生成について説明する。基本的には第1の入力候補と第2の入力候補を併せたものを提示入力候補とする。ただし、入力候補提示部108は、第1の入力候補と第2の入力候補の表記情報が一致する場合には、第2の入力候補を優先し、第1の入力候補を入力候補12に含めない。また、入力候補提示部108は、各入力候補12を当該入力候補12のスコアの降順に並べて提示してよい。また、入力候補提示部108は、第1の入力候補のスコア及び第2の入力候補のスコアを対等に評価するために、これらのスコアを正規化してもよい。また、入力候補提示部108は、第1の入力候補のスコア及び第2の入力候補のスコアの高い順に所定個数のみを提示入力候補12として提示してもよい。また、入力候補提示部108は、第1の入力候補のスコア及び第2の入力候補のスコアが一定以上のスコアのみを提示入力候補12として提示してもよい。
候補選択受理部109は、入力候補提示部108によって提示された提示入力候補12に関して、ユーザ21からの候補選択13を受理する。候補選択受理部109は、ユーザ21から受理した候補選択13に応じた入力候補を確定入力14としてユーザ21に提示すると共に、確定入力14を用いて入力履歴記憶部105に記憶される入力履歴を更新する。
候補選択受理部109は、例えば図2に示すような、図1の入力支援装置100のユーザ・インタフェースを利用して、ユーザ21から候補選択13を受理し、確定入力14を提示する。図2の例であれば、候補選択受理部109は、入力候補表示領域33に提示された提示入力候補12のいずれか1つに対する、ユーザ21からの候補選択13を受理する。ユーザ21は、入力装置22を用いて入力候補を選択できる。候補選択受理部109は、候補選択13を受理すると、当該候補選択13に応じた確定入力14を、入力位置指定及び確定入力表示領域31中のカーソル34によって指定される入力位置に提示する。
以下、図3に示すフローチャートを用いて図1の入力支援装置100の動作の流れについて説明する。
まず、入力検出部101が、ユーザ21が参照情報11を参照して行った入力10を検出し(ステップ200)、処理はステップ201に進む。ステップ201では、入力検出部101は、検出された入力10の入力内容情報及び入力位置情報を検出し、処理はステップ202に進む(ステップ201)。また、このステップ201においては、ユーザ21が入力10を行い、以降で説明する処理の流れを経て入力支援装置が提示入力候補12を提示した際に、ユーザ21がいずれの提示入力候補12も選択せずに追加して入力を行う場合が考えられる。その場合も含めたステップ201内の処理の流れの詳細については後述する。
ステップ202において、第1の入力候補生成部102が、現在の入力内容情報を用いて第1の入力候補を生成する。例えば、第1の入力候補生成部102は、入力内容情報に対して文字認識を行って得られる表記情報及び当該文字認識のスコアを第1の入力候補として生成する。尚、第1の入力候補生成部102が生成する第1の入力候補は1つに限らず、例えば上記スコアが一定以上の複数の候補を生成してもよい。
次に、検索範囲推定部106は、現在の入力位置情報と、入力履歴記憶部に記憶される入力履歴とを用いて検索範囲を推定する(ステップ203)。尚、ステップ202とステップ203はこの順ではなく逆順に行われてもよいし、同時に並列に行われてもよい。また、ステップ203における処理の詳細は、後述する。
次に、第2の入力候補生成部107は、ステップ203において推定された検索範囲に含まれる参照詳細情報から、ステップ202において第1の入力候補生成部102によって生成された第1の入力候補に含まれる表記情報と一部または全部一致する表記情報を持つ参照詳細情報を検索し、検索された参照詳細情報に基づいて第2の入力候補を生成する(ステップ204)。尚、ステップ204における処理の詳細は、後述する。
次に、入力候補提示部108は、ステップ202において生成された第1の入力候補と、ステップ204において生成された第2の入力候補から提示入力候補12を生成してユーザ21に提示し、処理はステップ206に進む(ステップ205)。
ステップ206では、候補選択受理部109は、ユーザ21からの候補選択13を待つ。候補選択受理部109が、ユーザ21からの候補選択13を受理すると、候補選択受理部109は、当該候補選択13に応じた確定入力14をユーザ21に提示する(ステップ207)。次に、候補選択受理部109は、ステップ206において受理した候補選択13に応じた確定入力14を用いて、入力履歴記憶部105に記憶される入力履歴を更新し(ステップ208)、処理は終了して次の入力を待つ。
一方、ステップ206において、ユーザ21からの候補選択13が無いまま、ユーザ21からの文字入力が検出されれば、処理はステップ201に進む(ステップ209)。ステップ201では、後述する処理が行われ、処理はステップ202に戻る。
以下、ステップ203において検索範囲推定部106が行う検索範囲の推定動作について詳細に述べる。
検索範囲推定部106は、例えば図7に示すようなフローチャートに従い検索範囲を推定してよい。
まず、検索範囲推定部106は、現在の入力位置情報に最も近く、順序情報を持つ入力履歴を検索する(ステップ211)。即ち、入力履歴は、前述したように、過去の確定入力14の入力位置情報と、表記情報とが含まれ、また、上記確定入力14が第2の入力候補から選ばれたものであれば、入力履歴には上記表記情報に対応する順序情報も記憶されている。従って、過去の確定入力14に第2の入力候補から選ばれたものがあれば順序情報を持つ入力履歴が存在し、一方、過去の確定入力14に第2の入力候補から選ばれたものがなければ順序情報を持つ入力履歴は存在しない。尚、入力位置間の距離の測り方については、例えば入力位置情報として座標を用いる場合であれば、当該座標間のユークリッド距離で評価してよいし、その他の距離尺度で評価してもよい。
検索範囲推定部106は、現在の入力位置情報に最も近く、順序情報を持つ入力履歴が存在しなければ、参照詳細情報の全てを検索範囲と推定する(ステップ212)。
検索範囲推定部106は、現在の入力位置情報に最も近く、順序情報を持つ入力履歴が存在すれば、当該入力履歴の示す入力位置情報が、現在の入力位置情報の前側か後側かを判断する(ステップ213)。ここで、入力位置が前側であるか後側であるかについては、例えば、上記入力位置が、現在の入力位置情報より前の行或いは行が等しく前の列の場合を前側、現在の入力位置情報より後ろの行或いは行が等しく後ろの列の場合を後側、と定めるものとする。尚、行及び列の前後については、例えば入力10の言語に応じて定めてよい。
検索範囲推定部106は、ステップ213において前側と判断すれば、検索範囲の始点をステップ211において検索した入力履歴の示す順序情報とし、検索方向を「後方」と定める(ステップ215)。一方、検索範囲推定部106は、ステップ213において後側と判断すれば、検索範囲の始点をステップ211において検索した入力履歴の示す順序情報とし、検索方向を「前方」と定める(ステップ214)。
ここで、検索範囲の始点とは、参照詳細情報のある順序情報を示し、検索方向は順序情報の時間的方向を示す。例えば図10Aに示すように、検索範囲の始点としてある順序情報が与えられ、検索方向として「後方」が定められれば、参照詳細情報のうち、上記始点にあたる順序情報以後の順序情報を持つ参照詳細情報のみが検索範囲となり、上記順序情報よりも前の順序情報を持つ参照詳細情報は検索範囲から除外される。一方、検索範囲の始点としてある順序情報が与えられ、検索方向として「前方」が定められれば、参照詳細情報のうち、上記順序情報以前の順序情報を持つ参照詳細情報のみが検索範囲となり、上記順序情報よりも後の順序情報を持つ参照詳細情報は検索範囲から除外される。即ち、検索範囲推定部106は、参照情報11における時間的位置と、入力10における空間的位置との関連性を利用して、検索範囲を推定する。
また、検索範囲推定部106は、例えば図8に示すようなフローチャートに従い検索範囲を推定してよい。
まず、検索範囲推定部106は、現在の入力位置情報よりも前側の、順序情報を持つ入力履歴を検索する(ステップ221)。検索範囲推定部106は、現在の入力位置情報よりも前側に、順序情報を持つ入力履歴が存在すれば、当該入力履歴の持つ順序情報を検索範囲の始点と定め、処理はステップ224に進む(ステップ222)。尚、検索範囲推定部106は、上記順序情報が複数存在すれば、検索範囲の始点を複数定めてよい。一方、検索範囲推定部106は、現在の入力位置情報よりも前側に、順序情報を持つ入力履歴が存在しなければ、参照詳細情報の最初の順序情報を検索範囲の始点と定め、処理はステップ224に進む(ステップ223)。
ステップ224では、検索範囲推定部106は、現在の入力位置情報よりも後側の、順序情報を持つ入力履歴を検索する。検索範囲推定部106は、現在の入力位置情報よりも後側に、順序情報を持つ入力履歴が存在すれば、当該入力履歴の持つ順序情報を検索範囲の終点と定める(ステップ225)。尚、検索範囲推定部106は、上記順序情報が複数存在すれば、検索範囲の終点を複数定めてよい。一方、検索範囲推定部106は、現在の入力位置情報よりも後側に、順序情報を持つ入力履歴が存在しなければ、参照詳細情報の最後の順序情報を検索範囲の終点と定める。
図8の例では、検索範囲の始点及び終点は、参照詳細情報の順序情報であり、検索範囲は当該始点及び終点で定められる。即ち、検索範囲は、始点を示す順序情報以後であって、終点を示す順序情報以前の順序情報を持つ参照詳細情報となる。ところで、検索範囲の始点及び終点は、図10Bに示すように複数存在する可能性があり、検索範囲の候補が複数想定されるが、どの検索範囲が実際に利用されるかは、後述するように第2の入力候補生成部107によって定められる。
尚、検索範囲推定部106における検索範囲の推定動作は図7及び図8のフローチャートに限定されるものではなく、これらを組み合わせてもよい。
以下、ステップ204において第2の入力候補生成部107が行う、第2の入力候補の生成動作について図9を用いて詳細に述べる。
まず、第2の入力候補生成部107は、ステップ203において検索範囲推定部106によって推定された検索範囲から、実際に検索対象とする検索範囲を決定する(ステップ231)。前述したように、検索範囲推定部106は、複数の検索範囲を推定することがある。このような場合には、第2の入力候補生成部107は、複数の検索範囲の候補のうち、図10Bの上側の検索範囲のように最も狭い検索範囲を選択してよいし、図10Bの下側の検索範囲のように最も広い検索範囲を選択してもよいし、その他の評価基準に基づいて検索範囲を決定してもよい。この複数の検索範囲の選択方法については、入力支援装置の目的によって決められるものとする。
次に、第2の入力候補生成部107は、ステップ231において決定した検索範囲に含まれる順序情報を持つ参照詳細情報を、参照詳細情報記憶部104から抽出する(ステップ232)。
次に、第2の入力候補生成部107は、ステップ232において抽出した参照詳細情報から、ステップ202において第1の入力候補生成部102によって生成された第1の入力候補の表記情報と一部または全部一致する表記情報を持つ、参照詳細情報を検索する(ステップ233)。具体的には、第2の入力候補生成部107は、第1の入力候補の表記情報を用いて前方一致探索を行ってよいし、各参照詳細情報の各構成要素の表記情報に当該第1の入力候補の表記情報が含まれるか否かを確認するようにしてもよい。第2の入力候補生成部107は、ステップ233で検索した参照詳細情報に基づいて第2の入力候補を生成する。
このように第2の入力候補生成部107は、検索範囲推定部106によって推定された検索範囲を用いることにより、効率的に検索を行える。また、第2の入力候補生成部107がステップ232において検索を行う範囲は、参照詳細情報の全てとしておき、推定された検索範囲をスコアの補正に利用してもよい。即ち、推定された検索範囲から得られた第2の入力候補のスコアに所定値を加算または乗算することによって、第2の入力候補生成部107は、取りこぼしを抑えつつ、入力予測の精度を高めることが出来る。
以下、ステップ201における入力内容情報と入力位置情報の検出について、ユーザ21が直前の入力に対して入力支援装置が提示した提示入力候補のいずれも選択することなく追加の入力を行った場合も含めた処理の流れについて、図11を用いて詳細に述べる。
まず、入力検出部101は、新たな入力の内容と入力の位置を検出する(ステップ241)。直前の入力が既に確定されていれば(ステップ242)、入力検出部101は、保持している直前の入力に関する入力内容情報及び入力位置情報を初期化(ステップ246)する。ここで、直前の入力が既に確定されている状態とは、直前に未確定の入力が無い状態を意味し、未だ何の入力もなされていない初期状態を含む。そして、入力検出部101はステップ241において検出された新たな入力の内容と入力の位置を、夫々入力内容情報と入力位置情報として更新して(ステップ247)、処理は終了する。
また、直前の入力が確定されておらず(ステップ242)、かつ、新たな入力が直前の入力から連続してなされた追加する入力(追加入力)であれば(ステップ243)、入力検出部101は、直前の入力に関する入力内容情報にステップ241で検出した入力の内容を付加(追加)して入力内容情報を更新し(ステップ244)、処理は終了する。ここで、入力が追加入力か否かは、直前の入力の位置と、新たな入力の位置とに基づいて判断されるものとする。例えば、入力検出部101は、上記2つの入力の位置の差が一定範囲内であって、かつ、新たな入力が直前の入力よりも後側に存在すれば、新たな入力は直前の入力に連続する追加入力であると判断する。また、ここで連続に入力されるものは、後述の例のように1文字単位の情報であったり、文字入力の場合は文字を書くためのストローク単位の情報であったりしても構わない。どのような単位を入力の単位として扱うかは、本実施形態に係る入力支援装置の目的による。
また、直前の入力が確定されておらず(ステップ242)、かつ、新たな入力が直前の入力から連続する追加入力でなければ(ステップ243)、入力検出部101は、直前の入力を確定させて(ステップ245)、当該直前の入力に関する入力内容情報と入力位置情報を初期化(ステップ246)する。そして入力検出部101はステップ241において検出された新たな入力の内容と位置を、それぞれ入力内容情報と入力位置情報として更新して(ステップ247)、処理は終了する。ステップ245の直前の入力の確定については、入力検出部101は、例えば提示されている提示入力候補12のうち最上位のスコアを持つ候補を確定入力14とみなしてステップ207とステップ208にあたる処理を行ってもよいし、直前の入力を無視して直前の入力に関する入力内容情報と入力位置情報をただ破棄してもよい。直前の入力に関する入力内容情報と入力位置情報を破棄する場合には、確定入力14は(表示すべき)入力がないということに対応したものとなる。
以下、図1の入力支援装置100の入力支援動作の実施例について、図3に示すフローチャートに沿って説明する。
まず、実施例の前提となる状況について説明する。参照情報11は図4Aに示す文章「音声応用技術としては音声認識と音声合成が挙げられる。」であるものとする。参照詳細情報抽出部103は、図4Aの参照情報11に例えば形態素解析を行い、当該参照情報11を図4Bに示すように単語単位に分割する。尚、参照詳細情報抽出部103は、図4Aを形態素解析の結果、複数の単語候補が得られる場合(例えば「音声認識」と「音声」及び「認識」)には、いずれか1つを選択するようにしてもよいし、複数の単語候補をそのまま利用してもよい。次に、参照詳細情報抽出部103は、図4Cに示すように、図4Bの形態素解析結果における各単語の単語表記をそのまま表記情報として抽出する。また、参照詳細情報抽出部103は、図4Cに示すように、図4Bの形態素解析結果における各単語が図4Aの参照詳細情報において第何番目の文字を開始文字とし、第何番目の文字を終端文字としているかという情報を、当該単語の順序情報として抽出する。例えば、参照詳細情報「音声」の順序情報は(1,2)で表され、「1」は「音」が図4Aの参照情報11において第1番目の文字であることを示し、「2」は「音声」の最後の文字である「声」が上記参照情報11において第2番目の文字であることを示す。参照詳細情報抽出部103によって抽出された、図4Cの参照詳細情報は、参照詳細情報記憶部104において図4Dに示すように記憶されている。尚、図4Dにおいて、各参照詳細情報は、識別番号(ID)と、表記情報及び順序情報とが対応付けて記憶されているものの、上記IDは必須な情報ではない。また、以降の説明においても同様に、IDは必須な情報ではなく、各実施形態の説明のために、便宜的に付与している情報とする。
また、本実施例において、入力履歴記憶部105には、予め図6Aに示す入力履歴が記憶されているものとする。尚、入力位置情報は、入力位置指定及び確定入力表示領域31中の行及び列で指定され、(行,列)の形式で各処理が行われるものとする。また、入力位置指定及び確定入力表示領域31には、図6Aの入力履歴に応じた確定入力14が表示されているものとする。
以上のような状況で、図5Aに示すように、ユーザ21が入力装置22を用いて、文字入力領域32に「音」の字を書く入力10を行う。尚、このときカーソル34は、第3行目第1列目、即ち、(3,1)を指しているものとする。
まず、入力検出部101は、上記入力10の入力内容情報及び入力位置情報(3,1)を検出する(ステップ201。より詳細にはステップ241、ステップ242、ステップ246、ステップ247の処理の流れに従う)。尚、上記入力内容情報は、ユーザ21が入力した「音」の画像情報またはストローク情報等、既存の文字認識において利用可能な情報とする。
次に、第1の入力候補生成部102は、図6Bに示すように、ステップ201において検出された入力内容情報に対して文字認識を行って、得られた表記情報「音」及び当該文字認識のスコア「85」を第1の入力候補として生成する(ステップ202)。
次に、検索範囲推定部106は、ステップ201において検出された入力位置情報(3,1)と、図6Aに示す入力履歴とを用いて検索範囲を推定する(ステップ203)。尚、検索範囲推定部106は、前述した図8に示すフローチャートに従って、検索範囲を推定するものとする。
現在の入力位置情報(3,1)の前側で、順序情報を持つ入力履歴は図6AにおけるID=1の入力履歴である。一方、現在の入力位置情報(3,1)の後側で、順序情報を持つ入力履歴は存在しない。従って、検索範囲推定部106は、図6Cに示すように、検索範囲として「始点=(11,14)、終点=参照詳細情報の最後(即ち、第25文字目)」を推定する。
次に、第2の入力候補生成部107は、図6Cに示す検索範囲に含まれる参照詳細情報から、図6Bに示す第1の入力候補に含まれる表記情報「音」と一部または全部一致する表記情報を持つ参照詳細情報を検索し、検索された参照詳細情報に基づいて図6Dに示す第2の入力候補を生成する(ステップ204)。具体的には、第2の入力候補生成部107は、第15文字目以降第25文字目までに含まれる参照詳細情報の表記情報から、第1の入力候補の表記情報「音」を探す前方一致探索を行う。尚、上記検索範囲には、始点(11,14)に相当する参照詳細情報が含まれていないが、当該参照詳細情報が含まれてもよい。
次に、入力候補提示部108は、図6Bに示す第1の入力候補と、図6Dに示す第2の入力候補から図6Eに示す提示入力候補12を生成してユーザ21に提示する(ステップ205)。具体的には、入力候補提示部108は、図5Bに示すように、入力候補表示領域33において、図6Eに示す提示入力候補12をスコアの高い順に入力候補表示領域33で表示可能な数だけユーザ21に提示する。
次に、候補選択受理部109は、ユーザ21から図6EにおけるID=2の入力候補を選択する候補選択13を受理する(ステップ206)。候補選択受理部109は、図5Cに示すように、入力位置指定及び確定入力表示領域31において上記候補選択13に応じた確定入力14をユーザ21に提示する(ステップ207)。候補選択受理部109は、図6Fに示すように、ステップ206において受理した候補選択13に応じた確定入力14を用いて図6Aに示す入力履歴を更新し(ステップ208)、処理は終了する。
以上説明したように、本実施形態に係る入力支援装置は、参照情報における時間的位置と、上記参照情報を参照するユーザの入力の空間的位置との関連性に基づいて、第2の入力候補を生成するための検索範囲を絞り込んでいる。従って、本実施形態に係る入力支援装置によれば、参照情報から効率的に第2の入力候補を生成することができる。
例えば、前述した実施例において、ユーザ21が、入力位置(3,1)でなく、入力位置(2,1)よりも前、例えば、入力位置(1,1)に同様の入力を行った場合は、始点(11,14)より前方の参照詳細情報の表記情報が検索され、検索された表記情報「音声」に基づいて第2の入力候補が生成されることになる。
(第2の実施形態)
本発明の第2の実施形態に係る入力支援装置は、前述した第1の実施形態に係る入力支援装置100と同様の構成であるが、ユーザが追加入力を行った場合の処理が異なる。以下の説明では、上記第1の実施形態と異なる部分を中心に述べる。
以下、図12を用いて、本実施形態に係る入力支援装置の、追加入力に対する処理について説明する。尚、図12において、図3と同一部分には同一符号を付し、説明を省略する。
まず入力候補提示部108においては、新たな提示入力候補が生成されるまで、直前までに生成された提示入力候補が保持されているものとする。
ステップ201における処理の詳細、即ちユーザ21からの入力10が、直前の入力に対する追加入力か否かが問題となる場合の入力内容情報を入力位置情報の検出の処理の流れについては図11を用いて第1の実施形態で説明した通りである。続くステップ202において、第1の入力候補生成部102は検出された入力内容情報から第1の入力候補を生成する。そして、ステップ202において生成された第1の入力候補が、連続する追加入力に対する第1の入力候補でなければ(ステップ317)、ステップ203における検索範囲の推定以降の処理が第1の実施形態と同様に行われる。提示入力候補12の提示においても、第1の実施形態と同様に、入力候補提示部108は第1の入力候補と第2の入力候補から提示入力候補12を生成してユーザ21に提示する(ステップ319)
生成された第1の入力候補が、連続する追加入力に対する第1の入力候補であった場合(ステップ317)、入力候補提示部108は保持していた提示入力候補12を、前記の第1の入力候補で再評価する(ステップ318)。ここで再評価とは、保持されていた提示入力候補12の各候補に対して第1の入力候補の当てはまりの程度を評価する。例えば第1の入力候補の表記情報を用いて保持されていた提示入力候補12の各候補の表記情報に対して既存の前方一致のマッチング、あるいは既存のDPマッチングをとることにより、保持されていた提示入力候補12のスコアを更新したり、提示入力候補12の中で当てはまりのよいもののみを新たな提示入力候補12としたりすることができる。そして、入力候補提示部108はステップ318における再評価によって新たに生成された提示入力候補12をユーザ21に提示する(ステップ319)。このように、入力が直前の入力から連続する追加入力であれば、検索範囲の推定(ステップ203)及び第2の入力候補の生成(ステップ204)が省略される。
以下、本実施形態に係る入力支援装置の入力支援動作の実施例について、図12に示すフローチャートに沿って説明する。尚、実施例の前提となる状況に関して、参照情報及び参照詳細情報は前述した第1の実施形態の実施例と同様であるとし、入力履歴は無いものとする。
以上のような状況で、図13Aに示すように、ユーザ21が入力装置22を用いて、文字入力領域32に「音」の字を書く入力10を行う。尚、このときカーソル34は、(1,1)を指しているものとする。
まず、入力検出部101は、上記入力10の入力内容情報及び入力位置情報(1,1)を検出する(ステップ201)。尚、上記入力内容情報は、ユーザ21が入力した「音」の画像情報またはストローク情報等、既存の文字認識において利用可能な情報とする。
次に、第1の入力候補生成部102は、ステップ201において検出された入力内容情報(より詳細にはステップ241、ステップ242、ステップ246、ステップ247に従う)に対して文字認識を行って、得られた表記情報「音」及び当該文字認識のスコア「85」を第1の入力候補として生成する(ステップ202)。
次に、検索範囲推定部106は、ステップ201において検出された入力位置情報(1,1)と、入力履歴記憶部105に記憶される入力履歴とを用いて検索範囲を推定する(ステップ203)。しかしながら、前述したように入力履歴が存在しないため、検索範囲推定部106は、検索範囲として参照詳細情報の全てを推定する。
次に、第2の入力候補生成部107は、ステップ203において推定された検索範囲に含まれる参照詳細情報から、ステップ202において生成された第1の入力候補に含まれる表記情報「音」と一部または全部一致する表記情報を持つ参照詳細情報を検索し、検索された参照詳細情報に基づいて第2の入力候補を生成する(ステップ204)。
次に、入力候補提示部108は、ステップ202において生成された第1の入力候補と、ステップ204において生成された第2の入力候補から図14Aに示す提示入力候補12を生成し、入力候補表示領域33を用いて提示入力候補の中からスコアの高い順に表示できる数の候補をユーザ21に提示する(ステップ319)。
次に、候補選択受理部109は、ユーザ21からの候補選択13を待つものの(ステップ206)、図13Bに示すように、ユーザ21は入力装置22を用いて文字入力領域32に「声」の字を書く追加入力を行うとする。上記追加入力が検出されると(ステップ209)、入力検出部101は、その新たな入力の内容と入力の情報(1,1)を検出する(ステップ201。より詳細にはステップ241)。
直前の入力は確定されておらず(ステップ242)、かつ、入力が直前の入力から連続する追加入力であるので(ステップ243)、入力検出部101は、直前の入力に関する入力内容情報にステップ241で検出した入力の内容情報を付加して新たな入力内容情報として更新する(ステップ244)。次に、第1の入力候補生成部102は、ステップ314において更新された入力内容情報に文字認識を行って、得られた表記情報「音声」及び当該文字認識のスコアを第1の入力候補として生成する(ステップ202)。次に、この第1の入力候補は直前の入力に連続する追加入力に対する第1の入力候補であるので(ステップ317)、入力候補提示部108は、ステップ202において生成された第1の入力候補に含まれる表記情報「音声」を用いて、直前の入力におけるステップ319において生成された提示入力候補を再評価する(ステップ318)。ここでの再評価は表記候補同士を既存のDPマッチングをとったときの距離からスコアを計算し直したものとする。その結果、図14Bのような提示入力候補が生成される。
次に、入力候補提示部108は、ステップ318において再評価された提示入力候補12をユーザ21に提示する(ステップ205)。具体的には、入力候補提示部108は、図13Cに示すように、入力候補表示領域33において、図14Bに示す提示入力候補12の中からスコアの大きい順に入力表示領域33に表示できるだけの候補をユーザ21に提示する。
次に、候補選択受理部109は、ユーザ21から図14BにおけるID=1の入力候補を選択する候補選択13を受理する(ステップ206)。候補選択受理部109は、図13Dに示すように、入力位置指定及び確定入力表示領域31において上記候補選択13に応じた確定入力14をユーザ21に提示する(ステップ207)。候補選択受理部109は、ステップ206において受理した候補選択13に応じた確定入力14を用いて入力履歴を更新し(ステップ208)、処理は終了する。
以上説明したように、本実施形態に係る入力支援装置は、入力が直前の入力に連続する追加入力である場合には、追加入力によって更新された入力内容情報から第1の入力候補を求め、保持されていた提示入力候補を再評価することによって、検索範囲の推定及び第2の入力候補の生成を省略することができる。従って、本実施形態に係る入力支援装置によれば、直前の入力に連続する追加入力が行われた際に、冗長な処理を避けることができる。
(第3の実施形態)
本発明の第3の実施形態に係る入力支援装置の構成は、図1の入力支援装置の構成と同様であるが、一部の動作が異なる。以下の説明では、図1において、第1の入力候補生成部102を第1の入力候補生成部112、参照詳細情報抽出部103を参照詳細情報抽出部113、入力履歴記憶部105を入力履歴記憶部115、第2の入力候補生成部107を第2の入力候補生成部117、入力候補提示部108を入力候補提示部118に夫々置き換え、上記第1の実施形態と異なる部分を中心に述べる。
第1の入力候補生成部112は、入力検出部101によって検出された入力内容情報から入力10の読み情報を得る。具体的には、第1の入力候補生成部112は、第1の入力候補生成部102と同様に入力10の入力内容情報に文字認識を行って表記情報を得て、当該表記情報に対応する読み情報を得る。例えば、第1の入力候補生成部112は、表記情報と読み情報とが対応付けられた辞書またはルール等を用いて、表記情報から読み情報を得られる。第1の入力候補は、表記情報と読み情報を持っている。これまでの実施形態と同様に、第1の入力候補は複数存在することも考えられ、その場合、表記情報と読み情報双方について複数候補を適切に組み合わせて生成されることになる。第1の入力候補生成部112は、第1の入力候補を第2の入力候補生成部117及び入力候補提示部118に渡す。
参照詳細情報抽出部113は、参照情報11から参照詳細情報を抽出する。尚、参照詳細情報抽出部113が抽出する参照詳細情報は、少なくとも上記順序情報及び表記情報と読み情報を含んでいる。
入力履歴記憶部115には、入力履歴が記憶される。ここで、入力履歴は、過去の確定入力14の入力位置情報と、表記情報が少なくとも含まれる。また、読み情報を含んでいても構わない。また、上記確定入力14が第2の入力候補から選ばれたものであれば、入力履歴には上記表記情報に対応する順序情報も含まれる。
第2の入力候補生成部117は、検索範囲推定部106によって推定された検索範囲に含まれる参照詳細情報から、第1の入力候補生成部112によって生成された第1の入力候補に含まれる読み情報と一部または全部一致する読み情報を持つ参照詳細情報を検索し、検索された参照詳細情報に基づいて第2の入力候補を生成して、当該第2の入力候補を入力候補提示部118に渡す。ここで、第2の入力候補は、表記情報と読み情報に加えて、検索された参照詳細情報の順序情報を含むものとする。
尚、第2の入力候補生成部117は、読み情報だけでなく、表記情報を併せて検索に利用してもよい。例えば、第2の入力候補生成部117は、読み情報と表記情報が共に第1の入力候補と一致する参照詳細情報を検索してもよい。また、第2の入力候補は、複数候補存在する場合に前述した第1の実施形態と同様に、同一の表記情報を持つものについてまとめてられてもよい。即ち、第2の入力候補は、1つの表記情報と、複数の順序情報を含んでもよい。また、漢字のように、1つの表記情報と複数の読み情報が対応する場合、第2の入力候補生成部117は、複数の読み情報のうち、最大のスコアを持つ読み情報に代表させてもよい。あるいは、複数の表記情報とそれぞれに対応する複数の読み情報を第2の入力候補としてもよい。
本実施形態に係る入力支援装置の動作の流れは、前述した第1の実施形態と同様であるが、一部の処理が異なる。具体的には、図3のフローチャートにおいて、一部の処理が次のように変更される。
ステップ202において、第1の入力候補生成部112は、入力内容情報に文字認識を行って得られる表記情報、当該表記情報に対応する読み情報及び当該文字認識のスコアを第1の入力候補として生成する。
ステップ204において、第2の入力候補生成部117は、ステップ203において推定された検索範囲に含まれる参照詳細情報から、ステップ202において生成された第1の入力候補に含まれる読み情報と一部または全部一致する読み情報を持つ参照詳細情報を検索し、検索された参照詳細情報に基づいて第2の入力候補を生成する。
ステップ205において、入力候補提示部118は、第1の実施形態や第2の実施形態と同様に提示入力候補12を作成することが出来る。提示入力候補12を作成する際に、これまでのように表記情報が同一の入力候補をまとめるだけでなく、読み情報が同一の候補もまとめることができる。
以下、本実施形態に係る入力支援装置の入力支援動作の実施例について説明する。
まず、実施例の前提となる状況について説明する。参照情報11は図4Aに示す文章「音声応用技術としては音声認識と音声合成が挙げられる。」であるものとする。参照詳細情報抽出部113は、図4Aの参照情報11に例えば形態素解析を行い、当該参照情報11を図4Bに示すように単語単位に分割する。次に、参照詳細情報抽出部113は、図15Aに示すように、図4Bの形態素解析結果における各単語の単語表記をそのまま表記情報として抽出する。また、参照詳細情報抽出部113は、図15Aに示すように、図4Bの形態素解析結果における各単語が図4Aの参照詳細情報において第何番目の文字を開始文字とし、第何番目の文字を終端文字としているかという情報を、当該単語の順序情報として抽出する。また、参照詳細情報抽出部113は、図15Aに示すように、上記表記情報に対応する読み情報を抽出する。尚、読み情報は、例えば図15Aに示すように音素で表現されるとする。参照詳細情報抽出部113によって抽出された、図15Aの参照詳細情報は、参照詳細情報記憶部104において図15Bに示すように記憶されている。
また、本実施例において、入力履歴記憶部115には、予め図17Aに示す入力履歴が記憶されているものとする。また、入力位置指定及び確定入力表示領域31には、図17Aの入力履歴に応じた確定入力14が表示されているものとする。
以上のような状況で、図16Aに示すように、ユーザ21が入力装置22を用いて、文字入力領域32に「お」の字を書く入力10を行う。尚、このときカーソル34は、第3行目第1列目、即ち、(3,1)を指しているものとする。
まず、入力検出部101は、上記入力を検出(ステップ200)した後に、上記入力10の入力内容情報及び入力位置情報(3,1)を検出する(ステップ201)。尚、上記入力内容情報は、ユーザ21が入力した「お」の画像情報またはストローク情報等、既存の文字認識において利用可能な情報とする。
次に、第1の入力候補生成部112は、図17Bに示すように、ステップ201において検出された入力内容情報に文字認識を行って、得られた表記情報「お」、当該表記情報「お」に対応する読み情報「o」及び当該文字認識のスコア「85」を第1の入力候補として生成する(ステップ202)。
次に、検索範囲推定部106は、ステップ201において検出された入力位置情報(3,1)と、図17Aに示す入力履歴とを用いて検索範囲を推定する(ステップ203)。尚、検索範囲推定部106は、前述した図8に示すフローチャートに従って、検索範囲を推定するものとする。
現在の入力位置情報(3,1)の前側で、順序情報を持つ入力履歴は図17AにおけるID=1の入力履歴である。一方、現在の入力位置情報(3,1)の後側で、順序情報を持つ入力履歴は存在しない。従って、検索範囲推定部106は、図17Cに示すように、検索範囲として「始点=(11,14)、終点=参照詳細情報の最後(即ち、第25文字目)」を推定する。
次に、第2の入力候補生成部117は、図17Cに示す検索範囲に含まれる参照詳細情報から、図17Bに示す第1の入力候補に含まれる読み情報「o」と一部または全部一致する読み情報を持つ参照詳細情報を検索し、検索された参照詳細情報に基づいて図17Dに示す第2の入力候補を生成する(ステップ204)。具体的には、第2の入力候補生成部117は、第15文字目以降第25文字目までに含まれる参照詳細情報の読み情報から、第1の入力候補の読み情報「o」を用いる前方一致探索を行う。尚、上記検索範囲には、始点(11,14)に相当する参照詳細情報が含まれていないが、当該参照詳細情報が含まれてもよい。
次に、入力候補提示部118は、図17Bに示す第1の入力候補と、図17Dに示す第2の入力候補から図17Eに示す提示入力候補12を生成して、ユーザ21に提示する(ステップ205)。具体的には、入力候補提示部118は、図16Bに示すように、入力候補表示領域33において、図17Eに示す提示入力候補12をスコアの高い順に入力候補表示領域に表示可能な数だけユーザ21に提示する。
次に、候補選択受理部109は、ユーザ21から図17EにおけるID=2の入力候補を選択する候補選択13を受理する(ステップ206)。候補選択受理部109は、図16Cに示すように、入力位置指定及び確定入力表示領域31において上記候補選択13に応じた確定入力14をユーザ21に提示する(ステップ207)。候補選択受理部109は、図17Fに示すように、ステップ206において受理した候補選択13に応じた確定入力14を用いて図17Aに示す入力履歴を更新し(ステップ208)、処理は終了する。
以上説明したように、本実施形態に係る入力支援装置は、前述した第1の実施形態において表記情報に代えて読み情報を用いて、第2の入力候補を検索及び生成している。従って、本実施形態に係る入力支援装置によれば、ユーザの入力の表記情報と、参照詳細情報の表記情報が異なる場合にも、第2の入力候補を生成することができる。具体的には、本実施形態に係る入力支援装置は、参照情報が音声である場合など、ユーザが上記参照情報の正しい表記情報を知らない場合にも、入力を支援できる。また、本実施形態に係る入力支援装置は、ユーザが漢字入力を行わなくても、平仮名から漢字の入力候補を生成することもできる。
(第4の実施形態)
図18に示すように、本発明の第4の実施形態に係る入力支援装置400は、上記図1に示す入力支援装置100において、入力候補提示部108を入力候補提示部408に、候補選択受理部109を候補選択受理部409に夫々置き換えると共に、次候補生成部410を更に設けている。以下の説明では、図18において図1と同一部分には同一符号を付して示し、異なる部分を中心に述べる。
入力候補提示部408は、前述した入力候補提示部108と同様に、第1の入力候補生成部102によって生成された第1の入力候補と、第2の入力候補生成部107によって生成された第2の入力候補から提示入力候補12を生成して、ユーザ21に提示する。また、入力候補提示部408は、後述する次候補生成部410から次入力候補45を受けると、当該次入力候補45を、ユーザ21に提示する。入力候補提示部408は、例えば図2と同様なユーザ・インタフェースを利用して、提示入力候補12及び次入力候補45をユーザ21に提示する。図2の例であれば、入力候補提示部408は、入力候補表示領域33に提示入力候補12及び次入力候補45を提示する。提示入力候補12と次入力候補45が同時に提示される場合は、そのどちらかのみ優先して提示しても構わない。また、入力候補提示部408は、候補選択受理部409に、上記入力提示候補12及び次入力候補45を通知する。
候補選択受理部409は、入力候補提示部408によって提示された提示入力候補12及び次入力候補45に関して、ユーザ21からの候補選択13を受理する。候補選択受理部409は、ユーザ21から受理した候補選択13に応じた入力候補を確定入力14としてユーザ21に提示すると共に、確定入力14を用いて入力履歴記憶部105に記憶される入力履歴を更新する。また、候補選択受理部409は、上記確定入力14を次候補生成部410に通知する。
候補選択受理部409は、例えば図2と同様なユーザ・インタフェースを利用して、ユーザ21から候補選択13を受理し、確定入力14を提示する。図2の例であれば、候補選択受理部409は、入力候補表示領域33に提示された提示入力候補12及び次入力候補45のいずれか1つに対する、ユーザ21からの候補選択13を受理する。ユーザ21は、入力装置22を用いて提示された入力候補の中から適切なものを選択できる。候補選択受理部409は、候補選択13を受理すると、当該候補選択13に応じた確定入力14を、入力位置指定及び確定入力表示領域31中のカーソル34によって指定される入力位置に提示する。
次候補生成部410は、候補選択受理部409から通知された確定入力14が、順序情報を含んでいれば、当該順序情報に基づいて次入力候補45を生成し、入力候補提示部408に渡す。具体的には、次候補生成部410は、上記確定入力14の持つ順序情報に続く順序情報を持つ参照詳細情報を参照詳細情報記憶部104から取得し、当該参照詳細情報の表記情報及び順序情報を持つ次入力候補45を生成する。
以下、図19に示すフローチャートを用いて図18の入力支援装置400の動作の流れについて説明する。尚、図19において図3と同一部分には同一符号を付して示し、異なる部分を中心に述べる。
ステップ206において、候補選択受理部409がユーザ21からの候補選択13を受理すると、処理はステップ407に進む。ステップ407では、候補選択受理部409は、当該候補選択13に応じた確定入力14をユーザ21に提示する。次に、候補選択受理部109は、ステップ206において受理した候補選択13に応じた確定入力14を用いて、入力履歴記憶部105に記憶される入力履歴を更新する(ステップ408)。
次に、次候補生成部410は、ステップ407において提示された確定入力14に基づいて次入力候補45を生成する(ステップ411)。具体的には、次候補生成部410は、上記確定入力14が順序情報を持っていれば、当該確定入力14の順序情報に続く順序情報を持つ参照詳細情報を用いて次入力候補45を生成する。尚、上記確定入力14が順序情報を持たなければ、次入力候補は生成されず、処理を終了して次の入力を待つ(ステップ412)。
ステップ411において次入力候補が存在すれば(ステップ412)、入力候補提示部408は、ステップ411において生成された次入力候補45をユーザ21に提示する(ステップ413)。このとき、ステップ408において確定された確定入力14を含む提示入力候補12は提示せずに、次入力候補45のみを提示しても構わない。次入力候補45の提示後は、ステップ205において提示入力候補12が提示された後と同じ処理となり、ステップ206に進む。また、次入力候補45はユーザの入力に対する入力候補ではなく、あくまでも参照情報から予測された候補であるので、次入力候補45の生成に対して、ステップ242での直前の入力が確定されているか否かの判定において未確定とは判断されない。むしろ、確定入力14に対して次入力候補45が生成されるので、ステップ206からステップ209、ステップ241、ステップ242に至った場合には、直前の入力は確定していると判断されて、以降の処理が進められる。
以上説明したように、本実施形態に係る入力支援装置は、ユーザの確定入力から次入力候補を生成し、提示している。従って、本実施形態に係る入力支援装置によれば、ユーザは、提示される入力候補を選択するだけで入力を連続的に行うことを期待できる。
なお、本発明は上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また上記各実施形態に開示されている複数の構成要素を適宜組み合わせることによって種々の発明を形成できる。また例えば、各実施形態に示される全構成要素からいくつかの構成要素を削除した構成も考えられる。さらに、異なる実施形態に記載した構成要素を適宜組み合わせてもよい。
尚、本発明の各実施形態に係る入力支援装置は、例えば汎用のコンピュータ装置を基本ハードウエアとして用いることでも実現することが可能である。即ち、各実施形態の各構成要素は、コンピュータ装置に搭載されたプロセッサにプログラムを実行させたり、メモリやハードディスク等の記憶媒体を利用したりすることによって実現できる。
その他、本発明の要旨を逸脱しない範囲で種々の変形を施しても同様に実施可能であることはいうまでもない。
第1の実施形態に係る入力支援装置を示すブロック図。 図1の入力支援装置のユーザ・インタフェースを示す図。 図1の入力支援装置の動作例を示すフローチャート。 参照情報の一例を示す図。 図4Aの参照情報の形態素解析結果を示す図。 図4Aから抽出される参照詳細情報を示す図。 図1の参照詳細情報記憶部における、図4Cの参照詳細情報の記憶の様子の一例を示す図。 図2のユーザ・インタフェースの表示例を示す図。 図5Aの他の例を示す図。 図5Bの他の例を示す図。 図1の入力履歴記憶部に予め記憶されている、入力履歴の一例を示す図。 図1の第1の入力候補生成部によって生成される、第1の入力候補の一例を示す図。 図1の検索範囲推定部によって推定される、検索範囲の一例を示す図。 図1の第2の入力候補生成部によって生成される、第2の入力候補の一例を示す図。 図1の入力候補提示部によって生成される、提示入力候補の一例を示す図。 図6Aの入力履歴を更新して得られる入力履歴の一例を示す図。 図1の検索範囲推定部における、検索範囲の推定動作の一例を示すフローチャート。 図7の他の例を示すフローチャート。 図1の第2の入力候補生成部における、第2の入力候補の生成動作の一例を示すフローチャート。 図9の検索範囲の決定処理の一例を説明するための図。 図10Aの他の例を示す図。 図3のステップ201の詳細動作の一例を示すフローチャート。 第2の実施形態に係る入力支援装置の動作例を示すフローチャート。 第2の実施形態に係る入力支援装置のユーザ・インタフェースの表示例を示す図。 図13Aの他の例を示す図。 図13Bの他の例を示す図。 図13Cの他の例を示す図。 第2の実施形態に係る入力支援装置の入力候補提示部によって生成される、提示入力候補の一例を示す図。 追加入力に対して図14Aの提示入力候補を更新して得られる、更新された提示入力候補の一例を示す図。 第3の実施形態に係る入力支援装置の参照詳細情報抽出部によって抽出される参照詳細情報の一例を示す図。 第3の実施形態に係る入力支援装置の参照詳細情報記憶部における、図15Aの参照詳細情報の記憶の様子の一例を示す図。 第3の実施形態に係る入力支援装置のユーザ・インタフェースの一例を示す図。 図16Aの他の例を示す図。 図16Bの他の例を示す図。 第3の実施形態に係る入力支援装置の入力履歴記憶部に記憶される、入力履歴の一例を示す図。 第3の実施形態に係る入力支援装置の第1の入力候補生成部によって生成される、第1の入力候補の一例を示す図。 第3の実施形態に係る入力支援装置の検索範囲推定部によって推定される、検索範囲の一例を示す図。 第3の実施形態に係る入力支援装置の第2の入力候補生成部によって生成される、第2の入力候補の一例を示す図。 第3の実施形態に係る入力支援装置の入力候補提示部によって生成される、提示入力候補の一例を示す図。 図17Aの入力履歴を更新して得られる入力履歴の一例を示す図。 第4の実施形態に係る入力支援装置を示すブロック図。 図18の入力支援装置の動作例を示すフローチャート。
符号の説明
10・・・入力
11・・・参照情報
12・・・提示入力候補
13・・・候補選択
14・・・確定入力
21・・・ユーザ
22・・・入力装置
31・・・入力位置指定及び確定入力表示領域
32・・・文字入力領域
33・・・入力候補表示領域
34・・・カーソル
45・・・次入力候補
100・・・入力支援装置
101・・・入力検出部
102・・・第1の入力候補生成部
103・・・参照詳細情報抽出部
104・・・参照詳細情報記憶部
105・・・入力履歴記憶部
106・・・検索範囲推定部
107・・・第2の入力候補生成部
108・・・入力候補提示部
109・・・候補選択受理部
112・・・第1の入力候補生成部
113・・・参照詳細情報抽出部
115・・・入力履歴記憶部
117・・・第2の入力候補生成部
118・・・入力候補提示部
400・・・入力支援装置
408・・・入力候補提示部
409・・・候補選択受理部
410・・・次候補生成部

Claims (10)

  1. ユーザ・インタフェース上におけるユーザ入力の内容及び位置を表す入力内容情報及び入力位置情報を検出する検出部と、
    前記入力内容情報に基づいて第1の表記情報を持つ第1の入力候補を生成する第1の生成部と、
    前記ユーザ入力のための参照情報を構成する構成単位毎に、当該構成単位の表記を示す第2の表記情報と当該構成単位の前記参照情報における時間的順序を示す順序情報とを対応付けて記憶する第1の記憶部と、
    過去のユーザ入力についての表記情報が前記第2の表記情報であれば、当該表記情報と、当該表記情報に対応する前記順序情報と、当該入力位置情報とを含む入力履歴を記憶する第2の記憶部と、
    前記入力位置情報及び前記入力履歴に基づいて前記参照情報に対する検索範囲を推定する推定部と、
    前記第1の表記情報と少なくとも一部が一致する前記第2の表記情報を持つ前記構成単位を前記参照情報の前記検索範囲から検索し、検索された第2の表記情報と当該検索された第2の表記情報に対応付けられている前記順序情報とを持つ第2の入力候補を生成する第2の生成部と、
    前記第1入力候補及び第2の入力候補から提示入力候補を生成してユーザに提示する提示部と、
    提示された前記提示入力候補に対する前記ユーザから確定入力の選択を受理する受理部と
    を具備することを特徴とする入力支援装置。
  2. ユーザ・インタフェース上におけるユーザ入力の内容及び位置を表す入力内容情報及び入力位置情報を検出する検出部と、
    前記入力内容情報に基づいて第1の表記情報と第1の読み情報を持つ第1の入力候補とを生成する第1の生成部と、
    前記ユーザ入力のための参照情報を構成する構成単位毎に、当該構成単位の表記を示す第2の表記情報と、当該構成単位の読みを示す第2の読み情報と、当該構成単位の前記参照情報における時間的順序を示す順序情報とを対応付けて記憶する第1の記憶部と、
    過去のユーザ入力についての前記読み情報が前記第2の読み情報であれば、当該第2の読み情報と、当該第2の読み情報に対応する前記順序情報と、当該入力位置情報とを含む入力履歴を記憶する第2の記憶部と、
    前記入力位置情報及び前記入力履歴に基づいて前記参照情報に対する検索範囲を推定する推定部と、
    前記第1の読み情報と少なくとも一部が一致する前記第2の読み情報を持つ前記構成単位を前記参照情報の前記検索範囲から検索し、検索された第2の読み情報と当該検索された第2の読み情報に対応付けられている前記第2の表記情報と前記順序情報とを持つ第2の入力候補を生成する第2の生成部と、
    前記第1入力候補及び第2の入力候補から提示入力候補を生成してユーザに提示する提示部と、
    提示された提示入力候補に対する前記ユーザから候補選択を受理する受理部と
    を具備することを特徴とする入力支援装置。
  3. 前記検出部は、前記ユーザ入力に連続する追加のユーザ入力を検出すると、前記入力内容情報を前記連続する追加のユーザ入力の内容を付加して更新することを特徴とする請求項1または2記載の入力支援装置。
  4. 前記提示部は、前記受理部によって前記確定入力の選択が受理されるまで前記提示入力候補を保持し、
    前記第1の生成部は、更新された入力内容情報によって前記第1の入力候補を更新し、
    前記第2の生成部は、更新された第1の入力候補を用いて、保持されていた提示入力候補を更新することを特徴とする請求項3記載の入力支援装置。
  5. 前記読み情報は、音素で表現されることを特徴とする請求項2記載の入力支援装置。
  6. 前記確定入力の順序情報に連続する順序情報を持つ前記構成単位を用いて、次入力候補を生成する第3の生成部を更に具備することを特徴とする請求項1または2記載の入力支援装置。
  7. ユーザ・インタフェース上におけるユーザ入力の内容及び位置を表す入力内容情報及び入力位置情報を検出し、
    前記入力内容情報に基づいて第1の表記情報を持つ第1の入力候補を生成し、
    前記ユーザ入力のための参照情報を構成する構成単位毎に、当該構成単位の表記を示す第2の表記情報と当該構成単位の前記参照情報における時間的順序を示す順序情報とを対応付けて記憶し、
    過去のユーザ入力についての表記情報が前記第2の表記情報であれば、当該表記情報と、当該表記情報に対応する前記順序情報と、当該入力位置情報とを含む入力履歴を記憶し、
    前記入力位置情報及び前記入力履歴に基づいて前記参照情報に対する検索範囲を推定し、
    前記第1の表記情報と少なくとも一部が一致する前記第2の表記情報を持つ前記構成単位を前記参照情報の前記検索範囲から検索し、検索された第2の表記情報と当該検索された第2の表記情報に対応付けられている前記順序情報とを持つ第2の入力候補を生成し、
    前記第1入力候補及び第2の入力候補から提示入力候補を生成してユーザに提示し、
    提示された前記提示入力候補に対する前記ユーザから確定入力の選択を受理する
    ことを特徴とする入力支援方法。
  8. ユーザ・インタフェース上におけるユーザ入力の内容及び位置を表す入力内容情報及び入力位置情報を検出し、
    前記入力内容情報に基づいて第1の表記情報と第1の読み情報を持つ第1の入力候補とを生成し、
    前記ユーザ入力のための参照情報を構成する構成単位毎に、当該構成単位の表記を示す第2の表記情報と、当該構成単位の読みを示す第2の読み情報と、当該構成単位の前記参照情報における時間的順序を示す順序情報とを対応付けて記憶し、
    過去のユーザ入力についての前記読み情報が前記第2の読み情報であれば、当該第2の読み情報と、当該第2の読み情報に対応する前記順序情報と、当該入力位置情報とを含む入力履歴を記憶し、
    前記入力位置情報及び前記入力履歴に基づいて前記参照情報に対する検索範囲を推定し、
    前記第1の読み情報と少なくとも一部が一致する前記第2の読み情報を持つ前記構成単位を前記参照情報の前記検索範囲から検索し、検索された第2の読み情報と当該検索された第2の読み情報に対応付けられている前記第2の表記情報と前記順序情報とを持つ第2の入力候補を生成し、
    前記第1入力候補及び第2の入力候補から提示入力候補を生成してユーザに提示し、
    提示された提示入力候補に対する前記ユーザから候補選択を受理する
    ことを特徴とする入力支援方法。
  9. コンピュータを
    ユーザ・インタフェース上におけるユーザ入力の内容及び位置を表す入力内容情報及び入力位置情報を検出する検出手段、
    前記入力内容情報に基づいて第1の表記情報を持つ第1の入力候補を生成する第1の生成手段、
    前記ユーザ入力のための参照情報を構成する構成単位毎に、当該構成単位の表記を示す第2の表記情報と当該構成単位の前記参照情報における時間的順序を示す順序情報とを対応付けて記憶する第1の記憶手段、
    過去のユーザ入力についての表記情報が前記第2の表記情報であれば、当該表記情報と、当該表記情報に対応する前記順序情報と、当該入力位置情報とを含む入力履歴を記憶する第2の記憶手段、
    前記入力位置情報及び前記入力履歴に基づいて前記参照情報に対する検索範囲を推定する推定手段、
    前記第1の表記情報と少なくとも一部が一致する前記第2の表記情報を持つ前記構成単位を前記参照情報の前記検索範囲から検索し、検索された第2の表記情報と当該検索された第2の表記情報に対応付けられている前記順序情報とを持つ第2の入力候補を生成する第2の生成手段、
    前記第1入力候補及び第2の入力候補から提示入力候補を生成してユーザに提示する提示手段、
    提示された前記提示入力候補に対する前記ユーザから確定入力の選択を受理する受理手段
    として機能させるための入力支援プログラム。
  10. コンピュータを
    ユーザ・インタフェース上におけるユーザ入力の内容及び位置を表す入力内容情報及び入力位置情報を検出する検出手段、
    前記入力内容情報に基づいて第1の表記情報と第1の読み情報を持つ第1の入力候補とを生成する第1の生成手段、
    前記ユーザ入力のための参照情報を構成する構成単位毎に、当該構成単位の表記を示す第2の表記情報と、当該構成単位の読みを示す第2の読み情報と、当該構成単位の前記参照情報における時間的順序を示す順序情報とを対応付けて記憶する第1の記憶手段、
    過去のユーザ入力についての前記読み情報が前記第2の読み情報であれば、当該第2の読み情報と、当該第2の読み情報に対応する前記順序情報と、当該入力位置情報とを含む入力履歴を記憶する第2の記憶手段、
    前記入力位置情報及び前記入力履歴に基づいて前記参照情報に対する検索範囲を推定する推定手段、
    前記第1の読み情報と少なくとも一部が一致する前記第2の読み情報を持つ前記構成単位を前記参照情報の前記検索範囲から検索し、検索された第2の読み情報と当該検索された第2の読み情報に対応付けられている前記第2の表記情報と前記順序情報とを持つ第2の入力候補を生成する第2の生成手段、
    前記第1入力候補及び第2の入力候補から提示入力候補を生成してユーザに提示する提示手段、
    提示された提示入力候補に対する前記ユーザから候補選択を受理する受理手段
    として機能させるための入力支援プログラム。
JP2008039121A 2008-02-20 2008-02-20 入力支援装置及び方法 Withdrawn JP2009199255A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008039121A JP2009199255A (ja) 2008-02-20 2008-02-20 入力支援装置及び方法
US12/389,209 US20090222725A1 (en) 2008-02-20 2009-02-19 Method and apparatus for input assistance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008039121A JP2009199255A (ja) 2008-02-20 2008-02-20 入力支援装置及び方法

Publications (1)

Publication Number Publication Date
JP2009199255A true JP2009199255A (ja) 2009-09-03

Family

ID=41014132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008039121A Withdrawn JP2009199255A (ja) 2008-02-20 2008-02-20 入力支援装置及び方法

Country Status (2)

Country Link
US (1) US20090222725A1 (ja)
JP (1) JP2009199255A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015022590A (ja) * 2013-07-19 2015-02-02 株式会社東芝 文字入力装置、文字入力方法、及び文字入力プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6236964B1 (en) * 1990-02-01 2001-05-22 Canon Kabushiki Kaisha Speech recognition apparatus and method for matching inputted speech and a word generated from stored referenced phoneme data
JPH07334625A (ja) * 1994-06-06 1995-12-22 Nec Corp 文字列入力装置
US5896321A (en) * 1997-11-14 1999-04-20 Microsoft Corporation Text completion system for a miniature computer
US20070277118A1 (en) * 2006-05-23 2007-11-29 Microsoft Corporation Microsoft Patent Group Providing suggestion lists for phonetic input
US20080141125A1 (en) * 2006-06-23 2008-06-12 Firooz Ghassabian Combined data entry systems

Also Published As

Publication number Publication date
US20090222725A1 (en) 2009-09-03

Similar Documents

Publication Publication Date Title
CN110164435B (zh) 语音识别方法、装置、设备及计算机可读存储介质
JP6605995B2 (ja) 音声認識誤り修正装置、方法及びプログラム
US20170011742A1 (en) Device and method for understanding user intent
JP5897725B2 (ja) ユーザインタフェース装置、ユーザインタフェース方法、プログラム及びコンピュータ可読情報記憶媒体
JP2014186372A (ja) 図絵描画支援装置、方法、及びプログラム
US20160055763A1 (en) Electronic apparatus, pronunciation learning support method, and program storage medium
JP4930379B2 (ja) 類似文検索方法、類似文検索システム及び類似文検索用プログラム
US10002610B2 (en) Presentation supporting device, presentation supporting method, and computer-readable recording medium
US20150073801A1 (en) Apparatus and method for selecting a control object by voice recognition
JP2014229091A (ja) 文字入力用のプログラム
WO2015161823A1 (zh) 手写识别方法和设备
JP6155821B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2014146260A (ja) 音声入出力データベース検索方法、プログラム、及び装置
JP2006243673A5 (ja)
US20120253804A1 (en) Voice processor and voice processing method
JP5542559B2 (ja) 音声検索インタフェース装置及び音声入力検索方法
JP4809857B2 (ja) 関連文書選択出力装置及びそのプログラム
JP2007188410A (ja) 電子辞書装置、電子辞書検索方法、及び電子辞書プログラム
JPWO2014054717A1 (ja) ユーザインタフェース装置、ユーザインタフェース方法、プログラム及びコンピュータ可読情報記憶媒体
JP5189413B2 (ja) 音声データ検索システム
JP5774235B2 (ja) ユーザインタフェース装置、ユーザインタフェース方法、プログラム及びコンピュータ可読情報記憶媒体
JP2009199255A (ja) 入力支援装置及び方法
JP2019095603A (ja) 情報生成プログラム、単語抽出プログラム、情報処理装置、情報生成方法及び単語抽出方法
JP2005018442A (ja) 表示処理装置、表示処理方法、表示処理プログラム、および記録媒体
CN112541651B (zh) 电子设备、发音学习方法、服务器装置、发音学习处理系统及记录介质

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110510