JP2007109118A - 入力指示処理装置および入力指示処理プログラム - Google Patents

入力指示処理装置および入力指示処理プログラム Download PDF

Info

Publication number
JP2007109118A
JP2007109118A JP2005301125A JP2005301125A JP2007109118A JP 2007109118 A JP2007109118 A JP 2007109118A JP 2005301125 A JP2005301125 A JP 2005301125A JP 2005301125 A JP2005301125 A JP 2005301125A JP 2007109118 A JP2007109118 A JP 2007109118A
Authority
JP
Japan
Prior art keywords
instruction
input
command
argument
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005301125A
Other languages
English (en)
Inventor
Naohiro Furukawa
直広 古川
Shoji Ikeda
尚司 池田
Makoto Iwayama
真 岩山
Yusuke Sato
祐介 佐藤
Kosuke Konishi
康介 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2005301125A priority Critical patent/JP2007109118A/ja
Priority to US11/484,779 priority patent/US20070098263A1/en
Publication of JP2007109118A publication Critical patent/JP2007109118A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/36Matching; Classification
    • G06V30/387Matching; Classification using human interaction, e.g. selection of the best displayed recognition candidate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Character Discrimination (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】紙面やモニタ画面上の文字列や領域をペンやマウスで指定する方法と、ペンやキーボードなどで命令要素を意味する文字列や記号を書込む方法の任意の組合せを許容する命令解釈手段の提供。
更に、命令要素抽出の不完全性を許容する命令解釈手段の提供。
【解決手段】利用者からの指示入力を受けて複数の命令要素の認識候補を出力する命令要素抽出部と、
上記認識候補の中から命令種類要素を抽出しさらに該命令種類要素の引数となる命令引数要素を判定して、命令種類要素と命令引数要素の組み合わせを決定する命令規則照合部と、
上記決定された命令引数要素に対して上記命令種類要素のコマンドを実行する命令実行部とを有する入力指示処理装置を開示する。抽出した複数の候補に対しての組み合わせを考慮することでユーザ入力への制限を減らすことが可能となる。
【選択図】図1

Description

本発明は、デジタルペンを用いたシステムへの命令指示処理に関する。
紙等への情報加筆を行うとそのデータを電子データとして反映できるデジタルペンがある(例えば、特許文献3)。この利用において利用者は(1)「インターネット検索」や「印刷」など命令の種類を表す要素、(2)検索キーワードや印刷対象範囲などの命令の引数となる要素を入力する。これら要素を以降、命令要素とよび、さらに前者を命令種類要素、後者を命令引数要素とよぶ。
利用者からペンで記入された文字と記号からなる命令を言語解析により解釈する方法1がある (例えば、特許文献1参照)。
また、命令要素に欠落があったり、命令要素の順序が異なっていたりする命令を利用者の履歴や状況情報を利用して解釈する方法2もある(例えば、特許文献2参照)に開示されている。
しかしながら、命令要素の指定方法として、紙面やモニタ画面上の文字列や領域をペンやマウスで指定する方法と、ペンやキーボードなどで命令要素を意味する文字列や記号を書込む方法の任意の組合せを許容する命令解釈手段が存在しなかった。
また、前記従来方法のいずれも、各命令要素が確実に入力されることを前提としていたため、命令要素の抽出の不完全性に対応していない問題があった。従来方法1では、ペンで命令要素となる文字や記号が記入され、それを文字・記号認識することにより命令要素を抽出しているが、実際には文字・記号認識が必ず成功するとは限らず、複数の認識結果候補が存在して一意に認識結果が定まらないことがある。たとえば「IO(アイオー)」の記入を、「IO」と文字認識するのか「10(数字の十)」と文字認識するのかは、この部分だけでは一意に定まらない。また従来方法2でも、命令要素の入力を電子的に選択したりやキーボード入力したりすることを前提としており、命令要素抽出の不完全性に対応していない。紙面上にペンで該当文字列、たとえば「ネット検索」をレ印で命令要素指定する場合、レ印の位置と形によっては「ネット」なのか「検索」なのか「ネット検索」なのか一意に判断できない場合がある。特に紙面上でこのような命令要素の指定を行う場合、モニタ画面上と異なり、計算機が認識した丸囲みやレ印の該当文字列を反転表示するなど、対話型のインターフェースを用いることが出来ないため、このような命令要素抽出の不完全性に対応した命令解釈でなければ、命令を高精度に解釈できない。
特開平6-282566公報
特開平8-110890号公報 国際公開第01/71473号公報
本発明は、このような問題に鑑みてなされたものである。
すなわち、命令要素の指定方法として、紙面やモニタ画面上の文字列や領域をペンやマウスで指定する方法と、ペンやキーボードなどで命令要素を意味する文字列や記号を書込む方法の任意の組合せを許容する命令解釈手段を提供する。更に、こうした柔軟な入力を可能とするために命令要素抽出の不完全性を許容する命令解釈手段を提供することを本発明の課題とする。
本発明では、前記課題を解決するために本願で開示する代表的な発明は以下の通りである。
利用者からの指示入力を受ける入力部と、入力された指示各々について複数の認識候補を出力する命令要素抽出部と、認識候補の中から命令種類要素を抽出しさらに該命令種類要素の引数となる命令引数要素を判定して、命令種類要素と命令引数要素の組み合わせを決定する命令規則照合部と、決定された命令引数要素に対して上記命令種類要素のコマンドを実行する命令実行部とを有する入力指示処理装置。
本発明により、利用者は紙面や画面を閲覧中に、必要な計算機命令を人間の直感にあった操作で容易に実行出来るという効果がある。
ここでは、まず本発明の命令解釈装置の構成例について説明する。その後その命令解釈装置が利用者から指示された命令を解釈し、実行する処理フローについて説明する。最後に、利用者が命令を追加する手順について具体的に説明する。
本発明の命令解釈装置(100)は図1に示したように以下の構成から構成される。利用者からの紙面上やモニタ画面上におけるペン操作やキーボード操作、マウス操作等の各種入力情報を取得する操作入力部101。書類情報(図6)と、それら書類に対し利用者がペンで書込んだりキーボードで文字列入力したりした入力情報(図7)を管理する書類管理部102。書類情報と入力情報を命令要素辞書(図4)と照らし合わせて命令要素を抽出し、その結果を命令要素抽出結果(図8)の集合として出力する命令要素抽出部103。入力されたペンストロークを文字列として読取る手書き文字列認識部104。前記命令要素抽出結果の集合と命令規則辞書(図5)とを照らし合わせ、命令規則辞書記載の命令規則に従った命令要素の列を見つけ出し、命令解釈結果(図9)として出力する命令規則照合部105。命令規則照合部から出力された命令解釈結果に従い、利用者が指示した命令を実行する命令実行部106。
操作入力部101での命令要素の指定方法として、たとえば利用者がある書類を読んでいるときに、実行したい命令の各命令要素を、その書類が印刷された紙面上またはその書類が表示されたモニタ画面上でペンを用いて該当文字列や領域を囲ったり、記入したりすることを想定する。こうすれば、利用者は書類から目を離さずに計算機へ命令を実行できるため、使い勝手のよい命令解釈が実現できる。
なお本実施例では、紙面上でのペンストロークの取得手段として、特許文献3に開示されたデジタルペンを採用することとする。各紙書類はその種類特有、及び、その各位置固有のドットパターンがふされており、利用者がデジタルペンで記入すると、紙書類の識別情報(書類ID、図6の601)と記入座標が取得できる。図6の602は書類の電子ファイル名、603は書類の寸法を意味する。
次に、命令解釈装置100が利用者からの命令を解釈する処理について、具体的に説明する(図10)。最初に利用者からのペンやキーボードなどの指示の入力情報を取得する(ステップ1002)。次に、紙書類を介したデジタルペンでの入力の場合には操作対象となった書類を検索し(ステップ1003)、操作の対象となった書類情報を取得する。本実施例のデジタルペンの場合、紙面上のドットパターンから紙個体を識別するIDが取得できるため、印刷時に前記紙個体IDと書類IDとの組合せを記録しておけば、ペン記入時に書類ID(702)を得ることが出来る。次にステップ1004で、前記書類情報と入力情報を命令要素辞書(図4)と照らし合わせて命令要素を抽出し、その結果を命令要素抽出結果(図8)の集合を得る。この命令要素抽出処理の詳細は図11を用いて説明する。そしてステップ1005で、前記命令要素抽出結果の集合と命令規則辞書(図5)とを照らし合わせ、命令規則辞書記載の命令規則に従った命令要素の列を見つけ出し、命令解釈結果(図9)を得る。最後に、前記命令解釈結果に従い、利用者が指示した命令を実行する(ステップ1006)。以降、個々のステップの詳細について説明する。
ステップ1002における利用者から計算機への命令の指定方法として、先に述べたように、紙面やモニタ画面上の文字列や領域をペンやマウスで指定する方法と、ペンやキーボードなどで命令要素を意味する文字列や記号を書込む方法の任意の組合せを許容する。たとえば図2は、紙書類200において、利用者が「酸化チタン」という文字列をネット検索したい場合、ペン201で紙面上にストローク202、203を書込んで命令を指示した例を示す。命令解釈装置は、図10に示した命令解釈処理を実行し、命令要素211と命令要素212からなる命令210を解釈し、命令解釈部106にてその命令を実行する。
操作入力部101で入力された情報を図7に示す。入力情報の型がストロークの場合を表700に示す。項目701は入力情報のID、項目702は入力対象の書類ID、項目703は入力開始時刻、項目704は入力の型(本例では「STROKE」)を表す。項目701〜704は入力の型によらず、共通項目である。ストロークの場合、加えてストローク本数(項目705)や各ストロークのサンプリング点の座標列(項目711〜713)を有す。また入力の型が、キーボードから入力されたりマウスで選択されたりされた文字列の場合は、表720のようになる。入力型はSTRINGとなり、項目725は指定された文字列を表す。
ペンにより命令要素を指定する方法には、たとえば図3に301〜321に示したような方法が利用可能である。方法301〜305は、紙面上もしくはモニタ画面上に印刷/表示された文字列を指定する方法の例である。指定した文字列の明示方法としては丸や矩形限らず任意の形状が想定される。又、そのほか取り消し線を引いたりするなど、特定の範囲を他から識別できる情報の加筆があればよい。また方法311〜312は文字列を直接ペンで記入する方法の例である。また方法313〜316は文字列を記入する代わりに事前に後述の命令要素辞書に登録しておいた図形を認識し該当の文字列を抽出する方法である。この場合の図形としては様々なものが想定されるが、命令要素に関するならばその命令内容を示唆するものであることが使い勝手のよさから望まれる。また方法321にように、文字列ではなく、紙面上またはモニタ画面上に印刷/表示された書類内容の一部分領域を指定する方法もある。また利用者が命令解釈装置100に対し、たとえばネット検索のみの命令に限定して指示した場合などでは、命令種類要素の指定を省略できる。
命令要素抽出処理(ステップ1004、図11)は、まず入力情報を、時間特徴を用いて命令要素単位に分割する(1102)。更にデジタルペンを利用した入力に関しては各ストロークの配置などの幾何特徴利用することができる(ステップ1102)。また命令要素の分割が一意に確定しない場合は、複数の分割候補を出力しても良い。たとえば図14の例における書込みストローク1403において、前半部「Web」と後半部「検索」の記入時間間隔が閾値α未満であった場合には「Web検索」のみを、閾値β以上であった場合には「Web」「検索」の2つを、α以上β未満であった場合には「Web検索」「Web」「検索」の3つを分割候補として出力する(α<β)。なお入力型が文字列の場合、キーボード入力やマウス選択時に、リターンキー入力やマウスクリック操作によって既に命令要素単位に分割されているため、ステップ1102は不要である。
次に、得られた各命令要素に対し、入力情報の入力型の項目(図7の項目704)がストロークを表すSTROKEか否かで処理が分岐する(ステップ1103)。STROKEの場合は、命令要素辞書照合(ステップ1104)と手書き文字列認識(ステップ1105)を実行する。
ステップ1104の命令要素辞書照合では、入力情報のストロークと、命令要素辞書に定義された命令要素ストロークとの形状を照合する。命令要素抽出部103が管理する命令要素辞書には図4の表400、410、420に示したようなペンによる書き込みによる命令要素の指示ゼスチャが定義されている。各命令要素定義の該当入力IDの項目で導ける入力情報の形式で格納されたゼスチャのストロークが前述の命令要素ストロークとなる。ここでゼスチャとは対象文字列の指示に用いられる任意の図形、又は、命令要素を意味する特定の入力ストロークをいう。命令要素である文字列自体を記入することは除く。図3において方法301〜305、313〜316、321の各図形がゼスチャである。方法311、312は図4にゼスチャとしては登録されていない文字列自体の記入でありゼスチャではない。照合の結果、一致度がある閾値以上であれば、当該命令要素の可能性があると判断し、命令要素辞書で定義された各処理を実行し、その結果を命令要素抽出結果として出力する。命令要素辞書で定義できる処理について、本実施例では、(1)EXTRACT_PRINTED_STRING:ストローク記入範囲内の印刷文字列を抽出、(2)EXTRACT_PRINTED_IMAGE:ストローク記入範囲内の印刷内容を画像として抽出、(3)SET_STRING:右辺で指定の文字列を命令要素抽出結果として出力、の3処理を示した。他にも、たとえば下線による文字列指定に対応するために、EXTRACT_UPPER_PRINTED_STRING:ストローク上部に位置する印刷文字列を抽出などの処理が考えられる。
ステップ1104について具体例をあげて説明する。命令要素定義400は丸囲みによる文字列指定(図3の301)を規定しており、該当入力ID402から導ける命令要素ストロークは図3のストローク301と同じ丸囲みのストロークが登録されている。図3のストローク301と321に示したように、同じストローク形状に対し、複数の命令要素の指定方法が割当てられていてもよい。命令要素定義410は丸囲みによる領域指定(図3の321)を規定した定義であり、その該当入力ID412が命令要素定義400の該当入力ID402と同じ値、つまり同じストローク形状となっている。命令要素辞書420はゼスチャによる命令要素を規定したものであり、該当入力ID422から導ける命令要素ストロークは「類似画像検索」を意図する図3のゼスチャ313が登録されている。
図2の命令要素203において、該当する命令要素辞書が400であったとすると、命令要素辞書の処理の項目404で指定されたEXTRACT_PRINTED_STRINGを実行し、ストロークと重なり合う文字列「ネット検索」を抽出し、その結果を命令要素抽出結果800として出力する。このとき命令要素抽出結果の確信度806は、本実施例では、(1)ストロークの一致度と(2)抽出文字列と入力ストロークとの重なり比率を乗じた値から算出することとする。乗算とすることにより、前記の両指標が共に高い抽出候補が選択されやすくする。
このとき、ステップ1102において複数の候補が抽出されている場合にはその候補それぞれに対して1104,1105のステップを行う。例えば、図2の入力211について「ネット検索」だけでなく、命令要素203は「ネット」の部分のみを指示したとも命令要素抽出部103が判断した場合は、同じ命令要素203に対し、更に命令要素抽出結果810を出力する。この判断基準は、命令要素抽出結果の確信度が事前設定された閾値を上回るか否かとする。複数候補を出力する理由は、丸囲みなどペンストロークの形状や位置ずれにロバストに対応することによって高精度な命令解釈を実現するためである。各命令要素の入力ストローク形状・位置のみ、つまり確信度のみで命令要素抽出結果を判断すると、たとえば先の例の図8の表800「ネット検索」と表810「ネット」の場合、必ず「ネット検索」の方のみが出力されることとなる。図2の記入例では「ネット検索」で確かに正解ではあるが、ストローク203と同じような記入で、「ネット」を利用者が意図した可能性は否定できない。それら可能性のある候補を全て確信度付きで出力することにより、1入力単位に対して出力されるこれら複数の抽出結果は、最終的には命令規則照合1005で相応しい抽出結果が選択され、出力されることとなる。先の入力分割1102で、複数の分割候補を出力する理由も同様である。
またステップ1105の手書き文字列認識では、入力情報のストロークを手書き文字列認識してテキスト化し、その結果を命令要素抽出結果として出力する。たとえば、命令要素203は、最も近いと思われる文字「V」と解釈されて命令要素抽出結果として出力されることとなる。なお、本ステップ1105においても、文字列認識の不完全性が存在するため、複数の文字列認識結果を命令要素抽出結果として出力しても良い。たとえば命令要素203は前述の「V」の他に、小文字の「v」やカタカナ「レ」といった文字列認識結果も得たならば、それらを命令要素抽出結果として出力する。
ステップ1102において、入力情報がストローク情報でなく、たとえばキーボードで入力されたり、マウスで選択されたりした文字列(例:図7の720)である場合には、その文字列をそのまま命令要素抽出結果へと変換する(ステップ1106)。各入力情報に対し、確信度最大の1.0を付加し、属性STRINGとして命令要素抽出結果を作成する。
これら処理の後、得られた全ての命令要素抽出結果の集合を、次の処理である命令規則照合1005へ引き渡す。ここまでが、命令要素抽出1004である。
命令要素抽出後、前記命令要素抽出結果の集合と命令規則辞書(図5)とを照らし合わせ、命令規則辞書記載の命令規則に従った命令要素の列を見つけ出し、命令解釈結果(図9)を得る処理が、ステップ1005の命令規則照合である。
本実施例では、命令規則辞書を図5のような文脈自由文法で記述する。正規表現やIF-THENルールなどで規定しても構わない。命令規則500は、命令<net_search>の文法を規定したものであり、<net_search>は、<net_search_type>と<net_search_arg#1>との連接、もしくはその逆順で規定される(命令規則500の1〜3行目)。<net_search_arg#1>は命令の引数要素を示す。こうした記述によって命令種類要素と命令引数要素の出現順を問わないことを意味する。これによって利用者は命令とその命令対象の指示との順番にとらわれずに自由に入力することが可能となる。次に<net_search_type>は文字列「インターネット検索」または「ネット検索」、「Web検索」のいずれかであることを規定する(命令規則500の4〜7行目)。<net_search_arg#1>は任意の文字列(命令規則500の8行目)を規定する。このような命令規則500に対して、ボトムアップ型構文解析アルゴリズムを適用した命令規則照合を実行する。すなわち命令要素抽出結果集合内の各命令要素抽出結果を命令規則に従い置き換えていき、最終的に命令に達すれば(図16)、命令を解釈したとみなす。ここで、たとえば命令要素抽出結果STRING:ネット検索は、文字列であるので<net_search_arg#1>としても置き換え可能であるが、その置き換えでは、全体として命令にたどり着く解釈が存在しないため、結局選択されない。また前述のSTRING:ネットの命令要素抽出結果も、同様に全体としての解釈できないため、選択されない。具体的には、図8の表800と表810のように、1つの命令要素203から複数の命令要素抽出結果が得られることがあるが、表810の「ネット」を抽出結果1605とした場合、抽出結果1604も1605もどちらも命令種類を表す命令要素ではないため、命令規則照合1005で一致する命令規則が存在しない。したがって表800の「ネット検索」のみが抽出結果1605として残る。命令要素202については、「酸化チタン」以外に「酸化」や「チタン」などの抽出結果も存在する。命令規則から「酸化」や「チタン」も命令引数要素となり得るため、これら命令引数要素と命令種類要素「ネット検索」の組合せからなる命令も、命令規則照合1005で各々出力される。これら命令引数要素の抽出結果の確信度を算出すると、丸囲みの重なり比率から「酸化チタン」の確信度が最も高くなる。本実施例では、命令解釈結果の確信度を、各命令要素の確信度の積とする。命令種類要素「ネット検索」は互いに共通のため、結局「酸化チタン」を命令引数とする命令解釈結果の確信度が最も高くなる。
本実施例では、図9のように命令解釈結果をXML形式で出力する。命令解釈結果の命令種類要素を<type>で、各命令引数要素を<argument>でそれぞれタグ付けすることにより、XMLファイルを作成する。なお、命令要素抽出結果の集合から命令解釈結果が複数個出力された場合は、それらを確信度(図9の900中のタグscoreの値)で整列し、上位一位、もしくは設定閾値以上の複数の候補を出力する。
命令実行1007は、命令解釈結果900を入力とし、該当命令を実行する。このとき複数の解釈結果が出力された場合は、第一位の解釈結果を自動実行してもよいし、それら解釈結果を一覧表示して、利用者に選択させてもよい。また第一位と第二位の解釈結果の確信度の差が、事前設定した閾値以上であれば、自動実行するといった相対閾値型を導入しても良い。
以上の流れにより、命令解釈処理が実行され、利用者が指示した命令を実行することができる。以上の処理により、図2の例だけでなく、図14に示したようなネット検索や、図15の類似画像検索(丸字にSは「類似画像検索」を意味するゼスチャとして登録されているとする)などにも対応できる。図14は、紙面1400上にペン1401で記入された丸囲み1402と書込み文字列1403から、ステップ1004によりそれぞれ「チタヒフル」「Web検索」の命令要素を含む命令要素候補集合を得る。ステップ1005によりその命令要素候補集合と命令規則辞書500と照し合せ、「チタヒフル」をネット検索する命令解釈候補を得、ステップ1006で命令を実行し、その結果を表示した応用例である。図15も同様に、写真1500上に記入された丸囲み1502と類似検索を意味する記号1503から、丸囲み1502の範囲の画像を類似検索し、その結果として写真1511〜1513が表示された応用例である。
最後に、利用者が命令を追加する手順について具体的に説明する。図13の例は、ネット検索の命令指定方法として、WSという文字列を丸で囲んだ形のゼスチャを追加登録する場面である。
まず、命令解釈装置100のモードを登録モードに設定する。その後、利用者が登録したい命令を、実際に命令するのと同じように紙やペンなどを用いて指示する(図12のステップ1202、図13A)。
すると、命令解釈装置のモニタ画面上に図13Bのダイアログ1320が表示される。本ダイアログで、入力された各命令要素の定義を確定していく。本ダイアログに係る処理としては、まず表示前に、この時点での命令要素辞書を用いて命令要素抽出を実行し(ステップ1203)、入力された各命令要素の抽出結果を得ておく。次にダイアログ1320を表示し、利用者に各命令要素の意図を確認、訂正させる。第一命令要素の丸囲み1302は、ネット検索させたい「文字列」であるので、ダイアログ上の項目1322のチェックボックスをオンにして「ABC-123A」が命令要素を表す文字列である旨の入力を行う。また第二命令要素のゼスチャ1303は、現時点の命令要素辞書には未登録のゼスチャなので認識に失敗し、項目1332に「???」が表示されている。これを利用者が訂正し、ネット検索の命令種類要素の文字列の1つである「Web検索」をキーボード入力し、項目1332のチェックボックスをオンにして文字列「Web検索」を入力することにより、ゼスチャ1303が「Web検索」という命令種類要素を意味する旨の入力を行う(図13C)。登録内容に誤りがないことを確認し、OKボタン1358をクリックする。ここまでが、命令要素定義1204のステップとなる。
次に、命令規則照合(ステップ1205)を実行し、現在命令規則辞書に登録されている命令規則と照合するか否かを確認し、結果を図13のダイアログ1360のように表示する(ステップ1207)。本例の場合、ネット検索の命令種類は図5に示したように命令規則辞書に登録されているため、その結果が項目1361のように表示される。利用者はこの項目1361を選択し、OKボタン1378をクリックすれば、希望の命令が追加登録されることになる(ステップ1207)。本例の場合、命令の種類自体は変更がないため、命令規則辞書には変更が無く、丸字にWSのストロークが、命令要素辞書に追加登録されることとなる(図4の420)。
もし図13の例とは異なり、命令種類自体も追加登録したい場合は、ダイアログ1360の新規命令種類登録(項目1371)を選択し、適当な命令名を項目1372に入力後、開始ボタン1373をクリックする。すると命令解釈装置では、利用者の操作をトラッキングし始め、これから利用者が装置を操作する記録を残す。その記録と、各命令要素の定義を照らし合せ、新規命令種類の命令規則を決定し、命令規則辞書に登録することになる。
このように、紙とペンを用いた命令追加手段を提供することにより、利用者が命令解釈処理の詳細や命令文法などの専門知識を習得しなくても、実際の利用シーンに沿った形で命令を容易に追加できる。
本発明の命令解釈方法は、たとえば研究開発・企画職などの知的活動支援といったビジネスユースから、個人で閲覧記事の関連情報に関するブラウジングといったコンシューマユースまで、幅広い分野で利用可能である。
本発明に係る命令解釈装置の構成図である。 利用者の計算機への命令の指示の1例である。 命令要素の指定方法を示す図である。 命令要素辞書のデータ構造を示す図である。 命令規則辞書のデータ構造を示す図である。 書類情報のデータ構造を示す図である。 入力情報のデータ構造を示す図である。 命令要素抽出結果のデータ構造を示す図である。 命令解釈結果のデータ構造を示す図である。 本発明に係る命令解釈処理の説明図である。 命令要素抽出処理の説明図である。 命令定義処理の説明図である。 命令定義作業の流れを示す図である。 本発明で実現可能な命令解釈の1例である。 本発明で実現可能な命令解釈の1例である。 命令規則照合の説明図である。
符号の説明
100:命令解釈装置、101:操作入力部、102:書類管理部、103:命令要素抽出部、104:手書き文字列認識部、105:命令規則照合部、106:命令実行部、400:命令要素辞書、500:命令規則辞書、600:書類情報、700:入力情報、800:命令要素抽出結果、900:命令解釈結果。

Claims (11)

  1. 利用者からの指示入力を受ける入力部と、
    上記入力された指示から複数の命令要素の認識候補を出力する命令要素抽出部と、
    上記認識候補の中から命令種類要素を抽出しさらに該命令種類要素の引数となる命令引数要素を判定して、命令種類要素と命令引数要素の組み合わせを決定する命令規則照合部と、
    上記決定された命令引数要素に対して上記命令種類要素のコマンドを実行する命令実行部とを有することを特徴とする入力指示処理装置。
  2. 上記指示入力は、電子ペンを用いた媒体への加筆、表示装置へのポインティングを介した指示又は上記入力指示装置への入力装置を介した入力であることを特徴とする請求項1記載の入力指示処理装置。
  3. 上記命令要素抽出部は、上記入力時刻、該入力のストロークの幾何特徴の少なくとも何れかに基いて上記入力された指示入力を分割して命令要素単位候補を生成し、
    上記複数の認識候補を出力することを特徴とする請求項1又は2に記載の入力指示処理装置。
  4. ゼスチャとそれに対する指示抽出方法を定義する命令要素辞書を有し、
    上記命令要素抽出部は、上記生成された命令要素単位候補が上記電子ペンによる加筆又は上記ポインティングデバイスを介した指示の何れかである場合に、
    該指示が上記ゼスチャの何れかであるか判定し、該ゼスチャと判定された指示について対応づけられる上記指示抽出方法を実行して上記複数の候補を抽出することを特徴とする請求項3記載の入力指示処理装置。
  5. 上記指示抽出方法は、上記ゼスチャの指示箇所をイメージとして切り出す、上記ゼスチャの指示箇所を文字列として抽出する、又は、該指示箇所にあらかじめ対応付けられた命令をセットするの何れかであって、
    上記文字列が抽出された場合には該文字列の文字認識を実行して上記複数の候補を抽出することを特徴とする請求項4記載の入力指示処理装置。
  6. 上記命令要素抽出部は上記複数の認識候補を確信度とともに出力し、
    上記命令規則照合部は、上記組み合わせを構成する命令種類要素と命令引数要素の上記確信度に基いて該組み合わせの確信度を決定し、
    該組み合わせの確信度に基いて上記組み合わせを決定することを特徴とする請求項乃至1乃至5の何れかに記載の入力指示処理装置。
  7. 上記入力されたゼスチャのストロークと上記ゼスチャとして登録されるストロークとの一致度および上記抽出される候補と該入力されたストロークとの重なり比率を乗じた値から上記確信度を算出することを特徴とする請求項4乃至6の何れかに記載の入力指示処理装置。
  8. 命令規則照合部は上記命令種類要素と命令引数要素の組み合わせを定義する命令規則辞書に基づき上記決定を行うものであって、該命令規則辞書は自由文脈法で記述されていることを特徴とする請求項1乃至7の何れかに記載の入力指示処理装置。
  9. 上記命令要素抽出部は、表示部に上記抽出した命令種類要素を表示し、上記入力部を介して確認又は修正を受けることを特徴とする請求項1乃至8の何れかに記載の入力指示装置。
  10. さらに上記入力部を介して命令種類要素の新たな登録を受け付けることを特徴とする請求項1乃至9の何れかに記載の入力指示装置。
  11. 利用者からの指示入力を受ける入力部と、
    入力時刻、該入力のストロークの幾何特徴の少なくとも何れかに基いて上記入力された指示入力を分割して命令要素単位候補を生成して複数の認識候補を出力し、
    上記認識候補の中から命令種類要素を抽出し、
    命令種類要素と命令引数要素の組み合わせを定義する命令規則辞書に基いて上記命令種類要素と命令引数要素の組み合わせを決定し、
    上記決定された命令引数要素に対して上記命令種類要素のコマンドを実行することを特徴とする入力指示処理プログラム。
JP2005301125A 2005-10-17 2005-10-17 入力指示処理装置および入力指示処理プログラム Pending JP2007109118A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005301125A JP2007109118A (ja) 2005-10-17 2005-10-17 入力指示処理装置および入力指示処理プログラム
US11/484,779 US20070098263A1 (en) 2005-10-17 2006-07-12 Data entry apparatus and program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005301125A JP2007109118A (ja) 2005-10-17 2005-10-17 入力指示処理装置および入力指示処理プログラム

Publications (1)

Publication Number Publication Date
JP2007109118A true JP2007109118A (ja) 2007-04-26

Family

ID=37996360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005301125A Pending JP2007109118A (ja) 2005-10-17 2005-10-17 入力指示処理装置および入力指示処理プログラム

Country Status (2)

Country Link
US (1) US20070098263A1 (ja)
JP (1) JP2007109118A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031614A (ja) * 2007-07-30 2009-02-12 Hitachi Ltd 電子添削システム
JP2011203829A (ja) * 2010-03-24 2011-10-13 Seiko Epson Corp コマンド生成装置、その制御方法及びそれを備えたプロジェクター
JP2013033548A (ja) * 2012-11-12 2013-02-14 Kenji Yoshida 手書き入出力システム、手書き入力シート、情報入力システム、情報入力補助シート
JP2013061955A (ja) * 2012-10-29 2013-04-04 Kenji Yoshida 手書き入出力システム
KR101261767B1 (ko) 2012-02-06 2013-05-07 (주)이스트소프트 마우스를 이용한 영역 지정 방법
WO2014106910A1 (ja) * 2013-01-04 2014-07-10 株式会社ユビキタスエンターテインメント 情報処理装置及び情報入力制御プログラム
JP2014209386A (ja) * 2014-07-30 2014-11-06 ソニー株式会社 情報処理装置、プログラム、記録媒体および情報処理システム
JP2015503794A (ja) * 2011-12-30 2015-02-02 インテル・コーポレーション ステータス決定を利用する対話型の描画認識
US9594439B2 (en) 2008-11-25 2017-03-14 Kenji Yoshida Handwriting input/output system, handwriting input sheet, information input system, and information input assistance sheet
US9690393B2 (en) 2010-03-17 2017-06-27 Sony Corporation Information processing device, program, recording medium, and information processing system
JP2020204905A (ja) * 2019-06-17 2020-12-24 株式会社リコー 文字認識装置、文書ファイル生成方法、文書ファイル生成プログラム

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4741908B2 (ja) * 2005-09-08 2011-08-10 キヤノン株式会社 情報処理装置及び情報処理方法
JP4770614B2 (ja) * 2006-07-11 2011-09-14 株式会社日立製作所 書類管理システムおよび書類管理方法
WO2008029467A1 (fr) * 2006-09-07 2008-03-13 Osaka Electro-Communication University Système, procédé et programme d'entrée de mouvement
JP4935569B2 (ja) * 2007-08-06 2012-05-23 株式会社ニコン 処理実行プログラム、および処理実行装置
JP2009266097A (ja) * 2008-04-28 2009-11-12 Toshiba Corp 入力機器
US8423916B2 (en) * 2008-11-20 2013-04-16 Canon Kabushiki Kaisha Information processing apparatus, processing method thereof, and computer-readable storage medium
JP5413673B2 (ja) * 2010-03-08 2014-02-12 ソニー株式会社 情報処理装置および方法、並びにプログラム
KR20130043229A (ko) * 2010-08-17 2013-04-29 구글 인코포레이티드 터치 감응 장치를 위한 터치 기반의 제스처 검출
US9021402B1 (en) 2010-09-24 2015-04-28 Google Inc. Operation of mobile device interface using gestures
WO2012050251A1 (ko) * 2010-10-14 2012-04-19 엘지전자 주식회사 이동 단말기 및 그 제어방법
US20120216152A1 (en) * 2011-02-23 2012-08-23 Google Inc. Touch gestures for remote control operations
US20130339859A1 (en) 2012-06-15 2013-12-19 Muzik LLC Interactive networked headphones
US8838546B1 (en) 2012-08-10 2014-09-16 Google Inc. Correcting accidental shortcut usage
US20140223382A1 (en) * 2013-02-01 2014-08-07 Barnesandnoble.Com Llc Z-shaped gesture for touch sensitive ui undo, delete, and clear functions
KR102203885B1 (ko) * 2013-04-26 2021-01-15 삼성전자주식회사 사용자 단말 장치 및 그 제어 방법
KR102063103B1 (ko) * 2013-08-23 2020-01-07 엘지전자 주식회사 이동 단말기
ES2912139T3 (es) * 2014-08-13 2022-05-24 Rakuten Group Inc Sistema de entrada de operación, método de entrada de operación y programa
CN107210950A (zh) 2014-10-10 2017-09-26 沐择歌有限责任公司 用于共享用户交互的设备
US20160154555A1 (en) * 2014-12-02 2016-06-02 Lenovo (Singapore) Pte. Ltd. Initiating application and performing function based on input
US10049114B2 (en) * 2015-03-18 2018-08-14 Kabushiki Kaisha Toshiba Electronic device, method and storage medium
US10402740B2 (en) * 2016-07-29 2019-09-03 Sap Se Natural interactive user interface using artificial intelligence and freeform input
CN112863409B (zh) * 2019-11-28 2024-07-19 中强光电股份有限公司 投影机的控制方法及系统
CN111339732A (zh) * 2020-02-27 2020-06-26 广东安创信息科技开发有限公司 一种字符命令审计的目标字符串处理方法及系统
JP2022097259A (ja) * 2020-12-18 2022-06-30 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
CN115222015A (zh) * 2021-04-21 2022-10-21 阿里巴巴新加坡控股有限公司 指令处理装置、加速单元和服务器

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03229386A (ja) * 1990-02-02 1991-10-11 Yokogawa Electric Corp 文字認識装置
JPH06214982A (ja) * 1993-01-18 1994-08-05 Sharp Corp ジェスチャー編集機能付き文書処理装置
JPH06282566A (ja) * 1993-03-25 1994-10-07 Sanyo Electric Co Ltd 情報処理装置
JPH08110890A (ja) * 1994-10-12 1996-04-30 Nec Corp 入力解釈装置
JPH09161010A (ja) * 1995-12-13 1997-06-20 Nippon Telegr & Teleph Corp <Ntt> オンライン手書き文字切り出し方法および装置
JPH1185398A (ja) * 1997-09-11 1999-03-30 Kenwood Corp タッチパネルディスプレー用コマンド入力装置
JP2000039945A (ja) * 1998-07-22 2000-02-08 Just Syst Corp コンピュータシステムおよびコンピュータ制御方法
JP2003281131A (ja) * 2002-03-20 2003-10-03 Fuji Xerox Co Ltd 自然言語処理システム及び自然言語処理方法、並びにコンピュータ・プログラム
JP2003287432A (ja) * 2002-03-27 2003-10-10 Kokuyo Co Ltd ナビゲーションシステム、位置指示装置、経路誘導装置、ナビゲーションプログラム
JP2003335082A (ja) * 2002-05-23 2003-11-25 Dainippon Printing Co Ltd 電子ペン用帳票
JP2003334389A (ja) * 2002-05-20 2003-11-25 National Institute Of Advanced Industrial & Technology ジェスチャ認識による制御装置、その方法および記録媒体
JP2004021899A (ja) * 2002-06-20 2004-01-22 Dainippon Printing Co Ltd コンテンツ提供システム、コンテンツ提供方法及びコンテンツ提供プログラム
JP2004046359A (ja) * 2002-07-09 2004-02-12 Sharp Corp 手書き入力装置および方法、手書き入力プログラム、並びに、プログラム記録媒体
JP2004145408A (ja) * 2002-10-22 2004-05-20 Hitachi Ltd デジタルペンおよびデジタルペーパを利用した計算システム
JP2004265003A (ja) * 2003-02-28 2004-09-24 Dainippon Printing Co Ltd 認識サーバ、プログラム及び認識システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6180478A (ja) * 1984-09-27 1986-04-24 インタ−ナショナル ビジネス マシ−ンズ コ−ポレ−ション デ−タ入力・表示システム
US5252951A (en) * 1989-04-28 1993-10-12 International Business Machines Corporation Graphical user interface with gesture recognition in a multiapplication environment
JP3103928B2 (ja) * 1991-12-27 2000-10-30 株式会社日立製作所 可搬型ペン入力装置およびペン入力計算機システム
US5583542A (en) * 1992-05-26 1996-12-10 Apple Computer, Incorporated Method for deleting objects on a computer display
US5523775A (en) * 1992-05-26 1996-06-04 Apple Computer, Inc. Method for selecting objects on a computer display
US5502803A (en) * 1993-01-18 1996-03-26 Sharp Kabushiki Kaisha Information processing apparatus having a gesture editing function
JPH07160827A (ja) * 1993-12-09 1995-06-23 Matsushita Electric Ind Co Ltd 手書きストローク編集装置及び方法
JP3486459B2 (ja) * 1994-06-21 2004-01-13 キヤノン株式会社 電子情報機器及びその制御方法
US6054990A (en) * 1996-07-05 2000-04-25 Tran; Bao Q. Computer system with handwriting annotation
US7372993B2 (en) * 2004-07-21 2008-05-13 Hewlett-Packard Development Company, L.P. Gesture recognition

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03229386A (ja) * 1990-02-02 1991-10-11 Yokogawa Electric Corp 文字認識装置
JPH06214982A (ja) * 1993-01-18 1994-08-05 Sharp Corp ジェスチャー編集機能付き文書処理装置
JPH06282566A (ja) * 1993-03-25 1994-10-07 Sanyo Electric Co Ltd 情報処理装置
JPH08110890A (ja) * 1994-10-12 1996-04-30 Nec Corp 入力解釈装置
JPH09161010A (ja) * 1995-12-13 1997-06-20 Nippon Telegr & Teleph Corp <Ntt> オンライン手書き文字切り出し方法および装置
JPH1185398A (ja) * 1997-09-11 1999-03-30 Kenwood Corp タッチパネルディスプレー用コマンド入力装置
JP2000039945A (ja) * 1998-07-22 2000-02-08 Just Syst Corp コンピュータシステムおよびコンピュータ制御方法
JP2003281131A (ja) * 2002-03-20 2003-10-03 Fuji Xerox Co Ltd 自然言語処理システム及び自然言語処理方法、並びにコンピュータ・プログラム
JP2003287432A (ja) * 2002-03-27 2003-10-10 Kokuyo Co Ltd ナビゲーションシステム、位置指示装置、経路誘導装置、ナビゲーションプログラム
JP2003334389A (ja) * 2002-05-20 2003-11-25 National Institute Of Advanced Industrial & Technology ジェスチャ認識による制御装置、その方法および記録媒体
JP2003335082A (ja) * 2002-05-23 2003-11-25 Dainippon Printing Co Ltd 電子ペン用帳票
JP2004021899A (ja) * 2002-06-20 2004-01-22 Dainippon Printing Co Ltd コンテンツ提供システム、コンテンツ提供方法及びコンテンツ提供プログラム
JP2004046359A (ja) * 2002-07-09 2004-02-12 Sharp Corp 手書き入力装置および方法、手書き入力プログラム、並びに、プログラム記録媒体
JP2004145408A (ja) * 2002-10-22 2004-05-20 Hitachi Ltd デジタルペンおよびデジタルペーパを利用した計算システム
JP2004265003A (ja) * 2003-02-28 2004-09-24 Dainippon Printing Co Ltd 認識サーバ、プログラム及び認識システム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031614A (ja) * 2007-07-30 2009-02-12 Hitachi Ltd 電子添削システム
US9594439B2 (en) 2008-11-25 2017-03-14 Kenji Yoshida Handwriting input/output system, handwriting input sheet, information input system, and information input assistance sheet
US9690393B2 (en) 2010-03-17 2017-06-27 Sony Corporation Information processing device, program, recording medium, and information processing system
JP2011203829A (ja) * 2010-03-24 2011-10-13 Seiko Epson Corp コマンド生成装置、その制御方法及びそれを備えたプロジェクター
JP2015503794A (ja) * 2011-12-30 2015-02-02 インテル・コーポレーション ステータス決定を利用する対話型の描画認識
KR101261767B1 (ko) 2012-02-06 2013-05-07 (주)이스트소프트 마우스를 이용한 영역 지정 방법
JP2013061955A (ja) * 2012-10-29 2013-04-04 Kenji Yoshida 手書き入出力システム
JP2013033548A (ja) * 2012-11-12 2013-02-14 Kenji Yoshida 手書き入出力システム、手書き入力シート、情報入力システム、情報入力補助シート
JPWO2014106910A1 (ja) * 2013-01-04 2017-01-19 株式会社Uei 情報処理装置及び情報入力制御プログラム
WO2014106910A1 (ja) * 2013-01-04 2014-07-10 株式会社ユビキタスエンターテインメント 情報処理装置及び情報入力制御プログラム
JP2017084388A (ja) * 2013-01-04 2017-05-18 株式会社Uei 情報処理装置及び情報入力制御プログラム
JP2014209386A (ja) * 2014-07-30 2014-11-06 ソニー株式会社 情報処理装置、プログラム、記録媒体および情報処理システム
JP2020204905A (ja) * 2019-06-17 2020-12-24 株式会社リコー 文字認識装置、文書ファイル生成方法、文書ファイル生成プログラム
JP7379876B2 (ja) 2019-06-17 2023-11-15 株式会社リコー 文字認識装置、文書ファイル生成方法、文書ファイル生成プログラム

Also Published As

Publication number Publication date
US20070098263A1 (en) 2007-05-03

Similar Documents

Publication Publication Date Title
JP2007109118A (ja) 入力指示処理装置および入力指示処理プログラム
US20040054701A1 (en) Modeless gesture driven editor for handwritten mathematical expressions
JP5239506B2 (ja) 学習支援システム、プログラムおよび学習支援方法
CN114365075B (zh) 用于选择图形对象的方法和对应装置
JP6874729B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2007317022A (ja) 手書文字処理装置及び手書文字処理方法
JP2014225135A (ja) プログラム、情報処理装置および文字認識方法
US10210141B2 (en) Stylizing text by replacing glyph with alternate glyph
US12118203B2 (en) Ink data generation apparatus, method, and program
WO2007094078A1 (ja) 文字列検索方法およびその装置
JP2007272473A (ja) 文字認識装置、方法およびプログラム
US8571262B2 (en) Methods of object search and recognition
US6421461B1 (en) Pattern recognition apparatus which compares input pattern feature and size data to registered feature and size pattern data, an apparatus for registering feature and size data, and corresponding methods and memory media therefor
JP5694236B2 (ja) 文書検索装置、方法およびプログラム
WO2019194052A1 (ja) 画像処理装置、画像処理方法、およびプログラムを記憶する記憶媒体
US7170503B2 (en) Layer editing method and apparatus in a pen computing system
JP2010055373A (ja) ノート評価装置またはノート評価プログラム
JP6325218B2 (ja) 文字認識結果検証装置及び文字読取システム
JP4466241B2 (ja) 文書処理手法及び文書処理装置
CA3075627A1 (en) Integrated document editor
RU2786951C1 (ru) Детектирование повторяющихся паттернов действий в пользовательском интерфейсе
JP2013182459A (ja) 情報処理装置、情報処理方法及びプログラム
JP5965785B2 (ja) ユースケースシナリオ作成支援装置、ユースケースシナリオ作成支援方法、およびユースケースシナリオ作成支援プログラム
JP4963633B2 (ja) 情報処理装置及び情報処理方法
JP5233424B2 (ja) 検索装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100519

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101005