JPH06131437A - 複合形態による操作指示方法 - Google Patents

複合形態による操作指示方法

Info

Publication number
JPH06131437A
JPH06131437A JP28205792A JP28205792A JPH06131437A JP H06131437 A JPH06131437 A JP H06131437A JP 28205792 A JP28205792 A JP 28205792A JP 28205792 A JP28205792 A JP 28205792A JP H06131437 A JPH06131437 A JP H06131437A
Authority
JP
Japan
Prior art keywords
display
pointing
voice
coordinate
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP28205792A
Other languages
English (en)
Inventor
Haru Andou
ハル 安藤
Yoshinori Kitahara
義典 北原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP28205792A priority Critical patent/JPH06131437A/ja
Priority to US08/137,788 priority patent/US5600765A/en
Priority to EP93116885A priority patent/EP0594129B1/en
Priority to DE69329094T priority patent/DE69329094D1/de
Publication of JPH06131437A publication Critical patent/JPH06131437A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 (修正有) 【目的】 ユーザにとって操作自由度が高く簡便にイラ
スト等の編集が可能なマンマシンインタフェースを提供
する。 【構成】 ポインティング入力装置5を介して表示装置
4の表示画面上の表示物または表示位置をポインティン
グしながら、表示物に関する操作を音声によっても行う
複合形態の操作指示方法で、ポインティングを表示物ま
たは表示位置に対して一連の複数の座標点列を入力する
ステップと、ポインティング動作に伴って音声による指
示を行うステップと、音声認識処理により指示内容を認
識するステップと、認識された指示内容に応じてポイン
ティングによる指示内容を認識するステップと、音声に
よる指示内容およびポインティングによる指示内容に従
い表示物に対する操作を実行するステップとを備えた。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、パーソナルコンピュー
タ(パソコン)、ワークステーション、ワードプロセッ
サ(ワープロ)等のOA機器に搭載されたイラスト編集
システム等のユーザインタフェース方式に関し、ユーザ
にとって使い勝手のよい情報による操作指示方法を提供
するものである。
【0002】
【従来の技術】従来、例えば、図形編集システムにおい
て、MACLIFE(No25、9、河出書房新社)に記載されている様
に、新規に図形を入力する際には、次のような手順を要
した。まず、あらかじめディスプレイに表示されている
図形パターンメニューから、入力したい図形をマウス等
のポインティングデバイスで選択する。この選択された
図形の輪郭線をポインティングデバイスで指示し、図形
をドラッグして入力位置を定める。さらに、図形の大き
さを決定する場合、図形の輪郭線をポインティングデバ
イスでドラッグして図形の大きさを調整する。
【0003】また、図形を指示する場合は、B.A.Bolt「P
ut that there..」(Computer Graphics、14、3、1980)に開
示されている様に、ジェスチャーを伴う指示代名詞で指
示する他、図形編集を行なう前にあらかじめ画面上に描
かれた物体に名前をつけておき、以後この名前を使用す
るといった方法があった。
【0004】
【発明が解決しようとする課題】この様に、従来の技術
では、図形編集において図形を新規入力する際に、まず
標準図形を選択して所望の図形を画面上に表示した後、
その図形の大きさを指定する必要があり、入力と同時に
大きさを指定することはできなかった。
【0005】また、特定のイラストが欲しい場合、自分
で基本図形を組み合わせるなどして作らなければなら
ず、さらにこの作った物体を音声のみで指示するために
は名前をつける作業が必要であるといった煩わしさもあ
った。
【0006】本発明の目的は、音声やポインティングジ
ェスチャといった複数のメディアを利用し、ユーザにと
って操作自由度が高く、簡便にイラスト等の入力、編集
が可能となる、複合形態による操作指示方法を提供する
ことにある。
【0007】
【課題を解決するための手段】本発明による複合形態に
よる操作指示方法は、ポインティング入力装置を介して
表示装置の表示画面上の表示物または表示位置をポイン
ティングしながら、音声入力装置を介して表示物に関す
る操作を音声により指示する、複合形態による操作指示
方法であって、前記ポインティングを、前記表示物また
は表示位置に対して一連の複数の座標点列を入力するよ
うに行う第1のステップと、該ポインティング動作に伴
って前記音声による指示を行う第2のステップと、該音
声による指示に対して音声認識処理により指示内容を認
識する第3のステップと、該認識された指示内容に応じ
て前記ポインティングによる指示内容を認識する第4の
ステップと、前記音声による指示内容および前記ポイン
ティングによる指示内容に従って、前記表示物に対する
操作を実行する第5のステップとを備えたことを特徴と
する。
【0008】前記第3のステップで、前記音声による指
示内容に基づいて前記入力された座標点列が表示物を指
示することが認識された場合、前記第4のステップで
は、該座標点列の形成する領域が前記画面上の表示物の
形成する領域と画面上で共有領域を持つ場合には、前記
座標点列が形成する領域と共有面積が最も広い表示物を
指示対象物とし、前記座標点列が形成する領域が表示物
の形成する領域と画面上で共有領域を持たない場合に
は、前記座標点列のX最大値とX最小値の平均値とY最
大値とY最小値の平均値が示す座標から最も近い中心点
を持つ表示物を指示対象物とする。
【0009】前記第3のステップで、前記音声による指
示内容に基づいて前記入力された座標点列が表示位置を
指示することが認識された場合、前記第4のステップで
は、前記座標点列のX最大値とX最小値の平均値とY最
大値とY最小値の平均値が示す座標を指示表示位置とす
る。
【0010】前記第3のステップで、前記音声による指
示内容に基づいて前記入力された座標点列が特定の表示
物の拡大縮小後の大きさ、或いは新規入力物の大きさを
指示することが認識された場合、前記第4のステップで
は、前記入力された座標点列のX座標値のうちの最小値
と最大値との差分値と前記特定の表示物の標準横最大幅
との比率αと、Y座標値のうちの最小値と最大値との差
分値と前記特定の表示物の標準縦最大幅との比率βとを
算出し、前記第5のステップで、前記算出された比率
α、βに基づいて前記表示物のXおよびY方向の大きさ
を決定する。
【0011】また、本発明方法を実施する装置は、表示
画面上で表示物に関する操作を音声指示およびポインテ
ィングジェスチャーにより行う情報処理装置であって、
前記表示物または表示位置に対して複数の座標点を入力
するポインティング入力手段と、該ポインティング入力
手段により入力された複数の座標点の座標列を格納する
ポインティング領域テーブルと、前記表示物としての各
種表示部品のビットマップデータおよびその縦標準最大
幅、横標準最大幅を格納したビットマップデータ格納手
段と、前記ビットマップデータ格納手段から選択され表
示画面上に表示されたた表示部品の識別子、その縦横倍
率、および表示画面上での位置情報を格納する描画テー
ブルと、前記ビットマップデータ格納手段内の各表示部
品の音声認識可能な名称を保持する表示部品辞書と、該
表示部品辞書を参照して前記音声指示を認識する音声認
識手段と、前記ポインティング領域テーブル内の座標列
に基づいて指示された表示部品を抽出する表示部品抽出
手段と、前記ポインティング領域テーブル内の座標列に
基づいて表示部品の拡大率情報を算出する拡大率算出手
段と、前記ポインティング領域テーブル内の座標列に基
づいて指示された目標点を算出する目標点算出手段と、
前記音声認識結果に応じて、前記表示部品抽出手段、拡
大率算出手段、目標点算出手段の少なくとも1つを起動
し、その結果に基づき前記描画テーブルの書き換えを行
う制御手段とを備える。
【0012】
【作用】本発明の複合形態による操作指示方法において
は、ユーザが、音声入力により、入力或いは編集したい
表示物または表示位置を指示すると同時に、ポインティ
ングジェスチャによって表示物の指示、入力位置指示、
大きさ指示、目標点位置指示を行うことにより、画面上
に指示された位置に、指示された大きさで対象物を表示
することが可能となる。すなわち、例えば、表示物の拡
大縮小時には、音声指示とともに、画面上で所望の大き
さのポインティングジェスチャーを行えばよい。また、
新規入力時には、音声で入力対象を指示するとともに、
所望の位置で所望の大きさのポインティングジェスチャ
ーを行えば、入力と同時に大きさの指示ができる。これ
により、作業手順が簡略化され、操作性が向上する。
【0013】また、イラスト描画のための必要部品を記
憶しているイラスト部品辞書を具備し、音声で部品名を
入力すると、指定された部品が画面上に表示される機能
を備えることにより、表示したい部品を自分で基本図形
を組み合わせるなどして作らなければならない煩わしさ
から開放され、画面上に簡便に部品を表示することが可
能となる。
【0014】入力された座標点列を構成する隣あった個
々の点間の入力時刻の差分値を算出し、1つのポインテ
ィングジェスチャの終端を検知し、入力された音声から
判断されたコマンドと情報入力順序によって、個々のジ
ェスチャの機能を判断する機能を備えることにより、ポ
インティングジェスチャの自由度が増し、より自然な入
力が可能となる。
【0015】入力された座標点列が表示物を示す際、該
点列が形成する領域が、画面表示物が形成する領域と画
面上で共有領域を持つ場合には、該点列が形成する領域
と共有面積が最も広い表示物を指示対象物とし、画面表
示物が形成する領域と画面上で共有領域を持たない場合
には、該点列の個々の点のX最大値とX最小値の平均値
とY最大値とY最小値の平均値が示す座標から最も近い
中心点を持つ物体を指示対象物とする機能を備えること
により、さらにポインティングジェスチャの自由度が増
し、より自然な入力が可能となる。
【0016】表示物の拡大縮小、或いは新規入力物の大
きさを指示する際には、入力された座標点列情報のX座
標値のうちの最小値と最大値の差分値と表示物の標準横
最大幅との比率αと、Y座標値のうちの最小値と最大値
の差分値と表示物の標準縦最大幅との比率βを算出し、
算出された比率α、βに応じてビットマップの各セルを
補間して画像を拡大したり、各セルを間引いて画像を縮
小したりする機能を備えることにより、ユーザが、迅速
かつ簡便に表示物等の大きさを指示することが可能とな
る。
【0017】
【実施例】以下、本発明の実施例を図面により詳細に説
明する。
【0018】図1に、本発明の複合形態情報入力方法を
実現するシステムの構成を示す。ここでは、イラスト編
集システムを想定して説明を行なう。
【0019】図1のシステムは、情報処理装置1、主記
憶装置2、パネル制御装置3、ディスプレイ4、タッチ
パネル5、表示制御装置6、A/D変換装置7、マイク
8、ディスク9からなる。ディスク9には、システムプ
ログラム11、イラスト編集プログラム12、音響認識
プログラム13、ポインティング領域読み込みプログラ
ム14、情報統合プログラム15、音響標準パタンデー
タ16、イラスト部品辞書17、ビットマップデータ1
8、コマンド&格辞書19が格納されており、これら
は、システム立ち上げ時に、主記憶装置2にロードされ
る。
【0020】音響認識プログラム13は、図7に示すよ
うに、音声入力プログラム1300、特徴抽出プログラ
ム1301より構成される。
【0021】情報統合プログラム15は、図9に示すよ
うに、文法照合プログラム1500、オブジェクト抽出
プログラム1501、コマンド&格抽出プログラム15
02、拡大率算出プログラム1503、目標点位置算出
プログラム1504のモジュールから構成されている。
【0022】図2は、主記憶装置2にロードされたイラ
スト編集プログラム12を通じてディスプレイ4に表示
されたイラスト編集画面の一例である。同図において
は、自動車B及び長方形Cが、イラスト編集プログラム
12によって、主記憶装置2に記憶された描画テーブル
(図4の4000)に基づいてグラフィックモードで描
かれている。
【0023】“自動車B"、“長方形C"といったイラス
ト部品の標準型のビットマップデータ18は、図3に示
す様に、イラスト部品毎に構成され、それぞれの標準型
が示されている。同図では、301は、イラスト部品毎
の標準型ビットマップの識別番号、302はイラスト部
品名、303は部品毎の個々のビットデータのデータ番
号を示している。また304は、ビットマップデータを
画面上に展開し、ビット番号1が展開される位置を画面
上(0,0)として、あるイラスト部品のビットマップ
データを画面上に展開した時、ビットデータが0でない
座標値のうちのX軸上での最小値と最大値の差分値を示
しており、これを標準横最大幅XDとする。305は、ビ
ットマップデータを画面上に展開し、ビット番号1が展
開される位置を画面上(0,0)として、あるイラスト
部品のビットマップデータを画面上に展開した時、ビッ
トデータが0でない座標値のうちのY軸上での最小値と
最大値の差分値を示しており、これを標準縦最大幅YDと
する。ビットマップ番号1の“自動車"の場合、標準横
最大幅は200、標準縦最大幅は50と表される。
【0024】図4に示す描画テーブル4000は、図2
の例に対応しており、“自動車B"については、部品番
号“1"として、図3に示す標準ビットマップ番号
“1"、縦倍率1.0、横倍率1.0、中心座標(350、3
30)が記憶されており、また“長方形C"について
は、部品番号“2"として、図3に示すビットマップ番
号12、縦倍率1.0、横倍率1.0、中心座標(300、8
0)が記憶されている。部品番号の最大値(最大部品個
数)は、主記憶装置2のバッファメモリW(図示せず)
に格納されている。各部品の中心座標は、X軸上での最
小値と最大値の平均値とY軸上での最小値と最大値の平
均値が示す座標である。
【0025】ここでユーザは、図5および図6に示すよ
うに、音声およびジェスチャーで、“自動車B"を拡大
したいという意図を入力するものとする。まず、情報処
理装置1上で、イラスト編集プログラムを実行すると、
主記憶装置2上の音響認識プログラム13が起動され
る。その後の処理の流れの一例を図20に示す。音響認
識プログラム13が起動されると、最初に、音声入力プ
ログラム1300が起動される。この時、ユーザは、タ
ッチパネル5上で、例えば、図5に示すように、指先A
或いはペン等でD点を指示して対象物を示し、続いて図
6に示すように、D'曲線を描くことで大きさを示しな
がら、ほぼ同時に音声で、“これをこのくらいに拡大し
て”(S1(図5)、S2(図6))、とマイク8を用いて入
力する(s101)。入力された音声は、音声入力プロ
グラム1300によって、A/D変換装置7に取り込ま
れ、ディジタル信号に変換された後、主記憶装置2に送
られる(s102)。続いて、特徴抽出プログラム13
01が起動され、このディジタル信号が、10msのフ
レーム周期で、特徴ベクトルとして、例えば、斉藤、中
田「音声情報処理の基礎」(オーム社、昭56)記載の
LPCケプストラム係数の時系列に変換される(s10
3)。ここで、フレーム周期は10msに限定されるこ
となく、20ms、30ms等任意に設定することがで
きる。また、特徴ベクトルも、LPCケプストラム係数
のみに限定されず、バンドパスフィルタの出力等を使用
することも可能である。
【0026】一方、主記憶装置2上のポインティング領
域読み込みプログラム14は、前記方法により音響認識
プログラム13が起動されるのと同時に、情報処理装置
1によって起動され、並列処理が行なわれる。この処理
の流れの一例を図21に示す。 図21の処理で利用す
るポインティング領域テーブル204を図8に示す。こ
のテーブルは、座標番号200、入力時刻201、x座
標202、y座標203より構成されており、一定時間
毎に入力時刻、x座標及びy座標データが、入力された
順序に座標番号“1”から格納されていく。この例で
は、100ms毎に座標データを記憶している。座標番
号4と座標番号5との間は1000msの時間間隔があ
り、これが第1、第2のポインティングジェスチャーの
境界と認識される。
【0027】図21の処理において、まず、主記憶装置
2上のバッファメモリに設定される変数P0及びQをゼ
ロリセットする(s201、s202)。ポインティン
グ領域読み込みプログラム14は、ユーザの指先或いは
ペン等が、タッチパネル5に触れている間(s20
3)、微小一定時間間隔で接触座標をパネル制御装置3
を通じて取り込み(s204)、座標を取り込む毎に変
数P0をインクリメントし、さらに主記憶装置2のポイ
ンティング領域テーブル204(図8)中に、取り込ん
だx座標を配列X[P0]へ、y座標を配列Y[P0]
へ、座標入力時刻を配列T[P0]へ書き込む(s20
5)。指先或いはペン等が、タッチパネル5から離れて
からある一定時間Toが経過すると、書き込みを終了す
る(s203)。一定時間Toは、拡大、移動、新既入
力、複写等の一つの操作指示の境界を認識できるような
時間とする。書き込みが終了すると、ポインティングジ
ェスチャの回数を判断するために、ポインティング領域
テーブル204に記憶された、隣あった個々の座標番
号、例えば座標番号iと座標番号(i+1)の入力時刻
の差分値:T[i+1]−T[i]がある一定値Tgより大であ
る個所があれば(s206)、変数Qをインクリメント
し、主記憶装置2上の配列ZにZ[Q]=iの形で書き
込む操作を行う(s207、s208)。一定値Tg
は、一つの操作指示における複数のジェスチャーの境界
を認識できる時間であり、Toより小さい。配列Z
(Q)は、Q番目のジェスチャーに伴って得られた一連
の座標番号の最後の座標番号に相当する。配列Z(Q)
は、後述する図24のステップ501において利用す
る。
【0028】ユーザによるポインティング及び発声が終
了すると、主記憶装置2上の情報統合プログラム15が
起動される。図22に、情報統合プログラム15起動後
の処理の流れの一例を示す。
【0029】図22の処理を説明する前に、この処理に
おいて利用するコマンド&格辞書19のデータ構造の一
例を図19で説明する。コマンド&格辞書19は、複数
の動詞191の各々について、その意味するコマンド1
92、コマンド番号193、格194、格番号195か
らなる。
【0030】さて図22において、まず配列Sがゼロリ
セットされ(s301)、文法照合プログラム1500
が起動される(s302)。次に、先程求められた特徴
ベクトルと音響標準パタンデータ16とのマッチング
が、例えば、北原他「音声入力による情報検索システム
における口語文受理方法の検討」(日本音響学会、3-5-
7、平3)に記載の方法で行われ、その結果、入力音声は
文字列に変換される(s303)。前記の例をとれば、
入力音声に基づき得られる文字列は、“これをこのくら
いにかくだいして"となる。さらに、この文字列は、従
来から行われている方法、例えば、相沢他「計算機によ
るカナ漢字変換」(NHK技術研究、25、5、昭48)に記載さ
れているような最長一致法或いは吉村他「文節最小法を
用いたべたがき日本語文の形態素解析」(情処学論、24、
1、昭58)に記載されているような文節数最小法、ある
いは大島他「格文法による仮名漢字変換の多義解消」
(情処学論、27、7、昭61)に記載されているような格文
法解析を用いて形態素解析され(s304)、その結
果、(これ、代名詞、対象)、(を、格助詞、対象
格)、(このくらい、副詞、量)、(に、格助詞、変化
格)、(拡大(して)、動詞)の様な形態素情報が得られ
る。
【0031】次に、コマンド&格抽出プログラム150
2が起動され(s305)、前述したコマンド&格辞書
19中の動詞191が参照され、当該形態素情報の動詞
“拡大(して)”との照合を行った結果(図23,s4
01)、“拡大(する)”1911が選択される。この
結果、主記憶装置2上の配列Sには、コマンド“拡大縮
小”であるコマンド番号“1”1941がS[0]=1の
形で記憶される(s306、s402)。また、抽出さ
れた形態素情報である“格助詞”との照合が行われ(s
403)、格“を”11、格“に”12が選択されて、
格番号“11”、格番号“12”が、格の入力順に、配
列S[1]〜[m](“m”は格助詞の個数)にS[2]=1
1、S[3]=12の形で格納される(s306、s40
4)。次に、配列S[0]に格納されたコマンド番号によ
り、コマンド識別が行われる。配列S[1]〜[m]の格番号
入力順序により(s307)、本例では、オブジェクト抽
出プログラム1501が起動される(s308)。
【0032】図24に示したオブジェクト抽出プログラ
ム1501において、主記憶装置2上のX[1]からX[Z
[1]]に格納されているX座標値のうちの最小値XMn
0と最大値XMx0と、Y[1]からY[Z[1]]に格納され
ているY座標値の内の最小値YMn0と最大値YMx0
を算出し、XMn0≦Xq≦XMx0、YMn0≦Yq
≦YMx0の範囲において(Xq、Yq)と表される全
ての座標値を算出する(s501)。なお、1〜Z(1)
は第1番目のジェスチャーの座標番号列に相当する。ま
た部品番号1からWまでの各々について、該描画テーブ
ルに記憶されている中心座標と倍率及びビットマップデ
ータから画面表示物各々のX最小値XMn、X最大値X
Mx、Y最小値YMn、Y最大値YMxを算出し、XM
n≦Xz≦XMx、YMn≦Yz≦YMxの範囲におい
て(Xz、Yz)と表される全ての座標値を算出する。
そして、個々の画面表示物の(Xq、Yq)と表される
全ての座標値と(Xz、Yz)と表される全ての座標値
との照合を行い(s502)、一致する座標点の個数を
主記憶装置2上の配列COM[1]からCOM[W]に
格納する。この結果、COM[1]からCOM[W]の
うちの最大値がCOM[j]であれば、j番目の表示物
を指示対象物とし(s503)、一致する座標値がない
場合には、XMn0、XMx0の平均値とYMn0、Y
Mx0の平均値が示す座標(Xnt,Ynt)から最も
近い中心座標を持つ表示物を指示対象物とする(s30
9、s504、505)。図8に示したポインティング
例では、第1のポインティングジェスチャーに相当する
座標番号“1”から“4”における(Xnt、Ynt)
=(550、450)と“自動車B”の中心座標(35
0、330)との距離Ln1≒233と、(Xnt、Y
nt)=(550、450)と“長方形C"の中心座標
(300,80)との距離Ln2≒447ではLn1≦
Ln2であるため、“自動車B"が指示対象物となる。
【0033】次に、拡大率算出プログラム1503が起
動される(s310)。図25に示すように、拡大率算
出プログラム1503では、主記憶装置2上のX[Z[1]+
1]からX[Z[2]]に格納されているX座標値の内の最
小値XMn1と最大値XMx1の差分値と対象物の標準
横最大幅との比率αと、主記憶装置2上のY[Z[1]+1]か
らY[Z[2]]に格納されているY座標値の内の最小値
YMn1と最大値YMx1の差分値YMx1−YMn1
と、対象物の標準縦最大幅との比率βを算出する(s3
11、図25,s601、s602)。なお、Z[1]+1
〜Z[2]は、第2番目のポインティングジェスチャーに
よる座標番号列に相当する。
【0034】次に、図22に戻り、算出された比率α=
2.0、β=2.0に応じてビットマップの各セルを補間して
画像を拡大したり、各セルを間引いて画像を縮小したり
する(s312)。この時、縦横の拡大率は、それぞれ
横拡大率α及び縦拡大率βとしてもよいし、拡大率をα
或いはβに固定してイラスト部品の標準型の相似形とな
るようにすることも可能である。この結果、描画テーブ
ルは、図10の様に書き替えられ(s313)、イラス
ト編集プログラム12は図11に示すような編集画面を
再表示する(s314)。
【0035】新規入力の場合は、図12の様に、例え
ば、音声およびジェスチャーで“ビルをこのくらいに描
いて”、と指示する。この音声はマイク8を通して入力
され(図20、s101)、指先或いはペン等でタッチ
パネル5上でD”を示すことで表示位置及び大きさを指
定すると、前記の“拡大"の場合と同様に主記憶装置2
上の音響認識プログラム13が起動し、音声がディジタ
ル信号に変換され、主記憶装置2に送られる(s10
2)。続いて、特徴抽出プログラム1301が起動さ
れ、ディジタル信号から特徴ベクトルを抽出する(s1
03)。
【0036】一方、主記憶装置2上のポインティング領
域読み込みプログラム14は、前記方法により音響認識
プログラム13が起動されるのと同時に、情報処理装置
1によって起動され、並列処理が行なわれる。このと
き、主記憶装置2上の変数P0及びQをゼロリセットす
る(s201、s202)。ポインティング領域読み込
みプログラム14は、ユーザの指先或いはペン等が、タ
ッチパネル5に触れている間(s203)、一定時間間
隔で接触座標をパネル制御装置3を通じて取り込み(s
204)、座標を取り込む毎にP0をインクリメント
し、また主記憶装置2のポインティング領域テーブル2
04中に、取り込んだx座標を配列X[P0]へ、y座
標を配列Y[P0]へ、座標入力時刻を配列T[P0]
へ書き込む(s205)。また指先或いはペン等が、タ
ッチパネル5から離れてからある一定時間Toが経過す
ると書き込みを終了する(s203)。書き込みが終了
すると、入力された座標が対象物を指定しているのか、
入力位置を指示しているのか、大きさ或いは目標点を指
示してるのかを判断するために、ポインティング領域テ
ーブル204に記憶された、隣あった個々の座標番号、
例えば座標番号iと座標番号(i+1)の入力時刻の差
分値:T[i+1]−T[i]がある一定値、Tgより大である
個所があれば(s206)、変数Qをインクリメント
し、主記憶装置2上の配列ZにZ[Q]=T[i]の形で書
き込む操作を行う(s207、s208)。
【0037】ユーザによるポインティング及び発声が終
了すると、主記憶装置2上の情報統合プログラム15が
起動される。配列Sがゼロリセットされ(図22、s3
01)、文法照合プログラムが起動する(s302)。
そして、“拡大"の時と同様に、求められた特徴ベクト
ルと、音響標準パタンデータ16とのマッチングが行わ
れ、その結果、入力音声は文字列に変換される(s30
3)。さらに前記方法で形態素解析を行った結果(s3
04)、(ビル、名詞、対象物)、(を、格助詞、対象
格)、(このくらい、副詞、量)、(に、格助詞、変化
格)、(描いて、動詞、入力)の様な形態素情報が得ら
れる。次に、コマンド&格抽出プログラム1502が起
動し(s305)、コマンド&格辞書19(図19)が
参照され、当該形態素情報の動詞“描(いて)”との照
合を行った結果、動詞“描(く)”1913が選択さ
れ、主記憶装置2上の配列Sにコマンド番号5がS[0]
=3の形で記憶され、新規入力モードとなる。また図1
3に示すようなイラスト部品辞書17が参照され、単語
“びる”は標準単語“びるでぃんぐ”に変換され、イラ
スト部品辞書の部品番号と同様に並べられているビット
マップデータ18の部品番号5“ビルディング”が新規
入力物として選択される(s315)。ただしこの場
合、例えば、藤澤「概念知識の体系化のためのメディア
スペース」(コンピュータ科学 2、1、平4)に記載され
ているような概念意味ネットワークにより、近い言葉で
検索されるイラスト部品辞書も搭載可能である。次に、
拡大率算出プログラム1503が起動し(s316)、
主記憶装置2上のX[1]からX[Z[1]]に格納されてい
るX座標値の内の最小値XMn0と最大値XMx0の差
分値:XMx0−XMn0と対象物の標準横最大幅:X
MD5との比率αと、主記憶装置2上のY[1]からY
[Z[1]]に格納されているY座標値の内の最小値Y
Mn0と最大値YMx0の差分値:YMx0−YMn0
と、対象物の標準縦最大幅:YMD5との比率βを算出
する。また、目標点算出プログラム154が起動され
(s317)、XMn0、XMx0の平均値Xntと、
YMn0、YMx0の平均値Yntが示す座標(Xn
t,Ynt)をイラスト部品の中心点とする(s31
8、図26,s701、s702)。次に算出された比
率α=2.2、β=2.0に応じてビットマップの各セルを補
間して画像を拡大したり、各セルを間引いて画像を縮小
したりする(s312)。この時、縦横の拡大率は、横
拡大率α及び縦拡大率βとしてもよいし、拡大率をα或
いはβに固定してイラスト部品の標準型の相似形となる
ようにすることも可能である。この結果、描画テーブル
4000は図14の様に書かれ(s313)、図15に
示すような編集画面を表示する(s314)。
【0038】部品を移動させる場合は、図16に示す様
に、音声およびジェスチャーで“これをこっちに移し
て"、と指示する。この音声は、マイク8を通して入力
され(図20、s101)、A、A’で示す様に、指先
或いはペン等でタッチパネル5上で対象物指示と目標点
位置指定を行うと、前記の“拡大"の場合と同様に、音
響認識プログラムが起動し、入力音声は、A/D変換さ
れ(s102)、特徴ベクトルが抽出される(s10
3)。またポインティング領域読み込みプログラム14
が起動され、変数P0、Qがインクリメントされ(図2
1、s201、s202)、ユーザが指先或いはペン等
でタッチパネル5に触れている間(s203)、一定時
間間隔で接触座標をパネル制御装置3を通して取り込み
(s204)、主記憶装置2のポインティング領域テー
ブル204に、一定時間毎に入力時刻、x座標及びy座
標データが、入力された順序に座標番号“1”から格納
されていく(s205)。また指先或いはペン等が、タ
ッチパネル5から離れてからある一定時間Toが経過す
ると書き込みを終了する(s203)。書き込みが終了
すると、拡大の場合と同様に、ポインティング領域テー
ブル204に入力された座標の隣あった個々の座標番
号、例えば座標番号iと座標番号(i+1)の入力時刻
の差分値:T[i+1]−T[i]がある一定値Tgより大であ
る個所があれば(s206、s207)、該変数Qをイ
ンクリメントし(s208)、主記憶装置2上の配列Z
にZ[Q]=T[i]の形で書き込む操作を行う(s20
9、s210)。
【0039】ユーザによるポインティング及び発声が終
了すると、主記憶装置2上の情報統合プログラムが起動
され、配列Sがゼロリセットされ(図22、s30
1)、文法照合プログラムが起動(s302)する。そ
して、“拡大"の時と同様に、求められた特徴ベクトル
と、音響標準パタンデータ16とのマッチングが行わ
れ、その結果、入力音声は文字列に変換される(s30
3)。さらに前記方法で形態素解析を行った結果(s3
04)、(これ、代名詞、対象物)、(を、格助詞、対
象格)、(こっち、代名詞、位置)(に、格助詞、場所
格)(移して、動詞、移動)の様な形態素情報が得られ
る。次に、コマンド&格抽出プログラム1502が起動
し(s305)、コマンド&格辞書19(図19)が参
照され、主記憶装置2上の配列Sにコマンド番号2がS
[0]=2の形で記憶され、移動モードとなる(s30
6、s401、s402)。次に、先に抽出された格の
格番号が、入力順に配列SにS[1]=21、S[2]=22
の形で記憶される(s307、s403、s404)。
次に、配列Sの格番号入力順序により、オブジェクト抽
出プログラム1501が起動し(s308)、“拡大"
の場合と同様の操作の結果、“自動車B"が指示対象物
となる(s309)。また、目標点算出プログラム15
04が起動され(s318)、XMn1、XMx1の平
均値Xntと、YMn1、YMx1の平均値Yntが示
す座標(Xnt、Ynt)をイラスト部品描画の中心点
とする(s318、s701、s702)。その結果、
図4に示した描画テーブルは図17の様に書換えられ
(s313)、図18に示す様な編集結果の画面を表示
する(s314)。
【0040】
【発明の効果】本発明によれば、ユーザが、音声を用い
て入力或いは編集したい対象物を指示して編集要求を行
うと同時に、ポインティングジェスチャによって対象物
の指示、表示位置指示、大きさ指示等を行うことによ
り、迅速かつ簡便に画面上に表示位置及び大きさが指定
された対象物を表示することが可能となる。またイラス
ト描画のための必要部品を記憶しているイラスト部品辞
書を具備し、音声で部品名を入力すると同時に、ポイン
ティングジェスチャにより表示位置及び大きさを指定す
ると、指定の位置及び大きさで表示される機能を備える
ことにより、表示したい部品を自分で基本図形を組み合
わせるなどして作らなければならない煩わしさから開放
され、画面上に簡便に部品を表示することが可能とな
る。
【図面の簡単な説明】
【図1】本発明の一実施例を示すWSのシステム構成図
である。
【図2】イラスト編集画面の一例を示す図である。
【図3】ビットマップデータ18のデータ構造の一例を
示す図である。
【図4】描画テーブルのデータ構造の一例を示す図であ
る。
【図5】イラスト編集画面において、音声とポインティ
ングによって、対象物を指示している一実施例を示す図
である。
【図6】イラスト編集画面において、音声とポインティ
ングによって対象物拡大を指示している一実施例を示す
図である。
【図7】音響認識プログラム13の一例を示すモジュー
ル構成図である。
【図8】ポインティング領域テーブルのデータ構造の一
例を示す図である。
【図9】情報統合プログラム15の一例を示すモジュー
ル構成図である。
【図10】対象物拡大指示によって書き替えられた描画
テーブルの一例を示す図である。
【図11】対象物拡大指示によって再表示されたイラス
ト編集画面の一例を示す図である。
【図12】イラスト編集画面において、音声とポインテ
ィングによって新規入力を指示している一例を示す図で
ある。
【図13】イラスト部品辞書17のデータ構造の一例を
示す図である。
【図14】新規入力指示によって作成された描画テーブ
ルの一例を示す図である。
【図15】新規入力指示によって再表示されたイラスト
編集画面の一例を示す図である。
【図16】イラスト編集画面において、音声とポインテ
ィングによって対象物移動を指示している一実施例を示
す図である。
【図17】対象物移動指示によって書き替えられた描画
テーブルのデータ構造の一例を示す図である。
【図18】対象物移動指示によって再表示されたイラス
ト編集画面の一例を示す図である。
【図19】コマンド&格辞書19のデータ構造の一例を
示す図である。
【図20】音響認識プログラム13起動後の処理の流れ
を示すフローチャートである。
【図21】ポインティング領域読み込みプログラム14
起動後の処理の流れを示すフローチャートである。
【図22】情報統合プログラム15起動後の処理の流れ
の一例を示すフローチャートである。
【図23】コマンド&格抽出プログラム1502起動後
の処理の流れの一例を示すフローチャートである。
【図24】オブジェクト抽出プログラム1501起動後
の処理の流れの一例を示すフローチャートである。
【図25】拡大率抽出プログラム1503起動後の処理
の流れの一例を示すフローチャートである。
【図26】目標点算出プログラム1504起動後の処理
の流れの一例を示すフローチャートである。
【符号の説明】
1---情報処理装置、2---主記憶装置、3---パネル制
御装置、4---ディスプレイ、5---タッチパネル、6--
-表示制御装置、7---A/D変換装置、8---マイク、11
---システムプログラム、12---イラスト編集プログラ
ム、13---音響認識プログラム、14---ポインティン
グ領域プログラム、15---情報統合プログラム、16-
--音響標準パタンデータ、17---イラスト部品辞書、
18---ビットマップデータ、19---コマンド&格辞書

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】ポインティング入力装置を介して表示装置
    の表示画面上の表示物または表示位置をポインティング
    しながら、音声入力装置を介して表示物に関する操作を
    音声により指示する、複合形態による操作指示方法であ
    って、 前記ポインティングを、前記表示物または表示位置に対
    して一連の複数の座標点列を入力するように行う第1の
    ステップと、 該ポインティング動作に伴って前記音声による指示を行
    う第2のステップと、 該音声による指示に対して音声認識処理により指示内容
    を認識する第3のステップと、 該認識された指示内容に応じて前記ポインティングによ
    る指示内容を認識する第4のステップと、 前記音声による指示内容および前記ポインティングによ
    る指示内容に従って、前記表示物に対する操作を実行す
    る第5のステップとを備えたことを特徴とする、複合形
    態による操作指示方法。
  2. 【請求項2】前記第3のステップで、前記音声による指
    示内容に基づいて前記入力された座標点列が表示物を指
    示することが認識された場合、前記第4のステップで
    は、該座標点列の形成する領域が前記画面上の表示物の
    形成する領域と画面上で共有領域を持つ場合には、前記
    座標点列が形成する領域と共有面積が最も広い表示物を
    指示対象物とし、前記座標点列が形成する領域が表示物
    の形成する領域と画面上で共有領域を持たない場合に
    は、前記座標点列のX最大値とX最小値の平均値とY最
    大値とY最小値の平均値が示す座標から最も近い中心点
    を持つ表示物を指示対象物とすることを特徴とする、請
    求項1記載の複合形態による操作指示方法。
  3. 【請求項3】前記第3のステップで、前記音声による指
    示内容に基づいて前記入力された座標点列が表示位置を
    指示することが認識された場合、前記第4のステップで
    は、前記座標点列のX最大値とX最小値の平均値とY最
    大値とY最小値の平均値が示す座標を指示表示位置とす
    ることを特徴とする、請求項1記載の複合形態による操
    作指示方法。
  4. 【請求項4】前記第3のステップで、前記音声による指
    示内容に基づいて前記入力された座標点列が特定の表示
    物の拡大縮小後の大きさ、或いは新規入力物の大きさを
    指示することが認識された場合、前記第4のステップで
    は、前記入力された座標点列のX座標値のうちの最小値
    と最大値との差分値と前記特定の表示物の標準横最大幅
    との比率αと、Y座標値のうちの最小値と最大値との差
    分値と前記特定の表示物の標準縦最大幅との比率βとを
    算出し、前記第5のステップで、前記算出された比率
    α、βに基づいて前記表示物のXおよびY方向の大きさ
    を決定することを特徴とする請求項1または2記載の複
    合形態による操作指示方法。
  5. 【請求項5】前記第4のステップでは前記比率α、βの
    いずれか一方のみを算出し、前記第5のステップでは当
    該一方をXおよびYの双方向の大きさ決定に利用するこ
    とを特徴とする請求項4記載の複合形態による操作指示
    方法。
  6. 【請求項6】前記第4のステップでは、前記第1のステ
    ップで入力された座標点列を構成する隣あった個々の点
    間の入力時刻の時間間隔を検査することにより、1つの
    ポインティングジェスチャの終端を検知し、前記第5の
    ステップでは、個々のポインティングジェスチャー単位
    に前記認識された音声による指示内容との対応をとるこ
    とを特徴とする請求項1記載の複合形態による操作指示
    方法。
  7. 【請求項7】イラスト描画のための必要部品の描画デー
    タおよび各部品の名称を格納したイラスト部品辞書を予
    め用意しておき、ユーザが、音声で任意の部品名を指定
    することにより、該指定された部品が画面上の指示され
    た表示位置に表示されることを特徴とする請求項1記載
    の複合形態による操作指示方法。
  8. 【請求項8】表示画面上で表示物に関する操作を音声指
    示およびポインティングジェスチャーにより行う情報処
    理装置であって、 前記表示物または表示位置に対して複数の座標点を入力
    するポインティング入力手段と、 該ポインティング入力手段により入力された複数の座標
    点の座標列を格納するポインティング領域テーブルと、 前記表示物としての各種表示部品のビットマップデータ
    およびその縦標準最大幅、横標準最大幅を格納したビッ
    トマップデータ格納手段と、 前記ビットマップデータ格納手段から選択され表示画面
    上に表示されたた表示部品の識別子、その縦横倍率、お
    よび表示画面上での位置情報を格納する描画テーブル
    と、 前記ビットマップデータ格納手段内の各表示部品の音声
    認識可能な名称を保持する表示部品辞書と、 該表示部品辞書を参照して前記音声指示を認識する音声
    認識手段と、 前記ポインティング領域テーブル内の座標列に基づいて
    指示された表示部品を抽出する表示部品抽出手段と、 前記ポインティング領域テーブル内の座標列に基づいて
    表示部品の拡大率情報を算出する拡大率算出手段と、 前記ポインティング領域テーブル内の座標列に基づいて
    指示された目標点を算出する目標点算出手段と、 前記音声認識結果に応じて、前記表示部品抽出手段、拡
    大率算出手段、目標点算出手段の少なくとも1つを起動
    し、その結果に基づき前記描画テーブルの書き換えを行
    う制御手段とを備えたことを特徴とする情報処理装置。
JP28205792A 1992-10-20 1992-10-20 複合形態による操作指示方法 Pending JPH06131437A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP28205792A JPH06131437A (ja) 1992-10-20 1992-10-20 複合形態による操作指示方法
US08/137,788 US5600765A (en) 1992-10-20 1993-10-19 Display system capable of accepting user commands by use of voice and gesture inputs
EP93116885A EP0594129B1 (en) 1992-10-20 1993-10-19 Display system capable of accepting user commands by use of voice and gesture inputs
DE69329094T DE69329094D1 (de) 1992-10-20 1993-10-19 Anzeigesystem zur Annahme von Benutzerbefehlen aus Sprach- und Gesten-Eingabe

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28205792A JPH06131437A (ja) 1992-10-20 1992-10-20 複合形態による操作指示方法

Publications (1)

Publication Number Publication Date
JPH06131437A true JPH06131437A (ja) 1994-05-13

Family

ID=17647597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28205792A Pending JPH06131437A (ja) 1992-10-20 1992-10-20 複合形態による操作指示方法

Country Status (4)

Country Link
US (1) US5600765A (ja)
EP (1) EP0594129B1 (ja)
JP (1) JPH06131437A (ja)
DE (1) DE69329094D1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863319A (ja) * 1994-08-24 1996-03-08 Hitachi Ltd 情報処理装置
JPH08166866A (ja) * 1994-10-14 1996-06-25 Hitachi Ltd 対話型インターフェースを具備した編集支援システム
JPH08180022A (ja) * 1994-12-22 1996-07-12 Matsushita Electric Ind Co Ltd 情報記憶変換装置
JPH08263258A (ja) * 1995-03-23 1996-10-11 Hitachi Ltd 入力装置、入力方法、情報処理システムおよび入力情報の管理方法
WO2010147600A2 (en) * 2009-06-19 2010-12-23 Hewlett-Packard Development Company, L, P. Qualified command
JP2012142033A (ja) * 2005-03-04 2012-07-26 Apple Inc 多機能ハンドヘルド装置
JP2015153324A (ja) * 2014-02-18 2015-08-24 株式会社Nttドコモ 情報検索装置、情報検索方法及び情報検索プログラム
US11978252B2 (en) 2020-10-13 2024-05-07 Ricoh Company, Ltd. Communication system, display apparatus, and display control method

Families Citing this family (170)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US5777614A (en) 1994-10-14 1998-07-07 Hitachi, Ltd. Editing support system including an interactive interface
JP3729918B2 (ja) * 1995-07-19 2005-12-21 株式会社東芝 マルチモーダル対話装置及び対話方法
GB9602701D0 (en) * 1996-02-09 1996-04-10 Canon Kk Image manipulation
US5960395A (en) 1996-02-09 1999-09-28 Canon Kabushiki Kaisha Pattern matching method, apparatus and computer readable memory medium for speech recognition using dynamic programming
US5966310A (en) * 1996-02-13 1999-10-12 Sanyo Electric Co., Ltd. Personal design system and personal equipment production system for actually producing equipment having designed appearance
US5995098A (en) * 1996-05-17 1999-11-30 Fujitsu Limited Personal information environment system
US6279017B1 (en) * 1996-08-07 2001-08-21 Randall C. Walker Method and apparatus for displaying text based upon attributes found within the text
US6314410B1 (en) 1997-06-04 2001-11-06 Nativeminds, Inc. System and method for identifying the context of a statement made to a virtual robot
US6604090B1 (en) * 1997-06-04 2003-08-05 Nativeminds, Inc. System and method for selecting responses to user input in an automated interface program
USRE43318E1 (en) * 1997-08-28 2012-04-17 Flatworld Interactives, Llc User interface for removing an object from a display
US6920619B1 (en) * 1997-08-28 2005-07-19 Slavoljub Milekic User interface for removing an object from a display
US6160555A (en) * 1997-11-17 2000-12-12 Hewlett Packard Company Method for providing a cue in a computer system
US6037937A (en) * 1997-12-04 2000-03-14 Nortel Networks Corporation Navigation tool for graphical user interface
WO1999028811A1 (en) * 1997-12-04 1999-06-10 Northern Telecom Limited Contextual gesture interface
US6310610B1 (en) 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
JPH11184669A (ja) * 1997-12-24 1999-07-09 Sharp Corp 情報処理装置及び情報処理方法並びに情報処理装置制御プログラムを記憶した媒体
US6249606B1 (en) 1998-02-19 2001-06-19 Mindmaker, Inc. Method and system for gesture category recognition and training using a feature vector
US6438523B1 (en) 1998-05-20 2002-08-20 John A. Oberteuffer Processing handwritten and hand-drawn input and speech input
US6243076B1 (en) 1998-09-01 2001-06-05 Synthetic Environments, Inc. System and method for controlling host system interface with point-of-interest data
ATE383640T1 (de) * 1998-10-02 2008-01-15 Ibm Vorrichtung und verfahren zur bereitstellung von netzwerk-koordinierten konversationsdiensten
JP2000194559A (ja) * 1998-12-24 2000-07-14 Canon Inc 情報処理装置及びその方法、及びそのプログラムを格納した記憶媒体
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US6629087B1 (en) 1999-03-18 2003-09-30 Nativeminds, Inc. Methods for creating and editing topics for virtual robots conversing in natural language
US6480203B1 (en) 1999-03-19 2002-11-12 Corel Inc. System and method for processing an event of a graphical object
US6469715B1 (en) 1999-03-19 2002-10-22 Corel Inc. System and method for controlling the operation of a graphical object using a project
US6549199B1 (en) 1999-03-19 2003-04-15 Corel Inc. System and method for adjusting a graphical object
US6469716B1 (en) 1999-03-19 2002-10-22 Corel Inc. System and method for processing data for a graphical object
WO2001009664A1 (en) * 1999-08-01 2001-02-08 Deep Video Imaging Limited Interactive three dimensional display with layered screens
AU769120B2 (en) * 1999-08-19 2004-01-15 Pure Depth Limited Control of depth movement for visual display with layered screens
WO2001015128A1 (en) 1999-08-19 2001-03-01 Deep Video Imaging Limited Data display for multiple layered screens
EP1212744A4 (en) 1999-08-19 2006-06-14 Pure Depth Ltd DISPLAY PROCESS FOR MULTILAYER SCREENS
US6609089B1 (en) * 1999-08-30 2003-08-19 Lucent Technologies Inc. Method and apparatus for providing interactive services with multiple interfaces
US6529863B1 (en) * 1999-08-30 2003-03-04 Lucent Technologies Inc. Method and apparatus for providing interactive services with multiple interfaces
US6970915B1 (en) 1999-11-01 2005-11-29 Tellme Networks, Inc. Streaming content over a telephone interface
US7376586B1 (en) 1999-10-22 2008-05-20 Microsoft Corporation Method and apparatus for electronic commerce using a telephone interface
US6807574B1 (en) 1999-10-22 2004-10-19 Tellme Networks, Inc. Method and apparatus for content personalization over a telephone interface
US7941481B1 (en) 1999-10-22 2011-05-10 Tellme Networks, Inc. Updating an electronic phonebook over electronic communication networks
US7028269B1 (en) * 2000-01-20 2006-04-11 Koninklijke Philips Electronics N.V. Multi-modal video target acquisition and re-direction system and method
US7136528B2 (en) * 2000-02-11 2006-11-14 Sony Corporation System and method for editing digital images
US7058903B1 (en) 2000-02-11 2006-06-06 Sony Corporation Image database jog/shuttle search
US7262778B1 (en) 2000-02-11 2007-08-28 Sony Corporation Automatic color adjustment of a template design
US7810037B1 (en) 2000-02-11 2010-10-05 Sony Corporation Online story collaboration
US8407595B1 (en) 2000-02-11 2013-03-26 Sony Corporation Imaging service for automating the display of images
US7143039B1 (en) 2000-08-11 2006-11-28 Tellme Networks, Inc. Providing menu and other services for an information processing system using a telephone or other audio interface
US20020073143A1 (en) * 2000-08-31 2002-06-13 Edwards Eric D. File archive and media transfer system with user notification
US6894714B2 (en) 2000-12-05 2005-05-17 Koninklijke Philips Electronics N.V. Method and apparatus for predicting events in video conferencing and other applications
US6964023B2 (en) * 2001-02-05 2005-11-08 International Business Machines Corporation System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input
DE10117457A1 (de) * 2001-04-06 2002-10-17 T Mobile Deutschland Gmbh Verfahren zur Anzeige von standardisierten großformatigen Internet-Seiten mit beispielsweise HTML-Protokoll in Einhandendgeräten mit Mobilfunkanschluss
NZ511444A (en) * 2001-05-01 2004-01-30 Deep Video Imaging Ltd Information display
US7190379B2 (en) * 2001-06-29 2007-03-13 Contex A/S Method for resizing and moving an object on a computer screen
US6868383B1 (en) * 2001-07-12 2005-03-15 At&T Corp. Systems and methods for extracting meaning from multimodal inputs using finite-state devices
US7069215B1 (en) 2001-07-12 2006-06-27 At&T Corp. Systems and methods for extracting meaning from multimodal inputs using finite-state devices
US20030055644A1 (en) * 2001-08-17 2003-03-20 At&T Corp. Systems and methods for aggregating related inputs using finite-state devices and extracting meaning from multimodal inputs using aggregation
DE10140874A1 (de) * 2001-08-21 2003-03-20 Dosch & Amand Gmbh & Co Kg Graphische Benutzeroberfläche
US6975994B2 (en) * 2001-09-12 2005-12-13 Technology Innovations, Llc Device for providing speech driven control of a media presentation
JP2003173237A (ja) * 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
NZ521505A (en) 2002-09-20 2005-05-27 Deep Video Imaging Ltd Multi-view display
JP2004139427A (ja) * 2002-10-18 2004-05-13 Fuji Xerox Co Ltd コミュニケーション支援システム及びコミュニケーション支援システム、並びにコンピュータ・プログラム
US7554530B2 (en) * 2002-12-23 2009-06-30 Nokia Corporation Touch screen user interface featuring stroke-based object selection and functional object activation
JP2004265329A (ja) 2003-03-04 2004-09-24 Toshiba Corp 情報処理装置およびプログラム
NZ525956A (en) 2003-05-16 2005-10-28 Deep Video Imaging Ltd Display control system for use with multi-layer displays
GB2402507A (en) * 2003-06-03 2004-12-08 Canon Kk A user input interpreter and a method of interpreting user input
US20050132385A1 (en) * 2003-10-06 2005-06-16 Mikael Bourges-Sevenier System and method for creating and executing rich applications on multimedia terminals
US20050090304A1 (en) * 2003-10-24 2005-04-28 Pokertek, Inc. System and method of displaying or obscuring electronic playing cards
US7707039B2 (en) * 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US8442331B2 (en) * 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
TWI253298B (en) * 2004-02-09 2006-04-11 Delta Electronics Inc Video device with voice-assisted system
US20060041605A1 (en) * 2004-04-01 2006-02-23 King Martin T Determining actions involving captured information and electronic content associated with rendered documents
US20060053097A1 (en) * 2004-04-01 2006-03-09 King Martin T Searching and accessing documents on private networks for use with captures from rendered documents
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US7812860B2 (en) * 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US20060122983A1 (en) * 2004-12-03 2006-06-08 King Martin T Locating electronic instances of documents based on rendered instances, document fragment digest generation, and digest based document fragment determination
US20060041484A1 (en) * 2004-04-01 2006-02-23 King Martin T Methods and systems for initiating application processes by data capture from rendered documents
US20060098900A1 (en) * 2004-09-27 2006-05-11 King Martin T Secure data gathering from rendered documents
US20060081714A1 (en) * 2004-08-23 2006-04-20 King Martin T Portable scanning device
US7990556B2 (en) * 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US20070300142A1 (en) * 2005-04-01 2007-12-27 King Martin T Contextual dynamic advertising based upon captured rendered text
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
WO2008028674A2 (en) * 2006-09-08 2008-03-13 Exbiblio B.V. Optical scanners, such as hand-held optical scanners
US9008447B2 (en) * 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
US20080313172A1 (en) * 2004-12-03 2008-12-18 King Martin T Determining actions involving captured information and electronic content associated with rendered documents
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US8081849B2 (en) * 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
US8713418B2 (en) * 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US8489624B2 (en) * 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US8874504B2 (en) * 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
CA2571641C (en) * 2004-06-21 2013-01-22 Weike (S) Pte Ltd Virtual card gaming system
US8346620B2 (en) * 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
US7794324B2 (en) * 2004-09-13 2010-09-14 Pokertek, Inc. Electronic player interaction area with player customer interaction features
US20080154601A1 (en) * 2004-09-29 2008-06-26 Microsoft Corporation Method and system for providing menu and other services for an information processing system using a telephone or other audio interface
AU2006201734A1 (en) * 2005-04-27 2006-11-16 Aruze Corp. Gaming machine
US20060267967A1 (en) * 2005-05-24 2006-11-30 Microsoft Corporation Phrasing extensions and multiple modes in one spring-loaded control
US20060267966A1 (en) * 2005-05-24 2006-11-30 Microsoft Corporation Hover widgets: using the tracking state to extend capabilities of pen-operated devices
US7848917B2 (en) * 2006-03-30 2010-12-07 Microsoft Corporation Common word graph based multimodal input
WO2008031625A2 (en) * 2006-09-15 2008-03-20 Exbiblio B.V. Capture and display of annotations in paper and electronic documents
WO2008069519A1 (en) * 2006-12-04 2008-06-12 Electronics And Telecommunications Research Institute Gesture/speech integrated recognition system and method
JP2008152362A (ja) * 2006-12-14 2008-07-03 Konami Digital Entertainment:Kk ゲームプログラム、ゲーム装置及びゲーム制御方法
US10437459B2 (en) 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
JP5121252B2 (ja) * 2007-02-26 2013-01-16 株式会社東芝 原言語による音声を目的言語に翻訳する装置、方法およびプログラム
US8219406B2 (en) * 2007-03-15 2012-07-10 Microsoft Corporation Speech-centric multimodal user interface design in mobile technology
US8462165B1 (en) * 2007-03-19 2013-06-11 Nvidia Corporation System, method, and computer program product for voice control of a graphics hardware processor
US8638363B2 (en) * 2009-02-18 2014-01-28 Google Inc. Automatically capturing information, such as capturing information using a document-aware device
US20110145068A1 (en) * 2007-09-17 2011-06-16 King Martin T Associating rendered advertisements with digital content
TWI374658B (en) * 2007-09-29 2012-10-11 Htc Corp Image process method
CN101399892B (zh) * 2007-09-30 2011-02-09 宏达国际电子股份有限公司 影像处理方法
JP5117280B2 (ja) * 2008-05-22 2013-01-16 富士フイルム株式会社 撮像装置、撮像方法、再生装置および再生方法
WO2010006087A1 (en) * 2008-07-08 2010-01-14 David Seaberg Process for providing and editing instructions, data, data structures, and algorithms in a computer system
JP5170771B2 (ja) * 2009-01-05 2013-03-27 任天堂株式会社 描画処理プログラム、情報処理装置、情報処理システムおよび情報処理制御方法
US20100199228A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Gesture Keyboarding
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
WO2010105244A2 (en) * 2009-03-12 2010-09-16 Exbiblio B.V. Performing actions based on capturing information from rendered documents, such as documents under copyright
KR20100107615A (ko) * 2009-03-26 2010-10-06 주식회사 팬택 터치입력을 이용한 데이터 편집 방법 및 휴대용 단말기
US20100281435A1 (en) * 2009-04-30 2010-11-04 At&T Intellectual Property I, L.P. System and method for multimodal interaction using robust gesture processing
US20100313133A1 (en) * 2009-06-08 2010-12-09 Microsoft Corporation Audio and position control of user interface
WO2011045805A1 (en) * 2009-10-16 2011-04-21 Hewlett-Packard Development Company, L.P. Gesture processing
US9081799B2 (en) * 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) * 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
DE102009058146B4 (de) 2009-12-12 2024-07-11 Volkswagen Ag Verfahren und Vorrichtung zur multimodalen kontextsensitiven Bedienung
US9244533B2 (en) * 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US9237294B2 (en) 2010-03-05 2016-01-12 Sony Corporation Apparatus and method for replacing a broadcasted advertisement based on both heuristic information and attempts in altering the playback of the advertisement
US20120005632A1 (en) * 2010-06-30 2012-01-05 Broyles Iii Paul J Execute a command
US20120054667A1 (en) * 2010-08-31 2012-03-01 Blackboard Inc. Separate and simultaneous control of windows in windowing systems
KR101269702B1 (ko) * 2010-10-20 2013-05-30 윤기정 다차원 스크린을 이용한 오디오 제어 장치 및 그 제어 방법
US9832528B2 (en) 2010-10-21 2017-11-28 Sony Corporation System and method for merging network-based content with broadcasted programming content
KR101789619B1 (ko) * 2010-11-22 2017-10-25 엘지전자 주식회사 멀티미디어 장치에서 음성과 제스쳐를 이용한 제어 방법 및 그에 따른 멀티미디어 장치
US9223471B2 (en) 2010-12-28 2015-12-29 Microsoft Technology Licensing, Llc Touch screen control
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US9858343B2 (en) 2011-03-31 2018-01-02 Microsoft Technology Licensing Llc Personalization of queries, conversations, and searches
US9244984B2 (en) 2011-03-31 2016-01-26 Microsoft Technology Licensing, Llc Location based conversational understanding
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US20120260176A1 (en) * 2011-04-08 2012-10-11 Google Inc. Gesture-activated input using audio recognition
US9454962B2 (en) 2011-05-12 2016-09-27 Microsoft Technology Licensing, Llc Sentence simplification for spoken language understanding
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9263045B2 (en) * 2011-05-17 2016-02-16 Microsoft Technology Licensing, Llc Multi-mode text input
US8255218B1 (en) 2011-09-26 2012-08-28 Google Inc. Directing dictation into input fields
US9152376B2 (en) 2011-12-01 2015-10-06 At&T Intellectual Property I, L.P. System and method for continuous multimodal speech and gesture interaction
US8788273B2 (en) * 2012-02-15 2014-07-22 Robbie Donald EDGAR Method for quick scroll search using speech recognition
US9092394B2 (en) 2012-06-15 2015-07-28 Honda Motor Co., Ltd. Depth based context identification
US8904304B2 (en) * 2012-06-25 2014-12-02 Barnesandnoble.Com Llc Creation and exposure of embedded secondary content data relevant to a primary content page of an electronic book
KR102003255B1 (ko) * 2012-06-29 2019-07-24 삼성전자 주식회사 다중 입력 처리 방법 및 장치
US9443510B2 (en) 2012-07-09 2016-09-13 Lg Electronics Inc. Speech recognition apparatus and method
US20140033045A1 (en) * 2012-07-24 2014-01-30 Global Quality Corp. Gestures coupled with voice as input method
US20140067366A1 (en) * 2012-08-30 2014-03-06 Google Inc. Techniques for selecting languages for automatic speech recognition
JP5949413B2 (ja) * 2012-10-04 2016-07-06 日本電気株式会社 ユーザ指示認識システム、ユーザ指示認識方法、情報処理装置、携帯端末およびその制御方法と制御プログラム
US8543397B1 (en) 2012-10-11 2013-09-24 Google Inc. Mobile device voice activation
KR102161439B1 (ko) * 2013-07-16 2020-10-05 삼성전자 주식회사 휴대 단말기에서 음성 인식을 수행하는 방법 및 장치
DE102013016196B4 (de) 2013-09-27 2023-10-12 Volkswagen Ag Kraftfahrzeugbedienung mittels kombinierter Eingabemodalitäten
USD737320S1 (en) * 2013-10-03 2015-08-25 La Crosse Technology, Ltd. Display screen with icon
USD741368S1 (en) * 2013-10-17 2015-10-20 Microsoft Corporation Display screen with transitional graphical user interface
US20150261494A1 (en) * 2014-03-14 2015-09-17 Google Inc. Systems and methods for combining selection with targeted voice activation
US20150277696A1 (en) * 2014-03-27 2015-10-01 International Business Machines Corporation Content placement based on user input
KR20150116944A (ko) * 2014-04-08 2015-10-19 삼성디스플레이 주식회사 도어 겸용 표시 장치
EP2947635B1 (en) * 2014-05-21 2018-12-19 Samsung Electronics Co., Ltd. Display apparatus, remote control apparatus, system and controlling method thereof
US9851822B2 (en) * 2014-06-29 2017-12-26 TradAir Ltd. Methods and systems for secure touch screen input
US10649635B2 (en) * 2014-09-26 2020-05-12 Lenovo (Singapore) Pte. Ltd. Multi-modal fusion engine
US20160091308A1 (en) * 2014-09-30 2016-03-31 Invensense, Inc. Microelectromechanical systems (mems) acoustic sensor-based gesture recognition
US9730671B2 (en) * 2014-10-03 2017-08-15 David Thomas Gering System and method of voice activated image segmentation
US10146355B2 (en) * 2015-03-26 2018-12-04 Lenovo (Singapore) Pte. Ltd. Human interface device input fusion
USD781914S1 (en) * 2015-11-18 2017-03-21 Domo, Inc. Display screen or portion thereof with a graphical user interface
US20170315849A1 (en) * 2016-04-29 2017-11-02 Microsoft Technology Licensing, Llc Application target event synthesis
JP2017228080A (ja) * 2016-06-22 2017-12-28 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
KR102630662B1 (ko) * 2018-04-02 2024-01-30 삼성전자주식회사 어플리케이션 실행 방법 및 이를 지원하는 전자 장치
CN111124236B (zh) 2018-10-30 2023-04-28 斑马智行网络(香港)有限公司 一种数据处理方法、装置和机器可读介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56105536A (en) * 1980-01-28 1981-08-22 Toshiba Corp Image information input device
JPS57174759A (en) * 1981-04-20 1982-10-27 Nippon Telegr & Teleph Corp <Ntt> Partial erasing method of picture image
JPS60146327A (ja) * 1984-01-11 1985-08-02 Hitachi Ltd 計算機対話方法
JPS6441082A (en) * 1987-08-07 1989-02-13 Hitachi Ltd Device for identifying handwriting character

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4811243A (en) * 1984-04-06 1989-03-07 Racine Marsh V Computer aided coordinate digitizing system
US5201034A (en) * 1988-09-30 1993-04-06 Hitachi Ltd. Interactive intelligent interface
JPH04239832A (ja) * 1991-01-23 1992-08-27 Fujitsu Ltd フレーム同期回路

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56105536A (en) * 1980-01-28 1981-08-22 Toshiba Corp Image information input device
JPS57174759A (en) * 1981-04-20 1982-10-27 Nippon Telegr & Teleph Corp <Ntt> Partial erasing method of picture image
JPS60146327A (ja) * 1984-01-11 1985-08-02 Hitachi Ltd 計算機対話方法
JPS6441082A (en) * 1987-08-07 1989-02-13 Hitachi Ltd Device for identifying handwriting character

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863319A (ja) * 1994-08-24 1996-03-08 Hitachi Ltd 情報処理装置
JPH08166866A (ja) * 1994-10-14 1996-06-25 Hitachi Ltd 対話型インターフェースを具備した編集支援システム
JPH08180022A (ja) * 1994-12-22 1996-07-12 Matsushita Electric Ind Co Ltd 情報記憶変換装置
JPH08263258A (ja) * 1995-03-23 1996-10-11 Hitachi Ltd 入力装置、入力方法、情報処理システムおよび入力情報の管理方法
JP2012142033A (ja) * 2005-03-04 2012-07-26 Apple Inc 多機能ハンドヘルド装置
WO2010147600A2 (en) * 2009-06-19 2010-12-23 Hewlett-Packard Development Company, L, P. Qualified command
WO2010147600A3 (en) * 2009-06-19 2011-11-17 Hewlett-Packard Development Company, L, P. Qualified command
US9594431B2 (en) 2009-06-19 2017-03-14 Hewlett-Packard Development Company, L.P. Qualified command
JP2015153324A (ja) * 2014-02-18 2015-08-24 株式会社Nttドコモ 情報検索装置、情報検索方法及び情報検索プログラム
US11978252B2 (en) 2020-10-13 2024-05-07 Ricoh Company, Ltd. Communication system, display apparatus, and display control method

Also Published As

Publication number Publication date
EP0594129A2 (en) 1994-04-27
DE69329094D1 (de) 2000-08-31
US5600765A (en) 1997-02-04
EP0594129A3 (en) 1994-10-05
EP0594129B1 (en) 2000-07-26

Similar Documents

Publication Publication Date Title
JPH06131437A (ja) 複合形態による操作指示方法
JP3267047B2 (ja) 音声による情報処理装置
US5777614A (en) Editing support system including an interactive interface
Bolt “Put-that-there” Voice and gesture at the graphics interface
JP3020851B2 (ja) 情報検索装置および情報検索制御方法
JPH10154144A (ja) 文章入力装置及び方法
JP2003303047A (ja) 画像入力及び表示システム、ユーザインタフェースの利用方法並びにコンピュータで使用可能な媒体を含む製品
US5546565A (en) Input/output apparatus having a pen, and method of associating and processing handwritten image data and voice data
US20090132231A1 (en) Using input of rhyming characters for computer text entry of Chinese characters
JPH11167569A (ja) 文章入力装置及び方法並びに記録媒体
JPH06202784A (ja) 文字入力装置
JPH08166866A (ja) 対話型インターフェースを具備した編集支援システム
US7170503B2 (en) Layer editing method and apparatus in a pen computing system
JP2007018290A (ja) 手書き文字入力表示支援装置及び方法並びにプログラム
JPH0685983A (ja) 音声電子黒板
JPH08314917A (ja) かな漢字変換装置
JPH0883092A (ja) 情報入力装置及び情報入力方法
JPH0944600A (ja) オンライン文字認識に於ける入力文字予測方法、及びその装置
JPS60146327A (ja) 計算機対話方法
JP3170103B2 (ja) 複合形態による対象物指示方法
JPH0689158A (ja) 複合形態情報入力方法
JPH11259201A (ja) 日本語入力用の仮想文字板
JPH07287634A (ja) 文書作成装置及びその図形作成方法
JPH1063775A (ja) 文書作成装置及び認識候補表示方法
JP3184662B2 (ja) 文書作成装置及び漢字混じりかな漢字変換方法