JPH09258945A - Individual information equipment - Google Patents

Individual information equipment

Info

Publication number
JPH09258945A
JPH09258945A JP8067801A JP6780196A JPH09258945A JP H09258945 A JPH09258945 A JP H09258945A JP 8067801 A JP8067801 A JP 8067801A JP 6780196 A JP6780196 A JP 6780196A JP H09258945 A JPH09258945 A JP H09258945A
Authority
JP
Japan
Prior art keywords
pen
computer
input
paper
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8067801A
Other languages
Japanese (ja)
Inventor
Shunichi Tano
俊一 田野
Hideki Sakao
秀樹 坂尾
Yasuharu Nanba
康晴 難波
Taminori Tomita
民則 冨田
Hirokazu Aoshima
弘和 青島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP8067801A priority Critical patent/JPH09258945A/en
Publication of JPH09258945A publication Critical patent/JPH09258945A/en
Pending legal-status Critical Current

Links

Landscapes

  • Input From Keyboards Or The Like (AREA)
  • Processing Or Creating Images (AREA)
  • Digital Computer Display Output (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To use a computer with a user interface in a human-centered form and not in a computer-centered form by making the computer interactive in a multi-modal form such as voice, handwriting and gesture. SOLUTION: Paper 2 on a real disk 1, an environment viewer 3, a pen input computer 4, a keyboard 9, a pen with scanner 8, a microphone 6, a speaker 5 and a camera 7 are provided. The pen input computer 4 displays the file of a virtual desk top and executes application as the interface of real paper and virtual paper by using the pen with scanner 8, which incorporates a small CCD camera in the pen. The desk top is displayed in the environment viewer 3 and an intelligent agent 10 and the like are displayed on the monitor. The displayed agent 10 extracts a user intention from the multi-modal indication from an instruction (by pen, voice and gesture) for the system, solves a problem and outputs a result.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、パーソナルコンピ
ュータをはじめとするコンピュータや携帯情報機器等の
ユーザインタフェース技術に係る。より詳細には、キー
ボード、マウス、ペン、音声、身振りなど複数のメディ
アを用いた指示に基づき、ユーザに代わってコンピュー
タやアプリケーションソフトウエア等を制御し、静止
画、動画、音声、効果音等の複数のメディアを用いて応
答するマルチモーダル個人情報機器に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a user interface technology for a computer such as a personal computer and a portable information device. More specifically, it controls a computer, application software, etc. on behalf of the user based on an instruction using a plurality of media such as a keyboard, a mouse, a pen, a voice, and a gesture so that a still image, a video, a voice, a sound effect, The present invention relates to a multi-modal personal information device that responds using multiple media.

【0002】[0002]

【従来の技術】現在パーソナルコンピュータをはじめと
するコンピュータがオフィス、家庭において急速に普及
している。その原動力はハードウエアの面でのコストパ
フォーマンスの飛躍的な向上、およびソフトウエア面で
のグラフィカルユーザインタフェース導入によるユーザ
フレンドリネスの改善にあると考えられる。例えば、文
献「J. A. Sohnson, et. al. : ACE: Building Interac
tive Graphical Applications, Communications of the
ACM, Vol, 36, No. 4, pp. 400-55, 1993」にはグラフ
ィカルユーザインタフェースの優位さが述べられてい
る。
2. Description of the Related Art Currently, computers such as personal computers are rapidly spreading in offices and homes. It is thought that the driving force is the dramatic improvement in cost performance in terms of hardware and the improvement of user friendliness by introducing a graphical user interface in terms of software. For example, the document “JA Sohnson, et. Al .: ACE: Building Interac
tive Graphical Applications, Communications of the
ACM, Vol, 36, No. 4, pp. 400-55, 1993 ”describes the superiority of the graphical user interface.

【0003】[0003]

【発明が解決しようとする課題】しかし、上記技術を基
本にしたグラフィカルユーザインタフェースベースのユ
ーザインタフェースを持つコンピュータが、オフィス、
家庭に普及するとともに、現在のコンピュータが有する
以下に示す3つの問題点(問題点(1)〜(3))が認
識されつつある。
However, a computer having a graphical user interface-based user interface based on the above-mentioned technology is used in an office,
As the computer spreads at home, the following three problems (problems (1) to (3)) of the current computer are being recognized.

【0004】問題点(1)不自然な作業環境 コンピュータが不必要な場合は、机上を自由に使えるも
の。しかし、一旦コンピュータが必要となると、ユーザ
は、モニタ上の狭いデスクトップに縛りつけられてしま
う。
Problem (1) Unnatural work environment When a computer is not required, it is possible to freely use the desk. However, once the computer is needed, the user is tied to a narrow desktop on the monitor.

【0005】これはコンピュータが我々の活動世界を無
視し、我々の活動の場をコンピュータの扱い易い仮想的
なモニタ上のデスクトップに限定していることに起因し
ている。
This is because the computer ignores our world of activity and limits our place of activity to the desktop on the computer's manageable virtual monitor.

【0006】問題点(2)限定された入出力方法 現在のコンピュータの入出力は、キーボード、マウス、
画面上の表示に限定されている。コンピュータとの円滑
なインタフェースには入出力バンドの拡大が必要であ
る。
Problem (2) Limited input / output method The input / output of the current computer is a keyboard, a mouse,
Limited to on-screen display. Widening the input / output band is necessary for a smooth interface with a computer.

【0007】問題点(3)非知的なユーザインタフェー
ス コンピュータに対する操作を、例えばグラフィカルユー
ザインタフェースによるダイレクトマニピュレーション
などで明示的に指示しなければならない。なにができる
かということに加えて、どのようにやるかまでユーザが
知らなければならない。また、コンピュータには多くの
データが格納されているのにもかかわらず、それがコン
ピュータに認識されない。さらに、ネットワーク上には
貴重なデータが保持されているにもかかわらず利用が困
難である。
Problem (3) Ignorant user interface The operation to the computer must be explicitly instructed by direct manipulation by a graphical user interface, for example. In addition to what they can do, the user must know how to do it. Also, even though a lot of data is stored in the computer, it is not recognized by the computer. Furthermore, it is difficult to use even though valuable data is stored on the network.

【0008】本発明の目的は、コンピュータ中心ではな
く、より人間中心のユーザインタフェースを有するコン
ピュータ利用環境を提供することにある。
It is an object of the present invention to provide a computer use environment having a more human-centered user interface rather than a computer center.

【0009】[0009]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明では、人間中心・実世界中心の考え方によ
り設計し、音声、手書き、ジェスチャ等のマルチモーダ
ルな形態で対話可能なコンピュータとする。
In order to achieve the above object, the present invention is a computer designed by human-centered / real-world-centered thinking and capable of interacting in a multimodal form such as voice, handwriting, and gesture. And

【0010】ここで、これらの問題点を解決するために
は、各問題点を独立としてではなく、総合的にとらえる
必要がある。問題点(1)の解決のためには、新たなコ
ンピューティング環境を提示しなくてはならない。そこ
で必要となる入出力(問題点(2))は、その環境と密
接に関係している。さらに、知的な処理(問題点
(3))は、コンピューテイング環境に深く関連し、さ
らに高度な入出力は知的処理抜きには実用として供する
ことはできない。
Here, in order to solve these problems, it is necessary to grasp each problem comprehensively, not independently. In order to solve the problem (1), a new computing environment must be presented. The input / output (problem (2)) required there is closely related to the environment. Further, the intelligent processing (problem (3)) is deeply related to the computing environment, and more advanced input / output cannot be put to practical use without intelligent processing.

【0011】まず、問題点(1)はコンピュータ側だけ
の論理でユーザインタフェース環境が設計されてきたこ
とから発生している。現在、この問題点を解決する方法
は完全なバーチャルリアリティの採用か、実世界への回
帰と考えられているが、本発明では、実世界と仮想世界
の融合により解決を図る。具体的には、『実デスク+仮
想デスク+実ペーパ+仮想ペーパ』の組み合わせで解決
を図る。
First, the problem (1) occurs because the user interface environment has been designed with the logic only on the computer side. At present, the method for solving this problem is considered to be the adoption of complete virtual reality or the return to the real world, but in the present invention, the solution is to fuse the real and virtual worlds. Specifically, the solution is a combination of "real desk + virtual desk + real paper + virtual paper".

【0012】すなわち、実デスクの上に実際の紙(実ペ
ーパ、図1での2)が乗っている世界がコンピュータレ
スの世界であり、これに、仮想デスクを表わすモニタ
と、仮想ペーパを表わすペン入力コンピュータを数枚乗
せた環境である。
That is, the world in which actual paper (real paper, 2 in FIG. 1) is placed on a real desk is a computerless world, in which a monitor representing a virtual desk and a virtual paper are represented. It is an environment with several pen input computers.

【0013】より具体的には以下の手段により問題点を
解決する。
More specifically, the problem is solved by the following means.

【0014】(1)デスクトップなどの業務環境を仮想
的に表示する装置である環境ビューワ、表示入力一体型
ペン入力コンピュータで実現された紙と同様なインタフ
ェースを有する仮想ペーパ、マイク、スピーカ、カメ
ラ、ペン、キーボードを構成要素とする。
(1) An environment viewer, which is a device for virtually displaying a business environment such as a desktop, a virtual paper, a microphone, a speaker, a camera, which has an interface similar to paper realized by a pen input computer integrated with display and input, The pen and keyboard are the components.

【0015】(2)環境ビューワに、以下の3種を区別
して表示するとよりよい。まず第1には、電子的なファ
イルやホルダ(フォルダ)などのような仮想的にしか存
在しないものである。第2に、ネットワークで結合され
たエアコン、ビデオ、電灯などのような現実の世界に存
在しかつ計算機から操作できるものである。最後に、机
の上に置いてある実際の紙などのように現実の世界に存
在し計算機から操作できないものである。
(2) It is better to distinguish and display the following three types on the environment viewer. First of all, there are virtual files such as electronic files and folders (folders). Second, it exists in the real world and can be operated from a computer, such as a networked air conditioner, video, light, etc. Finally, it is something that exists in the real world and cannot be operated from a computer, such as an actual piece of paper placed on a desk.

【0016】(3)さらに好適には、その現実の世界に
存在しかつ計算機から操作できるもの、および現実の世
界に存在し計算機から操作できないものは、業務環境の
状況をカメラから入力しそれを解析することにより位置
を特定し、仮想ビューワ内に表示されているデスクトッ
プ等の仮想的な世界の対応する位置に重ねて表示する。
(3) More preferably, those existing in the real world and operable by a computer, and those existing in the real world which cannot be operated by the computer, input the situation of the business environment from a camera and display it. The position is specified by the analysis, and the position is displayed so as to be superimposed on the corresponding position in the virtual world such as the desktop displayed in the virtual viewer.

【0017】(4)さらに好適には、環境ビューワには
環境の大まかな様子だけが表示する。この際、環境ビュ
ーワ上のデスクトップ等に表示されている文章ファイル
の詳細な内容は、仮想ペーパ上に表示する。この時、環
境ビューワには表示しなくともよい。
(4) More preferably, only the rough state of the environment is displayed on the environment viewer. At this time, the detailed contents of the text file displayed on the desktop or the like on the environment viewer are displayed on the virtual paper. At this time, it does not have to be displayed on the environment viewer.

【0018】(5)さらに、環境ビューワには、自分の
オフィス、他人のオフィス、図書室等の複数の環境が同
時に表示するとよりよい。
(5) Furthermore, it is more preferable that the environment viewer simultaneously displays a plurality of environments such as one's office, another person's office, and a library.

【0019】(6)最後に、仮想ペーパを複数枚隣り合
せに置いた場合、1枚の大きなパッドとして連動して動
作可能とする。
(6) Finally, when a plurality of virtual papers are placed side by side, they can be operated as one large pad in conjunction with each other.

【0020】次に問題点(2)と問題点(3)は、以下
の手段で実現されるマルチモーダルな入出力が可能な知
的なエージェントの導入により解決する。
The problems (2) and (3) are solved by introducing an intelligent agent capable of multimodal input / output realized by the following means.

【0021】(1)個人情報機器全体を管理するエージ
ェントを設ける。このエージェントは、音声、ジェスチ
ャ、ペンジェスチャ、ペンおよびキーボードのうち少な
くとも2つによる入力を同時に用いたマルチモーダル入
力で処理する。
(1) An agent for managing the entire personal information equipment is provided. The agent processes with multi-modal input using at least two inputs of voice, gesture, pen gesture, pen and keyboard.

【0022】(2)環境ビューワに複数の環境が表示さ
れたいる場合、エージェントは、複数の環境を対象に指
示を実行するとよりよい。
(2) When a plurality of environments are displayed on the environment viewer, it is better for the agent to execute an instruction for the plurality of environments.

【0023】(3)また、より好適には、ユーザが入力
した音声やペン入力内容として、仮想ペーパに音声認識
結果あるいは手書き文字認識結果として一旦表示する。
その認識結果がエージェントの指示として実行可能であ
る場合、表示色を変えユーザに知らせ、その指示を実行
した場合は、仮想ペーパ上から消し、実行しない場合は
そのまま認識結果を仮想ペーパ上に残す。
(3) More preferably, the voice or pen input content input by the user is temporarily displayed on the virtual paper as a voice recognition result or a handwritten character recognition result.
When the recognition result can be executed as an instruction of the agent, the display color is changed to notify the user, and when the instruction is executed, it is erased from the virtual paper, and when not executed, the recognition result is left as it is on the virtual paper.

【0024】(4)また、エージェントは、音声、効果
音、環境ビューワ表示、仮想ペーパのうち少なくとも2
つの表示による出力を同時に用いたマルチモーダル出力
で応答する。
(4) Further, the agent is at least two of voice, sound effect, environment viewer display, and virtual paper.
Respond with a multimodal output that uses the output of one display at the same time.

【0025】(5)エージェントの姿を、環境ビューワ
にエージェントのシンボルとして表示する。実行可能な
指示を認識した場合、表示したシンボルの表情を変える
とともに、内容をテキストで表示しながらそれを実行す
る。
(5) The figure of the agent is displayed on the environment viewer as a symbol of the agent. When it recognizes an executable instruction, it changes the expression of the displayed symbol and executes it while displaying the content in text.

【0026】(6)ユーザの指示内容が、状況から推察
して確実な場合、仮想ペーパで色の変わって表示されて
いるコマンドとして認識された部分をタップした場合、
エージェントに対して『OK』と言った場合、OKのジ
ェスチャをした場合、エージェントに触れた場合、ユー
ザがエージェントに目を合わせてうなずいた場合、エー
ジェントがその指示を実行する。
(6) If the instruction content of the user is inferred from the situation, and if the portion recognized as the command displayed in a different color on the virtual paper is tapped,
The agent executes the instruction when saying “OK” to the agent, when making an OK gesture, when touching the agent, or when the user nods at the agent.

【0027】(7)環境ビューワの電子ファイルをダブ
ルタップする、電子ファイルを仮想ペーパに重ね合わせ
る、音声やジェスチャを使って、『これをオープン』の
ように指示する、ことにより環境ビューワに表示されて
いる電子ファイル等を仮想ペーパに簡単に表示可能とす
る。
(7) Displayed in the environment viewer by double tapping the electronic file in the environment viewer, overlaying the electronic file on the virtual paper, and using voice or gesture to instruct "Open this". It is possible to easily display existing electronic files on virtual paper.

【0028】[0028]

【発明の実施の形態】以下、図面を用いて本発明の実施
例を説明する。図1に本発明の第一の実施例の外観を示
す。本実施例は、図1に示すように、以下の構成要件を
有する。実デスク1の上の実際の紙2、仮想デスクを表
示する環境ビューワ3と、仮想ペーパを表わすペン(手
書き)入力コンピュータ4、キーボード9、および小型
CCDカメラをペンに内蔵したスキャナ付ペン8、マイク
6、スピーカ5、机上の様子を入力するカメラ7より構
成されている。本発明では、これら構成要件をユーザの
使用しやすい環境となるよう構成する。なお、環境ビュ
ーワ3にはエージェント10が表示される。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows the appearance of the first embodiment of the present invention. As shown in FIG. 1, this embodiment has the following constituent elements. An actual paper 2 on the real desk 1, an environment viewer 3 for displaying a virtual desk, a pen (handwriting) input computer 4 for representing virtual paper, a keyboard 9, and a small size.
It is composed of a pen 8 with a scanner having a CCD camera built in the pen, a microphone 6, a speaker 5, and a camera 7 for inputting a state on a desk. In the present invention, these constituent requirements are configured so that the environment is easy for the user to use. The agent 10 is displayed on the environment viewer 3.

【0029】環境ビューワ3には、従来とほぼ同様のグ
ラフィカルユーザインタフェースでのデスクトップが表
示される。このモニタには、ファイル、ホルダ、メール
のインボックス、インテリジェントエージェント10な
どが表示される。机上にある実物(例えば実際の紙2)
は、カメラ7を通して実デスクを監視することにより、
この仮想デスクトップに表示される。
On the environment viewer 3, a desktop with a graphical user interface similar to the conventional one is displayed. Files, folders, mail inboxes, intelligent agents 10, etc. are displayed on this monitor. The real thing on the desk (eg real paper 2)
By monitoring the real desk through the camera 7,
Displayed on this virtual desktop.

【0030】ペン入力コンピュータ4は、仮想ペーパに
対応する。仮想デスクトップのファイルの表示やアプリ
ケーションの実行は、ペン入力コンピュータ4で行う。
ペン入力コンピュータ4は、仮想ペーパである。したが
って、ペンで操作されるものである。ここで、ペン入力
コンピュータ4は、「認識を伴わないインクモードを持
つ」、「2つのペン入力コンピュータを横に置くと1つ
の大きな仮想ペーパとなる」などの実ペーパの特徴を持
つ。
The pen input computer 4 corresponds to virtual paper. The pen input computer 4 displays files on the virtual desktop and executes applications.
The pen input computer 4 is virtual paper. Therefore, it is operated with a pen. Here, the pen input computer 4 has characteristics of actual paper such as “having an ink mode without recognition” and “two pen input computers are placed sideways to form one large virtual paper”.

【0031】小型CCDカメラをペンに内蔵したスキャナ
付ペン8を用いて、実ペーパと仮想ペーパのインタフェ
ースをとる。すなわち、実ペーパの情報はペン型のスキ
ャナで取り込まれ、ペン入力コンピュータ上の指定領域
へ認識されたデータあるいは生のスキャンデータが転送
される。
A pen 8 with a scanner having a small CCD camera built in the pen is used to interface between the real paper and the virtual paper. That is, the information of actual paper is captured by a pen-type scanner, and the recognized data or raw scan data is transferred to a designated area on the pen input computer.

【0032】複数のペン入力コンピュータ、環境ビュー
ワおよびスキャナ付ペン等は赤外線等の室内(あるいは
デスクトップ)LANで結合しておく。そしてこれらを
協調的に動作させる。
A plurality of pen input computers, an environment viewer, a pen with a scanner and the like are connected by an indoor (or desktop) LAN such as infrared rays. And these are operated cooperatively.

【0033】エージェントへの指示はペン、音声、ジェ
スチャ、キーボードの複数のモードを用いて行われる。
同じモードに対応する入力メディア(複数のペン入力コ
ンピュータ、モニタ、マイクなど)が複数存在する。例
えば、ペン入力はどのペン入力コンピュータでも行うこ
とができ、また、ジェスチャは、どのペン入力コンピュ
ータでも環境ビューワ上でも行うことができる。すなわ
ち、入力モードは複数の入力メデイア(装置)に分散さ
れることになる。
Instructions to the agent are made using a plurality of modes of pen, voice, gesture and keyboard.
There are multiple input media (such as multiple pen input computers, monitors, microphones) that support the same mode. For example, pen input can be made on any pen input computer, and gestures can be made on any pen input computer or environment viewer. That is, the input mode is distributed to a plurality of input media (devices).

【0034】出力としては、環境ビューワやペン入力コ
ンピュータに表示されるほか、音声合成など利用し音声
や効果音、グラフィカル表示などを用いてマルチモーダ
ルに出力する。
As an output, in addition to being displayed on an environment viewer or a pen input computer, a voice, a sound effect, a graphical display, etc. are used in a multimodal manner by utilizing voice synthesis or the like.

【0035】エージェント10が環境ビューワ上に表示
し、これを知的処理のシンボルとしてもよい。具体的に
は、システムに対する命令(ペン、音声、ジェスチャ)
は、この知的エージェントが処理するという形になる。
The agent 10 may display it on the environment viewer and use it as a symbol for intelligent processing. Specifically, commands to the system (pen, voice, gesture)
Will be processed by this intelligent agent.

【0036】エージェントは、マルチモーダルな指示か
らユーザの意図を抽出し、それをもとに問題解決し、結
果を出力するという処理を行う。
The agent extracts the intention of the user from the multimodal instruction, solves the problem based on the intention, and outputs the result.

【0037】図2に、本システムの構成図を示す。本シ
ステムは、3台のワークステーション101、102、
103、および4台のペンパソコン105、106、1
07、108、入出力用のパソコン104、アプリケー
ションをバックグラウンドで実行するためのパソコン1
09から構成される。
FIG. 2 shows a block diagram of this system. This system consists of three workstations 101, 102,
103 and four pen personal computers 105, 106, 1
07, 108, personal computer 104 for input / output, personal computer 1 for executing applications in the background
09.

【0038】ワークステーション101、102、10
3のソフトウエア構造は、OS110、その上部にワー
クステーションとパソコン間の通信ソフトウエア111
から構成される。ワークステーション103は音声認
識、カメラ入力専用であり、そのために音声認識サーバ
120、画像入力サーバ121を稼働させている。ワー
クステーション101は、本個人情報環境全体の制御プ
ログラム112と、後述するマルチモーダルアナライザ
(MMA)113および印刷文字認識サーバ114、手
書き文字認識サーバ115が稼働している。ワークステ
ーション102は、本個人情報環境全体の制御プログラ
ム112の他に、後述するマルチモーダル問題解決器
(MMIP)117、マルチモーダル応答生成器(MM
G)118、および、音声合成サーバ119、一般アプ
リケーションプログラム116が稼働している。
Workstations 101, 102, 10
The software structure of 3 is the OS 110, and the communication software 111 between the workstation and the personal computer on top of it.
Consists of The workstation 103 is dedicated to voice recognition and camera input, and therefore the voice recognition server 120 and the image input server 121 are operating. In the workstation 101, a control program 112 for the entire personal information environment, a multimodal analyzer (MMA) 113, a print character recognition server 114, and a handwritten character recognition server 115, which will be described later, are operating. In addition to the control program 112 for the entire personal information environment, the workstation 102 includes a multimodal problem solver (MMIP) 117 and a multimodal response generator (MM) which will be described later.
G) 118, the voice synthesis server 119, and the general application program 116 are operating.

【0039】また、本システムでは、ペンパソコン(ペ
ン入力コンピュータ)105、106、107、108
およびパソコン109はOS127を有し、その上にワ
ークステーションとパソコン間の通信ソフトウエア12
6、本個人情報環境全体の制御プログラム125および
仮想ペーパのソフトウエア123、OS127上アプリ
ケーションの外部からの制御プログラム124が稼働し
ている。パソコン104もOS127を有し、その上に
ワークステーションとパソコン間の通信ソフトウエア1
26、本個人情報環境全体の制御プログラム125、お
よび、ペン型スキャナ入力128、キーボード入力12
9、環境ビューワ管理130のプログラムが稼働してい
る。
In this system, pen personal computers (pen input computers) 105, 106, 107, 108
Also, the personal computer 109 has an OS 127 on which communication software 12 between the workstation and the personal computer is installed.
6. The control program 125 of the entire personal information environment, the virtual paper software 123, and the control program 124 from the outside of the application on the OS 127 are operating. The personal computer 104 also has an OS 127, on which communication software 1 between the workstation and the personal computer is installed.
26, control program 125 for the entire personal information environment, pen-type scanner input 128, keyboard input 12
9. The program of environment viewer management 130 is running.

【0040】本システムでは、図3に示すように、知的
エージェント32を各ペンパソコン(ペン入力コンピュ
ータ)や環境ビューワで実行中のアプリケーション31
とユーザを介在するシステムとしてみなす。ユーザは、
アプリケーションを知的エージェントを介さずに直接操
作することも、知的エージェントの助けを借りてアプリ
ケーションを利用することも可能である。
In this system, as shown in FIG. 3, the intelligent agent 32 is an application 31 running on each pen personal computer (pen input computer) or environment viewer.
It is regarded as a system that interposes the user. The user
It is possible to operate the application directly without going through an intelligent agent, or to use the application with the help of an intelligent agent.

【0041】次に、この個人情報機器の利用法について
説明する。ユーザは図1に示すように、以下の環境で利
用する。(a)複数のペンパソコン(ペン入力コンピュ
ータ)4、(b)環境ビューワ(仮想デスクトップ、知
的エージェント)3、(c)スキャナ付ペン8のハード
ウエアと実際の紙が混在した環境で利用する。この環境
によりユーザは、ペン、音声、ジェスチャ(ペン、タッ
チ)を同時に混在させインタフェースすることが可能で
ある。
Next, a method of using this personal information device will be described. The user uses it in the following environment as shown in FIG. (A) Multiple pen personal computers (pen input computers) 4, (b) Environment viewer (virtual desktop, intelligent agent) 3, (c) Pen 8 with scanner 8 Used in an environment where hardware and actual paper are mixed. . This environment allows the user to mix and interface pens, voices, and gestures (pen, touch) at the same time.

【0042】(1)基本操作:知的エージェント機能を
使わない場合 環境ビューワ(仮想デスクトップ)5に種々の書類を表
示する。ここで、ユーザが、表示されたものから所望の
ものを選択(「オープン」)すると、選択されたものが
手許のペン入力コンピュータのうち少なくとも1台に現
われ、操作を行うことができる。
(1) Basic operation: When the intelligent agent function is not used: Various documents are displayed on the environment viewer (virtual desktop) 5. Here, when the user selects (“opens”) a desired one from the displayed ones, the selected one appears on at least one of the pen input computers in hand, and the operation can be performed.

【0043】つまり、以下にあげるようにユーザは複数
の操作の仕方から選ぶことができる。ペンによる手書
き、ペンによるタップ、ペン型スキャナ、キーボードを
用いて操作を行うことができる。この場合、ユーザにと
ってのメリットは、以下の通りである。
That is, the user can select from a plurality of operating methods as described below. Operations can be performed using handwriting with a pen, tapping with a pen, a pen-type scanner, and a keyboard. In this case, the merits for the user are as follows.

【0044】(a)作業環境が机上に拡大され、机上で
紙やペンを用いて自然に作業できること (b)実ペーパと同じメタファで仮想ペーパを使うこと
ができること (c)実ペーパと仮想ペーパのインタフェースがペン型
スキャナでとれること (例えば、実ペーパ上に重要なデータがある場合、ペン
型スキャナで容易に仮想ペーパ上にもってくることが可
能) (2)応用操作:知的エージェント機能を使う場合 知的エージェント機能を使う場合、以下の入力構成要件
に対応したマルチモーダル入出力が可能となる。この構
成要件とは、(a)ペン、(b)音声、(c)ジェスチャ
(ペン)、(d)キーボードなどである。知的エージェ
ントが有する情報は、(a)アプリケーションに関する
情報(記憶されているデータの意味および外部から操作
する方法)、(b)個人情報(ユーザが教えた情報)、
(c)言語情報(単語、シソーラス、意味)などであ
る。
(A) The work environment is expanded on the desk, and the user can naturally work on the desk using paper or a pen. (B) The virtual paper can be used with the same metaphor as the actual paper. (C) The real paper and the virtual paper. Interface of the pen-type scanner can be taken (for example, if important data exists on the actual paper, it can be easily brought to the virtual paper by the pen-type scanner). (2) Applied operation: Intelligent agent function When to use When using the intelligent agent function, multimodal input / output corresponding to the following input configuration requirements becomes possible. The configuration requirements are (a) pen, (b) voice, (c) gesture (pen), (d) keyboard, and the like. The information possessed by the intelligent agent includes (a) information about the application (meaning of stored data and a method of operating from the outside), (b) personal information (information taught by the user),
(C) Language information (word, thesaurus, meaning), etc.

【0045】知的エージェントがアプリケーション(ア
ドレス帳)に関する知識を用いると、以下のような操作
が可能となる。
When the intelligent agent uses the knowledge about the application (address book), the following operations are possible.

【0046】例えば、手紙をペン入力コンピュータで作
成し、五百旗頭さんにそれをfaxする場合、姓名が難
しいので、音声とペンとジェスチャを用いて図4のよう
に指示することができる(41)。この処理において
は、まず、マルチモーダル入力の意味解析が行なわれ
る。すなわち、ペンで指されたペン入力コンピュータの
ファイルが「この手紙」であり、音声とペン入力を合わ
せて1つの文とみなす必要がある(これが後述するマル
チモーダル意味処理(MMIP)の仕事である)。次
に、faxするには、五百旗頭さんのfax番号が必要
であるので、知的エージェントはアドレス帳というアプ
リケーションで五百旗頭さんのfax番号を検索する。
この時、知的エージェントは、アドレス帳というアプリ
ケーションには名前と電話番号が記憶されているという
アプリケーションに関する情報、および、その検索する
という操作がどのように外部から実行可能であることを
知らなければならない。逆に、アプリケーションが知的
エージェントによって利用されるには、このような情報
および外部から機能の呼び出し機能をエージェントに伝
える方法が必要である。
For example, when writing a letter with a pen input computer and faxing it to Mr. 500 heads, it is difficult to give his first and last name. Therefore, it is possible to give an instruction as shown in FIG. 4 using voice, pen and gesture (41). In this process, first, semantic analysis of multimodal input is performed. That is, the file of the pen input computer pointed by the pen is "this letter", and it is necessary to consider the voice and the pen input as one sentence (this is the work of multimodal semantic processing (MMIP) described later). ). Next, since the fax requires Mr. 500 flag head's fax number, the intelligent agent searches for the fax number of Mr. 500 flag head with an application called an address book.
At this time, the intelligent agent needs to know the information about the application that the name and the telephone number are stored in the application called the address book, and how the operation of searching can be performed from the outside. I won't. On the contrary, in order for an application to be used by an intelligent agent, it is necessary to have a method of transmitting such information and the function calling function to the agent from the outside.

【0047】また、上記の例では、五百旗頭さんのfa
x番号をアドレス帳アプリケーションからもってきた
が、直接知的エージェントに教えた情報を用いることも
できる。例えば、『五百旗頭さんのfax番号はxxxで
ある。』と教えれば、アドレス帳アプリケーションがな
くてもよい。
Also, in the above example, fa
Although the x number is obtained from the address book application, the information taught to the intelligent agent can be used directly. For example, "The fax number of Mr. 500 flag head is xxx. , You don't need an address book application.

【0048】図5に、ペン型スキャナを用いた利用例5
1を示す。ユーザは注文書を通信販売会社にfaxしよ
うとしているが、そのfax番号が、新聞(実物の紙)
上にあるため、「ここに」と音声で指示しながら、同時
にペン型スキャナで入力する。この場合、fax番号だ
けを厳密にスキャンする必要はなく、ラフにスキャンす
れば、意味(この場合、電話番号であるとの予測)か
ら、適切なものだけが切り取られて用いられる。
FIG. 5 shows a fifth application example using a pen-type scanner.
1 is shown. The user is trying to fax an order form to a mail-order company, but the fax number is a newspaper (actual paper).
Since it is above, input with the pen-type scanner at the same time while instructing "here" by voice. In this case, it is not necessary to strictly scan only the fax number, and if a rough scan is performed, only the appropriate one is cut out and used from the meaning (predicted to be a telephone number in this case).

【0049】この応用操作においてのユーザメリット
は、(a)マルチモーダル入力によって自然に、簡単
に、指示することができること、(b)知的エージェン
トが複雑なアプリケーションを使いこなしてくれること
(他システムの情報も自動的に参照できる)および
(c)個人的な情報(メモ)を自然言語(マルチモーダ
ル入力が可)でエージェントに教えると、それを知識と
して用いることなどである。
The user's merit in this application operation is that (a) natural and easy instructions can be given by multimodal input, and (b) an intelligent agent can use complicated applications (compared to other systems). Information can be automatically referred to) and (c) Personal information (memo) is taught to agents in natural language (multimodal input is possible), and it is used as knowledge.

【0050】以下、オフィスワークにおける利用例を図
6に示す。音声か手書きで『絵のこの部分を、部長にフ
ァックスせよ。』と指示をしながら、『この部分』を言
うと同時に、対象部分をペンで丸くで囲むという操作を
した場合(例61)、エージェントは対象部分から絵を
切りだし、それを部長に自動的にファックスする。
FIG. 6 shows an example of use in office work. "Send this part of the picture to the director by voice or handwriting." When saying "this part" and enclosing the target part in a circle with a pen (Example 61), the agent cuts out a picture from the target part and automatically sends it to the director. Fax to.

【0051】音声か手書きで『予算資料の中にあるグラ
フを、ここにコピーせよ。』と指示をしながら、『こ
こ』を言うと同時に、対象場所をペンでタップした場合
(例62)、エージェントは予算資料か格納されている
ファイルを自動的に探し、その中からグラフを持ってき
てタップした場所にコピーする。
[Voice or handwriting "Copy the graph in the budget document here." If you tap the target location with the pen (Example 62) while saying "here" while instructing "," the agent automatically searches for budget materials or stored files, and holds a graph from them. Copy to the place you came and tapped.

【0052】音声か手書きで『私の顔写真はこれで
す。』と指示をしながら、『これ』を言うと同時に、ペ
ン入力コンピュータに表示されている写真を丸で囲んだ
あるいはあるいは、ペン型スキャナで実際の写真をスキ
ャンした場合(例63)、エージェントはこれを知識と
して保存し後で利用する。
[Voice or handwriting: "My face photo is this. If you encircle the photo displayed on the pen input computer or scan the actual photo with a pen-type scanner (Example 63) while saying "this", the agent Save this as knowledge and use it later.

【0053】この後、音声か手書きで『私の顔写真を表
示せよ。』と指示した場合(例64)、エージェントは
前の会話で教えられた情報をもとに写真を表示する。
Then, by voice or handwriting, "Display my face picture. ] (Example 64), the agent displays a photo based on the information taught in the previous conversation.

【0054】また、音声か手書きで『田中さんの住所は
ここで、電話番号は、これだ。』と指示をしながら、
『ここ』『これ』を言うと同時に、ペン型スキャナで名
刺の対応する部分をスキャンした場合(例65)、エー
ジェントはこれをマルチメデア知識として保存し後で利
用する。
Also, by voice or handwriting, "Tanaka-san's address is here, and the telephone number is this." ],
When saying "here" and "this" and scanning the corresponding part of the business card with the pen-type scanner (example 65), the agent saves this as multimedia knowledge and uses it later.

【0055】図7に、全体の処理フローを示す。知的認
識機構71、73、76は2段階のフィードバックルー
プを持つ。第1のフィードバックループは知的認識機構
71、73、76内部に存在する。ここでは、知的認識
機構71、73、76が持つ辞書、形態素情報を用いて
認識結果の修正を行う。第2のフィードバックはマルチ
モーダル入力機構78からの制約情報や予測情報を用い
て行われる。基本的な認識エンジン72、74、75は
公開されている通常のアルゴリズムを用いて実現する。
これらのフィードバックは、ペン認識機構75において
は行の切り出し、文字の切り出しまで、印刷文字認識機
構73においては、意味のある領域の切り出し、行の切
り出し、文字の切り出しまで作用させる。
FIG. 7 shows the overall processing flow. The intelligent recognition mechanisms 71, 73 and 76 have a two-stage feedback loop. The first feedback loop exists inside the intelligent recognition mechanism 71, 73, 76. Here, the recognition result is corrected using the dictionary and morpheme information of the intelligent recognition mechanisms 71, 73, and 76. The second feedback is performed using the constraint information and the prediction information from the multimodal input mechanism 78. The basic recognition engine 72, 74, 75 is realized by using a publicly available ordinary algorithm.
These feedbacks are used in the pen recognition mechanism 75 for cutting out a line and a character, and in the print character recognition mechanism 73 for cutting out a meaningful region, a line, and a character.

【0056】一方、音声認識機構71は、上記2つと比
べて認識率がけた違いに悪いので、異なるアプローチを
とる。すなわち、マルチモーダル入力機構78からの制
約を認識候補の辞書や認識候補の文法という形式でまず
音声認識に知らせ、それを用いて認識するという、制約
主導型の認識を主とする。
On the other hand, the voice recognition mechanism 71 takes a different approach because the recognition rate is worse than that of the above two because of a significant difference. That is, the constraint-driven recognition is mainly performed by first informing the voice recognition of a constraint from the multi-modal input mechanism 78 in the form of a dictionary of recognition candidates or a grammar of the recognition candidate and then recognizing it.

【0057】これらの知的認識機構は、図2において、
ワークステーション101、103上のソフトウエアモ
ジュール114、115、120、121として実装さ
れている。
These intelligent recognition mechanisms are shown in FIG.
It is implemented as software modules 114, 115, 120, 121 on the workstations 101, 103.

【0058】マルチモーダル入力機構78は、「構文記
述+制約記述(意味、時間)」の表現で知識ベース77
に格納されているデータを用いる。すなわち、形式を重
要視した構文記述と、意味を重視した制約記述を併用
し、その処理(パージング処理)においても、構文重視
から制約重視までのレベルを設ける。つまり、構文を重
視すると効率的な処理が可能となり。制約記述を重視す
ると、非構文的でも時間をかければ解析可能となる。制
約記述を重視した場合、組み合わせ爆発的に計算量が増
加するが、従来技術である高速パージングアルゴリズム
との併用で、計算可能なレベルまで効率化する。
The multimodal input mechanism 78 uses the expression “syntax description + constraint description (meaning, time)” to represent the knowledge base 77.
Use the data stored in. That is, the syntax description that emphasizes the form and the constraint description that emphasizes the meaning are used together, and in the processing (parsing process), levels from syntax emphasis to constraint emphasis are provided. In other words, if syntax is important, efficient processing becomes possible. If the constraint description is emphasized, it will be possible to analyze even if it is non-syntactic if it takes time. When the constraint description is emphasized, the amount of calculation increases explosively in combination, but the efficiency is increased to a level that can be calculated by using it together with the conventional high-speed purging algorithm.

【0059】マルチモーダル入力機構78は知識ベース
77に保持されている知識を用いて、入力として認識で
きる場合、その結果を問題解決機構79に伝えるが、認
識できない場合、どのように認識しなおすべきかを、知
的認識機構71、73、76に伝える。
The multi-modal input mechanism 78 uses the knowledge held in the knowledge base 77 to inform the problem solving mechanism 79 of the result when it can recognize it as an input, but if it cannot recognize it, how to recognize it again. This is transmitted to the intelligent recognition mechanisms 71, 73 and 76.

【0060】マルチモーダル入力機構78のメインモジ
ュールは図2において、ワークステーション101上の
ソフトウエアモジュール113として実装される。
The main module of the multimodal input mechanism 78 is implemented as a software module 113 on the workstation 101 in FIG.

【0061】マルチモーダル入力機構78から問題解決
機構79に入力された認識結果は、その意味を問題解決
機能79が知識ベース80を利用して解析し、その結果
をマルチモーダル生成機構82に知らせる。また、マル
チモーダル入力機構78からの認識結果が事実の場合は
知識ベース80に登録される。問題解決機構79のメイ
ンモジュールは図2において、ワークステーション10
2上のソフトウエアモジュール117として実装され
る。
The problem solving function 79 analyzes the meaning of the recognition result input from the multimodal input mechanism 78 to the problem solving mechanism 79 using the knowledge base 80, and informs the multimodal generating mechanism 82 of the result. If the recognition result from the multimodal input mechanism 78 is a fact, it is registered in the knowledge base 80. The main module of the problem solving mechanism 79 is the workstation 10 in FIG.
2 is implemented as a software module 117.

【0062】問題解決機構79からマルチモーダル生成
機構82に入力された応答のデータに基づき、マルチモ
ーダル生成機構82では、環境ビューワ、仮想ペーパか
らの文字/画像の出力83、85、環境ビューワ、仮想
ペーパ、およびエージェントからの音声での出力84を
行う。出力メディアの選択、出力方法は、ノウハウ81
を用いて導き出す。例えば、質問と答えの関係から発話
のストレス、スピードを適応的に設定する。
Based on the response data input from the problem solving mechanism 79 to the multi-modal generation mechanism 82, the multi-modal generation mechanism 82 outputs the characters / images 83, 85 from the environment viewer and virtual paper, the environment viewer, the virtual viewer. The output 84 is output by paper and voice from the agent. How to select output media and output method
Is derived using. For example, the stress and speed of speech are adaptively set based on the relationship between the question and the answer.

【0063】マルチモーダル生成機構82のメインモジ
ュールは図2において、ワークステーション102上の
ソフトウエアモジュール118として実装されている。
また、音声出力のモジュールはワークステーション10
2上のソフトウエアモジュール119である。
The main module of the multi-modal generation mechanism 82 is implemented as a software module 118 on the workstation 102 in FIG.
Also, the voice output module is the workstation 10.
2 above is the software module 119.

【0064】図7で示したシステムの処理フロー内の、
サブシステムからの入力87とは、仮想ペーパ上で動作
中のアプリケーションからのその動作状態の報告などを
表わす。これを用いて、アプリケーションの現在の状態
を考慮に入れた問題解決を問題解決機構79で実行す
る。
In the processing flow of the system shown in FIG. 7,
The input 87 from the subsystem represents, for example, a report of the operating state from an application operating on the virtual paper. Using this, the problem solving mechanism 79 executes problem solving in consideration of the current state of the application.

【0065】また、サブシステムへの出力86とは、仮
想ペーパ上で動作中のアプリケーションへの制御指示に
加え、本個人情報環境の構成要素である、環境ビュー
ワ、エージェント、仮想ビューワの制御指示も含む。す
なわち、問題解決機構では、ユーザへの応答方策に加
え、自システムおよび他アプリケーションの実行制御方
策も同時に生成する。
The output 86 to the subsystem is not only the control instruction to the application running on the virtual paper but also the control instruction to the environment viewer, the agent, and the virtual viewer, which are the constituent elements of the personal information environment. Including. That is, in the problem solving mechanism, in addition to the response policy to the user, the execution control policy of the own system and the other application is simultaneously generated.

【0066】[0066]

【発明の効果】以上説明したように本発明の実施例によ
れば、人間中心・実世界中心の考え方により設計され、
音声、手書き、ジェスチャ等のマルチモーダルな形態で
対話可能な、より人間中心のユーザインタフェースを有
するコンピュータ利用環境を持つ個人情報を実現するこ
とが可能となる。
As described above, according to the embodiments of the present invention, the human-centered / real-world-based design is adopted.
It becomes possible to realize personal information having a computer use environment having a more human-centered user interface capable of interacting in a multimodal form such as voice, handwriting, and gesture.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第一の実施形態を示す図である。FIG. 1 is a diagram showing a first embodiment of the present invention.

【図2】プログラム構造と機器構成を示す図である。FIG. 2 is a diagram showing a program structure and a device configuration.

【図3】エージェントの位置付けを表わす図である。FIG. 3 is a diagram showing the positioning of agents.

【図4】利用形態の例を説明する図である。FIG. 4 is a diagram illustrating an example of a usage form.

【図5】利用形態の例を説明する図である。FIG. 5 is a diagram illustrating an example of a usage form.

【図6】利用形態の例を説明する図である。FIG. 6 is a diagram illustrating an example of a usage form.

【図7】本発明の処理フローを説明する図である。FIG. 7 is a diagram illustrating a processing flow of the present invention.

【符号の説明】[Explanation of symbols]

1…実デスク、2…実際の紙、3…仮想デスクを表示す
る環境ビューワ、4…仮想ペーパを表わすペン入力コン
ピュータ、5…スピーカ、6…マイク、7…カメラ、8
…小型CCDカメラをペンに内蔵したスキャナ付ペン、9
…キーボード、10…エージェント
1 ... Real desk, 2 ... Actual paper, 3 ... Environmental viewer displaying virtual desk, 4 ... Pen input computer representing virtual paper, 5 ... Speaker, 6 ... Microphone, 7 ... Camera, 8
… Pen with scanner that has a built-in small CCD camera, 9
… Keyboard, 10… Agent

───────────────────────────────────────────────────── フロントページの続き (72)発明者 冨田 民則 神奈川県川崎市麻生区王禅寺1099番地 株 式会社日立製作所システム開発研究所内 (72)発明者 青島 弘和 神奈川県川崎市麻生区王禅寺1099番地 株 式会社日立製作所システム開発研究所内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Taminori Tomita 1099, Ozenji, Aso-ku, Kawasaki-shi, Kanagawa Ltd. System Development Laboratory, Hitachi, Ltd. (72) Hirokazu Aoshima 1099, Ozen-ji, Aso-ku, Kawasaki, Kanagawa Ceremony company Hitachi Systems Development Laboratory

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】作業者の作業を支援する個人情報機器にお
いて、 前記作業に必要なもののうち、現実に存在するものを認
識する認識手段と、 認識された現実に存在するものを計算機により操作可能
なものと不可能なものに区別して、仮想的にのみ存在す
るもの、現実に存在し前記計算機により操作可能なも
の、および現実の世界に存在し前記計算機により操作不
可能なものをそれぞれ区別して表示する表示手段とを有
し、 前記表示手段の表示は、前記現実に存在するものを存在
する位置に対応させて表示することを特徴とする個人情
報機器。
1. A personal information device for supporting a worker's work, wherein a recognition means for recognizing what is actually present among those necessary for the work, and a recognized real thing that can be operated by a computer Distinguishing between those that are virtually impossible, those that exist virtually only, those that actually exist and can be operated by the computer, and those that exist in the real world and cannot be operated by the computer. A personal information device, comprising: display means for displaying, wherein the display of the display means displays the thing that actually exists in correspondence with the position where it exists.
JP8067801A 1996-03-25 1996-03-25 Individual information equipment Pending JPH09258945A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8067801A JPH09258945A (en) 1996-03-25 1996-03-25 Individual information equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8067801A JPH09258945A (en) 1996-03-25 1996-03-25 Individual information equipment

Publications (1)

Publication Number Publication Date
JPH09258945A true JPH09258945A (en) 1997-10-03

Family

ID=13355424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8067801A Pending JPH09258945A (en) 1996-03-25 1996-03-25 Individual information equipment

Country Status (1)

Country Link
JP (1) JPH09258945A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7312788B2 (en) 2003-03-11 2007-12-25 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Gesture-based input device for a user interface of a computer
JP2010033604A (en) * 2009-11-09 2010-02-12 Sony Corp Information input device and information input method
JP2014044725A (en) * 2012-08-27 2014-03-13 Samsung Electronics Co Ltd Method of providing user interface, machine-readable storage medium, and portable terminal
JP2017037658A (en) * 2009-02-20 2017-02-16 ボイスボックス テクノロジーズ コーポレーション System and method for processing multi-modal device interaction in natural language voice service environment
WO2017033544A1 (en) * 2015-08-24 2017-03-02 ソニー株式会社 Information processing device, information processing method, and program
CN106597908A (en) * 2017-01-07 2017-04-26 武克易 Learning table body feeling control method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7312788B2 (en) 2003-03-11 2007-12-25 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Gesture-based input device for a user interface of a computer
JP2017037658A (en) * 2009-02-20 2017-02-16 ボイスボックス テクノロジーズ コーポレーション System and method for processing multi-modal device interaction in natural language voice service environment
US10553213B2 (en) 2009-02-20 2020-02-04 Oracle International Corporation System and method for processing multi-modal device interactions in a natural language voice services environment
JP2010033604A (en) * 2009-11-09 2010-02-12 Sony Corp Information input device and information input method
JP2014044725A (en) * 2012-08-27 2014-03-13 Samsung Electronics Co Ltd Method of providing user interface, machine-readable storage medium, and portable terminal
WO2017033544A1 (en) * 2015-08-24 2017-03-02 ソニー株式会社 Information processing device, information processing method, and program
US10545716B2 (en) 2015-08-24 2020-01-28 Sony Corporation Information processing device, information processing method, and program
CN106597908A (en) * 2017-01-07 2017-04-26 武克易 Learning table body feeling control method

Similar Documents

Publication Publication Date Title
US9606989B2 (en) Multiple input language selection
US20020165894A1 (en) Information processing apparatus and method
US5572649A (en) Process for dynamically switching between a single top level window and multiple top level windows
US5544300A (en) User interface for dynamically converting between a single top level window and multiple top level windows
US5982928A (en) Character recognizing apparatus and method of controlling the same
US8122424B2 (en) Automatic natural language translation during information transfer
US5367626A (en) Automatic icon generation system
Kline et al. Improving GUI accessibility for people with low vision
US20080282160A1 (en) Designated screen capturing and automatic image exporting
US7543248B2 (en) User-machine interface
US20050165839A1 (en) Context harvesting from selected content
JPH0773141A (en) Remote cooperation system
US20040093568A1 (en) Handwritten file names
JPH0793251A (en) Remote cooperation system
JPH07168779A (en) High-speed reproduction of plurality of computer displays
JP2005056425A (en) System and method for supplying content and computer program product
JPH0749835A (en) Remote cooperative system
JP2003186614A (en) Automatic software input panel selection based on application program state
US20040119762A1 (en) Systems and methods for freeform pasting
JP2008217782A (en) Paper-based meeting service management tool and system
KR20030087736A (en) Contents convert system for Personal Digital Assistants and convert method thereof
JPH09258945A (en) Individual information equipment
KR20060132275A (en) Apparatus and method for calling driver of peripheral using shortcut
EP0730239B1 (en) Method and apparatus for telephone modification of documents
JPH04507309A (en) Document annotation and manipulation device using images from window sources