JP2001136504A - System and method for information input and output - Google Patents

System and method for information input and output

Info

Publication number
JP2001136504A
JP2001136504A JP31646199A JP31646199A JP2001136504A JP 2001136504 A JP2001136504 A JP 2001136504A JP 31646199 A JP31646199 A JP 31646199A JP 31646199 A JP31646199 A JP 31646199A JP 2001136504 A JP2001136504 A JP 2001136504A
Authority
JP
Japan
Prior art keywords
computer
information
work surface
information input
digital
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP31646199A
Other languages
Japanese (ja)
Inventor
Jiyunichi Rekimoto
純一 暦本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP31646199A priority Critical patent/JP2001136504A/en
Publication of JP2001136504A publication Critical patent/JP2001136504A/en
Pending legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide information environment which is dynamically constituted by combination of a computer group of a table-type, a wall-type, etc., which are installed in an actual space and a group of portable computers that respective users carry. SOLUTION: A table and a wall surface function as work environment where a portable computer is extended spatially. Objects (paper documents, cards, video tapes, etc.), in the real world are specified by marker recognition and can freely exchange information. A user is able to operate information by direct operating technique functioning exceeding the border of a closed work space on a single computer, without being conscious of the addresses and IDs of individual devices and bodies by making good use of the spatial position relation among the objects in the real world. For example, 'hyperdragging' operation which takes over dragging operation on the computer display of one user on a plane (table or wall surface), where a computer is placed as is, becomes possible.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、コンピュータに対
してデジタル・オブジェクトの操作やコマンド等の入力
を行うためのユーザ・インターフェース環境の提案に係
り、特に、コンピュータに対してユーザが直感的で分か
り易くオブジェクト操作やコマンド入力を行うことがで
きるユーザ・インターフェース環境の提案に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a proposal of a user interface environment for operating a digital object or inputting a command or the like to a computer. The present invention relates to a proposal of a user interface environment that can easily perform object operations and command inputs.

【0002】更に詳しくは、本発明は、複数のコンピュ
ータ間の連携的な作業を直感的で分かり易く表現するこ
とができるユーザ・インターフェース環境の提案に係
り、特に、それぞれのコンピュータにネイティブな各デ
スクトップ画面を実世界にまで拡張した情報空間上にお
いて、各ユーザの個別作業やユーザ間の連携作業を直感
的で分かり易く表現することができるユーザ・インター
フェース環境の提案に関する。
More specifically, the present invention relates to a proposal of a user interface environment capable of intuitively and intuitively expressing a cooperative operation between a plurality of computers, and more particularly, to a desktop interface native to each computer. The present invention relates to a proposal of a user interface environment capable of intuitively and intuitively expressing individual work of each user and cooperative work between users on an information space in which a screen is extended to the real world.

【0003】[0003]

【従来の技術】昨今の技術革新に伴い、ワークステーシ
ョンやパーソナル・コンピュータ(PC)と呼ばれる、
比較的小型且つ低価格で、高付加価値化・高機能化され
た汎用コンピュータ・システムが開発・市販され、大学
その他の研究機関や企業その他のオフィス、さらには一
般家庭内の日常生活にも深く浸透している。
2. Description of the Related Art Along with recent technological innovation, workstations and personal computers (PCs) have been called.
A relatively small, low-priced, high-value-added, highly-functional general-purpose computer system has been developed and marketed, and is deeply embedded in universities and other research institutes, companies and other offices, and even in everyday life in ordinary households. Has penetrated.

【0004】コンピュータ技術における最近の傾向の1
つは、小型化である。特に最近では、半導体技術の向上
に伴なうLSI(large Scale Integ
ration)チップの小型化や、プロセッサの処理能
力の目覚しい向上などとも相俟って、小型且つ軽量で可
搬性に富むポータブル(携帯型)・コンピュータ(若し
くはモバイル・コンピュータ)が広汎に普及してきてい
る。
One of the recent trends in computer technology
One is miniaturization. Particularly in recent years, large scale integration (LSI) associated with the improvement of semiconductor technology.
Along with the miniaturization of chips and the remarkable improvement of the processing capability of processors, portable (portable) computers (or mobile computers) that are small, lightweight and highly portable have become widespread. .

【0005】携帯型コンピュータの一例は、いわゆる
「ノートブック・コンピュータ」であり、他の例は「P
DA(Personal Digital Assis
tance)」と呼ばれるさらに小型でほとんど掌(パ
ームトップ)サイズのコンピュータである。例えば、ノ
ートブック・コンピュータは、キーボードを上面に持つ
システム本体と、LCD(Liquid Crysta
l Display)スクリーンを内面に持つ蓋体とが
回動自在に連結されてなる、所謂「クラム・シェル」構
造を有する。
[0005] An example of a portable computer is a so-called "notebook computer", and another example is a "PC".
DA (Personal Digital Assist)
a smaller, almost palm-sized computer called a "tance." For example, a notebook computer includes a system body having a keyboard on an upper surface and an LCD (Liquid Crystal).
l Display) has a so-called “clam shell” structure in which a lid having a screen on the inner surface is rotatably connected.

【0006】最近では、ノートブック・コンピュータの
計算機資源(CPU(Central Process
ing Unit)の演算能力やハード・ディスク容量
など)は目覚しく向上し、デスクトップ・コンピュータ
のそれに匹敵する強力なものである。例えば、編集中の
文書ファイル、表計算ファイル、PIM(Person
al Information Manager)デー
タなどほとんど全ての個人データを、ノートブック・コ
ンピュータのローカル・ディスクに格納したまま、コン
ピュータごと持ち運ぶことができる。このような場合、
ローカル・ディスクからフロッピー・ディスクへデータ
をコピーしたり、さらに、フロッピー・ディスクから移
動先のローカル・ディスクにコピーするという手間が省
ける。
Recently, computer resources (CPUs (Central Processes) of notebook computers have been developed.
The computing power and hard disk space of a single computer (i.e., ing Unit) have been significantly improved and are as powerful as those of desktop computers. For example, a document file being edited, a spreadsheet file, a PIM (Person)
Almost all personal data, such as al Information Manager data, can be carried along with the computer while being stored on the local disk of the notebook computer. In such a case,
This eliminates the need to copy data from a local disk to a floppy disk, and from the floppy disk to a destination local disk.

【0007】これら携帯型のコンピュータは、モバイル
環境、すなわち屋外や移動先での携帯的・可搬的なシス
テム稼動が可能である。このような携行性に優れたコン
ピュータの出現により、コンピュータ・ユーザの日常生
活の各場面においてコンピュータが登場し、業務の遂行
を支援する機会がますます増えてきている。
[0007] These portable computers can operate a portable and portable system in a mobile environment, that is, outdoors or at a destination. With the advent of computers with excellent portability, computers have appeared in various situations of daily life of computer users, and opportunities for supporting business execution have been increasing more and more.

【0008】例えば、会議室やプレゼンテーション・ル
ームなどに参加者がノートブック・コンピュータやPD
Aを持ち込むことは日常的な光景になってきている。特
にノートブック・コンピュータは、個人が所有する大量
の文書データなどのファイルを保持するに充分なハード
・ディスク容量があり(数GB〜数十GB:例えば過去
に行った全てのプレゼンテーション資料を格納すること
も可能である)、会議の進行次第で自由に情報をローカ
ル・ディスクから引き出して、他の参加者との間で情報
を共有・交換・配布することができる。
For example, when a participant enters a notebook computer or a PD in a conference room, a presentation room, or the like.
Bringing in A is becoming an everyday sight. In particular, a notebook computer has a hard disk capacity sufficient to hold a large amount of files such as a large amount of document data owned by an individual (several GB to several tens GB: for example, storing all presentation materials performed in the past). It is also possible to freely extract information from the local disk as the conference progresses, and share, exchange, and distribute information with other participants.

【0009】他方、オフィス環境自身もコンピュータ化
が進行し、情報環境、とりわけコンピュータに対してコ
マンド等の入力を行うためのユーザ・インターフェース
は大きく変貌しつつある。「電子化会議室」と呼ぶこと
もできよう。例えば、液晶プロジェクタや電子黒板(ホ
ワイトボード)はもとより、会議室のテーブル自体もコ
ンピュータ・ディスプレイとして利用する技術が登場し
ている。
On the other hand, computerization of the office environment itself is progressing, and the user interface for inputting commands and the like to the information environment, particularly to the computer, is undergoing a major transformation. It can also be called an "electronic meeting room". For example, a technology has emerged that uses not only a liquid crystal projector and an electronic blackboard (whiteboard) but also a conference room table itself as a computer display.

【0010】例えば、Remesh Raskar,
Greg Welch, MattCutts, Ad
am Lake, Lev Stesin, 及びHe
nry Fuchs著の論文”The office
of the future: A unified
approach to image−basedmo
deling and spatially imme
rsive displays.”(In SIGGR
APH’98 Proceedings,pp.179
−188, 1998)には、実世界上の建造物の表面
が論理的にはコンピュータ・ディスプレイとして機能し
得る点について記載している。また、Beth M.
Lange, Mark A. Jones, 及びJ
ames L. Meyers著の論文”Insigh
t Lab: An immersive team
environment linking pape
r, displays, and data”(In
CHI’98 Proceeding, pp.55
0−557, 1998)には、複数のコンピュータ・
ディスプレイで構成される大画面は個々のユーザのアク
ティビティだけでなくチーム全体の共同作業を支援する
という点が開示されている。
For example, Remesh Raskar,
Greg Welch, MattCutts, Ad
am Lake, Lev Stesin, and He
nry Fuchs's paper "The office"
of the future: A unified
approach to image-basedmo
deling and spatially imme
rsive displays. "(In SIGGR
APH '98 Proceedings, pp. 179
-188, 1998) describe that the surface of a building in the real world can logically function as a computer display. Also, Beth M.
Language, Mark A. Jones and J
ames L.A. "Insight," written by Meyers.
t Lab: Animative team
environmental linking paper
r, displays, and data "(In
CHI '98 Proceeding, pp. 55
0-557, 1998).
It is disclosed that a large screen composed of displays supports not only individual user activities but also collaboration of the entire team.

【0011】携帯型コンピュータの普及とユーザ・イン
ターフェース環境の進化というそれぞれの技術の発展に
よる自然の帰結として、近未来のコンピューティング環
境では、個人が所有する強力な演算機能を持つ携帯型コ
ンピュータと、会議室などの部屋やその環境に設置され
たコンピュータ群とが動的に連携し、会議室などの作業
場全体がコンピュータ上の論理空間と統合される(例え
ば、会議室のテーブルや壁面がコンピュータのデスクト
ップと統合される)ことが予測される。
[0011] As a natural consequence of the development of the respective technologies of the spread of the portable computer and the evolution of the user interface environment, in the near future computing environment, there will be a portable computer having a powerful arithmetic function owned by an individual, A room such as a conference room and computers installed in the environment dynamically cooperate, and the entire workplace such as the conference room is integrated with a logical space on the computer (for example, a table or wall of the conference room is Integrated with the desktop).

【0012】しかしながら、現状の電子化会議室では、
あらかじめ固定した機器構成を用いたユーザ・インター
フェースのみを主に考慮しているに過ぎない。したがっ
て、「携帯型コンピュータと設置されたコンピュータに
よって動的に環境を構成する」というような発想は見受
けられない。
However, in the current electronic conference room,
Only a user interface using a fixed device configuration is mainly considered. Therefore, there is no idea that “the environment is dynamically configured by the portable computer and the installed computer”.

【0013】実世界上の会議では、各参加者間で実文書
を回覧したり交換したすることができる。また、スプレ
ッドシートを壁に掲示して説明することも容易にでき
る。
In a conference in the real world, actual documents can be circulated and exchanged between participants. Also, the spreadsheet can be easily posted on a wall for explanation.

【0014】これに対し、各参加者が互いに持ちこんだ
コンピュータ間で情報交換(文書ファイルなどのオブジ
ェクトの交換など)などの単純な操作であっても、ネッ
トワークをセッティングして互いの機器同士を接続した
りする作業が必要である。また、ターゲット(転送先)
となる機器の物理的な所在(例えばテーブルの何処に置
いてあるか)を目で認識するだけでは不充分で、機器に
割り振られたアドレスを調べなければならない。言い換
えれば、ユーザに負担を強いてしまい、フラストレーシ
ョンの原因にもなる。例えば、プロジェクタを用いてス
クリーン表示したオブジェクトを他の参加者に配布する
ことは容易ではないし、かかるプロジェクタ・スクリー
ン上でプレゼンテーション資料にアノテーション(コメ
ントや注意書き、メモなど)を書き込むこともままなら
ない。
On the other hand, even if a simple operation such as information exchange (exchange of an object such as a document file) between computers carried by each participant is performed, a network is set up and each device is connected. Work is needed. In addition, target (transfer destination)
It is not enough to visually recognize the physical location of the device (for example, where the device is located in the table), and it is necessary to check the address assigned to the device. In other words, it places a burden on the user and causes frustration. For example, it is not easy to distribute objects displayed on a screen using a projector to other participants, and it is not possible to write annotations (comments, notes, notes, etc.) on presentation materials on such a projector screen.

【0015】例えば本発明者著の論文”A multi
ple−device approach for s
upporting whiteboard−base
dinteractions”(In Proceed
ings of ACMCHI’98, pp.344
−351, February 1998)には、電子
化会議室内の電子壁面とPDAとが連携して構成される
情報システムについて記載されている。
For example, a paper "A multi" written by the present inventor.
ple-device approach fors
upporting whiteboard-base
interactions "(In Processed
ings of ACCMHI '98, pp. 344
-351, February 1998) describes an information system in which an electronic wall in an electronic conference room and a PDA are linked.

【0016】また、Naohiko Khotake外
著の論文”InfoStick:An interac
tion device for inter−app
liance computing”(In Work
shop on Handheld and Ubiq
uitous Computing (HUC’9
9),1999)には、複数の情報家電間における統合
的なコマンダとして機能することができる携帯型デバイ
スについて記載されている。
Also, a paper written by Naohiko Khotake, “InfoStick: An interac”.
Tion device for inter-app
liance computing ”(In Work
shop on Handheld and Ubiq
uitous Computing (HUC'9
9), 1999) describe a portable device that can function as an integrated commander between a plurality of information home appliances.

【0017】上記の2つの論文では、単一のコンピュー
タ内でのみ利用可能であったマウス等による直接操作
(direct manipulation)の実行領
域若しくは考え方を、コンピュータ上の論理空間から実
世界に拡張し、コンピュータやその他の機器の境界を跨
った対話技法を提案している。このような対話技法のこ
とを、本発明者等は”Augmented Direc
t Manipulation”(拡張直接操作)と呼
んでいる。
In the above two papers, the execution area or concept of direct manipulation using a mouse or the like, which was available only in a single computer, was extended from the logical space on the computer to the real world. He proposes an interactive technique that crosses the boundaries of computers and other devices. The present inventors describe such an interactive technique as “Augmented Direct”.
This is called "t Manipulation" (extended direct operation).

【0018】電子化会議室においては、このような拡張
直接操作の概念を導入し、ユーザ操作環境を動的に拡張
することができる情報空間が望まれている。
In an electronic conference room, there is a demand for an information space capable of dynamically expanding a user operation environment by introducing the concept of such extended direct operation.

【0019】なお、フェイス・トゥ・フェイスの対話的
操作を拡張するためには、固定的なシステム構成を持つ
コンピュータが予め導入されていることが前提となるこ
とが多い。例えば”Colab”[10]は、プロジェクタ
・スクリーンと、テーブル上の各参加者用のコンピュー
タとで構成される。参加者が持ち込んコンピュータを新
たに組み込むことはできない。しかしながら、最近のモ
バイル・コンピューティングの動向を勘案すると、携帯
型コンピュータと導入済みコンピュータとの動的な接続
をサポートできるか否かは重要な問題である。
In order to extend the face-to-face interactive operation, it is often assumed that a computer having a fixed system configuration is installed in advance. For example, “Colab” [10] is composed of a projector screen and a computer for each participant on the table. Participants cannot bring in new computers. However, given the recent trends in mobile computing, the ability to support dynamic connections between portable and installed computers is an important issue.

【0020】また、物理的な机上にデジタル情報を投影
するというシステムも幾つか提案されている。”VID
EODESK”[19]は、光テーブルとビデオ・カメラで
構成される。ユーザは、該テーブル上に投影された他の
ユーザのシルエットを介して対話的な操作を行うことが
できる。
Some systems for projecting digital information on a physical desk have been proposed. "VID
EODESK " [19] consists of a light table and a video camera. The user can perform an interactive operation through the silhouettes of other users projected on the table.

【0021】”DigitalDesk”[11,4]によれ
ば、印刷されたドキュメントと机上に投影されたデジタ
ル情報の間で対話的操作を行うことができる。Digi
talDeskの最近のバージョンでは、OCRに基づ
いた文書識別機能[12]が追加されている。
According to "Digital Desk" [11,4] , interactive operation can be performed between a printed document and digital information projected on a desk. Digi
Recent versions of talDesk have added a document identification function based on OCR [12] .

【0022】”Luminous Room”[5](及
び、これに含まれる”I/Oバルブ”という概念)は、
コンピュータ制御ジンバル上に搭載されたビデオ・プロ
ジェクタを用いて投影領域を変化させる。その応用例で
ある”Illuminating Light”によれ
ば、ホログラフィ・デザイナは、机上に物理光学機器の
レイアウト設計を短時間で行うことができる。
"Luminous Room" [5] (and the concept of "I / O valve" included therein) is as follows:
The projection area is varied using a video projector mounted on a computer controlled gimbal. According to “Illuminating Light” as an application example, the holographic designer can perform layout design of a physical optical device on a desk in a short time.

【0023】Streitz外は、壁や椅子、テーブル
などを含んだコンピュータの拡張要素のセットを開発し
[3]。これによれば、テーブルはテーブル・サイズの
コンピュータすなわち”InteracTable”と
なり、テーブルを囲んだもの同士の議論をサポートす
る。さらに、”Passage”と呼ばれる物理ブロッ
クによって搬送された情報も表示される。このシステム
は、主に、非電子的なオブジェクトと投影されたデジタ
ル情報間での対話的操作に着目したものである。これに
対し、後述する本発明は、携帯型コンピュータ、テーブ
ルや壁面、その他の物理オブジェクトの間での対話的操
作をねらうものである。
Stritz et al. Developed a set of computer extensions, including walls, chairs, tables, etc. [3] According to this, the table becomes a table-sized computer, or "InteracTable", to support discussion between those surrounding the table. Further, information carried by a physical block called "Passage" is also displayed. This system mainly focuses on interactive operations between non-electronic objects and projected digital information. On the other hand, the present invention described later aims at interactive operation between a portable computer, a table, a wall surface, and other physical objects.

【0024】”ZoomieBoard”[13]は、ホワ
イトボード上をスキャンするシステムである。Zoom
ieBoardは、パン/チルト・カメラをコントロー
ルして、ホワイトボード上のイメージの一部であるモザ
イクを捕捉する。これらモザイク・イメージを連結する
ことで、ホワイトボード全体にわたる高解像度イメージ
を生成する。また、”BrightBoard” [14]
は、カメラによって拡張されたホワイトボード・システ
ムの他の例であり、マーカー・ペンで手書き入力された
コマンドを認識することができる。
"ZoomieBoard" [13] is a system for scanning on a whiteboard. Zoom
ieBoard controls the pan / tilt camera to capture the mosaic that is part of the image on the whiteboard. By concatenating these mosaic images, a high-resolution image over the entire whiteboard is generated. Also, “BrightBoard” [14]
Is another example of a whiteboard system extended by a camera, and can recognize a command input by handwriting with a marker pen.

【0025】マルチ・コンピュータの対話的操作の従来
例としては、”Hybrid User Interf
aces”[15]を挙げることができる。これは、ユーザ
の頭部に搭載して用いるシースルー型ディスプレイの応
用例であり、デスクトップ・コンピュータのスクリーン
周辺にさらに広い仮想スクリーンを生成することができ
る。
A conventional example of interactive operation of a multi-computer is disclosed in "Hybrid User Interf."
aces " [15] . This is an application example of a see-through type display mounted on a user's head and can generate a larger virtual screen around the screen of a desktop computer.

【0026】また、PDA−ITVシステム[7]は、米
Apple社の”Newton”のようなパームトップ
・コンピュータを対話型TVシステムとして用いてい
る。このシステムは、装置構成が固定的であることを前
提としており、また、主としてシングル・ユーザ向けに
デザインされている。
The PDA-ITV system [7] uses a palmtop computer such as "Newton" of Apple Inc. as an interactive TV system. This system is based on the assumption that the device configuration is fixed, and is designed mainly for a single user.

【0027】”Ariel” [16]と”transBO
ARD” [17]は、バーコードが印刷されたドキュメン
トやカードとデジタル・コンテンツとのコネクションを
サポートしている。また、”InsightLab”
[18]は、コンピュータによってサポートされた会議室で
あり、バーコードが付されたタグを物理的及びデジタル
的なリンクやコマンドに拡張して使用することができ
る。これらのシステムでは、通常、印刷された各々のバ
ーコードをマニュアルでスキャンしなければならない
が、このような作業はユーザにとって過大な負担であ
る。また、これらのシステムでは、各オブジェクトの位
置情報までは認識しないので、空間的に連続したオペレ
ーションを実現するためにはさらに他のメカニズムが必
要となる。
"Ariel" [16] and "transBO"
ARD " [17] supports the connection between digital content and a document or card on which a barcode is printed. Also," InsightLab "
[18] is a computer-supported conference room that can be used by extending bar-coded tags into physical and digital links and commands. These systems typically require manual scanning of each printed barcode, which is an overwhelming burden for the user. Further, since these systems do not recognize even the position information of each object, another mechanism is required to realize a spatially continuous operation.

【0028】[0028]

【発明が解決しようとする課題】本発明の目的は、コン
ピュータの作業空間を実世界に拡張するとともに、コン
ピュータに対してユーザが直感的で分かり易くコマンド
を入力することができる、優れたユーザ・インターフェ
ース環境を提供することにある。
SUMMARY OF THE INVENTION It is an object of the present invention to provide an excellent user interface that expands the working space of a computer into the real world and allows the user to input commands to the computer intuitively and easily. To provide an interface environment.

【0029】本発明の更なる目的は、複数のコンピュー
タ間の連携的な作業を直感的で分かり易く表現すること
ができる、優れたユーザ・インターフェース環境を提供
することにある。
A further object of the present invention is to provide an excellent user interface environment capable of intuitively and intuitively expressing a cooperative operation between a plurality of computers.

【0030】本発明の更なる目的は、それぞれのコンピ
ュータにネイティブな各デスクトップ画面を実世界に拡
張した情報空間上でオブジェクト操作やコマンド入力を
直感的で分かり易く表現することができる、優れたユー
ザ・インターフェース環境を提供することにある。
A further object of the present invention is to provide an excellent user who can intuitively and intuitively express object operations and command inputs on an information space in which each desktop screen native to each computer is extended to the real world.・ To provide an interface environment.

【0031】本発明の更なる目的は、情報空間内を移動
する携帯型コンピュータと情報空間内に固定的に設置さ
れた環境型コンピュータの連携によって直感的で分かり
易いユーザ・インターフェース環境を動的に構成するこ
とにある。
A further object of the present invention is to dynamically create an intuitive and easy-to-understand user interface environment by cooperation of a portable computer moving in an information space and an environment-type computer fixedly installed in the information space. Consists in configuring.

【0032】本発明の更なる目的は、会議室などの部屋
環境に設置されたコンピュータ群と、会議参加者などの
各ユーザが持ち込む携帯型コンピュータ群によって室内
の操作環境を動的に拡張することができる情報空間を提
供することにある。
A further object of the present invention is to dynamically expand the indoor operation environment by using a group of computers installed in a room environment such as a conference room and a group of portable computers brought in by each user such as a conference participant. It is to provide an information space that can be used.

【0033】本発明の更なる目的は、会議参加者などの
各ユーザが持ち込む携帯型コンピュータ群によって操作
環境を動的に拡張して、コンピュータ間、あるいはコン
ピュータライズされた会議室のテーブルや壁面とコンピ
ュータとの間で、情報交換を円滑に行うことができ
る、”easy−to−use”な情報空間を提供する
ことにある。
A further object of the present invention is to dynamically extend the operating environment by means of a portable computer group brought by each user such as a conference participant, and to set up a computer or a computerized conference room table or wall. An object of the present invention is to provide an "easy-to-use" information space in which information can be smoothly exchanged with a computer.

【0034】[0034]

【課題を解決するための手段】本発明は、上記課題を参
酌してなされたものであり、その第1の側面は、コンピ
ュータのデジタル空間が実世界に拡張されてなる情報空
間上でデジタル・オブジェクトに関するユーザ操作を行
うための情報入出力システムであって、前記情報空間に
配設された1以上の作業面と、前記作業面上に画像を表
示する表示手段と、前記作業面上を撮像する撮像手段
と、前記情報空間に固定的に設置された環境型コンピュ
ータと、を備え、前記環境型コンピュータは、前記撮像
手段による撮像画像を基に前記作業面上のオブジェクト
の位置情報及び/又はオブジェクトに対するユーザ操作
を認識する処理と、該認識結果に従って前記表示手段に
よるデジタル・オブジェクトの表示を制御する処理を実
行する、ことを特徴とする情報入出力システムである。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and a first aspect of the present invention is to provide a digital space in an information space in which the digital space of a computer is extended to the real world. An information input / output system for performing a user operation on an object, comprising: at least one work surface disposed in the information space; display means for displaying an image on the work surface; and imaging on the work surface And an environment-type computer fixedly installed in the information space, wherein the environment-type computer obtains position information and / or an object on the work surface based on an image captured by the imaging unit. Executing a process of recognizing a user operation on the object, and a process of controlling display of the digital object by the display unit according to the recognition result. It is an information input and output system.

【0035】また、本発明の第2の側面は、コンピュー
タのデジタル空間が実世界に拡張されてなる情報空間上
でデジタル・オブジェクトに関するユーザ操作を行うた
めの情報入出力システムであって、前記情報空間に配設
された1以上の作業面と、前記作業面上に画像を表示す
る表示手段と、前記作業面上を撮像する撮像手段と、前
記情報空間に固定的に設置された環境型コンピュータ
と、前記情報空間内を移動可能で且つ他のコンピュータ
との間でデジタル・オブジェクトのエンティティを交換
可能な1以上の携帯型コンピュータと、を備え、前記環
境型コンピュータは、前記撮像手段による撮像画像を基
に前記作業面上のオブジェクトの位置情報及び/又はオ
ブジェクトに対するユーザ操作を認識する処理と、該認
識結果に従って前記表示手段によるデジタル・オブジェ
クトの表示を制御する処理と、前記作業面上に設置され
た携帯型コンピュータの識別情報及び位置情報を認識す
ることで該携帯型コンピュータを前記情報空間内に動的
にインストールする処理を実行する、ことを特徴とする
情報入出力システムである。
According to a second aspect of the present invention, there is provided an information input / output system for performing a user operation on a digital object in an information space in which a digital space of a computer is extended to the real world. At least one work surface disposed in a space, display means for displaying an image on the work surface, imaging means for taking an image of the work surface, and an environmental computer fixedly installed in the information space And one or more portable computers movable in the information space and capable of exchanging entities of digital objects with other computers, wherein the environment-based computer is an image captured by the imaging means. Processing for recognizing position information of an object on the work surface and / or a user operation on the object based on the recognition result; Processing for controlling the display of the digital object by the indicating means, and dynamically installing the portable computer in the information space by recognizing the identification information and the position information of the portable computer installed on the work surface. The information input / output system is characterized by executing a process to perform

【0036】ここで、前記情報空間は所定室内で構成さ
れる。該室内に設置されたテーブル表面及び/又は少な
くとも1つの壁面を、情報空間の作業面とする。本発明
者等はこれらの作業面のことを”InfoTable”
及び”InfoWall”とも呼ぶ(後述)。
Here, the information space is formed in a predetermined room. The table surface and / or at least one wall surface installed in the room is a work surface of the information space. The present inventors refer to these work surfaces as "InfoTable".
And "InfoWall" (described later).

【0037】また、前記撮像手段は、CCD(Char
ge Coupled Device:電荷結合素子)
カメラを適用することができる。例えば、視野が固定さ
れ比較的広範囲を撮像可能な固定カメラと、視野が可変
で比較的狭い範囲を高解像度で撮像可能な可変カメラと
で構成される。このような構成を採用した場合、前記固
定カメラで作業面を広域的に撮像し、この固定カメラに
よる現在及び過去の撮像画像間で差分が発生した領域を
さらに可変カメラで撮像することで、前記作業面上のオ
ブジェクトの変化を検出することができる。
The imaging means is a CCD (Char).
ge Coupled Device: charge-coupled device)
Camera can be applied. For example, it is composed of a fixed camera that has a fixed visual field and can capture a relatively wide area, and a variable camera that has a variable visual field and can capture a relatively narrow range with high resolution. When such a configuration is adopted, the fixed camera captures a work surface in a wide area, and the variable camera captures a region where a difference has occurred between the current and past captured images of the fixed camera. A change in the object on the work surface can be detected.

【0038】また、前記作業面上に載置される物理オブ
ジェクトは視覚的に識別可能なビジュアル・マーカーを
表面に含んでもよい。ビジュアル・マーカーの一例は、
サイバー・コード(後述)のような2次元バーコードで
ある。このような場合、前記環境型コンピュータは、前
記撮像手段による撮像画像中のビジュアル・マーカーを
基に、物理オブジェクトの識別情報及び/又は位置情報
を認識することができる。
[0038] The physical object placed on the work surface may include a visually identifiable visual marker on the surface. One example of a visual marker is
This is a two-dimensional barcode such as a cyber code (described later). In such a case, the environment-type computer can recognize the identification information and / or the position information of the physical object based on the visual marker in the image captured by the imaging unit.

【0039】また、前記環境型コンピュータは、さら
に、前記携帯型コンピュータのディスプレイ・スクリー
ン上におけるデジタル・オブジェクトの操作を撮像画像
に基づいて認識する処理を実行するようにしてもよい。
デジタル・オブジェクトの操作には、いわゆる「ドラッ
グ・アンド・ドロップ」のような、コンピュータのGU
I(Graphical User Interfac
e)環境下において既に周知化され多くのユーザに定着
しているマウス・カーソル操作が含まれる。
Further, the environment type computer may further execute a process of recognizing an operation of the digital object on a display screen of the portable computer based on a captured image.
The manipulation of digital objects involves the use of computer GUs, such as so-called "drag and drop".
I (Graphical User Interface)
e) Includes mouse cursor operations that are already well known and established by many users in the environment.

【0040】また、前記環境型コンピュータは、さら
に、前記携帯型コンピュータのディスプレイ・スクリー
ン上におけるデジタル・オブジェクトのドラッグ操作を
撮像画像に基づいて追跡し、カーソルが該ディスプレイ
・スクリーンの終端に到達したことに応答して、前記作
業面上の該当位置にデジタル・オブジェクトを表示させ
てドラッグ操作を前記作業面上で継続する処理を実行す
るようにしてもよい。テーブルなど実世界上の作業面に
ドラッグ操作を継承することを、本発明者等は「ハイパ
ードラッグ」と呼ぶ。
Further, the environment type computer further tracks the drag operation of the digital object on the display screen of the portable computer based on the captured image, and the cursor reaches the end of the display screen. In response, the digital object may be displayed at a corresponding position on the work surface, and a process of continuing the drag operation on the work surface may be executed. Inheriting a drag operation onto a work surface in the real world such as a table is called "hyperdrag" by the present inventors.

【0041】ハイパードラッグをサポートする結果とし
て、コンピュータのデジタル空間において馴染みのある
GUI操作が実世界上にも適用される。
As a result of supporting hyperdrugs, familiar GUI operations in the digital space of computers are also applied in the real world.

【0042】例えば、前記携帯型コンピュータのディス
プレイ・スクリーン上にあったデジタル・オブジェクト
を前記作業面上にドロップしたことに応答して、該デジ
タル・オブジェクトのエンティティを前記携帯型コンピ
ュータから転送する処理が実行される。
For example, in response to dropping a digital object on the display screen of the portable computer onto the work surface, transferring the entity of the digital object from the portable computer is performed. Be executed.

【0043】また、前記作業面上にドロップされたデジ
タル・オブジェクトと元の携帯型コンピュータとの対応
関係を前記作業面上に表示させるようにしてもよい。本
発明者等は、このような表示のことを「アンカー・カー
ソル」と呼ぶ。同じ作業面上で複数のユーザが同時にハ
イパードラッグ操作しているような場合などには、アン
カー・カーソルは誰がどのオブジェクトを操作している
かという対応関係を明示し、作業面の錯綜を好適に防止
することができる。
Also, the correspondence between the digital object dropped on the work surface and the original portable computer may be displayed on the work surface. We call such a display an "anchor cursor". In cases where multiple users are simultaneously performing a hyper-drag operation on the same work surface, the anchor cursor clearly indicates the correspondence between who is operating which object, and prevents work surface confusion. can do.

【0044】また、前記情報空間内に2以上の作業面
(例えば、テーブルと壁面(又はホワイトボード)の組
み合わせ)が存在するような場合には、異なる作業面間
でデジタル・オブジェクトのハイパードラッグが許容さ
れる。例えば、プレゼンテーション資料に関するオブジ
ェクトをテーブル上に一旦ドロップし、さらに壁面(あ
るいはプロジェクタ・スクリーンなど)にハイパードラ
ッグすることによって、壁面上でそのままプレゼンテー
ションを行うことができる。
When two or more work surfaces (for example, a combination of a table and a wall (or whiteboard)) exist in the information space, the hyper-drag of the digital object between different work surfaces may occur. Permissible. For example, by once dropping an object related to a presentation material on a table and then hyper-drag it onto a wall (or a projector screen or the like), a presentation can be made on the wall as it is.

【0045】また、前記環境型コンピュータは、さら
に、前記作業面上におけるデジタル・オブジェクトのド
ラッグ操作を撮像画像に基づいて追跡し、カーソルが携
帯型コンピュータ本体との境界に到達したことに応答し
て、該携帯型コンピュータに該デジタル・オブジェクト
のエンティティを転送する処理を実行し、他方、携帯型
コンピュータは、デジタル・オブジェクトを受信してド
ラッグ操作をディスプレイ・スクリーン上で継続する処
理を実行するようにしてもよい。この結果、テーブルな
どの作業面を介してユーザ間でデジタル・オブジェクト
の移動、配布、交換などの作業を簡易且つ直感的に行う
ことができる。例えば、各ユーザは、共有したい情報す
なわちデジタル・オブジェクトを、ハイパードラッグを
用いて各自の携帯型コンピュータからテーブル上にドロ
ップする。さらに、テーブル上にばら撒かれたデジタル
・オブジェクトの中から所望のものを見つけると、ハイ
パードラッグを用いて各自の携帯型コンピュータの中に
取り込む(pick up)ことができる。
Further, the environment type computer further tracks the drag operation of the digital object on the work surface based on the captured image, and responds to the fact that the cursor reaches the boundary with the portable computer main body. Performing a process of transferring the entity of the digital object to the portable computer, while the portable computer performs a process of receiving the digital object and continuing the drag operation on the display screen. You may. As a result, operations such as moving, distributing, and exchanging digital objects between users can be performed easily and intuitively through a work surface such as a table. For example, each user drops information, or digital objects, he wants to share from his or her portable computer onto the table using hyperdrag. In addition, when a desired object is found among the digital objects scattered on the table, it can be picked up into their portable computer using hyperdrag.

【0046】また、前記環境型コンピュータは、前記作
業面上で認識された物理オブジェクトが持つデータ空間
を示すオブジェクト・オーラ(後述及び図12〜図14
を参照のこと)を表示する処理を実行するようにしても
よい。オブジェクト・オーラの表示により、ユーザは、
情報空間にインストールされた物理オブジェクトを目視
により容易に確認することができる。物理オブジェクト
は、サイバー・コード(図17を参照のこと)などの識
別情報が添付されていれば足り、コンピュータ等のデー
タ処理装置である必要は全くない。例えば、サイバーコ
ードが貼設されたVCRテープ・カートリッジやドキュ
メントであっても、情報空間内にインストールすること
ができる。
Further, the environment-type computer uses an object aura (described later and FIGS. 12 to 14) indicating a data space of a physical object recognized on the work surface.
May be executed. By displaying the object aura, the user can
Physical objects installed in the information space can be easily confirmed visually. The physical object only needs to be attached with identification information such as a cyber code (see FIG. 17), and need not be a data processing device such as a computer at all. For example, a VCR tape cartridge or a document on which a cyber code is attached can be installed in the information space.

【0047】また、前記環境型コンピュータは、オブジ
ェクト・オーラ上にドロップされたデジタル・オブジェ
クトのエンティティと該当する物理オブジェクトとを関
連付ける処理を実行するようにしてもよい。この結果、
仮想的・論理的な存在であるデジタル・オブジェクトが
実在する物理オブジェクトに仮体される。また、本来は
デジタル・データを格納・搬送する機能を持たないよう
な物理オブジェクト(VCRテープ・カートリッジな
ど)を媒介として、デジタル・データの移動や引き渡し
を行うことができる。
Further, the environment-type computer may execute a process of associating the entity of the digital object dropped on the object aura with the corresponding physical object. As a result,
Digital objects that are virtual and logical entities are tentatively assumed to exist physical objects. In addition, digital data can be moved or delivered via a physical object (such as a VCR tape cartridge) that does not originally have a function of storing and transporting digital data.

【0048】また、前記環境型コンピュータは、物理オ
ブジェクトが作業面上に載置されたことを撮像画像に基
づいて検知したことに応答して、該物理オブジェクトに
関連付けられたデジタル・オブジェクトの処理を実行す
るようにしてもよい。例えば、VCRテープ・カートリ
ッジを作業面としてのテーブル上に載せることによっ
て、VCRテープ・カートリッジに添付されているボイ
ス・ノートが再生される。
Further, the environment-type computer executes processing of the digital object associated with the physical object in response to detecting that the physical object is placed on the work surface based on the captured image. It may be executed. For example, by placing a VCR tape cartridge on a table as a work surface, a voice note attached to the VCR tape cartridge is reproduced.

【0049】また、前記情報空間内には所定のオブジェ
クト処理を実行する1以上のコンピュータ周辺機器(例
えば、プリンタ、ディスプレイ、スキャナなど)が存在
していてもよい。このような場合、前記作業面上に置か
れたデジタル・オブジェクトがさらにハイパードラッグ
され、該コンピュータ周辺機器にドロップされたことに
応答して、当該オブジェクトに関連する所定の処理を実
行するようにしてもよい。例えば、文書ファイルをエン
ティティとするデジタル・オブジェクトをプリンタにド
ロップすることによって、文書ファイルのプリント・ア
ウトが実行される。あるいは、静止画や動画像などをエ
ンティティとするデジタル・オブジェクトをテレビ・モ
ニタにドロップすることによって、該モニタ・スクリー
ン上に画像が表示される。
Further, one or more computer peripheral devices (for example, a printer, a display, a scanner, etc.) for executing predetermined object processing may exist in the information space. In such a case, in response to the digital object placed on the work surface being further hyperdragged and dropped on the computer peripheral device, a predetermined process related to the object is executed. Is also good. For example, a document file is printed out by dropping a digital object having the document file as an entity onto a printer. Alternatively, an image is displayed on the monitor screen by dropping a digital object having a still image or a moving image as an entity on a television monitor.

【0050】また、本発明の第3の側面は、コンピュー
タのデジタル空間を実世界に拡張した情報空間上におい
てデジタル・オブジェクトに関するユーザ操作を行うた
めの情報入出力方法であって、該情報空間は、1以上の
作業面と、前記作業面上に画像を表示する表示手段と、
前記作業面上を撮像する撮像手段と、固定的に設置され
た環境型コンピュータとで構成され、前記撮像手段によ
る撮像画像を基に前記作業面上のオブジェクトの位置情
報及び/又はオブジェクトに対するユーザ操作を認識す
るステップと、該認識結果に従って前記表示手段による
デジタル・オブジェクトの表示を制御するステップと、
を具備することを特徴とする情報入出力方法である。
A third aspect of the present invention is an information input / output method for performing a user operation on a digital object in an information space obtained by extending a digital space of a computer into the real world, wherein the information space is , One or more work surfaces, and display means for displaying an image on the work surface;
An image capturing unit that captures an image of the work surface, and an environment-type computer that is fixedly installed, and based on an image captured by the image capturing unit, position information of an object on the work surface and / or a user operation on the object Recognizing, and controlling the display of the digital object by the display means according to the recognition result;
An information input / output method characterized by comprising:

【0051】また、本発明の第4の側面は、コンピュー
タのデジタル空間が実世界に拡張されてなる情報空間上
でデジタル・オブジェクトに関するユーザ操作を行うた
めの情報入出力方法であって、該情報空間は、1以上の
作業面と、前記作業面上に画像を表示する表示手段と、
前記作業面上を撮像する撮像手段と、固定的に設置され
た環境型コンピュータと、前記情報空間内を移動可能で
且つ他のコンピュータとの間でデジタル・オブジェクト
のエンティティを交換可能な1以上の携帯型コンピュー
タとで構成され、(a)前記撮像手段による撮像画像を
基に前記作業面上のオブジェクトの位置情報及び/又は
オブジェクトに対するユーザ操作を認識するステップ
と、(b)該認識結果に従って前記表示手段によるデジ
タル・オブジェクトの表示を制御するステップと、
(c)前記作業面上に設置された携帯型コンピュータの
識別情報及び位置情報を認識することで該携帯型コンピ
ュータを前記情報空間内に動的にインストールするステ
ップと、を具備することを特徴とする情報入出力方法で
ある。
A fourth aspect of the present invention is an information input / output method for performing a user operation on a digital object in an information space in which a digital space of a computer is extended to the real world. The space includes at least one work surface, and display means for displaying an image on the work surface;
Imaging means for imaging on the work surface; an environment-type computer which is fixedly installed; and at least one which can move in the information space and exchange digital object entities with other computers. (A) recognizing position information of an object on the work surface and / or user operation on the object based on an image captured by the image capturing means; and Controlling the display of the digital object by the display means;
(C) dynamically installing the portable computer in the information space by recognizing identification information and position information of the portable computer installed on the work surface. Information input / output method.

【0052】ここで、前記情報空間は所定室内で構成さ
れ、該室内に設置されたテーブル表面及び/又は少なく
とも1つの壁面を作業面としてもよい。
Here, the information space may be formed in a predetermined room, and a work surface may be a table surface and / or at least one wall surface installed in the room.

【0053】また、前記撮像手段は、視野が固定され比
較的広範囲を撮像可能な固定カメラと、視野が可変で比
較的狭い範囲を高解像度で撮像可能な可変カメラとで構
成され、前記ステップ(a)は、前記固定カメラによる
現在及び過去の撮像画像間で差分を算出するサブステッ
プと、差分が所定の閾値を越えた領域についてさらに可
変カメラで撮像することで前記作業面上のオブジェクト
の変化を検出するサブステップと、を備えていてもよ
い。
The imaging means comprises a fixed camera having a fixed visual field and capable of capturing a relatively wide range, and a variable camera having a variable visual field and capable of capturing a relatively narrow range with high resolution. a) calculating a difference between current and past images captured by the fixed camera, and changing an object on the work surface by further capturing an image of a region where the difference exceeds a predetermined threshold using a variable camera; And a sub-step of detecting

【0054】また、前記作業面上に載置される物理オブ
ジェクトは視覚的に識別可能なビジュアル・マーカーを
表面に含み、前記ステップ(a)では、前記撮像手段に
よる撮像画像中のビジュアル・マーカーを基に物理オブ
ジェクトの識別情報及び/又は位置情報を認識するよう
にしてもよい。
The physical object placed on the work surface includes a visually identifiable visual marker on the surface, and in the step (a), the visual marker in the image picked up by the image pickup means is displayed. The identification information and / or the position information of the physical object may be recognized based on the physical information.

【0055】また、前記携帯型コンピュータのディスプ
レイ・スクリーン上におけるドラッグ・アンド・ドロッ
プなどのデジタル・オブジェクトの操作を撮像画像に基
づいて認識するステップを備えるようにしてもよい。
Further, the method may include a step of recognizing an operation of a digital object such as a drag and drop operation on a display screen of the portable computer based on a captured image.

【0056】また、前記携帯型コンピュータのディスプ
レイ・スクリーン上におけるデジタル・オブジェクトの
ドラッグ操作を撮像画像に基づいて追跡するステップ
と、カーソルが該ディスプレイ・スクリーンの終端に到
達したことに応答して、前記作業面上の該当位置にデジ
タル・オブジェクトを表示させてドラッグ操作を前記作
業面上で継続するステップと、をさらに備えてもよい。
[0056] Further, the step of tracking the drag operation of the digital object on the display screen of the portable computer based on the captured image, and in response to the cursor reaching the end of the display screen, Displaying the digital object at a corresponding position on the work surface and continuing the drag operation on the work surface.

【0057】また、前記携帯型コンピュータのディスプ
レイ・スクリーン上にあったデジタル・オブジェクトを
前記作業面上にドロップしたことに応答して、該デジタ
ル・オブジェクトのエンティティを前記携帯型コンピュ
ータから前記環境型コンピュータへ転送するステップを
さらに備えてもよい。
Further, in response to dropping a digital object on the display screen of the portable computer onto the work surface, the entity of the digital object is transferred from the portable computer to the environmental computer. The method may further include the step of transferring to

【0058】また、前記作業面上にドロップされたデジ
タル・オブジェクトと元の携帯型コンピュータとの対応
関係を前記作業面上に表示するステップをさらに備えて
もよい。
[0058] The method may further comprise displaying on the work surface the correspondence between the digital object dropped on the work surface and the original portable computer.

【0059】また、前記情報空間内には2以上の作業面
が存在する場合には、異なる作業面間でデジタル・オブ
ジェクトをドラック操作するステップを備えてもよい。
When two or more work surfaces exist in the information space, a step of dragging the digital object between different work surfaces may be provided.

【0060】また、前記作業面上におけるデジタル・オ
ブジェクトのドラッグ操作を撮像画像に基づいて追跡す
るステップと、カーソルが携帯型コンピュータ本体との
境界に到達したことに応答して、前記環境型コンピュー
タから該携帯型コンピュータに該デジタル・オブジェク
トのエンティティを転送するステップと、デジタル・オ
ブジェクトのドラッグ操作を該携帯型コンピュータのデ
ィスプレイ・スクリーン上で継続するステップと、をさ
らに備えてもよい。
A step of tracing a drag operation of the digital object on the work surface based on the picked-up image; The method may further include transferring the entity of the digital object to the portable computer, and continuing a drag operation of the digital object on a display screen of the portable computer.

【0061】また、前記作業面上で認識された物理オブ
ジェクトが持つデータ空間を示すオブジェクト・オーラ
を表示するステップをさらに備えてもよい。
[0061] The method may further include a step of displaying an object aura indicating a data space of the physical object recognized on the work surface.

【0062】また、オブジェクト・オーラ上にドロップ
されたデジタル・オブジェクトのエンティティと該当す
る物理オブジェクトとを関連付けるステップをさらに備
えてもよい。
The method may further include associating the entity of the digital object dropped on the object aura with the corresponding physical object.

【0063】また、物理オブジェクトが作業面上に載置
されたことを撮像画像に基づいて検知したことに応答し
て、該物理オブジェクトに関連付けられたデジタル・オ
ブジェクトの処理を実行するステップをさらに備えても
よい。
Further, in response to detecting that the physical object has been placed on the work surface based on the picked-up image, a step of executing processing of the digital object associated with the physical object is further provided. You may.

【0064】また、前記情報空間内には所定のオブジェ
クト処理を実行する1以上のコンピュータ周辺機器が存
在する場合には、前記作業面上のデジタル・オブジェク
トが該コンピュータ周辺機器にドロップされたことに応
答して所定のオブジェクト処理を実行するステップをさ
らに備えてもよい。
In the case where one or more computer peripheral devices for executing a predetermined object process exist in the information space, the digital object on the work surface is dropped on the computer peripheral device. The method may further include performing a predetermined object process in response.

【0065】[0065]

【作用】本発明によれば、実空間に設置されたテーブル
型や壁面型などの環境型コンピュータ群と、各ユーザが
持ち運ぶ携帯型コンピュータ群との組合せによって動的
に構成される情報環境を提供することができる。
According to the present invention, there is provided an information environment dynamically configured by a combination of a group of environmental computers such as a table type or a wall type installed in a real space and a group of portable computers carried by each user. can do.

【0066】本発明に係る情報環境では、例えばカメラ
・ベースのオブジェクト認識システムが導入される。コ
ンピュータ・ディスプレイ画面を、投影機によってテー
ブルや壁面などの表面に投影する。さらに、投影画像す
なわちコンピュータの論理空間上のオブジェクトと、実
世界(すなわちテーブル上などに実在する)オブジェク
トの双方を、カメラの撮像画像を基に認識し、且つ、こ
れらオブジェクトの動きを追跡する。
In the information environment according to the present invention, for example, a camera-based object recognition system is introduced. The computer display screen is projected by a projector onto a surface such as a table or a wall surface. Further, both the projected image, that is, the object in the logical space of the computer, and the real world (that is, an object existing on a table or the like) are recognized based on the image captured by the camera, and the movement of these objects is tracked.

【0067】このような情報環境下では、会議室やプレ
ゼンテーション・ルームなどにおけるテーブルや壁面が
コンピュータライズされ、携帯型コンピュータを空間的
に拡張する作業環境(デスクトップ)として機能する。
また、実世界のオブジェクト(紙文書、カード、ビデオ
・テープなど)を、マーカー認識などによって特定し、
それらの間での自由な情報交換を可能にする。
In such an information environment, tables and walls in conference rooms and presentation rooms are computerized, and function as a work environment (desktop) for spatially expanding a portable computer.
It also identifies objects in the real world (paper documents, cards, videotapes, etc.) by marker recognition, etc.
Enables free exchange of information between them.

【0068】また、ユーザは、自分が持ち運んだ携帯型
コンピュータを、既に幾つかのコンピュータがインスト
ールされている情報環境の中に、容易に統合させること
ができる。
Further, a user can easily integrate a portable computer carried by the user into an information environment in which several computers are already installed.

【0069】ユーザは、単一のコンピュータという閉じ
た作業空間の境界を超えて機能する直接操作技法によっ
て、個々の機器や物体のアドレスやIDを意識すること
なく、実世界における各オブジェクトの空間的な位置関
係を利用して情報を操作することができる。
[0069] By using a single computer, a direct manipulation technique that works across the boundaries of a closed workspace, the user can operate without knowing the addresses and IDs of individual devices and objects, and can use the spatial and physical properties of each object in the real world. The information can be manipulated by using a simple positional relationship.

【0070】例えば、あるユーザのコンピュータ・ディ
スプレイ上におけるオブジェクトのドラッグ操作を、そ
のままコンピュータが設置された平面(テーブルや壁
面)に継承する「ハイパードラッグ」操作が可能とな
る。
For example, it is possible to perform a "hyperdrag" operation in which a drag operation of an object on a computer display by a certain user is directly inherited by a plane (table or wall surface) on which a computer is installed.

【0071】ハイパードラッグによれば、実世界上にお
けるオブジェクトの物理的な位置関係(例えば「あるオ
ブジェクトがコンピュータの傍にある」など)の直感的
な知識だけで、ユーザはオブジェクトに対する操作を実
現することができる。また、フロントエンドにおけるオ
ブジェクトの操作のバックグラウンドでは、関連するコ
ンピュータ同士の演算処理(例えばネットワーク転送な
ど)によって、文書ファイルなどのオブジェクトのエン
ティティの移動が実行される。
According to the hyper-drag, the user can operate the object only by intuitive knowledge of the physical positional relationship of the object in the real world (for example, "an object is near a computer"). be able to. Also, in the background of the operation of the object in the front end, the movement of the entity of the object such as a document file is executed by arithmetic processing (for example, network transfer) between the related computers.

【0072】ハイパードラッグによれば、通常のマウス
操作(ドラッグ・アンド・ドロップ)を習得すること
と、ターゲット機器の物理的な場所(例えばテーブル上
に載置された位置)を知るだけで、情報を移動させるこ
とができる。すなわち、隣り合う携帯型コンピュータ間
でデジタル・オブジェクトを移動・交換するような場
合、ハイパードラッグを用いれば(例えば図16を参照
のこと)、ユーザはネットワークの設定や接続等の作業
や、ターゲット機器のアドレスを知る必要など全くな
い。
According to the hyper-drag, it is necessary to learn the normal mouse operation (drag and drop) and to know the physical location of the target device (for example, the position placed on the table). Can be moved. In other words, when moving or exchanging digital objects between adjacent portable computers, the user can use a hyperdrag (see, for example, FIG. 16) to perform operations such as network setting and connection, and target devices. There is no need to know the address of the server.

【0073】さらに、本発明に係る情報環境下では、物
理的な実空間とコンピュータ上の論理空間若しくはデジ
タル空間との連携が行われる。したがって、コンピュー
タ・データと物理的オブジェクトとを関連付けることが
できる。例えば、任意の文書フォルダを、テーブル上に
置かれたビデオ・テープなどの物理オブジェクトに添付
することができる(例えば図12〜図14を参照のこ
と:後述)。
Further, in the information environment according to the present invention, cooperation between a physical real space and a logical space or a digital space on a computer is performed. Thus, computer data can be associated with physical objects. For example, any document folder can be attached to a physical object such as a video tape placed on a table (see, for example, FIGS. 12-14: described below).

【0074】本発明のさらに他の目的、特徴や利点は、
後述する本発明の実施例や添付する図面に基づくより詳
細な説明によって明らかになるであろう。
Still other objects, features and advantages of the present invention are:
It will become apparent from the following more detailed description based on the embodiments of the present invention and the accompanying drawings.

【0075】[0075]

【発明の実施の形態】以下、図面を参照しながら本発明
の実施例を詳解する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0076】本発明は、実空間に設置されたテーブル型
や壁面型などのコンピュータ群と、各ユーザが持ち運ぶ
携帯型コンピュータ群との組合せによって「情報空間」
を動的に構成するものである。かかる情報環境下では、
会議室やプレゼンテーション・ルームなどにおけるテー
ブルや壁面が、各コンピュータのデジタル空間を実世界
上で空間的に拡張した作業環境(デスクトップ)として
機能する。本発明が適用される実空間の一例は、1以上
のユーザが個別の作業や共同作業を行う会議室などであ
る。
The present invention is based on the combination of a group of computers such as a table type or a wall type installed in a real space and a group of portable computers carried by each user.
Is dynamically configured. In such an information environment,
Tables and walls in conference rooms, presentation rooms, and the like function as a work environment (desktop) that spatially expands the digital space of each computer in the real world. An example of a real space to which the present invention is applied is a meeting room where one or more users perform individual work or joint work.

【0077】1.システム構成 本発明によって提供される情報空間は、テーブルや壁
面、その他テーブル上に置かれた物品などで構成される
物理空間と、コンピュータ上で論理的に構成されるデジ
タル空間との間で連携的関係が構成された情報環境を提
供するものである。
1. System Configuration The information space provided by the present invention is cooperative between a physical space composed of tables, walls, and other items placed on the table, and a digital space logically configured on a computer. It provides an information environment in which the relationships are structured.

【0078】図1には、本発明に係る情報空間1の構成
例を模式的に示している。同図に示すように、テーブル
11や壁面12の各々にデジタル・データを表示するた
めのLCD(Liquid Crystal Disp
lay)プロジェクタ13及び14が配設されている
(但し、LCDプロジェクタ13の出力画像は反射面1
3Aを介してテーブル11上に投影される)。各プロジ
ェクタ13及び14の投影画像は、情報空間1における
ユーザ出力装置すなわち「拡張ディスプレイ」を構成す
る。
FIG. 1 schematically shows a configuration example of the information space 1 according to the present invention. As shown in the figure, an LCD (Liquid Crystal Disp) for displaying digital data on each of the table 11 and the wall surface 12 is provided.
(Layer) Projectors 13 and 14 are provided (however, the output image of the LCD projector 13 is
3A is projected on the table 11). The projection images of the projectors 13 and 14 constitute a user output device in the information space 1, that is, an “extended display”.

【0079】各LCDプロジェクタ13及び14が表示
する内容は、ネットワーク15によって相互接続された
コンピュータ・システム16及び17の協働的動作によ
って制御される。各コンピュータ・システムは、例えば
米IBM社のPC/AT(Personal Comp
uter/Advanced Technology)
互換機又はその後継機でよく、OADG(Open A
rchitecture Developers Gr
oup)仕様に準拠する。各コンピュータ16及び17
同士は、NIC(Network Interface
Card)経由でネットワーク15に相互接続されて
いる。あるいは、無線LANなどその他の手段によって
接続されていてもよい。
The content displayed by each LCD projector 13 and 14 is controlled by the cooperative operation of computer systems 16 and 17 interconnected by a network 15. Each computer system is, for example, a PC / AT (Personal Comp.
uter / Advanced Technology)
A compatible machine or its successor may be used, and OADG (Open A
rchitecture Developers Gr
(up) specification. Each computer 16 and 17
Each other has a NIC (Network Interface)
Card) via a network 15. Alternatively, they may be connected by other means such as a wireless LAN.

【0080】また、テーブル11や壁面12におけるデ
ジタル・データの表示内容や、テーブル11上に載置さ
れた携帯型コンピュータその他の物理的オブジェクトを
捕捉するために、固定カメラ18及びパン/チルト・カ
メラ19が設置されている。カメラ18及び19は、例
えばCCD(Charge Coupled Devi
ce:電荷結合素子)カメラでよい。
The fixed camera 18 and the pan / tilt camera are used to capture the display contents of the digital data on the table 11 and the wall surface 12 and the portable computer and other physical objects placed on the table 11. 19 are installed. The cameras 18 and 19 are, for example, CCD (Charge Coupled Device)
ce: charge-coupled device) A camera may be used.

【0081】各カメラ18及び19は、情報空間1にお
けるユーザ入力装置を構成する。画像処理サーバ20
は、これらの撮像画像を画像処理し、さらに、テーブル
11や壁面12上に表示されたデジタル・オブジェクト
や載置された物理オブジェクトの位置、各オブジェクト
に対して適用されるユーザ操作などを画像認識する。
Each of the cameras 18 and 19 constitutes a user input device in the information space 1. Image processing server 20
Performs image processing on these captured images, and further performs image recognition on the positions of the digital objects and the placed physical objects displayed on the table 11 and the wall surface 12 and user operations applied to each object. I do.

【0082】画像処理サーバ20は、LCDプロジェク
タ13及び14の表示を駆動制御する各コンピュータ・
システム16及び17とはネットワーク接続されてい
る。したがって、画像処理サーバ20において画像認識
された情報空間1におけるユーザ操作が投影画像に反映
され、拡張ディスプレイを介したインタラクティブな情
報環境が実現する。
The image processing server 20 is a computer for controlling the display of the LCD projectors 13 and 14.
The systems 16 and 17 are networked. Therefore, the user operation in the information space 1 whose image has been recognized by the image processing server 20 is reflected on the projected image, and an interactive information environment via the extended display is realized.

【0083】画像処理サーバ20やコンピュータ・シス
テム16及び17は、情報空間1の環境すなわち情報環
境に予め導入(pre−install)された「環境
型コンピュータ」(environmental co
mputer)である。なお、図1に示した例では、環
境型コンピュータは複数台のネットワーク接続されたコ
ンピュータ・システム16,17,及び20で構成され
るが、演算能力が強化された1台のコンピュータであっ
ても勿論構わない。
The image processing server 20 and the computer systems 16 and 17 are provided with an “environmental computer” (environmental computer) which is pre-installed in the environment of the information space 1, ie, the information environment.
mputer). In the example shown in FIG. 1, the environmental computer is composed of a plurality of computer systems 16, 17, and 20 connected to a network. Of course it doesn't matter.

【0084】このような情報空間1では、ユーザは各自
の携帯型コンピュータ…(図示)を持参して、個別の作
業や、ユーザ間の連携的な共同作業を行う。
In such an information space 1, each user carries his / her own portable computer... (Illustration) to perform individual work and cooperative work between users.

【0085】情報空間1は、1以上のコンピュータの連
携によって構成される複合的なデジタル空間である。テ
ーブル11及び壁面12の各々には、デジタル空間上に
存在するデジタル・オブジェクトが表示され、この結
果、情報空間1内には物理オブジェクトとデジタル・オ
ブジェクトが混在する。さらに、テーブル11及び壁面
12の表面上でデジタル・オブジェクトに対する各種の
ユーザ操作(後述)が可能となり、コンピュータ・スク
リーン上の作業空間(デスクトップ)を拡張した「拡張
ディスプレイ」を構成する。本発明者等は、拡張ディス
プレイとしてのテーブル11及び壁面12のことを、そ
れぞれ”InfoTable”及び”InfoWal
l”とも呼ぶ
The information space 1 is a complex digital space formed by cooperation of one or more computers. On each of the table 11 and the wall surface 12, digital objects existing in the digital space are displayed. As a result, physical objects and digital objects are mixed in the information space 1. Further, various user operations (described later) on the digital object can be performed on the surfaces of the table 11 and the wall surface 12 to constitute an “extended display” that expands a work space (desktop) on a computer screen. The present inventors refer to the table 11 and the wall surface 12 as the extended display as “InfoTable” and “InfoWal”, respectively.
Also called l "

【0086】情報空間1内で用いられる携帯型コンピュ
ータ21…には、幾つかの前提条件が必要である。
The portable computers 21 used in the information space 1 require some preconditions.

【0087】本実施例では、各携帯型コンピュータやそ
の他の物理オブジェクトの表面には、サイバーコード
/*/のように視覚的に識別することができるビジュアル
・マーカー31,32が貼設されている。したがって、
予め導入された環境型コンピュータがカメラ18及び1
9の撮像画像を通して認識できるようにすることができ
る。
In this embodiment, a cyber code is provided on the surface of each portable computer or other physical object.
Visual markers 31, 32, such as / * / , which can be visually identified, are attached. Therefore,
The environment-type computers installed in advance are the cameras 18 and 1
Nine captured images can be recognized.

【0088】また、各携帯型コンピュータ21…は、無
線LANなどの通信手段によって相互接続されている。
携帯型コンピュータ同士、あるいは携帯型及び環境型コ
ンピュータとの間では、デジタル・オブジェクトのエン
ティティ(文書ファイルやデジタル・コンテンツなど)
を、拡張ディスプレイのバックグラウンドで転送するこ
とができる。
The portable computers 21 are interconnected by communication means such as a wireless LAN.
Digital object entities (eg, document files and digital content) between portable computers or between portable and environmental computers
Can be transferred in the background of the extended display.

【0089】次いで、カメラ18及び19を用いて情報
空間1におけるオブジェクト操作を認識・識別する仕組
みについて説明する。
Next, a mechanism for recognizing and identifying an object operation in the information space 1 using the cameras 18 and 19 will be described.

【0090】オブジェクトの認識センサとして用いられ
るカメラ18及び19は、一般に、解像度と視野とのト
レードオフ関係を持つ。物理オブジェクトに貼設された
ビジュアル・マーカーの極小パターンを識別するために
は、カメラ18及び19は充分高解像度でなければなら
ない。高解像度の撮像イメージは、テーブル11の記録
を作成する上でも有用である。
The cameras 18 and 19 used as object recognition sensors generally have a trade-off relationship between resolution and visual field. The cameras 18 and 19 must have sufficiently high resolution to identify the minimal pattern of visual markers affixed to the physical object. The high-resolution captured image is also useful for creating a record of the table 11.

【0091】しかしながら、現在市販されているビデオ
・カメラのほとんどは必要とされる解像度と、テーブル
11の表面全体を撮像する視野角の双方を実現するよう
な仕様を備えていない。”DigitalDesk”
[4]は、2台目のカメラを設置することでこの問題を解
決することを試みたものである。この場合の2台目のカ
メラは、1台目のカメラよりも高解像度で机上の特定部
分のみを撮像するために使用される。ユーザは、2台目
のカメラの視野内にドキュメントを置くように指示され
ている。
However, most of the video cameras currently on the market do not have specifications for realizing both the required resolution and the viewing angle for imaging the entire surface of the table 11. "Digital Desk"
[4] attempted to solve this problem by installing a second camera. In this case, the second camera is used to capture only a specific portion on the desk with higher resolution than the first camera. The user has been instructed to place the document within the field of view of the second camera.

【0092】これに対し、本発明者等は、2台のカメラ
の組み合わせによって上記のトレードオフ問題を解決す
ることとした。第1のカメラ19は、モータ制御型のビ
デオ・カメラ(例えばソニー(株)製のEVI−D3
0)であり、外部コンピュータ・システムからのコマン
ドに従って、パン、チルト、ズームなどを遠隔操作する
ことができる。このカメラ19によれば、テーブル11
全体を撮像できるだけでなく、ズームすることによって
一部の領域のみを高解像度(最大120dpi)で撮像
することができる。通常は、パン/チルト・カメラ19
のヘッドの向きや方向を周期的に変更することによっ
て、テーブル11表面全体をスキャンする。例えば、テ
ーブル11表面を6×6のブロックに分割して、パン/
チルト・カメラ19が36個全ての領域を規則正しく訪
れる(すなわち撮像する)ように制御する。本発明者等
は、このようなカメラ動作のことを、Landsat
(land−satellite)に喩えて”Desk
sat”と呼ぶ。全ての領域を訪れる所要時間は、カメ
ラ制御やイメージ処理時間を含んで30秒程度である。
On the other hand, the present inventors have solved the above trade-off problem by combining two cameras. The first camera 19 is a motor-controlled video camera (for example, EVI-D3 manufactured by Sony Corporation).
0), so that pan, tilt, zoom and the like can be remotely controlled according to a command from an external computer system. According to the camera 19, the table 11
Not only can the entire image be captured, but only a partial area can be captured at high resolution (up to 120 dpi) by zooming. Normally, a pan / tilt camera 19
The entire surface of the table 11 is scanned by periodically changing the direction and direction of the head. For example, the surface of the table 11 is divided into 6 × 6 blocks,
Control is performed so that the tilt camera 19 regularly visits (ie, captures) all 36 regions. The present inventors describe such camera operation as Landsat.
(Land-satellite) "Desk
The time required to visit all areas is about 30 seconds including camera control and image processing time.

【0093】他方、第2のカメラ18は、テーブル11
表面全体を常時見渡すための固定カメラである。このカ
メラ18による現在及び過去の撮像画像間の差分によっ
てテーブル11上の変化を解析する。次いで、36個の
ブロックのうちどのブロックに変化が起こったかを判断
して、「領域変化」(area changed)とい
うイベントをパン/チルト・カメラ19に送信する(図
15を参照のこと)。パン/チルト・カメラ19側で
は、このようなイベント情報を用いて、変化が起こった
領域を瞬時に再探索して、撮像画像を更新することがで
きる。
On the other hand, the second camera 18
It is a fixed camera for always looking at the entire surface. The change on the table 11 is analyzed based on the difference between the current and past images captured by the camera 18. Next, it is determined which of the 36 blocks has changed, and an event of “area changed” is transmitted to the pan / tilt camera 19 (see FIG. 15). Using the event information, the pan / tilt camera 19 can immediately re-search the area where the change has occurred, and update the captured image.

【0094】なお、固定カメラ18による検出が投影イ
メージの変動の影響を受けないようにするために、差分
検出には所定の閾値を設定する必要がある。
In order to prevent the detection by the fixed camera 18 from being affected by the fluctuation of the projection image, it is necessary to set a predetermined threshold value for the difference detection.

【0095】また、本実施例では、変化領域を探索する
順序を決定するために、多少の経験則を活かしている。
人間は、通常、テーブルを外側から内側に向かって使用
する習性があるので、テーブル11の内側の方にオブジ
ェクトの変化が起こり易いと言える。したがって、外側
の領域よりも内側の方に優先順位を与えることができ
る。例えば、固定カメラ18が複数のブロックでの変化
を同時に捉えた場合には、パン/チルト・カメラ19は
内側から外側に向かって変化ブロックを探索するように
する。
In this embodiment, some empirical rules are used to determine the order of searching for the change area.
Since a human usually has a habit of using a table from the outside to the inside, it can be said that an object changes easily inside the table 11. Therefore, the priority can be given to the inner side than the outer area. For example, when the fixed camera 18 captures changes in a plurality of blocks at the same time, the pan / tilt camera 19 searches for changed blocks from inside to outside.

【0096】このような2台のカメラにより構成される
オブジェクト認識技術によれば、ユーザがテーブル11
上にオブジェクトを置いたり、移動したり(さらに再移
動したり)すると、このようなイベントは環境型コンピ
ュータ20によって数秒のうちに認識することができ
る。このような応答時間は、”Illuminatin
g Light”[5]などのような継続的且つ実時間の
オブジェクト追跡には必ずしも充分とは言えないが、間
欠的に動作するような情報環境下では適合するであろ
う。
According to such an object recognition technology composed of two cameras, the user can
When an object is placed on or moved (and re-moved), such an event can be recognized by the environmental computer 20 within seconds. Such a response time is referred to as "Illuminatin".
Although not always sufficient for continuous, real-time object tracking, such as g Light " [5], it may be appropriate in an information environment that operates intermittently.

【0097】次いで、カメラの撮像画像を基に環境型コ
ンピュータがビジュアル・マーカーを認識する仕組みに
ついて説明する。
Next, a description will be given of a mechanism in which the environment-type computer recognizes the visual marker based on the image captured by the camera.

【0098】携帯型コンピュータその他、情報空間1に
インストールすべき全ての物理オブジェクトには、視覚
的に識別可能なビジュアル・マーカーが貼設されてい
る。このビジュアル・マーカーの一例は、「サイバー・
コード」(図17を参照のこと)であり、印刷されたパ
ターンの配列の組み合わせによって224個のオブジェク
トを識別することができる(但し、本実施例では文献
[6]に記載された配列コード体系とは若干異なるバー
ジョンを利用している)。上述したDesksatアー
キテクチャによれば、テーブル11上に置かれた2cm
×2cmサイズの小さな2次元マーカーを、パン/チル
ト・カメラ19によって認識することができる。
[0098] All physical objects to be installed in the information space 1 and other portable computers are provided with visually identifiable visual markers. An example of this visual marker is "Cyber
Code "is (see FIG. 17), it is possible to identify 2 24 objects by a combination of the sequences of printed pattern (provided that sequence code described in the literature [6] In the present embodiment It uses a slightly different version than the system). According to the Desksat architecture described above, 2 cm placed on table 11
A small two-dimensional marker having a size of 2 cm can be recognized by the pan / tilt camera 19.

【0099】ビジュアル・マーカーは、識別情報の取得
だけでなく、マーカーが貼設された物理オブジェクトの
位置を認識するために利用される。例えば、ユーザが情
報空間1内でハイパードラッグ操作(後述)をしている
間、携帯型コンピュータ上に貼設されたビジュアル・マ
ーカーの現在位置や向きに基づいて、テーブル11上の
カーソルの位置が計算され、LCDプロジェクタ13に
よる投影画像に反映される。
The visual marker is used not only for acquiring identification information but also for recognizing the position of the physical object on which the marker is attached. For example, while the user performs a hyper-drag operation (described later) in the information space 1, the position of the cursor on the table 11 is changed based on the current position and orientation of the visual marker attached on the portable computer. The calculated value is reflected on the image projected by the LCD projector 13.

【0100】ビジュアル・マーカーは印刷物として提供
されるので、実質上コストは発生しない。また、他の識
別システムでは達成できない幾つかの使用形態がある。
例えば、ビジュアル・マーカーを含んだPost−it
を使用することができる。ビジュアル・マーカーが示す
識別情報に添付されたデジタル・オブジェクト(例えば
ボイス・ノートや写真画像など)が、Post−itの
移動に伴なって転送される。
[0100] Since the visual markers are provided as printed matter, there is virtually no cost. Also, there are some uses that cannot be achieved with other identification systems.
For example, a Post-it containing a visual marker
Can be used. A digital object (for example, a voice note or a photographic image) attached to the identification information indicated by the visual marker is transferred as the Post-it moves.

【0101】2.情報環境 次に、本実施例に係る情報空間1において提供される情
報環境の特徴について説明する。
2. Information Environment Next, features of the information environment provided in the information space 1 according to the present embodiment will be described.

【0102】2−1.環境型コンピュータと携帯型コン
ピュータとの連携 図1に示すような情報空間において提供される情報環境
下では、会議室などの実空間に固定的に設置された「環
境型コンピュータ」と、会議の参加者などの各ユーザが
持ち運ぶ「携帯型コンピュータ」との間で連携が実現す
る。
2-1. Cooperation between environmental type computer and portable computer In an information environment provided in the information space as shown in FIG. 1, "environmental type computer" fixedly installed in a real space such as a conference room and participation in a conference Cooperation is realized with a “portable computer” carried by each user such as a user.

【0103】ユーザ各自が持つ携帯型コンピュータは、
それ自身で完結したユーザ・インターフェースを備えて
いる。したがって、環境型コンピュータと連携した場合
には、従来のユーザ・インターフェースを全く置き換え
てしまうのではなく、携帯型コンピュータ固有のユーザ
・インターフェースを自然に延長する形態で環境型コン
ピュータや情報空間1におけるインターフェースが機能
することが望ましい。
The portable computer possessed by each user is:
It has a complete user interface on its own. Therefore, when cooperating with the environment-type computer, the interface in the environment-type computer or the information space 1 is not completely replaced with the conventional user interface, but is naturally extended from the user interface unique to the portable computer. Should work.

【0104】例えば、テーブル上に携帯型コンピュータ
を置くだけで、テーブル表面や壁面が、携帯型コンピュ
ータのための仮想的な拡張ディスプレイすなわちデスク
トップとして利用できるようになる。
For example, simply placing a portable computer on a table allows the table surface or wall surface to be used as a virtual extended display or desktop for the portable computer.

【0105】さらに、複数のユーザが同じテーブル上で
それぞれの携帯型コンピュータを置いた場合でも、テー
ブル表面をユーザ・グループのための共有作業空間とし
て利用できるようになる。
Furthermore, even when a plurality of users place their portable computers on the same table, the table surface can be used as a shared work space for a group of users.

【0106】図2〜図4には、各ユーザの携帯型コンピ
ュータが環境型コンピュータによって拡張されていく過
程を図解している。
FIGS. 2 to 4 illustrate a process in which each user's portable computer is extended by an environmental computer.

【0107】(a)ユーザは、各自の携帯型コンピュー
タ上で作業を行う(図2を参照のこと)。この場合、ユ
ーザは、携帯型コンピュータというスタンドアロン環境
で用意される従来のGUI(Graphical Us
er Interface)画面上で、マウス・カーソ
ルを用いたオブジェクトのドラッグ・アンド・ドロップ
操作が可能である。
(A) The user works on his or her portable computer (see FIG. 2). In this case, the user uses a conventional GUI (Graphical Us) provided in a stand-alone environment called a portable computer.
The user can drag and drop an object using a mouse cursor on the (er Interface) screen.

【0108】(b)情報空間のテーブル上に携帯型コン
ピュータを置くと、テーブルや壁の表面が携帯型コンピ
ュータのデスクトップの空間的な延長として利用可能に
なる。より具体的には、ユーザがテーブル11に着いて
自分の携帯型コンピュータをその上に置くと、カメラ1
8がこれを撮像する。画像処理サーバ20は、撮像画像
を基に、携帯型コンピュータに貼設されたビジュアル・
マーカー31を認識して、該携帯型コンピュータの所有
者ユーザを特定する。また、画像処理サーバ20は、該
携帯型コンピュータの設置位置も認識する。例えば、文
書ファイルやフォルダなどの情報アイテムを象徴するデ
ジタル・オブジェクトを、携帯型コンピュータのディス
プレイ・スクリーンからハイパードラッグして、テーブ
ルや壁の表面に置く(実際には、LCDプロジェクタ1
3又は14で投影する)ことができる(図3を参照のこ
と)。
(B) When the portable computer is placed on the table in the information space, the surface of the table or wall can be used as a spatial extension of the desktop of the portable computer. More specifically, when the user arrives at the table 11 and places his or her portable computer on it, the camera 1
8 images this. The image processing server 20 uses the visual image attached to the portable computer based on the captured image.
By recognizing the marker 31, the owner user of the portable computer is specified. Further, the image processing server 20 also recognizes the installation position of the portable computer. For example, a digital object representing an information item such as a document file or a folder is hyper-dragged from a display screen of a portable computer and placed on a table or a wall surface (actually, an LCD projector 1).
3 or 14) (see FIG. 3).

【0109】(c)同一のテーブルに複数のユーザが着
いた場合、各ユーザは携帯型コンピュータを置きながら
作業を行うこともできる。また、テーブルや壁の表面
が、ユーザ・グループ間で共有することができる作業空
間にもなる。例えば、デジタル・オブジェクトを、テー
ブルや壁の表面などからなる拡張ディスプレイ経由で、
自由に転送、交換、配布することができる(図4を参照
のこと)。
(C) When a plurality of users arrive at the same table, each user can work while placing the portable computer. The surface of the table or wall also provides a work space that can be shared between user groups. For example, digital objects can be transferred via extended displays, such as tables and wall surfaces.
It can be freely transferred, exchanged, and distributed (see FIG. 4).

【0110】要言すれば、ユーザは、コンピュータ上で
扱われるデジタル・オブジェクトやアプリケーション・
ウィンドウなどをテーブルや壁面上に構成された拡張デ
ィスプレイ上に移動させることができる。また、自分が
持ち込んだ携帯型コンピュータの周辺に、より広い論理
的な作業空間を形成することができる。
[0110] In short, the user can use digital objects or application objects handled on a computer.
A window or the like can be moved on an extended display configured on a table or a wall surface. In addition, a wider logical work space can be formed around the portable computer brought in by the user.

【0111】本実施例に係る情報空間では、GUI(G
raphical User Interface)向
けに開発された各種の対話技法を、実世界に展開された
拡張ディスプレイ上に導入することができる。すなわ
ち、テーブルや壁面などからなる拡張ディスプレイ上で
は、例えば、トラックボールやタッチパッド、キーボー
ドのような携帯型コンピュータに装備されたユーザ入力
装置を用いて、ポイント、ドラッグ、メニュー選択など
の通常のGUI形式の操作に従ってデジタル・オブジェ
クトを操作することができる。
In the information space according to this embodiment, the GUI (G
Various interactive techniques developed for a graphical user interface can be introduced on an extended display deployed in the real world. That is, on an extended display composed of a table, a wall, or the like, a normal GUI such as a point, a drag, and a menu is selected using a user input device mounted on a portable computer such as a trackball, a touchpad, and a keyboard. Digital objects can be manipulated according to the operations of the format.

【0112】図5には、情報空間1で用意される拡張デ
ィスプレイ上で行われるユーザ操作の様子を図解してい
る。
FIG. 5 illustrates a state of a user operation performed on the extended display prepared in the information space 1.

【0113】(a)ユーザは、コンピュータ・ディスプ
レイ上のデジタル・オブジェクトを、ポインティング・
デバイスを用いて通常のGUI操作に従ってドラッグす
る。
(A) The user can connect a digital object on a computer display to a pointing object.
Drag according to the normal GUI operation using the device.

【0114】(b)カーソルがディスプレイ・スクリー
ンの周縁に到達し、さらにドラッグし続けると、カーソ
ルはスクリーンからテーブル11の上にジャンプする
(実際には、プロジェクタによってテーブル上にオブジ
ェクトが投影される)。このとき、デジタル・オブジェ
クトのエンティティ(例えば該当する文書ファイルやフ
ォルダ)が、携帯型コンピュータから環境型コンピュー
タに転送される。
(B) As the cursor reaches the periphery of the display screen and continues to be dragged, the cursor jumps from the screen onto the table 11 (actually, an object is projected onto the table by the projector). . At this time, the entity of the digital object (for example, a corresponding document file or folder) is transferred from the portable computer to the environmental computer.

【0115】(c)ユーザは、さらにドラッグ操作を継
続して、デジタル・オブジェクトをテーブル以外の表
面、例えば壁面12まで移動させることができる。壁面
12にカレンダなどの情報担体が存在する場合には、オ
ブジェクトを其処まで移動させてカレンダに添付するこ
とができる(実際には、カレンダとオブジェクトが持つ
情報とのリンクが形成される)。
(C) The user can further continue the drag operation to move the digital object to a surface other than the table, for example, to the wall surface 12. If an information carrier such as a calendar exists on the wall surface 12, the object can be moved to that location and attached to the calendar (actually, a link between the calendar and the information held by the object is formed).

【0116】(d)また、ユーザは、VCRテープのよ
うなテーブル上に置かれた現実の物理オブジェクトの上
に、デジタル・オブジェクトをドロップすることもでき
る。この物理オブジェクトへのドロップの効果は、現実
のオブジェクトとデジタルすなわち仮想のオブジェクト
とのリンク形成である。
(D) The user can also drop a digital object on a real physical object placed on a table such as a VCR tape. The effect of the drop on the physical object is to form a link between the real object and the digital or virtual object.

【0117】図5で示したようなオブジェクト操作を行
う際、ユーザは、各々のコンピュータやその他の物理的
なオブジェクトなど、各オブジェクト間の物理的な配置
のみを注意しておくだけで充分である。本実施例に係る
情報環境よれば、情報を操作するための統合的な空間的
なメタファが提供される。
When performing an object operation as shown in FIG. 5, it is sufficient for the user to pay attention only to the physical arrangement between the objects, such as each computer and other physical objects. . The information environment according to this embodiment provides an integrated spatial metaphor for manipulating information.

【0118】したがって、携帯型コンピュータ内に格納
されたデジタル・オブジェクト、テーブルや壁面などの
拡張ディスプレイ上に出現したデジタル・オブジェク
ト、あるいはテーブル上の物理オブジェクトにリンク形
成されたデジタル・オブジェクトなどを、相互間で、直
感的且つシームレスに取り扱うことができる。
Therefore, a digital object stored in a portable computer, a digital object appearing on an extended display such as a table or a wall, or a digital object linked to a physical object on a table can be exchanged. Intuitive and seamless handling between them.

【0119】図5を参照しながら説明したように、ユー
ザが携帯型コンピュータ内に格納されたデータをテーブ
ル等の拡張ディスプレイ上に転送したい場合には、該当
するデジタル・オブジェクトを、コンピュータ・スクリ
ーンからテーブル上に、すなわち、コンピュータという
垣根を越えてドラッグ操作を行うだけでよい。マウス・
カーソルがコンピュータ・スクリーンの端縁に到達する
と、カーソルはコンピュータ・スクリーンからテーブル
へと自動的に移動する。勿論、テーブル上の物理オブジ
ェクト上にデジタル・オブジェクトをドラッグ・アンド
・ドロップ操作するだけで、物理オブジェクトにデジタ
ル・オブジェクトを添付すなわちリンク形成することが
できる。
As described with reference to FIG. 5, when the user wants to transfer data stored in the portable computer onto an extended display such as a table, the user can transfer the corresponding digital object from the computer screen. All you have to do is drag on the table, that is, across the boundaries of the computer. mouse·
When the cursor reaches the edge of the computer screen, the cursor automatically moves from the computer screen to the table. Of course, by simply dragging and dropping the digital object onto the physical object on the table, the digital object can be attached to the physical object, that is, a link can be formed.

【0120】本実施例において、ハンド・ジェスチャ認
識のような対話技法ではなく、GUI向けに開発された
対話技法を採用したのは、ノートブック・コンピュータ
は豊富なアプリケーションを既に備えた対話装置を既に
統合的に装備している、という理由に依拠する。標準装
備された対話装置を用いれば、ユーザは、既に定着し慣
れ親しんでいるユーザ・インタフェース様式のままで、
テーブルや壁面上でデジタル・コンテンツを取り扱うこ
とができる。
In the present embodiment, the interactive technique developed for the GUI is adopted instead of the interactive technique such as hand gesture recognition because the notebook computer already has an interactive device having abundant applications. Relies on the fact that they are integrated. With the built-in dialogue device, the user remains in the user interface style already established and familiar,
Digital content can be handled on tables and walls.

【0121】最近では、ノートブック・コンピュータは
オーディオ入出力装置を装備することが多くなったの
で、拡張ディスプレイ上での作業中に音声を生成すると
いう対話方式を使用することも可能である。
In recent years, notebook computers have often been equipped with audio input / output devices, so that it is possible to use an interactive method of generating sound while working on the extended display.

【0122】さらに、携帯型コンピュータに装備された
マイクやカメラなどの入力装置を、会議中のボイスメモ
などを作成する手段として活用することもできる。
Further, an input device such as a microphone and a camera provided in the portable computer can be used as a means for creating a voice memo during a meeting.

【0123】2−2.情報操作の空間的連続性 また、図1に示すような情報空間1において提供される
情報環境下では、情報操作の空間的な連続性が実現す
る。
2-2. Spatial continuity of information operation In an information environment provided in the information space 1 as shown in FIG. 1, spatial continuity of information operation is realized.

【0124】コンピュータを含む多種多様な情報機器が
動的に追加されるような環境を想定すると、それぞれの
機器のネットワーク・アドレスや機器名を正確に把握す
ることは、ユーザにとって過大な負担であり煩わしくさ
えある。一方で、会議室などの閉じた作業空間では、遠
隔通信とは状況が異なり、たいていの機器はユーザから
見える範囲に存在するのだから、操作の対象となってい
るオブジェクトを実空間上で把握し、アドレスなどの間
接的・記号的な概念を使用することなく、情報を直接的
に操作することが可能なはずである。
Assuming an environment where a variety of information devices including computers are dynamically added, it is an excessive burden for the user to accurately grasp the network address and device name of each device. It is even annoying. On the other hand, in a closed work space such as a conference room, the situation is different from telecommunications, and most devices are in the range visible to the user, so the object to be operated can be grasped in real space. It should be possible to directly manipulate information without using indirect or symbolic concepts such as address, address, etc.

【0125】本実施例に係る情報空間1では、例えば、
「コンピュータABCからコンピュータDEFにファイ
ルを転送する」、「プロジェクタCにスライド・データ
を送る」などの間接的な指定方法ではなく、「右のコン
ピュータから左のコンピュータ」、「左側のスクリー
ン」などのような実世界上の空間的な位置関係によっ
て、直感的且つ直接的に、機器を指定することができ
る。
In the information space 1 according to the present embodiment, for example,
Instead of indirect designation methods such as “transfer files from computer ABC to computer DEF” and “send slide data to projector C”, “right computer to left computer”, “left screen”, etc. The device can be intuitively and directly specified by such a spatial positional relationship in the real world.

【0126】本実施例では、「テーブルにコンピュータ
を置く」や、「PDAを黒板に近づける」といったユー
ザが行う物理的な操作は、ネットワーク接続で反映され
るようになっている。
In this embodiment, physical operations performed by the user, such as "putting a computer on a table" and "placing a PDA close to a blackboard", are reflected on the network connection.

【0127】2−3.実世界上に存在するオブジェクト
との連携 また、図1に示すような情報空間において提供される情
報環境下では、実世界上に存在するオブジェクトとの連
携が実現する。
2-3. Cooperation with Objects Existing in the Real World Further, in an information environment provided in the information space as shown in FIG. 1, cooperation with objects existing in the real world is realized.

【0128】日常生活ではコンピュータ以外の非電子的
・非デジタルのオブジェクト(例えば実文書やビデオテ
ープなど)も頻繁に使用される。このような物理オブジ
ェクトを情報環境の一部として取り込めることが好まし
い。例えば、印刷されたパンフレットから3次元モデル
を選んで、それをデジタイズしてテーブル(すなわち格
調デスクトップ)や携帯型コンピュータに取り込んだ
り、関連するスライド・データを他の会議資料と一緒に
持ち運んだり、ということが簡易且つ円滑に行えること
が好ましい。
In everyday life, non-electronic / non-digital objects other than computers (for example, actual documents and video tapes) are frequently used. Preferably, such physical objects can be captured as part of the information environment. For example, you could select a three-dimensional model from a printed brochure and digitize it and bring it to a table (ie, a luxurious desktop) or portable computer, or carry the relevant slide data with other meeting materials. It is preferable that this can be performed easily and smoothly.

【0129】上述の「空間的連続性」の原則を守ること
で、ユーザの負荷を軽減することができる。たとえば、
パンフレットから直接ドラッグ・アンド・ドロップで情
報すなわちデジタル・オブジェクトを取り出せるような
ユーザ・インターフェースにおいては、パンフレットと
デジタル・コンテンツとの結合関係(マッピング)をユ
ーザは特に意識する必要がなくなる。
By keeping the above-mentioned principle of “spatial continuity”, the load on the user can be reduced. For example,
In a user interface in which information, that is, a digital object can be directly extracted from a brochure by dragging and dropping, the user does not need to be particularly aware of the connection relationship (mapping) between the brochure and the digital content.

【0130】本実施例では、実世界のオブジェクトとの
連携は、カメラ・ベースのオブジェクト認識技術によっ
て実現される。
In the present embodiment, cooperation with objects in the real world is realized by camera-based object recognition technology.

【0131】例えば、実世界上の各物理オブジェクトに
は視覚的に認識・識別することが容易なビジュアル・マ
ーカーが貼着されている。ビジュアル・マーカーの一例
は「サイバー・コード」/*/(図17を参照のこと)で
ある。カメラ認識システムは、このビジュアル・マーカ
ーを撮像し解析することで、物理オブジェクトを識別す
ることができ、さらには、物理オブジェクトとリンク形
成されたデジタル・オブジェクトを引き出すことができ
る。また、物理オブジェクト上にデジタル・オブジェク
トをドラッグ・アンド・ドロップすることで、新たに物
理オブジェクト及びデジタル・オブジェクト間でリンク
を形成することができる。
For example, a visual marker that is easy to visually recognize and identify is attached to each physical object in the real world. An example of a visual marker is "Cyber Code" / * / (see FIG. 17). The camera recognition system can identify the physical object by imaging and analyzing the visual marker, and can derive a digital object linked to the physical object. Also, by dragging and dropping a digital object onto a physical object, a link can be newly formed between the physical object and the digital object.

【0132】実世界オブジェクトとデジタル・コンテン
ツなどの電子情報を連携させる研究としては、Info
Binder[1]、mediaBlocks[2]、Pas
sage[3]などが挙げられる。 しかしながら、これ
らの論文で提案されている事例は、デジタル・オブジェ
クトの移動のために物理的に体現されたアイコンを用い
ているだけであり、かかる物理的なアイコンに対して実
世界上での役割や用途を付与するものではない。
For research on linking real world objects with electronic information such as digital contents, Info.
Binder [1] , mediaBlocks [2] , Pas
sage [3] . However, the cases proposed in these papers only use physically embodied icons for the movement of digital objects, and the role of such physical icons in the real world It does not confer any or use.

【0133】これに対し本発明に係る情報環境下では、
デジタル・オブジェクトと実世界上の特定の役割・用途
を持った事物とのリンク関係を形成することが可能であ
る。すなわち、文書フォルダ、書類、カード、ビデオ・
テープなどの物理的なオブジェクト自体も、電子情報と
結合したオブジェクトとなり得る。例えば、ビデオ・テ
ープにその内容に関するデジタル写真を仮想的に添付し
て持ち歩いたり、あるいは編集上のインストラクション
をデジタル・ボイス・ノートとして添付したりすること
ができる。また、会議に関連するスライド・データを文
書フォルダに添付したりする用途も可能である。
On the other hand, in the information environment according to the present invention,
It is possible to form a link relationship between a digital object and an object having a specific role / use in the real world. Document folders, documents, cards, videos,
A physical object such as a tape itself can be an object combined with electronic information. For example, a digital photo of the contents can be virtually attached to a video tape and carried around, or editorial instructions can be attached as a digital voice note. Further, it is also possible to attach slide data related to a meeting to a document folder.

【0134】3.オブジェクト操作機能 以下、本実施例に係る情報空間1において提供されるオ
ブジェクト操作機能について列挙しておく。
3. Object Operation Functions Hereinafter, the object operation functions provided in the information space 1 according to the present embodiment will be listed.

【0135】3−1.情報空間への携帯型コンピュータ
のインストール ユーザがテーブル11に着いて自分の携帯型コンピュー
タをその上に置くと、携帯型コンピュータは、情報空間
1の中にインストールされる。このインストール・オペ
レーションは、実際には以下のような処理手順が含まれ
る。
3-1. Installation of Portable Computer in Information Space When a user arrives at table 11 and places his portable computer on it, the portable computer is installed in information space 1. This installation operation actually includes the following processing procedure.

【0136】(1)カメラ18及び19が携帯型コンピ
ュータを撮像する。 (2)画像処理サーバ20は、カメラ18及び19によ
る撮像画像を基に、携帯型コンピュータに貼設されたビ
ジュアル・マーカー31を認識して、該携帯型コンピュ
ータの所有者ユーザを特定する。 (3)また、画像処理サーバ20は、該携帯型コンピュ
ータが載置されている位置情報も認識する。
(1) The cameras 18 and 19 take images of the portable computer. (2) The image processing server 20 recognizes the visual marker 31 attached to the portable computer based on the images captured by the cameras 18 and 19, and specifies the owner user of the portable computer. (3) The image processing server 20 also recognizes the position information where the portable computer is placed.

【0137】3−2.ハイパードラッグ(Hyperd
ragging) ユーザは、自身の携帯型コンピュータ内に持つデータを
他のユーザに見せたい場合、「ハイパードラッグ」(H
yperdragging)と呼ばれる対話型のユーザ
操作を用いることができる。「ハイパードラッグ」と
は、あるユーザのコンピュータ・ディスプレイ上におけ
るオブジェクトのドラッグ操作を、コンピュータが設置
された平面にそのまま継承するオペレーションのことを
言う。
3-2. Hyperdrug (Hyperd
If the user wants to show the data held in his or her portable computer to other users, a "hyperdrag" (H
An interactive user operation called hyperdragging can be used. “Hyper drag” refers to an operation of inheriting a drag operation of an object on a computer display of a certain user to a plane on which a computer is installed as it is.

【0138】ハイパードラッグは、以下のような処理手
順によって実現する。
Hyper-drag is realized by the following processing procedure.

【0139】(1)ユーザは、コンピュータ・スクリー
ン上の所望のアイテム(表示オブジェクト)をマウス・
カーソルで選択し、該スクリーンの周縁に向かってドラ
ッグする(図6を参照のこと)。
(1) The user inputs a desired item (display object) on the computer screen with the mouse.
Select with the cursor and drag toward the perimeter of the screen (see FIG. 6).

【0140】(2)カーソルがコンピュータ・スクリー
ンの周縁に到達すると、マウス・カーソルはコンピュー
タ・スクリーンから飛び出して、コンピュータが載置さ
れているテーブル11へと移動する(図7を参照のこ
と)。この間、マウス・カーソルがオブジェクトを把持
したままの状態であれば、ドラッグ操作そのものがテー
ブル11(すなわちInfoTable)上に継承され
(すなわち、「ハイパードラッグ」され)、デジタル・
オブジェクトがテーブル11上に表示される。元の携帯
型コンピュータとInfoTableにハイパードラッ
グされたデジタル・オブジェクト間には、「アンカー・
カーソル」(後述)がLCDプロジェクタ13又は14
によって表示される。
(2) When the cursor reaches the periphery of the computer screen, the mouse cursor jumps out of the computer screen and moves to the table 11 on which the computer is placed (see FIG. 7). During this time, if the mouse cursor is holding the object, the drag operation itself is inherited on the table 11 (ie, InfoTable) (ie, “hyperdrag”), and the digital operation is performed.
The object is displayed on the table 11. There is an "anchor" between the original portable computer and the digital object hyper-draged into InfoTable.
Cursor ”(described later) is the LCD projector 13 or 14
Displayed by

【0141】(3)さらに、マウス・カーソルがデジタ
ル・オブジェクトを把持したまま、ユーザがドラッグ操
作を続行して、テーブル11すなわちInfoTabl
eの端縁に到達すると、InfoTableから壁面1
2すなわちInfoWallへのハイパードラッグが実
行される(図8を参照のこと)。元の携帯型コンピュー
タとInfoWallにハイパードラッグされたデジタ
ル・オブジェクト間には、「アンカー・カーソル」(後
述)がLCDプロジェクタ13及び14によって表示さ
れる。
(3) Further, the user continues the drag operation while the mouse cursor is holding the digital object, and the table 11, ie, InfoTable,
When the edge of e is reached, the wall surface 1
2, a hyperdrag to InfoWall is performed (see FIG. 8). An "anchor cursor" (described below) is displayed by the LCD projectors 13 and 14 between the original portable computer and the digital object hyper-dragged into InfoWall.

【0142】InfoWallは、InfoTable
とともに情報空間1の拡張ディスプレイを構成する。
The InfoWall is the InfoTable.
Together, they form an extended display of the information space 1.

【0143】携帯型コンピュータ上の高解像度の小画面
と、InfoTableやInfoWallからなる低
解像度の大画面という2種類のディスプレイの組み合わ
せは、ユーザが注視する情報空間とその周辺の情報空間
として位置付けられる。ユーザは携帯型コンピュータの
スクリーンに目線を保つ一方で、該コンピュータのまわ
りに数多のデータ・アイテム(デジタル・オブジェク
ト)を拡散することができる(図9を参照のこと)。ま
た、拡散したデータ・アイテムのうちの1つが必要にな
った場合には、該当するデジタル・オブジェクトをハイ
パードラッグして、瞬時にコンピュータ・スクリーンの
中に戻すことができる(図10を参照のこと)。
A combination of two types of displays, a high-resolution small screen on a portable computer and a low-resolution large screen composed of InfoTable and InfoWall, is positioned as an information space to be watched by the user and an information space around the information space. The user can spread a number of data items (digital objects) around the portable computer while keeping an eye on the screen (see FIG. 9). Also, if one of the diffused data items is needed, the relevant digital object can be hyper-draged and instantly returned to the computer screen (see FIG. 10). ).

【0144】このようなユーザ・インターフェース操作
は、カメラ18及び19がマウス・カーソルを撮像し、
画像処理サーバ20がこの撮像画像を画像処理及び画像
認識して、マウス・カーソルの移動を追跡することによ
って可能となる。ハイパードラッグに伴って、そのバッ
クグラウンドでは、デジタル・オブジェクトのエンティ
ティ(文書ファイルやデジタル・コンテンツなど)が携
帯型コンピュータから環境型コンピュータへと移動する
(例えば、ネットワーク15経由でのデータ転送が行わ
れる)。
In such a user interface operation, the cameras 18 and 19 capture an image of the mouse cursor, and
This is enabled by the image processing server 20 performing image processing and image recognition on the captured image and tracking the movement of the mouse cursor. With hyperdrag, in the background, entities of digital objects (such as document files and digital content) move from the portable computer to the environmental computer (eg, data transfer via network 15 occurs). ).

【0145】ハイパードラッグ技術は、「テーブルや壁
面などの携帯型コンピュータの周囲環境は空間的に連続
した作業空間(workspace)である」、という
メタファをサポートするものである。ユーザは、テキス
トやグラフィックスなどのデータ・アイテムを、仮想的
な拡大コンピュータ・デスクトップとして携帯型コンピ
ュータのまわりにおくことができる。
The hyperdrag technology supports a metaphor that “the surrounding environment of a portable computer such as a table or a wall surface is a spatially continuous work space”. Users can place data items such as text and graphics around a portable computer as a virtual magnified computer desktop.

【0146】ハイパードラッグによれば、実世界上にお
けるオブジェクトの物理的な位置関係(例えば「あるオ
ブジェクトがコンピュータの傍にある」など)の直感的
な知識だけで、ユーザはオブジェクトに対する操作を直
感的且つ容易に実現することができる。
According to the hyperdrag, the user can intuitively operate the object only by intuitive knowledge of the physical positional relationship of the object in the real world (for example, “an object is near a computer”). And it can be easily realized.

【0147】また、ハイパードラッグによれば、通常の
マウス操作(ドラッグ・アンド・ドロップ)を習得する
ことと、ターゲット機器の物理的な場所(例えばテーブ
ル上の位置)を知るだけで、情報を移動させることがで
きる。すなわち、ユーザは、ネットワークの設定や接続
等の作業や、ターゲット機器のアドレスを知るといった
煩雑な作業を全く必要としない。
According to the hyperdrag, information can be moved only by learning a normal mouse operation (drag and drop) and knowing the physical location (for example, the position on the table) of the target device. Can be done. That is, the user does not need any complicated work such as setting and connection of the network and knowing the address of the target device.

【0148】2以上のコンピュータ・スクリーン間でマ
ウス・カーソルを移動させるようなハイパードラッグ操
作(図16を参照のこと)を実現するためには、マウス
感知領域を選定しておく必要がある。該領域は、情報空
間1にインストールされた携帯型コンピュータの各スク
リーンの4隅に従って選定される。
In order to implement a hyperdrag operation (see FIG. 16) for moving the mouse cursor between two or more computer screens, it is necessary to select a mouse sensing area. The area is selected according to the four corners of each screen of the portable computer installed in the information space 1.

【0149】情報空間1において、カーソルがマウス感
知領域としてのスクリーンに突入すると、カーソルの位
置が該スクリーン上に再マッピングされる。この再マッ
ピングに際しては、テーブル11上のカーソル位置が維
持されるようなオフセットが計算される。現実の(すな
わち元の)カーソルが携帯型コンピュータのスクリーン
の端縁近傍にある間、ユーザは、ポインティング・デバ
イスを操作し続けることで、テーブル11上に投影され
た仮想カーソルの位置をコントロールすることができ
る。
In the information space 1, when the cursor enters the screen as the mouse sensing area, the position of the cursor is remapped on the screen. At the time of this remapping, an offset is calculated so that the cursor position on the table 11 is maintained. While the real (ie, original) cursor is near the edge of the screen of the portable computer, the user controls the position of the virtual cursor projected on the table 11 by continuing to operate the pointing device. Can be.

【0150】テーブル11上でのカーソルの位置を正確
に計算するためには、テーブル11上に携帯型コンピュ
ータが載置された位置や向きを認識する必要があるが、
これはビジュアル・マーカーを認識することによって得
られる(先述)。
In order to accurately calculate the position of the cursor on the table 11, it is necessary to recognize the position and orientation of the portable computer placed on the table 11.
This is obtained by recognizing the visual markers (see above).

【0151】また、ハイパードラッグ操作を行った結
果、ドラッグしたオブジェクトのエンティティであるデ
ータをコンピュータ間で転送しなければならない(例え
ば携帯型コンピュータから環境型コンピュータへ、ある
いは携帯型コンピュータ間で)。
As a result of performing the hyperdrag operation, data as an entity of the dragged object must be transferred between computers (for example, from a portable computer to an environmental computer or between portable computers).

【0152】情報空間1を実現するアプリケーション・
プログラムをJavaプログラミング言語で記述すると
ともに、Javaのオブジェクト・シリアライゼイショ
ン・メカニズムを採用することにより、かかるオブジェ
クト転送を遠隔メソッド呼び出し(RMI:Remot
e Method Invocation)を用いて行
うことができる。例えば、テキスト、音響(ボイス・ノ
ート)、URL(Uniform Resource
Locator)、ファイルのショートカット、イメー
ジなどのデジタル・データを転送することができる。
Application for realizing information space 1
By writing the program in the Java programming language and employing Java's object serialization mechanism, such object transfer can be performed using a remote method call (RMI: Remote).
e Method Invocation). For example, text, sound (voice note), URL (Uniform Resource)
Locator, file shortcuts, images and other digital data.

【0153】3−3.アンカー・カーソル(Ancho
red cursor) ユーザがコンピュータ・スクリーンの外でカーソル操作
している間、すなわち拡張デスクトップ上での作業期間
中は、携帯型コンピュータとカーソル位置とを結ぶ線分
が投影される(図7及び図8を参照のこと)。このよう
な視覚的なフィードバックのことを、本発明者等は「ア
ンカー・カーソル」と呼ぶ。
3-3. Anchor cursor (Ancho
While the user is operating the cursor outside the computer screen, that is, while working on the extended desktop, a line segment connecting the portable computer and the cursor position is projected (FIGS. 7 and 8). checking). Such visual feedback is called "anchor cursor" by the present inventors.

【0154】アンカー・カーソルは、カーソルの所有者
を表すための視覚的及び空間的な指標である。
The anchor cursor is a visual and spatial indicator for indicating the owner of the cursor.

【0155】会議などでは、拡張ディスプレイ上で複数
のユーザが同時にデジタル・オブジェクトの操作を行う
ような場合、多数のカーソルがテーブル11や壁面12
に出現し、錯綜する。アンカー・カーソルを手掛かりに
して、全ての会議参加者が、各々のカーソルの所有者を
識別することができる。
In a conference or the like, when a plurality of users simultaneously operate digital objects on the extended display, a large number of cursors are moved to the table 11 or the wall 12.
Appear and become complicated. Using the anchor cursor as a clue, all conference participants can identify the owner of each cursor.

【0156】また、アンカー・カーソルは、異なるディ
スプレイ間のセマンティックな関係を表すことができ
る。例えば、テーブル12上に投影された大きな地図を
用いて道案内や旅行案内等をしている際に、携帯型コン
ピュータは、現在のカーソル指示位置に該当する地点に
おける詳細情報を絶えず表示することができる(図11
を参照のこと)。すなわち、アンカー・カーソルは、両
者間の視覚的結合関係を意味している訳である。
The anchor cursor can represent a semantic relationship between different displays. For example, when using a large map projected on the table 12 for route guidance, travel guidance, and the like, the portable computer can constantly display detailed information at a point corresponding to the current cursor pointing position. Yes (Fig. 11
checking). That is, the anchor cursor means a visual connection between the two.

【0157】3−4.情報共有空間 InfoTable及びInfoWallの表面は、各
ユーザ間で共有される統合的な情報空間としての側面も
有する。2又はそれ以上のユーザがInfoTable
を囲んでテーブルに着いたような場合、ユーザは、各自
の携帯型コンピュータからテーブル12上に、自由にデ
ジタル・オブジェクトを置くことができる。
3-4. Information Sharing Space The surfaces of InfoTable and InfoWall also have aspects as an integrated information space shared between users. If two or more users are in the InfoTable
The user can freely place digital objects on the table 12 from his or her portable computer.

【0158】従来のコンピュータ・スクリーンや”au
gmented desk system”[4]とは異
なり、コンピュータ・スクリーンの”top”や”bo
ttom”といったような絶対的な概念はない。このた
め、InfoTableのマルチ・ユーザ機能において
は、表示されたデジタル・オブジェクトがどちら向きに
表示されているかを区別しなければならないという、ユ
ーザ・インターフェースのデザイン上の問題が招来され
る。
Conventional computer screens and “au”
Unlike the “gmented desk system” [4] , “top” and “bo” on the computer screen
There is no absolute concept such as “tom”. For this reason, the multi-user function of InfoTable has to distinguish between the displayed digital object and the orientation of the user interface. Design issues are introduced.

【0159】本実施例では、InfoTableは、各
ユーザにとって何処が近い側かを判断するために、カメ
ラ18及び19を介して認識された各携帯型コンピュー
タの空間的位置を用いることにしている。例えば、ある
ユーザが、InfoTable上で、ダイアグラムを表
すデジタル・オブジェクトを遠くから手前まで持ってき
たような場合、システム(実際には環境型コンピュー
タ)が、ユーザが読み易くなる方向になるように、オブ
ジェクトを自動的に回転するようになっている。
In this embodiment, the InfoTable uses the spatial position of each portable computer recognized through the cameras 18 and 19 to determine which side is closer to each user. For example, if a user brings a digital object representing a diagram from a distance to a front on the InfoTable, the system (actually, an environmental computer) is oriented so that the user can easily read the information. The object is automatically rotated.

【0160】3−5.オブジェクト・オーラ(Obje
ct aura) 本実施例に係る情報空間1では、物理オブジェクトとデ
ジタル・オブジェクトとの関連付け(バインド又はリン
ク形成)も可能である。
3-5. Object Aura (Object
ct aura) In the information space 1 according to the present embodiment, association (binding or link formation) between a physical object and a digital object is also possible.

【0161】例えばVCRテープ・カートリッジのよう
な物理オブジェクトがテーブル11上に載置されると、
CCDカメラ18及び19の撮像画像を通して環境型コ
ンピュータによって認識・識別される。そして、図12
に示すように、認識された物理オブジェクトの場所に
は、これを取り囲むような略楕円形が表示される。
When a physical object such as a VCR tape cartridge is placed on the table 11,
The captured images of the CCD cameras 18 and 19 are recognized and identified by the environmental computer. And FIG.
As shown in (1), a substantially elliptical shape surrounding the recognized physical object is displayed.

【0162】この楕円形表示のことを、本発明者等は
「オブジェクト・オーラ」と呼ぶ。オブジェクト・オー
ラを介した視覚的なフィードバックによって、物理オブ
ジェクトが環境コンピュータによって正確に認識された
(若しくは情報空間1にインストールされた)というこ
とを、ユーザは知ることができる。
The present inventors call this oval display an "object aura". By visual feedback via the object aura, the user can know that the physical object has been correctly recognized by the environmental computer (or installed in the information space 1).

【0163】オブジェクト・オーラは該当する物理オブ
ジェクトが持つデータ空間を表示する。したがって、ユ
ーザは、テーブル11上にあるデジタル・オブジェクト
をハイパードラッグし(図13を参照のこと)、オブジ
ェクト・オーラ内にドロップすることによって(図14
を参照のこと)、該デジタル・オブジェクトを物理オブ
ジェクトに添付すなわちリンク形成することができる。
The object aura displays the data space of the corresponding physical object. Thus, the user can hyper-drag a digital object on table 11 (see FIG. 13) and drop it into the object aura (FIG. 14).
), The digital object can be attached or linked to a physical object.

【0164】デジタル・オブジェクトのオブジェクト・
オーラ内へのドロップ操作は、カメラ18又は19によ
って撮像され、画像処理サーバ20などの環境型コンピ
ュータによって認識される。さらに、ドロップされたデ
ジタル・オブジェクトのエンティティが携帯型コンピュ
ータから環境型コンピュータに転送され、環境型コンピ
ュータは、該エンティティを物理オブジェクトと関連付
けて保管しておく。
Object of digital object
The drop operation into the aura is imaged by the camera 18 or 19 and recognized by an environmental computer such as the image processing server 20. Further, the entity of the dropped digital object is transferred from the portable computer to the environmental computer, which stores the entity in association with the physical object.

【0165】例えば、テーブル11上に載置されたVC
Rテープ・カートリッジにボイス・メモを添付したい場
合には、以下のような処理手順に従って実現される。 (1)ユーザは、例えば携帯型コンピュータ上などで、
所望のボイス・ノートを作成・編集する。 (2)ボイス・ノートをエンティティとするデジタル・
オブジェクトを、携帯型コンピュータのスクリーンから
テーブル11上にハイパードラッグする。 (3)さらに、該デジタル・オブジェクトをテーブル1
1上でハイパードラッグして、VCRテープ・カートリ
ッジのオブジェクト・オーラ内に移動する。 (4)オブジェクト・オーラ内でマウス・ボタンを解放
してドロップすると、ボイス・ノートはVCRテープ・
カートリッジとリンクされる。 (5)誰かがVCRテープ・カートリッジを物理的に動
かすと、これに関連付けられたデジタル・オブジェクト
のエンティティは環境型コンピュータ(例えばサーバ2
0)内に保管される。 (6)VCRテープ・カートリッジを再びテーブル11
上に置くと、デジタル・オブジェクト(すなわち関連付
けられたボイス・ノート)の再生が実行される。
For example, the VC placed on the table 11
When a voice memo is to be attached to the R tape cartridge, it is realized according to the following processing procedure. (1) The user, for example, on a portable computer,
Create and edit desired voice notes. (2) Digital data with a voice note as an entity
Hyper-drag an object onto the table 11 from the screen of the portable computer. (3) Further, the digital object is stored in table 1.
1. Hyper-drag on 1 to move into the object aura of the VCR tape cartridge. (4) If you release the mouse button in the object aura and drop it, the voice note will be recorded on the VCR tape.
Linked to the cartridge. (5) When someone physically moves the VCR tape cartridge, the entity of the digital object associated therewith is an environmental computer (eg, server 2).
0). (6) Insert the VCR tape cartridge into the table 11 again.
When placed on top, playback of the digital object (ie, the associated voice note) is performed.

【0166】《注釈》 *サイバーコード:サイバーコードとは、2次元バーコ
ードの一種であり、図17に示すように、サイバーコー
ドの所在を表すための「ガイド・バー表示領域」と、2
次元状のコード・パターンを表示する「コード・パター
ン表示領域」とで構成される。コード・パターン表示領
域内は、n×mマトリックス(同図では7×7)に配列
されたセルで構成され、各セルを白又は黒の2値表現す
ることで識別情報を付与することができる。但し、コー
ド・パターン表示領域の4隅のコーナー・セルは、識別
情報としてではなく位置合わせ(registrati
on)パターンとして常に黒パターンとなっている。サ
イバーコードの認識手順は、撮像画像を2値化するステ
ップと、2値画像中からガイド・バーの候補を発見する
ステップと、ガイド・バーの位置や方向に基づいてコー
ナー・セルを探索するステップと、ガイド・バー及びコ
ーナー・セルを検出したことに応答して画像ビットマッ
プ・パターンを復号化するステップとに大別される。さ
らに、エラービットの検査を行うことで、撮像画像中に
正しいサイバー・コードが含まれていることを確認し
て、該コードの識別情報や位置情報を導出することがで
きる。また、コーナー・セルの位置に基づいて、カメラ
やオブジェクトの傾きによって生じる歪みを算出して補
償することができる。サイバーコードの詳細について
は、例えば、本出願人に既に譲渡されている特願平10
−184350号明細書(「画像処理装置および方法、
並びに提供媒体」)にも開示されている。
<< Note >> * Cyber code: A cyber code is a kind of two-dimensional bar code. As shown in FIG. 17, a "guide / bar display area" for indicating the location of the cyber code,
And a "code pattern display area" for displaying a dimensional code pattern. The code / pattern display area is composed of cells arranged in an n × m matrix (7 × 7 in FIG. 1), and identification information can be given by expressing each cell in white or black. . However, the corner cells at the four corners of the code pattern display area are not used as identification information but are registered (registrati).
on) The pattern is always a black pattern. The cyber code recognition procedure includes a step of binarizing the captured image, a step of finding a guide bar candidate from the binary image, and a step of searching for a corner cell based on the position and direction of the guide bar. And decoding an image bitmap pattern in response to detecting a guide bar and a corner cell. Further, by checking the error bit, it is possible to confirm that a correct cyber code is included in the captured image, and to derive identification information and position information of the code. Further, based on the positions of the corner cells, it is possible to calculate and compensate for the distortion caused by the inclination of the camera or the object. For details of the cyber code, see, for example, Japanese Patent Application No.
-184350 (“Image processing apparatus and method,
As well as providing media ”).

【0167】[追補]以上、特定の実施例を参照しなが
ら、本発明について詳解してきた。しかしながら、本発
明の要旨を逸脱しない範囲で当業者が該実施例の修正や
代用を成し得ることは自明である。すなわち、例示とい
う形態で本発明を開示してきたのであり、限定的に解釈
されるべきではない。本発明の要旨を判断するために
は、冒頭に記載した特許請求の範囲の欄を参酌すべきで
ある。
[Supplement] The present invention has been described in detail with reference to the specific embodiments. However, it is obvious that those skilled in the art can modify or substitute the embodiment without departing from the spirit of the present invention. That is, the present invention has been disclosed by way of example, and should not be construed as limiting. In order to determine the gist of the present invention, the claims described at the beginning should be considered.

【0168】[0168]

【発明の効果】以上詳記したように、本発明によれば、
実世界に拡張された情報空間上における複数のコンピュ
ータ間の連携的な作業を直感的で分かり易く表現するこ
とができる、優れたユーザ・インターフェース環境を提
供することができる。
As described above in detail, according to the present invention,
It is possible to provide an excellent user interface environment capable of intuitively and intuitively expressing a cooperative operation between a plurality of computers in an information space extended to the real world.

【0169】また、本発明によれば、それぞれのコンピ
ュータにネイティブな各デスクトップ画面を実世界に拡
張した情報空間上で連携的な作業を直感的で分かり易く
表現することができる、優れたユーザ・インターフェー
ス環境を提供することができる。
Further, according to the present invention, an excellent user / user who can intuitively and intuitively express cooperative work on an information space in which each desktop screen native to each computer is extended to the real world. An interface environment can be provided.

【0170】また、本発明によれば、会議室に持ち込ま
れた携帯型コンピュータと、同室内設置された環境型コ
ンピュータによって、従来のGUI操作を継承したユー
ザ・インターフェース環境を動的に構成することができ
る。
Further, according to the present invention, a portable computer brought into a conference room and an environmental computer installed in the same room dynamically configure a user interface environment that inherits a conventional GUI operation. Can be.

【0171】また、本発明によれば、会議室などの部屋
環境に設置されたコンピュータ群と、会議参加者などの
各ユーザが持ちこむ携帯型コンピュータ群によってコン
ピュータの操作環境を動的に拡張することができる情報
空間を提供することができる。
According to the present invention, the computer operating environment is dynamically extended by a group of computers installed in a room environment such as a conference room and a group of portable computers carried by each user such as a conference participant. It is possible to provide an information space that can be used.

【0172】また、本発明によれば、会議参加者などの
各ユーザが持ち込む携帯型コンピュータ群によって操作
環境を動的に拡張して、コンピュータ間、あるいはコン
ピュータライズされた会議室のテーブルや壁面とコンピ
ュータとの間で、情報交換を円滑に行うことができ
る、”easy−to−use”な情報空間を提供する
ことができる。
Further, according to the present invention, the operating environment is dynamically expanded by a portable computer group brought by each user such as a conference participant, so that a computer or a computerized table or wall of a conference room can be used. It is possible to provide an “easy-to-use” information space in which information can be smoothly exchanged with a computer.

【0173】本発明に係る情報空間では、テーブルや壁
面が、携帯型コンピュータを実世界の空間上に拡張され
た作業環境(すなわち「拡張ディスプレイ」)として機
能する。また、実世界の物理オブジェクト(紙文書、カ
ード、ビデオ・テープなど)を、マーカー認識によって
特定し、これら各オブジェクトの間での自由な情報交換
を可能にする。ユーザは、単一のコンピュータという閉
じた作業空間の境界を超えて機能する直接操作技法によ
って、個々の機器や物体のアドレスやIDを意識するこ
となく、事物の空間的な位置関係を利用して情報を操作
することができる。
In the information space according to the present invention, the table and the wall function as a work environment (that is, an “extended display”) in which the portable computer is extended in the real world space. In addition, physical objects (paper documents, cards, video tapes, etc.) in the real world are specified by marker recognition, and free information exchange between these objects is enabled. Users can utilize the spatial relationship of things without having to be aware of the addresses and IDs of individual devices and objects, using direct manipulation techniques that work across the boundaries of the closed workspace of a single computer. Information can be manipulated.

【0174】本発明によれば、あるユーザのコンピュー
タ・スクリーン上のデジタル空間で行われるドラッグ・
アンド・ドロップ操作を、そのまま実世界上の空間に拡
張した「ハイパードラッグ」操作が可能となる。例え
ば、スクリーン上のオブジェクト操作が、コンピュータ
が設置されたテーブル(InfoTable)上やコン
ピュータが持ち込まれた部屋の壁面(InfoWal
l)などに継承する。また、ハイパードラッグにより、
複数のコンピュータ間でデジタル・オブジェクトを自由
に移動させることができる。さらに、ユーザは、テーブ
ルに着いたままで、オブジェクトを壁面など自席から離
れた場所に移動させることもできる。
According to the present invention, a drag operation performed in digital space on a user's computer screen is performed.
"Hyper-drag" operation, which extends the and-drop operation to the real world space as it is, becomes possible. For example, object operations on a screen are performed on a table (InfoTable) on which a computer is installed or on a wall surface (InfoWal) of a room where a computer is brought.
l) and so on. Also, by hyper-drag,
Digital objects can be freely moved between multiple computers. Further, the user can move the object to a place away from his / her seat, such as a wall surface, while staying at the table.

【0175】また、本発明によれば、デジタル・オブジ
ェクトを物理オブジェクトに添付して移動することもで
きる。
In addition, according to the present invention, a digital object can be attached to a physical object and moved.

【0176】例えば、テーブル上で複数のユーザが同時
にオブジェクト操作を行っているような場合(とりわ
け、離れた位置のオブジェクトを操作している場合)に
は、「アンカー・カーソル」は有効である。
For example, when a plurality of users are simultaneously operating an object on a table (especially when operating an object at a distant position), the "anchor cursor" is effective.

【0177】さらに、プリンタやディスプレイ、スキャ
ナなどのコンピュータ周辺機器にもハイパードラッグ機
能をサポートしてもよい。例えば、情報空間にインスト
ールされたプリンタ上にデジタル・オブジェクトをハイ
パードラッグ及びドロップすることにより、当該オブジ
ェクトのプリント出力を実行するようにしてもよい。
Further, computer peripheral devices such as a printer, a display, and a scanner may also support the hyperdrag function. For example, the printout of the digital object may be executed by hyper-drag and dropping the digital object onto a printer installed in the information space.

【0178】ユーザによっては、離れた場所にあるオブ
ジェクトを移動することは煩わしいと感じる。文献
[7]で提案される技術を本発明に係る情報空間に組み
込むことができる。カーソルの移動とポインティング・
デバイスの間のスケールをマッピングすることもユーザ
の操作性を向上させるであろう。LCDプロジェクタの
解像度(20dpi)は携帯型コンピュータの解像度
(100−110dpi)よりも粗いので、スケールな
しにマッピングすると、コンピュータ・スクリーンとテ
ーブル間の境界ではカーソル移動速度が不連続的に変化
してしまう。
[0178] Some users find it difficult to move objects at distant places. The technology proposed in document [7] can be incorporated in the information space according to the present invention. Cursor movement and pointing
Mapping the scale between devices will also improve the user experience. Since the resolution of the LCD projector (20 dpi) is coarser than the resolution of the portable computer (100-110 dpi), mapping without scaling will result in a discontinuous change in cursor movement speed at the boundary between the computer screen and the table. .

【0179】なお、本発明に係る「ハイパードラッグ」
は、”pick−and−drop”[8,9]と呼ばれる
多デバイス対話型操作技術とは相違する。Pick−a
nd−Dropは、表示オブジェクトを一方のスクリー
ンから拾って他方のスクリーンに投下する際に、デジタ
イザのスタイラスを使用する。Pick−and−Dr
opは、物理オブジェクトを拾い上げるという動作に類
似しているという点では、ハイパードラッグよりも物理
的なメタファは直接的である。しかしながら、ハイパー
ドラッグによればユーザの手が実際には届かない場所で
あってもオブジェクトの操作が可能であるが、Pick
−and−Dropには不可能である。また、Pick
−and−Dropを実現するためにはスタイラス感知
型の表面を必要とするが、ハイパードラッグはいかなる
ディスプレイ・スクリーンや投影画像表面であっても作
用する。
The “hyperdrug” according to the present invention
Is different from a multi-device interactive operation technique called "pick-and-drop" [8,9] . Pick-a
nd-Drop uses the stylus of the digitizer when picking up display objects from one screen and dropping them on the other screen. Pick-and-Dr
The physical metaphor is more direct than hyperdrag in that op is similar to picking up a physical object. However, according to the hyperdrag, it is possible to operate the object even in a place where the user's hand cannot actually reach,
Not possible with -and-Drop. Also, Pick
While realizing -and-Drop requires a stylus-sensitive surface, hyperdrag works on any display screen or projected image surface.

【0180】ポインティング・デバイスと対話型操作の
スタイルによって適合する操作環境が相違する。Pic
k−and−Dropがペン操作に適合することは明ら
かである。これに対し、ハイパードラッグは、ペン位置
とカーソル位置との間を直接的にマッピングすることが
できないので、ペン操作には不向きである。他方、ハイ
パードラッグは、携帯型コンピュータにおいて標準装備
されるようなトラックボールやトラックポイントと呼ば
れるポインティング・デバイスとの相性が頗る良い。
A suitable operation environment differs depending on the pointing device and the style of the interactive operation. Pic
Obviously, k-and-Drop is compatible with pen operation. On the other hand, hyperdrag is not suitable for pen operation because it is not possible to directly map between the pen position and the cursor position. On the other hand, hyperdrugs are extremely compatible with trackballs and pointing devices called trackpoints, which are standard equipment in portable computers.

【0181】本発明に係る情報空間1を、会議室のよう
なマルチユーザ環境ではなく、個別ユーザ環境に適用し
て、コンピュータからパーティションの壁面へデジタル
・オブジェクトを移動させて、Post−itメモ書き
のように置いておくことができる。また、スケジュール
上にTo−Doアイテムを添付したいようなときには、
壁面に掲げられたカレンダーにデジタル・オブジェクト
ハイパードラッグしておいてもよい。
The information space 1 according to the present invention is applied not to a multi-user environment such as a conference room but to an individual user environment, and a digital object is moved from a computer to a wall surface of a partition to write a post-it memo. It can be set as follows. Also, when you want to attach a To-Do item on the schedule,
You may hyper-drag the digital object to the calendar on the wall.

【0182】《参考文献》 [1]:Itiro Siio. InfoBinde
r: a pointing device for
a virtualdesktop system.
In 6th International Conf
erence on Human−Computer
Interactiuon (HCI Interna
tional ’95), pp. 261−264,
July1995. [2]:Brygg Ullmer, Hiroshi
Ishii, andDylan Glas. Me
diaBlocks: Physical conta
iners, transports, and co
ntrolsfor online media. I
n SIGGRAPH ’98 Proceeding
s, pp. 379−386, 1998. [3]:Torsten Holmer Norber
t A. Streitz, Jorg Geisle
r. Roomware for cooperati
ve buildings: Integrated
design of architectural s
paces and information spa
ces. In Norberts A. Strei
tz and Shin’ichi Konomi,
editors, Cooperative Buil
dings − Integrating Infor
mation, Organization, and
Architecture, 1998. [4]:Pierre Wellner. Inter
acting withpaper on the D
igitalDesk. Communicaion
of the ACM, Vol.36, No.7,
pp.87−96, August 1993. [5]:John Underkoffler and
Hiroshi Ishii. Illuminat
ing Light: An opticaldesi
gn tool with a luminous−t
angibleinterface. In CHI’
98 Proceedings ,pp.542−54
9, 1998. [6]:Jun Rekimoto. Matrix:
A realtimeobject identif
ication and registration
method for augmented real
ity. InProc. Of Asia Paci
fic Computer Human Intera
ction (APCHI’98), July 19
98. [7]:Jorg Geisler. Shuffl
e, throw ortake it! Worki
ng efficiently with anint
eractive wall. In CHI’98
summary, February 1998. [8]:Jun Rekimoto. Pick−an
d−Drop: A Direct manipula
tion Technique for Multip
le Computer Environments.
In Proceedings of UIST’9
7, pp. 31−39, October 199
7. [9]:Jun Rekimoto. A multi
ple−deviceapproach for su
pporting whiteboard−based
interactions. In Proceed
ings ofCHI’98, February 1
998. [10]:M.Stefik, G. Foster,
D. Bobrow,K. Khan,S. Lann
ing, and L. Suchman.Beyon
d the chalkboard: compute
r support for collaborati
on and problem solving in
meetings. Communication
ofthe ACM, Vol. 30, No.
1, pp. 32−47,1987. [11]:Pierre Wellner. The
DigitalDeskcalculator: Ta
ngible manipulation on a
desdk top display. In Pro
ceedings of USIT’91 ACM S
ymposium on User Interfac
e Software and Technolog
y, pp. 27−34, Novenber 19
91. [12]:Peter Robinson, Dan
Sheppard, Ricard Watts, R
obert Harding, and Steve
Lay. Animated Paper Docum
ents. In7th International
Conference on Human−Comp
uter Interaction, HCI’97,
1997. [13]:Eric Saund. ZoomieBo
ard projectdescription. h
ttp://www/parc.xerox.com/
spl/members/saund/zoomieb
oard−public.html [14]:Questin Stafford−Fra
ser and Peter Robinson. B
rightboard: A video−augme
nted environment. In CHI’
96 proceedings, pp. 134−1
41, 1996. [15]:Steven Feiner and A.
Shamash. Hybrid user int
erfaceds: Breeding virtua
lly bigger interfaces for
physically smaller compu
ters. InProceedingsof UIS
T’91, ACM Symposium on Us
er Interface Software and
Technology, pp. 9−17, No
venber 1991. [16]:W. E. Mackay, D. S.
Pagani, L.Faber, B. Inwoo
d, P. Launiainen, Brenta,
and V. Pouzol. Ariel: au
gmenting paper engineerin
g drawings. In CHI’95 Con
ference Companion, pp. 42
−0422, 1995. [17]:Hiroshi Ishii and Br
ygg Ullmer.Tangible Bits:
Towards seamless interfa
ces between people, bits
and atoms. In CHI’97 Proc
eedings, pp. 234−241, 199
7. [18]:Beth M. Lange, Mark
A. Jones, and James L. Me
yers. Insight Lab: Animme
rsive team environment li
nking paper, displays, an
d data. InCHI’98 Proceedi
ngs, pp. 550−557, 1998 [19]:Myron W. Krueger. A
rtificial Reality II. Add
ison−Wesley, 1990.
References [1]: Itiro Sio. InfoBinde
r: a pointing device for
a virtualdesktop system.
In 6th International Conf
erence on Human-Computer
Interaction (HCI Interna
temporal '95), pp. 261-264,
July 1995. [2]: Brygg Ullmer, Hiroshi
Ishii, and Dylan Glas. Me
diaBlocks: Physical container
inners, transports, and co
ntlsfor online media. I
n SIGGRAPH '98 Proceeding
s, pp. 379-386, 1998. [3]: Torsten Holmer Norber
t A. Streetz, Jorg Geisle
r. Roomware for cooperati
ve buildings: Integrated
design of architectural s
paces and information spa
ces. In Norberts A. Strei
tz and Shin'ichi Konomi,
editors, Cooperative Build
dings-Integrating Info
nation, Organization, and
Architecture, 1998. [4]: Pierre Wellner. Inter
acting withpaper on the D
digitalDesk. Communication
of the ACM, Vol. 36, no. 7,
pp. 87-96, August 1993. [5]: John Underkoffler and
Hiroshi Ishii. Illuminat
ing Light: An opticaldesi
gn tool with a luminous-t
angible interface. In CHI '
98 Proceedings, pp. 542-54
9, 1998. [6]: Jun Rekimoto. Matrix:
A realtimeobject identifier
ication and registration
method for augmented real
ity. InProc. Of Asia Paci
fic Computer Human Intera
ction (APCHI'98), July 19
98. [7]: Jorg Geisler. Shuffl
e, throw ortake it! Worki
ng efficiently with anint
eractive wall. In CHI'98
summary, February 1998. [8]: Jun Rekimoto. Pick-an
d-Drop: A Direct manipula
Tion Technique for Multiple
le Computer Environments.
In Processeds of UIST'9
7, pp. 31-39, October 199
7. [9]: Jun Rekimoto. A multi
ple-deviceapproach for su
reporting whiteboard-based
interactions. In Proceed
ings of CHI'98, February 1
998. [10]: M.P. Stefik, G .; Foster,
D. Bobrow, K .; Khan, S .; Lann
ing, and L. Suchman. Beyon
d the challengeboard: compute
r support for collaborati
on and problem solving in
meetings. Communication
of the ACM, Vol. 30, no.
1 pp. 32-47, 1987. [11]: Pierre Wellner. The
DigitalDeskcalculator: Ta
NGILE MANIPULATION ON A
desdk top display. In Pro
seedings of USIT'91 ACM S
ymposium on User Interfac
e Software and Technology
y, pp. 27-34, November 19
91. [12]: Peter Robinson, Dan
Sheppard, Ricard Watts, R
obert Harding, and Steve
Lay. Animated Paper Docum
ents. In7th International
Conference on Human-Comp
Uter Interaction, HCI'97,
1997. [13]: Eric Sound. ZoomieBo
ard project description. h
http: / www / parc. xerox. com /
spl / members / sound / zoomieb
oard-public. html [14]: Questin Stafford-Fra
ser and Peter Robinson. B
rightboard: A video-augume
nted environment. In CHI '
96 processes, pp. 134-1
41, 1996. [15]: Steven Feiner and A.
Shamash. Hybrid user int
erfakeds: Breeding virtua
lly bigger interfaces for
physically smallr compu
ters. InProceedingsof UIS
T'91, ACM Symposium on Us
er Interface Software and
Technology, pp. 9-17, No
venber 1991. [16]: W. E. FIG. Mackay, D.M. S.
Pagani, L .; Faber, B.S. Inwood
d, p. Launiainen, Brenta,
and V. Pouzol. Ariel: au
gmenting paper engineerin
g drawings. In CHI'95 Con
reference Companion, pp. 42
-0422, 1995. [17]: Hiroshi Ishii and Br
ygg Ullmer. Tangible Bits:
Towards seasons interfa
ces bewee people, bits
and atoms. In CHI'97 Proc
eatings, pp. 234-241, 199
7. [18]: Beth M. Language, Mark
A. Jones, and James L. Me
yers. Insight Lab: Animme
rsive team environment li
nking paper, displays, an
d data. InCHI'98 Proceedi
ngs, pp. 550-557, 1998 [19]: Myron W.S. Krueger. A
rtificial Reality II. Add
Ison-Wesley, 1990.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る情報空間の構成例を模式的に示し
た図である。
FIG. 1 is a diagram schematically showing a configuration example of an information space according to the present invention.

【図2】各ユーザの携帯型コンピュータが環境型コンピ
ュータによって拡張されていく過程を示した図であり、
より具体的には、ユーザが各自の携帯型コンピュータ上
で作業している様子を示した図である。
FIG. 2 is a diagram showing a process in which a portable computer of each user is extended by an environmental computer;
More specifically, it is a diagram showing a state where a user is working on his or her portable computer.

【図3】各ユーザの携帯型コンピュータが環境型コンピ
ュータによって拡張されていく過程を示した図であり、
より具体的には、会議室のテーブルや壁面を携帯型コン
ピュータのデスクトップの空間的な延長として利用する
様子を示した図である。
FIG. 3 is a diagram showing a process in which a portable computer of each user is extended by an environmental computer;
More specifically, it is a diagram illustrating a state where a table or a wall surface of a conference room is used as a spatial extension of a desktop of a portable computer.

【図4】各ユーザの携帯型コンピュータが環境型コンピ
ュータによって拡張されていく過程を示した図であり、
より具体的には、複数のユーザがテーブルや壁面などの
拡張ディスプレイ上でデジタル・オブジェクトに関する
共同作業を行う様子を示した図である。
FIG. 4 is a diagram showing a process in which a portable computer of each user is extended by an environmental computer;
More specifically, it is a diagram illustrating a state in which a plurality of users work together on a digital object on an extended display such as a table or a wall surface.

【図5】コンピュータ・デスクトップ上で行われるドラ
ッグ・アンド・ドロップ操作をデスクトップの外の拡張
ディスプレイに展開した様子を模式的に示した図であ
る。
FIG. 5 is a diagram schematically showing a state in which a drag-and-drop operation performed on a computer desktop is expanded on an extended display outside the desktop.

【図6】ハイパードラッグ操作を説明するための図であ
り、より具体的には、コンピュータ・スクリーン上の所
望のアイテムをマウス・カーソルで選択し、該スクリー
ンの周縁に向かってドラッグする様子を示した図であ
る。
FIG. 6 is a diagram for explaining a hyper-drag operation, more specifically, a state in which a desired item on a computer screen is selected with a mouse cursor and dragged toward the periphery of the screen. FIG.

【図7】ハイパードラッグ操作を説明するための図であ
り、より具体的には、コンピュータ・スクリーンの周縁
に到達したマウス・カーソルがコンピュータ・スクリー
ンからテーブル11へと移動する様子を示した図であ
る。
FIG. 7 is a diagram for explaining a hyperdrag operation, more specifically, a diagram showing a state in which a mouse cursor that has reached the periphery of the computer screen moves from the computer screen to the table 11; is there.

【図8】ハイパードラッグ操作を説明するための図であ
り、より具体的には、テーブル11(InfoTabl
e)から壁面12(InfoWall)へとハイパード
ラッグが実行される様子を示した図である。
FIG. 8 is a diagram for explaining a hyperdrag operation, and more specifically, a table 11 (InfoTabl);
FIG. 11E is a diagram showing a state in which hyperdrag is executed from e) to the wall surface 12 (InfoWall).

【図9】ハイパードラッグ操作を説明するための図であ
り、より具体的には、携帯型コンピュータのまわりに数
多のデジタル・オブジェクトが散在した様子を示した図
である。
FIG. 9 is a diagram for explaining a hyper-drag operation, and more specifically, a diagram showing a state in which several digital objects are scattered around a portable computer.

【図10】ハイパードラッグ操作を説明するための図で
あり、より具体的には、デジタル・オブジェクトをハイ
パードラッグして、瞬時にコンピュータ・スクリーンの
中に戻す様子を示した図である。
FIG. 10 is a diagram for explaining a hyper-drag operation, more specifically, a diagram showing a state in which a digital object is hyper-draged and instantly returned to a computer screen.

【図11】アンカー・カーソルの機能を説明するための
図であり、より具体的には、異なるディスプレイ間のセ
マンティックな関係を表す例として、テーブル12上に
投影された大きな地図を用いて道案内している際に、携
帯型コンピュータが現在のカーソル指示位置に該当する
地点における詳細情報を表示する様子を示した図であ
る。
FIG. 11 is a diagram for explaining the function of an anchor cursor. More specifically, as an example showing a semantic relationship between different displays, route guidance is performed using a large map projected on a table 12. FIG. 5 is a diagram illustrating a state in which the portable computer displays detailed information at a point corresponding to the current cursor pointing position during the operation.

【図12】テーブル11上に載置された物理オブジェク
トが環境型コンピュータによって認識された様子を示し
た図であり、より具体的には、該物理オブジェクトを取
り囲む略楕円形(「オブジェクト・オーラ」)が表示さ
れた様子を示した図である。
FIG. 12 is a diagram showing a state in which a physical object placed on the table 11 is recognized by an environment-type computer, and more specifically, a substantially elliptical shape (“object aura”) surrounding the physical object; ) Is a diagram showing a state where is displayed.

【図13】デジタル・オブジェクトを物理オブジェクト
に添付する様子を示した図であり、より具体的には、テ
ーブル11上のデジタル・オブジェクトをオブジェクト
・オーラに向かってハイパードラッグする様子を示した
図である。
FIG. 13 is a diagram illustrating a state where a digital object is attached to a physical object, and more specifically, a diagram illustrating a state where a digital object on a table 11 is hyper-dragged toward an object aura. is there.

【図14】デジタル・オブジェクトを物理オブジェクト
に添付する様子を示した図であり、より具体的には、テ
ーブル11上でハイパードラッグしたデジタル・オブジ
ェクトをオブジェクト・オーラ内にドロップする様子を
示した図である。
FIG. 14 is a diagram illustrating a state in which a digital object is attached to a physical object, and more specifically, a diagram illustrating a state in which a digital object hyper-dragged on a table 11 is dropped into an object aura. It is.

【図15】固定カメラ18及びパン/チルト・カメラ1
9を用いてテーブル11上の変化を検出する仕組みを示
した図である。
FIG. 15: Fixed camera 18 and pan / tilt camera 1
FIG. 9 is a diagram showing a mechanism for detecting a change on the table 11 using No. 9;

【図16】2以上のコンピュータ・スクリーン間で行わ
れるハイパードラッグ操作を示した図である。
FIG. 16 illustrates a hyperdrag operation performed between two or more computer screens.

【図17】サイバーコードの構造を模式的に示した図で
ある。
FIG. 17 is a diagram schematically showing the structure of a cyber code.

【符号の説明】[Explanation of symbols]

1…情報空間 11…テーブル(InfoTable) 12…壁面(又はホワイトボード)(InfoWal
l) 13,14…LCDプロジェクタ 15…ネットワーク 16,17…コンピュータ・システム(環境型コンピュ
ータ) 18…固定カメラ 19…チルト/パン・カメラ 20…画像処理サーバ(環境型コンピュータ) 31,32…ビジュアル・マーカー
DESCRIPTION OF SYMBOLS 1 ... Information space 11 ... Table (InfoTable) 12 ... Wall surface (or white board) (InfoWal)
l) 13, 14 LCD projector 15 Network 16 17, Computer system (environmental computer) 18 Fixed camera 19 Tilt / pan camera 20 Image processing server (environmental computer) 31, 32 Visual marker

Claims (35)

【特許請求の範囲】[Claims] 【請求項1】コンピュータのデジタル空間が実世界に拡
張されてなる情報空間上でデジタル・オブジェクトに関
するユーザ操作を行うための情報入出力システムであっ
て、 前記情報空間に配設された1以上の作業面と、 前記作業面上に画像を表示する表示手段と、 前記作業面上を撮像する撮像手段と、 前記情報空間に固定的に設置された環境型コンピュータ
と、を備え、前記環境型コンピュータは、前記撮像手段
による撮像画像を基に前記作業面上のオブジェクトの位
置情報及び/又はオブジェクトに対するユーザ操作を認
識する処理と、該認識結果に従って前記表示手段による
デジタル・オブジェクトの表示を制御する処理を実行す
る、ことを特徴とする情報入出力システム。
1. An information input / output system for performing a user operation on a digital object in an information space in which a digital space of a computer is extended to the real world, wherein at least one of the information input / output systems is provided in the information space. A work surface; display means for displaying an image on the work surface; imaging means for taking an image of the work surface; and an environment-type computer fixedly installed in the information space. A process of recognizing position information of an object on the work surface and / or a user operation on the object based on an image captured by the imaging unit, and a process of controlling display of a digital object by the display unit according to the recognition result And an information input / output system.
【請求項2】前記情報空間は所定室内で構成され、該室
内に設置されたテーブル表面及び/又は少なくとも1つ
の壁面を作業面とすることを特徴とする請求項1に記載
の情報入力システム。
2. The information input system according to claim 1, wherein the information space is formed in a predetermined room, and a table surface and / or at least one wall surface installed in the room is used as a work surface.
【請求項3】前記撮像手段は、視野が固定され比較的広
範囲を撮像可能な固定カメラと、視野が可変で比較的狭
い範囲を高解像度で撮像可能な可変カメラとで構成さ
れ、 前記固定カメラによる現在及び過去の撮像画像間で差分
が発生した領域をさらに可変カメラで撮像することで前
記作業面上のオブジェクトの変化を検出する、ことを特
徴とする請求項1に記載の情報入出力システム。
3. The fixed camera comprises a fixed camera having a fixed visual field and capable of capturing a relatively wide range, and a variable camera having a variable visual field and capable of capturing a relatively narrow range at a high resolution. The information input / output system according to claim 1, wherein a change in an object on the work surface is detected by further capturing an area in which a difference has occurred between a current and a past captured image by a variable camera. .
【請求項4】前記作業面上に載置される物理オブジェク
トは視覚的に識別可能なビジュアル・マーカーを表面に
含み、 前記環境型コンピュータは前記撮像手段による撮像画像
中のビジュアル・マーカーを基に物理オブジェクトの識
別情報及び/又は位置情報を認識する、ことを特徴とす
る請求項1に記載の情報入出力システム。
4. A physical object placed on the work surface includes a visually identifiable visual marker on a surface, and the environment-type computer uses the visual marker in the image captured by the image capturing means based on the visual marker. 2. The information input / output system according to claim 1, wherein the information input / output system recognizes identification information and / or position information of a physical object.
【請求項5】コンピュータのデジタル空間が実世界に拡
張されてなる情報空間上でデジタル・オブジェクトに関
するユーザ操作を行うための情報入出力システムであっ
て、 前記情報空間に配設された1以上の作業面と、 前記作業面上に画像を表示する表示手段と、 前記作業面上を撮像する撮像手段と、 前記情報空間に固定的に設置された環境型コンピュータ
と、 前記情報空間内を移動可能で且つ他のコンピュータとの
間でデジタル・オブジェクトのエンティティを交換可能
な1以上の携帯型コンピュータと、を備え、 前記環境型コンピュータは、前記撮像手段による撮像画
像を基に前記作業面上のオブジェクトの位置情報及び/
又はオブジェクトに対するユーザ操作を認識する処理
と、該認識結果に従って前記表示手段によるデジタル・
オブジェクトの表示を制御する処理と、前記作業面上に
設置された携帯型コンピュータの識別情報及び位置情報
を認識することで該携帯型コンピュータを前記情報空間
内に動的にインストールする処理を実行する、ことを特
徴とする情報入出力システム。
5. An information input / output system for performing a user operation on a digital object in an information space in which a digital space of a computer is extended to the real world, wherein at least one of the at least one information space provided in the information space is provided. A work surface, display means for displaying an image on the work surface, image pickup means for taking an image of the work surface, an environmental computer fixedly installed in the information space, and movable in the information space And one or more portable computers capable of exchanging entities of digital objects with other computers, wherein the environment-based computer is an object on the work surface based on images taken by the imaging means. Location information and / or
Or a process of recognizing a user operation on an object, and a digital
A process for controlling display of an object and a process for dynamically installing the portable computer in the information space by recognizing identification information and position information of the portable computer installed on the work surface are executed. , An information input / output system.
【請求項6】前記情報空間は所定室内で構成され、該室
内に設置されたテーブル表面及び/又は少なくとも1つ
の壁面を作業面とすることを特徴とする請求項5に記載
の情報入力システム。
6. The information input system according to claim 5, wherein the information space is formed in a predetermined room, and a table surface and / or at least one wall surface installed in the room is used as a work surface.
【請求項7】前記撮像手段は、視野が固定され比較的広
範囲を撮像可能な固定カメラと、視野が可変で比較的狭
い範囲を高解像度で撮像可能な可変カメラとで構成さ
れ、 前記固定カメラによる現在及び過去の撮像画像間で差分
が発生した領域をさらに可変カメラで撮像することで前
記作業面上のオブジェクトの変化を検出する、ことを特
徴とする請求項5に記載の情報入出力システム。
7. The fixed camera comprises a fixed camera having a fixed visual field and capable of capturing a relatively wide range, and a variable camera having a variable visual field and capable of capturing a relatively narrow range at a high resolution. 6. The information input / output system according to claim 5, wherein a change in an object on the work surface is detected by further capturing an area where a difference has occurred between the current and past captured images by a variable camera. .
【請求項8】前記作業面上に載置される物理オブジェク
トは視覚的に識別可能なビジュアル・マーカーを表面に
含み、 前記環境型コンピュータは前記撮像手段による撮像画像
中のビジュアル・マーカーを基に物理オブジェクトの識
別情報及び/又は位置情報を認識する、ことを特徴とす
る請求項5に記載の情報入出力システム。
8. A physical object placed on the work surface includes a visually identifiable visual marker on a surface thereof, and the environment-type computer uses the visual marker in the image captured by the image capturing means based on the visual marker. The information input / output system according to claim 5, wherein identification information and / or position information of the physical object is recognized.
【請求項9】前記環境型コンピュータは、さらに、前記
携帯型コンピュータのディスプレイ・スクリーン上にお
けるデジタル・オブジェクトの操作を撮像画像に基づい
て認識する処理を実行することを特徴とする請求項5に
記載の情報入出力システム。
9. The environment type computer according to claim 5, further comprising executing a process of recognizing an operation of the digital object on a display screen of the portable computer based on a captured image. Information input and output system.
【請求項10】前記環境型コンピュータは、さらに、前
記携帯型コンピュータのディスプレイ・スクリーン上に
おけるデジタル・オブジェクトのドラッグ操作を撮像画
像に基づいて認識する処理を実行することを特徴とする
請求項5に記載の情報入出力システム。
10. The environment-type computer further executes a process of recognizing a drag operation of a digital object on a display screen of the portable computer based on a captured image. Information input and output system described.
【請求項11】前記環境型コンピュータは、さらに、前
記携帯型コンピュータのディスプレイ・スクリーン上に
おけるデジタル・オブジェクトのドラッグ操作を撮像画
像に基づいて追跡し、カーソルが該ディスプレイ・スク
リーンの終端に到達したことに応答して、前記作業面上
の該当位置にデジタル・オブジェクトを表示させてドラ
ッグ操作を前記作業面上で継続する処理を実行すること
を特徴とする請求項5に記載の情報入出力システム。
11. The environment-based computer further tracks a drag operation of a digital object on a display screen of the portable computer based on a captured image, and a cursor reaches an end of the display screen. 6. The information input / output system according to claim 5, wherein a digital object is displayed at a corresponding position on the work surface, and a process of continuing a drag operation on the work surface is executed in response to the information.
【請求項12】前記環境型コンピュータは、前記携帯型
コンピュータのディスプレイ・スクリーン上にあったデ
ジタル・オブジェクトを前記作業面上にドロップしたこ
とに応答して、該デジタル・オブジェクトのエンティテ
ィを前記携帯型コンピュータから転送する処理を実行す
ることを特徴とする請求項5に記載の情報入出力システ
ム。
12. The portable computer, in response to dropping a digital object on the display surface of the portable computer onto the work surface, causes the entity of the digital object to be transferred to the portable computer. 6. The information input / output system according to claim 5, wherein the information input / output system executes a process of transferring from a computer.
【請求項13】前記環境型コンピュータは、前記作業面
上にドロップされたデジタル・オブジェクトと元の携帯
型コンピュータとの対応関係を前記作業面上に表示させ
ることを特徴とする請求項5に記載の情報入出力システ
ム。
13. The work environment according to claim 5, wherein the environment type computer displays the correspondence between the digital object dropped on the work surface and the original portable computer on the work surface. Information input and output system.
【請求項14】前記情報空間内には2以上の作業面が存
在し、異なる作業面間でデジタル・オブジェクトのドラ
ック操作が可能であることを特徴とする請求項5に記載
の情報入出力システム。
14. The information input / output system according to claim 5, wherein two or more work surfaces exist in the information space, and a drag operation of a digital object can be performed between different work surfaces. .
【請求項15】前記環境型コンピュータは、さらに、前
記作業面上におけるデジタル・オブジェクトのドラッグ
操作を撮像画像に基づいて追跡し、カーソルが携帯型コ
ンピュータ本体との境界に到達したことに応答して、該
携帯型コンピュータに該デジタル・オブジェクトのエン
ティティを転送する処理を実行し、 該携帯型コンピュータはデジタル・オブジェクトを受信
してドラッグ操作をディスプレイ・スクリーン上で継続
する処理を実行することを特徴とする請求項5に記載の
情報入出力システム。
15. The environment type computer further tracks a drag operation of the digital object on the work surface based on the captured image, and responds to a cursor reaching a boundary with the portable computer main body. Performing a process of transferring the entity of the digital object to the portable computer, wherein the portable computer performs a process of receiving the digital object and continuing a drag operation on a display screen. The information input / output system according to claim 5, wherein
【請求項16】前記環境型コンピュータは、前記作業面
上で認識された物理オブジェクトが持つデータ空間を示
すオブジェクト・オーラを表示する処理を実行すること
を特徴とする請求項5に記載の情報入出力システム。
16. The information input device according to claim 5, wherein the environment-type computer executes a process of displaying an object aura indicating a data space of the physical object recognized on the work surface. Output system.
【請求項17】前記環境型コンピュータは、オブジェク
ト・オーラ上にドロップされたデジタル・オブジェクト
のエンティティと該当する物理オブジェクトとを関連付
ける処理を実行することを特徴とする請求項5に記載の
情報入出力システム。
17. The information input / output according to claim 5, wherein the environment type computer executes a process of associating the entity of the digital object dropped on the object aura with the corresponding physical object. system.
【請求項18】前記環境型コンピュータは、物理オブジ
ェクトが作業面上に載置されたことを撮像画像に基づい
て検知したことに応答して、該物理オブジェクトに関連
付けられたデジタル・オブジェクトの処理を実行するこ
とを特徴とする請求項5に記載の情報入出力システム。
18. An environment-based computer, in response to detecting that a physical object has been placed on a work surface based on a captured image, performs processing of a digital object associated with the physical object. The information input / output system according to claim 5, wherein the information input / output system is executed.
【請求項19】前記情報空間内には所定のオブジェクト
処理を実行する1以上のコンピュータ周辺機器が存在
し、前記作業面上のデジタル・オブジェクトが該コンピ
ュータ周辺機器にドロップされたことに応答して所定の
オブジェクト処理を実行することを特徴とする請求項5
に記載の情報入出力システム。
19. There is one or more computer peripherals in the information space for performing predetermined object processing, and in response to a digital object on the work surface being dropped on the computer peripheral. 6. A predetermined object process is executed.
Information input and output system described in.
【請求項20】コンピュータのデジタル空間を実世界に
拡張した情報空間上においてデジタル・オブジェクトに
関するユーザ操作を行うための情報入出力方法であっ
て、該情報空間は、1以上の作業面と、前記作業面上に
画像を表示する表示手段と、前記作業面上を撮像する撮
像手段と、固定的に設置された環境型コンピュータとで
構成され、 前記撮像手段による撮像画像を基に前記作業面上のオブ
ジェクトの位置情報及び/又はオブジェクトに対するユ
ーザ操作を認識するステップと、 該認識結果に従って前記表示手段によるデジタル・オブ
ジェクトの表示を制御するステップと、を具備すること
を特徴とする情報入出力方法。
20. An information input / output method for performing a user operation on a digital object on an information space obtained by expanding a digital space of a computer into the real world, the information space comprising one or more work surfaces, Display means for displaying an image on a work surface, image pickup means for taking an image of the work surface, and an environment-type computer which is fixedly installed. Recognizing the position information of the object and / or a user operation on the object, and controlling the display of the digital object by the display means according to the recognition result.
【請求項21】コンピュータのデジタル空間が実世界に
拡張されてなる情報空間上でデジタル・オブジェクトに
関するユーザ操作を行うための情報入出力方法であっ
て、該情報空間は、1以上の作業面と、前記作業面上に
画像を表示する表示手段と、前記作業面上を撮像する撮
像手段と、固定的に設置された環境型コンピュータと、
前記情報空間内を移動可能で且つ他のコンピュータとの
間でデジタル・オブジェクトのエンティティを交換可能
な1以上の携帯型コンピュータとで構成され、(a)前
記撮像手段による撮像画像を基に前記作業面上のオブジ
ェクトの位置情報及び/又はオブジェクトに対するユー
ザ操作を認識するステップと、(b)該認識結果に従っ
て前記表示手段によるデジタル・オブジェクトの表示を
制御するステップと、(c)前記作業面上に設置された
携帯型コンピュータの識別情報及び位置情報を認識する
ことで該携帯型コンピュータを前記情報空間内に動的に
インストールするステップと、を具備することを特徴と
する情報入出力方法。
21. An information input / output method for performing a user operation on a digital object in an information space in which a digital space of a computer is extended to the real world, wherein the information space includes at least one work surface. Display means for displaying an image on the work surface, imaging means for taking an image of the work surface, and an environment-type computer fixedly installed,
It is comprised of one or more portable computers movable in the information space and capable of exchanging entities of digital objects with other computers, and (a) the work is performed based on images taken by the imaging means. Recognizing positional information of the object on the surface and / or user operation on the object; (b) controlling display of the digital object by the display means according to the recognition result; and (c) displaying the digital object on the work surface. Dynamically installing the portable computer in the information space by recognizing the identification information and the position information of the installed portable computer.
【請求項22】前記情報空間は所定室内で構成され、該
室内に設置されたテーブル表面及び/又は少なくとも1
つの壁面を作業面とすることを特徴とする請求項21に
記載の情報入力方法。
22. The information space is formed in a predetermined room, and a table surface and / or at least one of the information spaces is installed in the room.
22. The information input method according to claim 21, wherein one wall is used as a work surface.
【請求項23】前記撮像手段は、視野が固定され比較的
広範囲を撮像可能な固定カメラと、視野が可変で比較的
狭い範囲を高解像度で撮像可能な可変カメラとで構成さ
れ、 前記ステップ(a)は、 前記固定カメラによる現在及び過去の撮像画像間で差分
を算出するサブステップと、 差分が所定の閾値を越えた領域についてさらに可変カメ
ラで撮像することで前記作業面上のオブジェクトの変化
を検出するサブステップと、を備えることを特徴とする
請求項21に記載の情報入出力方法。
23. The imaging means comprises a fixed camera having a fixed visual field and capable of capturing a relatively wide area, and a variable camera having a variable visual field and capable of capturing a relatively narrow area with high resolution. a) calculating a difference between current and past images captured by the fixed camera; and changing an object on the work surface by further capturing an image of the area where the difference exceeds a predetermined threshold value using a variable camera. 22. The information input / output method according to claim 21, further comprising a sub-step of detecting
【請求項24】前記作業面上に載置される物理オブジェ
クトは視覚的に識別可能なビジュアル・マーカーを表面
に含み、 前記ステップ(a)では、前記撮像手段による撮像画像
中のビジュアル・マーカーを基に物理オブジェクトの識
別情報及び/又は位置情報を認識する、ことを特徴とす
る請求項21に記載の情報入出力方法。
24. The physical object placed on the work surface includes a visually identifiable visual marker on the surface, and in the step (a), the visual marker in the image picked up by the image pickup means is displayed. 22. The information input / output method according to claim 21, wherein identification information and / or position information of the physical object is recognized based on the information.
【請求項25】さらに、前記携帯型コンピュータのディ
スプレイ・スクリーン上におけるデジタル・オブジェク
トの操作を撮像画像に基づいて認識するステップを備え
ることを特徴とする請求項21に記載の情報入出力方
法。
25. The information input / output method according to claim 21, further comprising a step of recognizing an operation of the digital object on a display screen of the portable computer based on a captured image.
【請求項26】さらに、前記携帯型コンピュータのディ
スプレイ・スクリーン上におけるデジタル・オブジェク
トのドラッグ操作を撮像画像に基づいて認識するステッ
プを含むことを特徴とする請求項21に記載の情報入出
力方法。
26. The information input / output method according to claim 21, further comprising the step of recognizing a drag operation of a digital object on a display screen of the portable computer based on a captured image.
【請求項27】前記携帯型コンピュータのディスプレイ
・スクリーン上におけるデジタル・オブジェクトのドラ
ッグ操作を撮像画像に基づいて追跡するステップと、 カーソルが該ディスプレイ・スクリーンの終端に到達し
たことに応答して、前記作業面上の該当位置にデジタル
・オブジェクトを表示させてドラッグ操作を前記作業面
上で継続するステップと、をさらに備えることを特徴と
する請求項21に記載の情報入出力方法。
27. A method of tracking a drag operation of a digital object on a display screen of the portable computer based on a captured image, and responsive to a cursor reaching an end of the display screen, 22. The information input / output method according to claim 21, further comprising: displaying a digital object at a corresponding position on a work surface and continuing a drag operation on the work surface.
【請求項28】前記携帯型コンピュータのディスプレイ
・スクリーン上にあったデジタル・オブジェクトを前記
作業面上にドロップしたことに応答して、該デジタル・
オブジェクトのエンティティを前記携帯型コンピュータ
から前記環境型コンピュータへ転送するステップをさら
に備えることを特徴とする請求項21に記載の情報入出
力方法。
28. In response to dropping a digital object on the display surface of the portable computer onto the work surface, the digital object
22. The information input / output method according to claim 21, further comprising a step of transferring an entity of an object from the portable computer to the environment type computer.
【請求項29】さらに、前記作業面上にドロップされた
デジタル・オブジェクトと元の携帯型コンピュータとの
対応関係を前記作業面上に表示するステップを備えるこ
とを特徴とする請求項21に記載の情報入出力方法。
29. The method according to claim 21, further comprising the step of displaying on the work surface the correspondence between the digital object dropped on the work surface and the original portable computer. Information input / output method.
【請求項30】前記情報空間内には2以上の作業面が存
在し、 さらに、異なる作業面間でデジタル・オブジェクトをド
ラック操作するステップを備えることを特徴とする請求
項21に記載の情報入出力方法。
30. The information input device according to claim 21, wherein there are two or more work surfaces in the information space, and further comprising a step of dragging a digital object between different work surfaces. output method.
【請求項31】前記作業面上におけるデジタル・オブジ
ェクトのドラッグ操作を撮像画像に基づいて追跡するス
テップと、 カーソルが携帯型コンピュータ本体との境界に到達した
ことに応答して、前記環境型コンピュータから該携帯型
コンピュータに該デジタル・オブジェクトのエンティテ
ィを転送するステップと、 デジタル・オブジェクトのドラッグ操作を該携帯型コン
ピュータのディスプレイ・スクリーン上で継続するステ
ップと、をさらに備えることを特徴とする請求項21に
記載の情報入出力方法。
31. A step of tracing a drag operation of a digital object on the work surface based on a captured image, and in response to a cursor reaching a boundary with the portable computer main body, receiving a signal from the environment type computer. 22. The method of claim 21, further comprising: transferring the entity of the digital object to the portable computer; and continuing a drag operation of the digital object on a display screen of the portable computer. Information input / output method described in.
【請求項32】さらに、前記作業面上で認識された物理
オブジェクトが持つデータ空間を示すオブジェクト・オ
ーラを表示するステップを備えることを特徴とする請求
項21に記載の情報入出力方法。
32. The information input / output method according to claim 21, further comprising a step of displaying an object aura indicating a data space of the physical object recognized on the work surface.
【請求項33】さらに、オブジェクト・オーラ上にドロ
ップされたデジタル・オブジェクトのエンティティと該
当する物理オブジェクトとを関連付けるステップを備え
ることを特徴とする請求項21に記載の情報入出力方
法。
33. The information input / output method according to claim 21, further comprising associating an entity of the digital object dropped on the object aura with a corresponding physical object.
【請求項34】物理オブジェクトが作業面上に載置され
たことを撮像画像に基づいて検知したことに応答して、
該物理オブジェクトに関連付けられたデジタル・オブジ
ェクトの処理を実行するステップをさらに備えることを
特徴とする請求項21に記載の情報入出力方法。
34. In response to detecting that a physical object has been placed on a work surface based on a captured image,
22. The information input / output method according to claim 21, further comprising a step of executing processing of a digital object associated with the physical object.
【請求項35】前記情報空間内には所定のオブジェクト
処理を実行する1以上のコンピュータ周辺機器が存在
し、 さらに、前記作業面上のデジタル・オブジェクトが該コ
ンピュータ周辺機器にドロップされたことに応答して所
定のオブジェクト処理を実行するステップを備えること
を特徴とする請求項21に記載の情報入出力方法。
35. One or more computer peripherals for performing predetermined object processing in said information space, and further responsive to a digital object on said work surface being dropped on said computer peripheral. 22. The information input / output method according to claim 21, further comprising a step of executing a predetermined object process.
JP31646199A 1999-11-08 1999-11-08 System and method for information input and output Pending JP2001136504A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31646199A JP2001136504A (en) 1999-11-08 1999-11-08 System and method for information input and output

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31646199A JP2001136504A (en) 1999-11-08 1999-11-08 System and method for information input and output

Publications (1)

Publication Number Publication Date
JP2001136504A true JP2001136504A (en) 2001-05-18

Family

ID=18077364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31646199A Pending JP2001136504A (en) 1999-11-08 1999-11-08 System and method for information input and output

Country Status (1)

Country Link
JP (1) JP2001136504A (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1515328A2 (en) 2003-09-03 2005-03-16 Sony Corporation Output control apparatus, output control method, and computer program
JP2006155194A (en) * 2004-11-29 2006-06-15 Olympus Imaging Corp Image display device and control method of image display device
JP2008047115A (en) * 2006-08-15 2008-02-28 Fuji Xerox Co Ltd Method, system and program for supporting object control
US7360163B2 (en) 2003-02-24 2008-04-15 Fuji Xerox Co. Ltd. Work space formation apparatus
JP2008276219A (en) * 2008-04-15 2008-11-13 Olympus Imaging Corp Digital platform device
JP2009303083A (en) * 2008-06-16 2009-12-24 Nippon Telegr & Teleph Corp <Ntt> Conference support system and conference support method
JP2010277372A (en) * 2009-05-28 2010-12-09 National Institute Of Information & Communication Technology System and method for displaying video
JP2011004226A (en) * 2009-06-19 2011-01-06 National Institute Of Information & Communication Technology Data exchange system and method
JP2011043855A (en) * 2010-11-22 2011-03-03 Olympus Imaging Corp Digital platform device
JP2011221542A (en) * 2011-05-30 2011-11-04 Olympus Imaging Corp Digital platform device
JP2011238064A (en) * 2010-05-11 2011-11-24 Canon Inc Display control apparatus and display control method
JP2011238243A (en) * 2011-05-30 2011-11-24 Olympus Imaging Corp Digital platform device
US8094242B2 (en) 2008-05-23 2012-01-10 Pfu Limited Object management apparatus, mobile terminal, and object management method
US8199170B2 (en) 2007-03-29 2012-06-12 Fuji Xerox Co., Ltd. Display control device, media management device, and computer-readable medium
JP2013003742A (en) * 2011-06-14 2013-01-07 Sharp Corp Data transmission operation device, and data transmission control method
US8482483B2 (en) 2007-03-29 2013-07-09 Fuji Xerox Co., Ltd. Display control device, display, display system and computer-readable medium
JP2014067349A (en) * 2012-09-27 2014-04-17 Seiko Epson Corp Human interface device and method
JP2014081722A (en) * 2012-10-15 2014-05-08 Nikon Corp System, device, and method
JP2015506032A (en) * 2011-12-20 2015-02-26 インテル・コーポレーション Augmented reality representation across multiple devices
JP2016051468A (en) * 2014-08-29 2016-04-11 キヤノンマーケティングジャパン株式会社 Information processing apparatus, control method of the same, and program
JP2016129050A (en) * 2012-03-26 2016-07-14 ソニー株式会社 Information processing apparatus, information processing method and program
JP2016521882A (en) * 2013-06-03 2016-07-25 ダクリ エルエルシーDaqri, LLC Data manipulation based on real world object manipulation
WO2018138885A1 (en) * 2017-01-27 2018-08-02 富士通株式会社 Information processing method, information processing program, and information processing device
JP2019125080A (en) * 2018-01-15 2019-07-25 富士通株式会社 Display control program, display control method and display control device
JP2019128899A (en) * 2018-01-26 2019-08-01 富士通株式会社 Display control program, display control device, and display control method

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7360163B2 (en) 2003-02-24 2008-04-15 Fuji Xerox Co. Ltd. Work space formation apparatus
EP1515328A2 (en) 2003-09-03 2005-03-16 Sony Corporation Output control apparatus, output control method, and computer program
JP4598496B2 (en) * 2004-11-29 2010-12-15 オリンパスイメージング株式会社 Image display device
JP2006155194A (en) * 2004-11-29 2006-06-15 Olympus Imaging Corp Image display device and control method of image display device
JP2008047115A (en) * 2006-08-15 2008-02-28 Fuji Xerox Co Ltd Method, system and program for supporting object control
US8199170B2 (en) 2007-03-29 2012-06-12 Fuji Xerox Co., Ltd. Display control device, media management device, and computer-readable medium
US9024841B2 (en) 2007-03-29 2015-05-05 Fuji Xerox Co., Ltd. Display device that depicts images on first display apparatus in accordance with position of a second display apparatus and display system and computer readable-medium thereof
US8482483B2 (en) 2007-03-29 2013-07-09 Fuji Xerox Co., Ltd. Display control device, display, display system and computer-readable medium
JP2008276219A (en) * 2008-04-15 2008-11-13 Olympus Imaging Corp Digital platform device
US8094242B2 (en) 2008-05-23 2012-01-10 Pfu Limited Object management apparatus, mobile terminal, and object management method
JP2009303083A (en) * 2008-06-16 2009-12-24 Nippon Telegr & Teleph Corp <Ntt> Conference support system and conference support method
JP2010277372A (en) * 2009-05-28 2010-12-09 National Institute Of Information & Communication Technology System and method for displaying video
JP2011004226A (en) * 2009-06-19 2011-01-06 National Institute Of Information & Communication Technology Data exchange system and method
JP2011238064A (en) * 2010-05-11 2011-11-24 Canon Inc Display control apparatus and display control method
JP2011043855A (en) * 2010-11-22 2011-03-03 Olympus Imaging Corp Digital platform device
JP2011221542A (en) * 2011-05-30 2011-11-04 Olympus Imaging Corp Digital platform device
JP2011238243A (en) * 2011-05-30 2011-11-24 Olympus Imaging Corp Digital platform device
JP2013003742A (en) * 2011-06-14 2013-01-07 Sharp Corp Data transmission operation device, and data transmission control method
KR101574099B1 (en) * 2011-12-20 2015-12-03 인텔 코포레이션 Augmented reality representations across multiple devices
US9952820B2 (en) 2011-12-20 2018-04-24 Intel Corporation Augmented reality representations across multiple devices
JP2015506032A (en) * 2011-12-20 2015-02-26 インテル・コーポレーション Augmented reality representation across multiple devices
JP2016129050A (en) * 2012-03-26 2016-07-14 ソニー株式会社 Information processing apparatus, information processing method and program
JP2014067349A (en) * 2012-09-27 2014-04-17 Seiko Epson Corp Human interface device and method
JP2014081722A (en) * 2012-10-15 2014-05-08 Nikon Corp System, device, and method
JP2016521882A (en) * 2013-06-03 2016-07-25 ダクリ エルエルシーDaqri, LLC Data manipulation based on real world object manipulation
JP2016051468A (en) * 2014-08-29 2016-04-11 キヤノンマーケティングジャパン株式会社 Information processing apparatus, control method of the same, and program
WO2018138885A1 (en) * 2017-01-27 2018-08-02 富士通株式会社 Information processing method, information processing program, and information processing device
JP2019125080A (en) * 2018-01-15 2019-07-25 富士通株式会社 Display control program, display control method and display control device
JP2019128899A (en) * 2018-01-26 2019-08-01 富士通株式会社 Display control program, display control device, and display control method

Similar Documents

Publication Publication Date Title
US7069516B2 (en) Information input/output system and information input/output method
JP2001136504A (en) System and method for information input and output
Rekimoto et al. Augmented surfaces: a spatially continuous work space for hybrid computing environments
Rekimoto Pick-and-drop: a direct manipulation technique for multiple computer environments
JP4284855B2 (en) Information input / output system, information input / output method, and program storage medium
Liao et al. Papiercraft: A gesture-based command system for interactive paper
Everitt et al. Two worlds apart: bridging the gap between physical and virtual media for distributed design collaboration
US6791530B2 (en) Circular graphical user interfaces
US11288031B2 (en) Information processing apparatus, information processing method, and information processing system
Rekimoto A multiple device approach for supporting whiteboard-based interactions
US7995090B2 (en) Video enabled tele-presence control host
US20110307800A1 (en) Methodology for Creating an Easy-To-Use Conference Room System Controller
Kohtake et al. InfoStick: an interaction device for Inter-Appliance Computing
Rekimoto Multiple-computer user interfaces: " beyond the desktop" direct manipulation environments
US10990344B2 (en) Information processing apparatus, information processing system, and information processing method
Kohtake et al. Infopoint: A device that provides a uniform user interface to allow appliances to work together over a network
Chiu et al. Manipulating and Annotating Slides in a Multi-Display Environment.
US20130127745A1 (en) Method for Multiple Touch Control Virtual Objects and System thereof
JP2001109570A (en) System and method for inputting and outputting information
CN110895440A (en) Information processing apparatus and recording medium
Rekimoto Multiple-Computer User Interfaces: A cooperative environment consisting of multiple digital devices
JP2017188126A (en) Information processing system, information registration method, conference device and program
TW201732759A (en) Method and system to port multi device workspace data
JP3967234B2 (en) CONFERENCE SUPPORT DEVICE, COMPUTER-READABLE PROGRAM, AND ELECTRONIC CONFERENCE SYSTEM
Vartiainen et al. Mobile visual interaction: enhancing local communication and collaboration with visual interactions