JP2004164069A - Information control system, information control method, program for the same, recording medium recording that program - Google Patents

Information control system, information control method, program for the same, recording medium recording that program Download PDF

Info

Publication number
JP2004164069A
JP2004164069A JP2002326545A JP2002326545A JP2004164069A JP 2004164069 A JP2004164069 A JP 2004164069A JP 2002326545 A JP2002326545 A JP 2002326545A JP 2002326545 A JP2002326545 A JP 2002326545A JP 2004164069 A JP2004164069 A JP 2004164069A
Authority
JP
Japan
Prior art keywords
information
physical object
computer
display surface
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002326545A
Other languages
Japanese (ja)
Inventor
Kensaku Fujii
憲作 藤井
Jun Shimamura
潤 島村
Kenichi Arakawa
賢一 荒川
Tomohiko Arikawa
知彦 有川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002326545A priority Critical patent/JP2004164069A/en
Publication of JP2004164069A publication Critical patent/JP2004164069A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To expand a digital space in a computer to a real space, and to provide an intuitive and easy interaction between both the spaces. <P>SOLUTION: Interface environment using physical objects as mediation between two spaces is structured. Display surfaces 11 and 12 arranged in the environment to display various information, a camera 17 for photographing the display surfaces, transportable physical objects 16 to be placed on the display surfaces to display various information, and a computer 15 embedded in the environment and connected to the display surfaces, the camera and the physical objects are provided. The computer is provided with a processing for discriminating each of the physical objects and for recognizing position thereof on the basis of an image input from the camera, a processing for selecting a task to be carried out, and a processing for renewing the information displayed in the display surfaces and the physical objects on the basis of a result of carrying out of the selected task. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、コンピュータに対してユーザの直感的で分かり易いインタフェース環境の構築、特に、コンピュータ上のデジタル空間(仮想空間)が実世界空間に拡張される環境において、これら2つの空間の媒介となるインタフェース環境の構築に関する。
【0002】
【従来の技術】
最近、コンピュータのインタフェースに関する新しい技法として、実世界指向のユーザインターフェースが注目されている。これは、本来はコンピュータディスプレイ上に限定されているデジタル空間を、実世界空間に拡張する技術である。この実世界指向インタフェースによれば、ディスプレイだけでなくコンピュータが設置されたテーブルや部屋の壁なども拡張されたディスプレイとして機能し、コンピュータが設置された部屋全体に、デジタル空間が拡張される。
【0003】
これらの実世界指向インタフェースを実現する手法として、例えば、Pick−and−Dropと呼ばれる手法がある(非特許文献1参照)。これは、グラフィカルユーザインタフェース(GUI)環境下で利用されている「ドラッグ・アンド・ドロップ」を拡張したものであり、複数のコンピュータ間におけるデータ等の移動を実世界での直感的な動作にマッピングしたテクニックである。しかしながら、この手法は、コンピュータ上のオブジェクトをピックし、それに続いてターゲットにドロップする必要があり、非常に直感的ではあるが、空間的、時間的に、連続した操作でなければならない。
【0004】
こうした制約を排除するために、コンピュータ上のオブジェクトを物理的なオブジェクトに結び付けて、その物理オブジェクトを利用する手法も提案されている。例えば、MediaBlocks(非特許文献2参照)は、物理的なブロックを利用して、コンピュータ上のオブジェクトとそのブロックの有するIDを結びつけることにより、そのブロックに一時的にオブジェクトを格納し、他のコンピュータなどへの移動を実現することができる。
【0005】
更に、物理オブジェクトにビジュアルマーカをつけることにより、日常利用されるあらゆる物を利用できるように拡張した情報入出力システム及び情報入出力方法がある(特許文献3参照)。
【0006】
【非特許文献1】
J.Rekimoto,Pick−and−Drop,ADirect Manipulation Technique for Multiple Computer Enviromnents,UIST’97,P.31−39,1997
【0007】
【非特許文献2】
B.Ullmer,H.Ishii and D.Glas,MediaB1ocks,Physical containers,transports and controls for online media,SIGGRAPH’98,P.379−386.1998
【0008】
【特許文献3】
特開平2001−175374
【0009】
【発明が解決しようとする課題】
前記のような従来方式では、物理オブジェクトに対して結び付けられた情報は、接続先、例えば、ディスプレイ、プリンタ、メール、などに表示や出力することなしに、その内容を確認することはできない。そのため、その物理オブジェクトに、タイトルなどその内容が確認できる情報を記載するなどする必要がある。また、そうしたインデクスは、ある塊の映像や音声といった時系列情報に対しては効果的ではない。
【0010】
本発明の目的は、コンピュータ上のデジタル空間を実世界空間に拡張することができ、直感的で且つ容易なインタフェース環境を提供することにある。
【0011】
また、本発明の更なる目的は、そのデジタル空間と実世界空間の間のインタラクションを直感的で且つ容易にすることができる、優れたインタフェース環境を提供することにある。
【0012】
【課題を解決するための手段】
本発明は、上記課題を参酌してなされたものであり、コンピュータ上のデジタル空間が実世界空間に拡張される環境において、2つの空間の媒介となる物理オブジェクトを利用したインタフェース環境を構築するための情報制御システムであって、
環境に配置された各種情報を表示可能な1つ以上の表示面と、表示面を撮影可能な1つ以上の画像入力手段と、表示面上に載置され各種情報を表示可能な1つ以上の可搬型の物理オブジェクトと、表示面、画像入力手段、及び物理オブジェクトに接続された環境埋め込み型のコンピュータとを備え、
コンピュータは、画像入力手段による入力画像に基づいて、各物理オブジェクトの識別及び位置を認識する処理と、実行するタスクを選択する処理と、該選択されたタスクの実行結果に基づいて、表示面、及び物理オブジェクトに表示されている情報を更新する処理とを具備することを特徴とする。
【0013】
コンピュータは、以下に示すような処理を実施することが可能である。
【0014】
(a)該コンピュータから各物理オブジェクトに表示指示した情報の内容を利用して、各物理オブジェクトの識別及び位置を認識する処理。
【0015】
(b)該コンピュータから各表示面に表示指示した情報の内容を利用して、各物理オブジェクトの識別及び位置を認識する処理。
【0016】
(c)連続した各物理オブジェクトの識別情報、及び位置情報、現在の各物理オブジェクトの位置に対応する各表示面上の位置に表示されている情報、及び各物理オブジェクトに表示されている情報を利用して、実行するタスクを選択する処理。
【0017】
(d)各表示面に表示されている情報を更新する際に、現在の各物理オブジェクトの位置に該当する箇所を避けて、表示するための情報を生成し、表示面へ情報を提示する処理。
【0018】
(e)各物理オブジェクトに表示されている情報を更新する際に、表示対象となる情報が映像情報といった時系列情報である場合に、該情報を要約した情報を生成し、物理オブジェクトへ情報を提示する処理。
【0019】
また、物理オブジェクトは、固有のIDを有しており、ネットワークにて前記コンピュータに接続され、該コンピュータから表示指示のあった情報を表示する処理を有してもよい。
【0020】
また、本発明の他の側面は、コンピュータ上のデジタル空間が実世界空間に拡張される環境において、2つの空間の媒介となる物理オブジェクトを利用したインタフェース環境を構築するための情報制御方法であって、前記環境は、各種情報を表示可能な1つ以上の表示面と、前記表示面を撮影可能な1つ以上の画像入力手段と、前記表示面上に載置され各種情報を表示可能な1つ以上の可搬型の物理オブジェクトと、前記表示面、画像入力手段、及び物理オブジェクトに接続された環境埋め込み型のコンピュータとを備え、
(1)前記画像入力手段による入力画像に基づいて、各物理オブジェクトの識別情報、及び位置情報を認識するステップと、(2)実行する処理を選択するステップと、(3)該選択された処理の結果に基づいて、前記表示面、及び物理オブジェクトに表示されている情報を更新するステップとを具備することを特徴とする情報制御方法である。
【0021】
前記ステップ(1)では、前記コンピュータから各物理オブジェクトに表示指示した情報の内容を利用して、各物理オブジェクトの識別及び位置を認識してもよく、また、前記コンピュータから各表示面に表示指示した情報の内容を利用して、各物理オブジェクトの識別及び位置を認識してもよい。
【0022】
前記ステップ(2)では、連続した各物理オブジェクトの識別情報、及び位置情報、現在の各物理オブジェクトの位置に対応する各表示面上の位置に表示されている情報、及び各物理オブジェクトに表示されている情報を利用して、実行する処理を選択してもよい。
【0023】
前記ステップ(3)では、各表示面に表示されている情報を更新する際に、現在の各物理オブジェクトの位置に該当する箇所を避けて、表示するための情報を生成し、表示面へ情報を提示してもよく、また、各物理オブジェクトに表示されている情報を更新する際に、表示対象となる情報が映像情報といった時系列情報である場合には、該情報を要約した情報を生成し、物理オブジェクトへ情報を提示してもよい。
【0024】
以上のような情報制御システム及び方法により、本発明は、デジタル空間と実世界空間の2つの空間の媒介を、実世界における物理オブジェクトを利用することにより、コンピュータ上のデジタル空間が実世界空間に拡張される好適な環境を提供する。
【0025】
また、本発明に係る物理オブジェクトの操作により、その空間間のインタラクションを制御することにより、直感的で且つ容易なインタフェース環境を構築する。
【0026】
また、本発明によれば、各物理オブジェクトが視覚的な情報を表示する手段を有することにより、処理対象となる情報がどのような情報であるかがすぐ分かり、直感的で且つ容易なインタフェース環境を構築する。
【0027】
さらには、各物理オブジェクトに対して個々のデジタル情報の対応づけが可能になることにより、コンピュータの論理空間に埋没してしまいがちなデジタル情報の効果的な管理を実現する。
【0028】
以上のことから、本発明は、以下の情報制御システム、情報制御方法、プログラム、記録媒体を特徴とする。
【0029】
(情報制御システムの発明)
(1)コンピュータ上のデジタル空間が実世界空間に拡張される環境において、該2つの空間の媒介となる物理オブジェクトを利用したインタフェース環境を構築するための情報制御システムであって、
前記環境に配置された各種情報を表示可能な1つ以上の表示面と、前記表示面を撮影可能な1つ以上の画像入力手段と、前記表示面上に載置され各種情報を表示可能な1つ以上の可搬型の物理オブジェクトと、前記表示面、画像入力手段、及び物理オブジェクトに接続された環境埋め込み型のコンピュータとを備え、
前記コンピュータは、前記画像入力手段による入力画像に基づいて、各物理オブジェクトの識別及び位置を認識する処理と、実行するタスクを選択する処理と、該選択されたタスクの実行結果に基づいて、前記表示面及び物理オブジェクトに表示されている情報を更新する処理のための各手段を備えたことを特徴とする。
【0030】
(2)前記コンピュータは、該コンピュータから各物理オブジェクトに表示指示した情報の内容を利用して、各物理オブジェクトの識別及び位置を認識することを特徴とする。
【0031】
(3)前記コンピュータは、該コンピュータから各表示面に表示指示した情報の内容を利用して、各物理オブジェクトの識別、及び位置を認識することを特徴とする。
【0032】
(4)コンピュータ上のデジタル空間が実世界空間に拡張される環境において、該2つの空間の媒介となる物理オブジェクトを利用したインタフェース環境を構築するための情報制御システムであって、
前記環境に配置された各種情報を表示可能な1つ以上の表示面と、前記表示面上に載置され各種情報を表示可能な1つ以上の可搬型の物理オブジェクトと、前記物理オブジェクトをセンシングする1つ以上のセンシング手段と、前記表示面、物理オブジェクト、及びセンシング手段に接続された環境埋め込み型のコンピュータとを備え、
前記コンピュータは、前記センシング手段のセンシング結果に基づいて、各物理オブジェクトの識別及び位置を認識する処理と、実行するタスクを選択する処理と、該選択されたタスクの実行結果に基づいて、前記表示面及び物理オブジェクトに表示されている情報を更新する処理のための各手段を備えたことを特徴とする。
【0033】
(5)前記コンピュータは、連続した各物理オブジェクトの識別情報、及び位置情報、現在の各物理オブジェクトの位置に対応する各表示面上の位置に表示されている情報、及び各物理オブジェクトに表示されている情報を利用して、実行するタスクを選択する手段を備えたことを特徴とする。
【0034】
(6)前記コンピュータは、各表示面に表示されている情報を更新する際に、現在の各物理オブジェクトの位置に該当する箇所を避けて、表示するための情報を生成し、表示面へ情報を提示することを特徴とする。
【0035】
(7)前記コンピュータは、各物理オブジェクトに表示されている情報を更新する際に、表示対象となる情報が映像情報といった時系列情報である場合に、該情報を要約した情報を生成し、物理オブジェクトへ情報を提示することを特徴とする。
【0036】
(8)前記物理オブジェクトは、固有のIDを有しており、ネットワークにて前記コンピュータに接続され、該コンピュータから表示指示のあった情報を表示する手段を有することを特徴とする。
【0037】
(情報制御方法の発明)
(9)コンピュータ上のデジタル空間が実世界空間に拡張される環境において、該2つの空間の媒介となる物理オブジェクトを利用したインタフェース環境を構築するための情報制御方法であって、
前記環境は、各種情報を表示可能な1つ以上の表示面と、前記表示面を撮影可能な1つ以上の画像入力手段と、前記表示面上に載置され各種情報を表示可能な1つ以上の可搬型の物理オブジェクトと、前記表示面、画像入力手段、及び物理オブジェクトに接続された環境埋め込み型のコンピュータとを備え、
前記コンピュータは、
(1)前記画像入力手段による入力画像に基づいて、各物理オブジェクトの識別及び位置を認識するステップと、
(2)実行するタスクを選択するステップと、
(3)該選択されたタスクの実行結果に基づいて、前記表示面及び物理オブジェクトに表示されている情報を更新するステップとを具備することを特徴とする。
【0038】
(10)前記ステップ(1)では、前記コンピュータから各物理オブジェクトに表示指示した情報の内容を利用して、各物理オブジェクトの識別及び位置を認識することを特徴とする。
【0039】
(11)前記ステップ(1)では、前記コンピュータから各表示面に表示指示した情報の内容を利用して、各物理オブジェクトの識別及び位置を認識することを特徴とする。
【0040】
(12)コンピュータ上のデジタル空間が実世界空間に拡張される環境において、該2つの空間の媒介となる物理オブジェクトを利用したインタフェース環境を構築するための情報制御方法であって、
前記環境は、各種情報を表示可能な1つ以上の表示面と、前記表示面上に載置され各種情報を表示可能な1つ以上の可搬型の物理オブジェクトと、前記物理オブジェクトをセンシングする1つ以上のセンシング手段と、前記表示面、物理オブジェクト、及びセンシング手段に接続された環境埋め込み型のコンピュータとを備え、
前記コンピュータは、
(1)前記センシング手段のセンシング結果に基づいて、各物理オブジェクトの識別及び位置を認識するステップと、
(2)実行するタスクを選択するステップと、
(3)該選択されたタスクの実行結果に基づいて、前記表示面、及び物理オブジェクトに表示されている情報を更新するステップとを具備することを特徴とする。
【0041】
(13)前記ステップ(2)では、連続した各物理オブジェクトの識別情報、及び位置情報、現在の各物理オブジェクトの位置に対応する各表示面上の位置に表示されている情報、及び各物理オブジェクトに表示されている情報を利用して実行するタスクを選択することを特徴とする。
【0042】
(14)前記ステップ(3)では、各表示面に表示されている情報を更新する際に、現在の各物理オブジェクトの位置に該当する箇所を避けて、表示するための情報を生成し、表示面へ情報を提示することを特徴とする。
【0043】
(15)前記ステップ(3)では、各物理オブジェクトに表示されている情報を更新する際に、表示対象となる情報が映像情報といった時系列情報である場合に、該情報を要約した情報を生成し、物理オブジェクトへ情報を提示することを特徴とする。
【0044】
(プログラムの発明)
(16)請求項9〜15のいずれか1項に記載の情報制御方法を、コンピュータで実行可能に構成したことを特徴とする。
【0045】
(記録媒体の発明)
(17)請求項9〜15のいずれか1項に記載の情報制御方法を、コンピュータで実行可能に構成したプログラムを記録したことを特徴とする。
【0046】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施形態を詳細に説明する。図1には、本発明に係る環境の構築例を模式的に示している。
【0047】
同図に示すように、テーブル11や壁面12にデジタル情報を表示するために、1つ以上のLCD(Liquid Crystal Display)プロジェクタ13あるいは埋め込み型ディスプレイ(プラズマディスプレイなど平面型が望ましい。)が、設置されている。各LCDプロジェクタ13、及びディスプレイが表示する内容は、ネットワーク14によって相互接続されたコンピュータ15によって制御される。
【0048】
テーブル11や壁面12におけるデジタル情報の表示内容や、テーブル11上で操作される物理オブジェクト16を捕捉するために、カメラ17が設置されている。カメラ17は、例えばCCD(Charge Coupled Device)カメラでよく、固定であってもよいし、パン・チルト・ズームなどの制御可能なカメラであってもよい。このカメラ17によって捕捉された画像は、ネットワーク14によって相互接続されたコンピュータ15によって画像処理が行われる。
【0049】
また、物理オブジェクト16は、表示手段が備えられたものであれば、どのような可搬型の物理オブジェクトでもよく、各物理オブジェクトが表示する内容は、ネットワーク14によって接続されたコンピュータ15によって制御される。このネットワークは、通常のケーブル接続でもよいし、より自由度の高い操作を実現するために、無線LAN(Local Area Network)などその他の手段によって接続されていてもよい。
【0050】
更に、これらに接続された環境埋め込み型のコンピュータ15は、例えば米IBM社のPC/AT(Personal Computer/Advanced Technology)互換機でよい。なお、図1に示した例では、コンピュータ15は1台のコンピュータとして構成されているが、複数台のネットワーク接続されたコンピュータシステムとして構成されても、勿論問題はない。このときには、各コンピュータ同士は、NIC(Network Interface Card)経由でネットワーク14に相互接続されてもよいし、無線LANなどその他の手段によって接続されていてもよい。
【0051】
図2は、コンピュータ15に搭載する情報制御のためのソフトウェア構成を示す。画像入力部15Aはカメラ17で撮影した現在または時系列画像を取得し、表示指示受付部15BはLCDプロジェクタ13で表示面に映出する画像に対する表示指示情報とその映出画像を受付ける。物理オブジェクトの識別・位置認識部15Cは表示指示受付けした情報の内容を利用して、各物理オブジェクトの識別と位置を認識し、このうちの識別はカメラからの入力画像から表示指示された物理オブジェクトを同定し、位置は、同定に際して2次元的な位置が認識されており、この位置での物理オブジェクトの傾きなど3次元的に認識する。
【0052】
実行タスク選択部15Dは、認識部15Cで認識された、現在の各物理オブジェクトの位置情報から、現在の各物理オブジェクトの位置に対応する各表示面上の位置に表示されている情報と各物理オブジェクトに表示されている情報を対応付け、物理オブジェクトの動きを利用した3種類のパターンA,B,Cに応じて実行するタスクを選択する。
【0053】
情報更新部15Eは、選択されたタスクの実行結果を元に、表示面に表示されている情報を更新する。これには、表示情報を生成し、次に表示するための情報を表示面にマッピングした出力をし、時系列情報の要約情報を物理オブジェクトへ出力する。
【0054】
続いて、本発明に係るコンピュータによって実現される各種処理について、図3に示す処理フローを参照して以下に詳細に説明する。
【0055】
まず、カメラ画像入力(S1)と表示面画像入力とそれに対する表示画像指示受付け(S2)によって、各物理オブジェクト16の識別、及び位置を認識する(S3,S4)。この仕組みは以下のようになる。
【0056】
カメラ17は、テーブル11の表面全体を視野範囲とするように設置されており、こうして撮影された画像から、テーブル11上の各物理オブジェクト16の位置、及びその識別子を認識する。このとき、この物理オブジェクトに表示されている情報はコンピュータにより制御されているので、この制御と入力された画像を利用して処理を実施するが、これらは二つの側面を有する。
【0057】
ひとつは、本来表示されているはずの情報の見え方が、画像入力手段を経由して得られた画像と同じものはどこであるかを利用するものである。即ち、色情報の一致、時系列情報の一致を捉えることにより、この物理オブジェクトを同定する。色情報を利用する場合、表示指示した模様、図形のパターンとその個々の色情報に対して、得られた画像中の関連する箇所を探索する。また、時系列情報を利用する場合、表示指示した各ドットのオンオフや色変化のパターンに対して、得られた画像中の関連する箇所を探索する。こうして、一致が見られた箇所を探索することにより、各物理オブジェクトを同定する(S3)。この識別により、表示面上での2次元的な位置も認識していることになる。
【0058】
これに続いて、各物理オブジェクトが傾いている、回転しているといった動き、あるいは、表示面上に置かれている、空間に持ち上げられている、といった3次元的な位置を認識するために、もうひとつの側面である、本来表示されているはずの情報の見え方が、画像入力手段を経由して得られた画像とどれくらい異なっているかを利用する。即ち、形状の変化を捉えることにより、この物理オブジェクトの表示面の3次元位置、及びその傾きを算出する。表示指示した形状や模様に対して、得られた画像中の対応する形状や模様を探索する。そして、これらの形状や模様がどれくらい異なっているかを判定し、3次元位置、及びその傾きを算出する(S4)。
【0059】
また、こうした画像処理をする場合に、表示面に映し出されている情報が、その処理に悪影響を及ぼすことがある。例えば、同じような色が使われていたり、大きく輝度が変化していたりする場合、安定したロバストな画像処理が難しくなる。そこで、本実施形態では、コンピュータから各表示面に表示指示した情報の内容も利用して、各物理オブジェクトの識別、及び位置を認識する。実際には、現在及び過去の撮影画像間の差分を利用したり、現在の撮影画像と表示面に表示されている画像の差分を利用したりすることによって、使用する画像の補正処理を行う。
【0060】
次いで、実行するタスクを選択する仕組みについて説明する。本実施形態では、連続した各物理オブジェクトの識別情報、及び位置情報、現在の各物理オブジェクトの位置に対応する各表示面上の位置に表示されている情報、及び各物理オブジェクトに表示されている情報を利用して、実行するタスクを選択する。
【0061】
現在の各物理オブジェクトの位置情報から、現在の各物理オブジェクトの位置に対応する各表示面上の位置に表示されている情報と各物理オブジェクトに表示されている情報を対応付ける。これらに表示されるデジタル情報は、制御情報、及びコンテンツ情報であり、パターンとして以下の3種類がある。
【0062】
(A)物理オブジェクト:制御情報、表示面:コンテンツ情報、(B)物理オブジェクト:コンテンツ情報、表示面:制御情報、(C)物理オブジェクト:コンテンツ情報、表示面:コンテンツ情報である。
【0063】
上記のパターン(A)の場合、物理オブジェクトの動きを利用して、物理オブジェクトに表示されている制御情報の中から選択し、タスクを決定する。パターン(B)の場合、物理オブジェクトの動きを利用して、表示面に表示されている制御情報の中から選択し、タスクを決定する。パターン(C)の場合、物理オブジェクトの動きを利用して、どちらからどちらへの制御かを決定する。
【0064】
こうして対応づけられたデジタル情報に対して実行するタスクを選択する(S5)。このとき、物理オブジェクトの動きは、連続した各物理オブジェクトの位置情報から判定する。物理オブジェクトを置く、持ち上げる、傾ける、回転させる、といった動きを判定し、この動きに対して割り当てられた操作を実行する。
【0065】
最後に、選択されたタスクの実行結果に基づいて、表示面、及び物理オブジェクトに表示されている情報を更新する仕組みについて説明する。
【0066】
本実施形態では,各表示面に表示されている情報を更新する際に、現在の物理オブジェクトの位置に該当する箇所を避けて、表示するための情報を生成し(S6)、表示面へ情報を出力する(S7)。この情報出力は、実行するタスクを選択する処理において、取得している現在の各物理オブジェクトの位置情報を利用して、その位置に該当する箇所を除いた領域に、次に表示するための情報をマッピングして、表示面へ出力する。
【0067】
さらには、各物理オブジェクトに表示されている情報を更新する際に、映像情報といった時系列情報を要約して生成した情報を、物理オブジェクトへ出力する(S8)。この要約処理は、内容の変化やカメラワークの変化に基づいて行われる。
【0068】
以下、これまで述べてきた処理の一例を説明する。いま、図4の(a)に示すように、表示面21上にデジタル情報として「Menu」24が表示されており、また、この表示面21上に物理オブジェクト23が置かれていたとする。このとき、物理オブジェクト23を傾ける操作をすることにより、制御情報である「Select」を表示させる。さらに、図4の(b)に示すように、この物理オブジェクト23を、「Menu」24のひとつである「TV Program」上に重ねる。これにより、表示面22では「TV Program」が「Select」されることになる。
【0069】
これにあわせて表示面に表示されている情報が更新され、図5の(a)に示すように、表示面31上にデジタル情報として「TV Program」34が表示される。続いて、物理オブジェクト33を傾ける操作をすることにより、制御情報である「Record」を表示させる。さらに、図5の(b)に示すように、この物理オブジェクト33を、「TV Program」34のひとつである「ドラマ」上に重ねる。これにより、表示面32では、この「ドラマ」が物理オブジェクト33に「Record」されることになる。
【0070】
こうして「Record」が完了すると、図6の(a)に示すように、表示面41上の物理オブジェクト43に、この映像が要約されて映しだされることになる。続いて、この映像を他の機器にコピーしたいとして、メニューを選択する等の操作によって、図6の(b)に示すように、表示面42上に、選択可能な機器類44,45、及び46を表示させる。このとき、物理オブジェクト43を傾けて機器45に重ねることにより、物理オブジェクト43から機器45への制御が決定され、物理オブジェクト43に「Record」されている映像が機器45にコピーされることになる。
【0071】
また、この映像中のあるシーンと類似のシーンを検索したいとして、メニューを選択する等の操作によって、図7の(a)に示すように、表示面51上に、制御情報である「類似検索」54を表示させ、これに対して、該当するシーンを表示させた状態の物理オブジェクト53を合わせる。これにより、このシーンと類似のシーンが物理オブジェクト53に「Record」された映像中から探索される。これにあわせて、図7の(b)に示すように、表示面52に表示されている情報が更新され、検索結果55が表示される。
【0072】
また、本発明に係る環境の他の構築例としては、図8に示すようなものがある。同図に示すように、センシングテーブル61にデジタル情報を表示するために、1つ以上のLCDプロジェクタ62が設置されている。各LCDプロジェクタが表示する内容は、ネットワーク63によって相互接続されたコンピュータ64によって制御される。
【0073】
このセンシングテーブル61は、この上の物理オブジェクト65をセンシングするための装置であり、例えば、RFID(Radio Frequency Identification)システムを利用するとしてよい。このとき、物理オブジェクト65は、ICメモリと通信回路から成るチップと超小型アンテナなどから構成される。また、センシングテーブル61は、RFモジュールとコントロールモジュールから構成され、接続された環境埋め込み型のコンピュータ64からのデータを物理オブジェクト65に書き込んだり、物理オブジェクト65からのデータを環境埋め込み型のコンピュータ64に送ったりする。また、この環境埋め込み型のコンピュータ64は、上述した構成例と同様である。
【0074】
なお、以上までに示した処理の一部もしくは全部の処理機能を、コンピュータを用いて実現できること、あるいは、各処理手順をコンピュータに実行させることができることは言うまでもなく、コンピュータでその各処理機能を実現するためのプログラム、あるいは、コンピュータにその処理手順を実行させるためのプログラムを、そのコンピュータが読み取り可能な記録媒体、例えば、フレキシブルディスクや、MO,ROM、メモリカード、CD,DVD、リムーバルディスクなどに記録して、保存したり、提供したりすることが可能であり、また、インターネットのような通信ネットワークを通じて、配布したりすることが可能である。
【0075】
また、以上までは、特定の実施形態を参照しながら、本発明について具体的に説明したが、本発明は上記の実施形態例に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。つまり、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。
【0076】
【発明の効果】
以上述べてきたように、本発明によれば、デジタル空間と実世界空間の2つの空間の媒介を、実世界における物理オブジェクトを利用することにより、コンピュータ上のデジタル空間が実世界空間に拡張される好適な環境を提供することができる。
【0077】
また、本発明に係る物理オブジェクトの操作により、その空間間のインタラクションを制御することにより、直感的で且つ容易なインタフェース環境を構築することができる。
【0078】
また、本発明によれば、各物理オブジェクトが視覚的な情報を表示する手段を有することにより、処理対象となる情報がどのような情報であるかがすぐ分かり、直感的で且つ容易なインタフェース環境を構築することができる。
【0079】
更には、各物理オブジェクトに対して個々のデジタル情報の対応づけが可能になることにより、コンピュータの論理空間に埋没してしまいがちなデジタル情報の効果的な管理を実現することができる。
【図面の簡単な説明】
【図1】本発明に係る環境の構成例を模式的に示した図。
【図2】本発明に係る情報制御のためのコンピュータのソフトウェア構成図。
【図3】本発明に係る情報制御の処理フロー。
【図4】本発明に係る処理の一例を説明するための図。
【図5】本発明に係る処理の一例を説明するための図。
【図6】本発明に係る処理の一例を説明するための図。
【図7】本発明に係る処理の一例を説明するための図。
【図8】本発明に係る処理の一例を説明するための図。
【符号の説明】
11…テーブル(表示面)
12…壁面(表示面)
13…LCDプロジェクタ
14…ネットワーク
15…コンピュータ
16…物理オブジェクト
17…カメラ
21、22…表示面
23…物理オブジェクト
24…Menu
31、32…表示面
33…物理オブジェクト
34…TV Program
41、42…表示面
43…物理オブジェクト
44、45、46…機器
51、52…表示面
53…物理オブジェクト
54…類似検索
55…検索結果
61…センシングテーブル(表示面)
62…LCDプロジェクタ
63…ネットワーク
64…コンピュータ
65…物理オブジェクト
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention mediates these two spaces in the construction of an interface environment that is intuitive and easy for a user to understand to a computer, particularly in an environment where a digital space (virtual space) on a computer is extended to a real world space. Constructing an interface environment.
[0002]
[Prior art]
Recently, a real-world oriented user interface has been attracting attention as a new technique related to a computer interface. This is a technology for extending a digital space originally limited on a computer display to a real world space. According to this real-world oriented interface, not only the display but also the table on which the computer is installed, the wall of the room, etc. function as an extended display, and the digital space is extended to the entire room where the computer is installed.
[0003]
As a technique for realizing these real-world oriented interfaces, for example, there is a technique called Pick-and-Drop (see Non-Patent Document 1). This is an extension of "drag and drop" used in a graphical user interface (GUI) environment, and maps the movement of data, etc. between multiple computers to intuitive operations in the real world. Technique. However, this approach requires picking the object on the computer and then dropping it on the target, which must be a very intuitive but spatially and temporally continuous operation.
[0004]
In order to eliminate such restrictions, a method has been proposed in which an object on a computer is linked to a physical object and the physical object is used. For example, MediaBlocks (see Non-Patent Document 2) uses a physical block to associate an object on a computer with an ID of the block, temporarily store the object in the block, and store the object in another computer. And so on.
[0005]
Further, there is an information input / output system and an information input / output method which are extended so that all objects used everyday can be used by attaching visual markers to physical objects (see Patent Document 3).
[0006]
[Non-patent document 1]
J. Rekimoto, Pick-and-Drop, Direct Manipulation Technology for Multiple Computer Environments, UIST '97, p. 31-39, 1997
[0007]
[Non-patent document 2]
B. Ullmer, H .; Ishii and D.S. Glas, MediaBocks, Physical containers, transports and controls for online media, SIGGRAPH'98, P.S. 379-386.1998
[0008]
[Patent Document 3]
JP-A-2001-175374
[0009]
[Problems to be solved by the invention]
In the conventional method described above, the information linked to the physical object cannot be confirmed without displaying or outputting the information to a connection destination, for example, a display, a printer, a mail, or the like. Therefore, it is necessary to describe information such as a title that can be confirmed in the physical object. Moreover, such an index is not effective for time-series information such as a certain block of video and audio.
[0010]
An object of the present invention is to provide an intuitive and easy interface environment that can expand a digital space on a computer into a real world space.
[0011]
It is a further object of the present invention to provide an excellent interface environment that allows intuitive and easy interaction between the digital space and the real world space.
[0012]
[Means for Solving the Problems]
The present invention has been made in view of the above-described problems, and is for constructing an interface environment using a physical object serving as a medium between two spaces in an environment where a digital space on a computer is extended to a real world space. Information control system,
One or more display surfaces capable of displaying various information arranged in an environment, one or more image input means capable of photographing the display surface, and one or more mounted on the display surface and capable of displaying various information Comprising a portable physical object, a display surface, an image input means, and an environment-embedded computer connected to the physical object,
The computer, based on the input image by the image input means, a process of recognizing the identification and position of each physical object, a process of selecting a task to be executed, and a display surface based on an execution result of the selected task, And a process of updating information displayed on the physical object.
[0013]
The computer can execute the following processing.
[0014]
(A) A process of recognizing the identification and position of each physical object by using the content of information instructed to be displayed on each physical object from the computer.
[0015]
(B) A process of recognizing the identification and position of each physical object using the content of the information instructed to be displayed on each display surface from the computer.
[0016]
(C) Identification information and position information of each continuous physical object, information displayed at a position on each display surface corresponding to the current position of each physical object, and information displayed on each physical object. The process of selecting a task to execute using it.
[0017]
(D) When updating the information displayed on each display surface, a process of generating information to be displayed avoiding a portion corresponding to the current position of each physical object and presenting the information to the display surface .
[0018]
(E) When updating the information displayed on each physical object, if the information to be displayed is time-series information such as video information, information that summarizes the information is generated, and the information is transmitted to the physical object. The process to be presented.
[0019]
Further, the physical object may have a unique ID, be connected to the computer via a network, and have a process of displaying information instructed to be displayed by the computer.
[0020]
Another aspect of the present invention is an information control method for constructing an interface environment using a physical object serving as a medium between two spaces in an environment where a digital space on a computer is expanded into a real world space. The environment includes at least one display surface capable of displaying various information, at least one image input unit capable of photographing the display surface, and capable of displaying various information placed on the display surface. Comprising one or more portable physical objects, an environment-embedded computer connected to the display surface, the image input means, and the physical objects,
(1) a step of recognizing identification information and position information of each physical object based on an image input by the image input means, (2) a step of selecting a processing to be executed, and (3) the selected processing. Updating the information displayed on the display surface and the physical object based on the result of (1).
[0021]
In the step (1), the identification and position of each physical object may be recognized using the content of the information instructed to be displayed on each physical object from the computer, and the display instruction may be given from the computer on each display surface. The identification and position of each physical object may be recognized using the content of the information thus obtained.
[0022]
In the step (2), identification information and position information of each continuous physical object, information displayed at a position on each display surface corresponding to the current position of each physical object, and displayed at each physical object The process to be executed may be selected by using the information that is stored.
[0023]
In the step (3), when updating the information displayed on each display surface, information to be displayed is generated by avoiding a portion corresponding to the current position of each physical object, and the information is displayed on the display surface. May be presented, and when updating the information displayed on each physical object, if the information to be displayed is time-series information such as video information, information that summarizes the information is generated. Then, the information may be presented to the physical object.
[0024]
According to the information control system and method as described above, the present invention uses a physical object in the real world as a medium between two spaces, a digital space and a real world space, so that the digital space on the computer becomes the real world space. Provides a preferred environment to be extended.
[0025]
In addition, by controlling the interaction between the spaces by operating the physical object according to the present invention, an intuitive and easy interface environment is constructed.
[0026]
Further, according to the present invention, since each physical object has means for displaying visual information, it is possible to immediately understand what kind of information is the information to be processed, and to have an intuitive and easy interface environment. To build.
[0027]
Furthermore, since it is possible to associate each piece of digital information with each physical object, effective management of digital information that tends to be buried in the logical space of a computer is realized.
[0028]
As described above, the present invention is characterized by the following information control system, information control method, program, and recording medium.
[0029]
(Invention of information control system)
(1) In an environment in which a digital space on a computer is extended to a real world space, an information control system for constructing an interface environment using a physical object serving as a medium between the two spaces,
One or more display surfaces capable of displaying various information arranged in the environment, one or more image input means capable of photographing the display surface, and capable of displaying various information placed on the display surface Comprising one or more portable physical objects, an environment-embedded computer connected to the display surface, the image input means, and the physical objects,
The computer, based on an image input by the image input unit, a process of recognizing the identification and position of each physical object, a process of selecting a task to be executed, and based on an execution result of the selected task, It is characterized by including each unit for processing for updating information displayed on the display surface and the physical object.
[0030]
(2) The computer recognizes the identification and position of each physical object by using the content of the information instructed to be displayed on each physical object from the computer.
[0031]
(3) The computer recognizes the identification and the position of each physical object by using the content of the information instructed to be displayed on each display surface from the computer.
[0032]
(4) In an environment in which a digital space on a computer is extended to a real world space, an information control system for constructing an interface environment using a physical object serving as a medium between the two spaces,
One or more display surfaces capable of displaying various information arranged in the environment, one or more portable physical objects mounted on the display surface and capable of displaying various information, and sensing the physical object And one or more sensing means, and an environment-embedded computer connected to the display surface, the physical object, and the sensing means.
The computer performs a process of recognizing an identification and a position of each physical object based on a sensing result of the sensing unit, a process of selecting a task to be executed, and the display based on an execution result of the selected task. It is characterized by comprising means for updating information displayed on the surface and the physical object.
[0033]
(5) The computer displays identification information and position information of each continuous physical object, information displayed at a position on each display surface corresponding to the current position of each physical object, and displayed on each physical object. Means for selecting a task to be executed by utilizing the information stored in the memory.
[0034]
(6) When updating the information displayed on each display surface, the computer generates information to be displayed while avoiding a portion corresponding to the current position of each physical object, and outputs the information to the display surface. Is presented.
[0035]
(7) When updating information displayed on each physical object, if the information to be displayed is time-series information such as video information, the computer generates information summarizing the information, It is characterized by presenting information to an object.
[0036]
(8) The physical object has a unique ID, is connected to the computer via a network, and has means for displaying information instructed to be displayed by the computer.
[0037]
(Invention of information control method)
(9) In an environment in which a digital space on a computer is extended to a real world space, an information control method for constructing an interface environment using a physical object serving as a medium between the two spaces,
The environment includes at least one display surface capable of displaying various information, at least one image input unit capable of photographing the display surface, and at least one image input device mounted on the display surface and capable of displaying various information. The portable physical object and the display surface, the image input means, comprising an environment embedded computer connected to the physical object,
The computer is
(1) recognizing the identification and the position of each physical object based on the image input by the image input means;
(2) selecting a task to be performed;
(3) updating information displayed on the display surface and the physical object based on the execution result of the selected task.
[0038]
(10) In the step (1), the identification and the position of each physical object are recognized using the content of information instructed to be displayed on each physical object from the computer.
[0039]
(11) In the step (1), the identification and the position of each physical object are recognized by using the content of the information instructed to be displayed on each display surface from the computer.
[0040]
(12) An information control method for constructing an interface environment using a physical object serving as a medium between the two spaces in an environment where a digital space on a computer is extended to a real world space,
The environment includes one or more display surfaces capable of displaying various information, one or more portable physical objects mounted on the display surface and capable of displaying various information, and sensing 1 of the physical object. Comprising one or more sensing means, an environment-embedded computer connected to the display surface, the physical object, and the sensing means,
The computer is
(1) recognizing the identification and position of each physical object based on the sensing result of the sensing means;
(2) selecting a task to be performed;
(3) updating information displayed on the display surface and the physical object based on the execution result of the selected task.
[0041]
(13) In the step (2), identification information and position information of each continuous physical object, information displayed at a position on each display surface corresponding to the current position of each physical object, and each physical object A task to be executed is selected by using the information displayed in (1).
[0042]
(14) In the step (3), when updating the information displayed on each display surface, information to be displayed is generated while avoiding a portion corresponding to the current position of each physical object, and the information is displayed. Presenting information on the surface.
[0043]
(15) In the step (3), when information displayed on each physical object is updated, if information to be displayed is time-series information such as video information, information that summarizes the information is generated. And presenting information to a physical object.
[0044]
(Invention of program)
(16) The information control method according to any one of claims 9 to 15 is configured to be executable by a computer.
[0045]
(Invention of recording medium)
(17) A computer-executable program for recording the information control method according to any one of claims 9 to 15 on a computer.
[0046]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 schematically shows an example of construction of an environment according to the present invention.
[0047]
As shown in FIG. 1, at least one LCD (Liquid Crystal Display) projector 13 or an embedded display (preferably a flat type such as a plasma display) is installed to display digital information on the table 11 and the wall surface 12. Have been. The contents displayed by each LCD projector 13 and the display are controlled by computers 15 interconnected by a network 14.
[0048]
A camera 17 is installed to capture display contents of digital information on the table 11 and the wall surface 12 and a physical object 16 operated on the table 11. The camera 17 may be, for example, a CCD (Charge Coupled Device) camera, may be fixed, or may be a controllable camera such as pan / tilt / zoom. Images captured by the camera 17 are processed by a computer 15 interconnected by a network 14.
[0049]
In addition, the physical object 16 may be any portable physical object as long as the display means is provided, and the content displayed by each physical object is controlled by the computer 15 connected by the network 14. . This network may be a normal cable connection, or may be connected by other means such as a wireless LAN (Local Area Network) in order to realize a more flexible operation.
[0050]
Further, the environment-embedded computer 15 connected thereto may be, for example, a PC / AT (Personal Computer / Advanced Technology) compatible machine manufactured by IBM Corporation in the United States. In the example shown in FIG. 1, the computer 15 is configured as one computer. However, the computer 15 may be configured as a plurality of network-connected computer systems. At this time, the computers may be interconnected to the network 14 via a NIC (Network Interface Card), or may be connected by other means such as a wireless LAN.
[0051]
FIG. 2 shows a software configuration for information control mounted on the computer 15. The image input unit 15A acquires a current or time-series image captured by the camera 17, and the display instruction receiving unit 15B receives display instruction information for an image projected on the display surface by the LCD projector 13 and the projected image. The physical object identification / position recognition unit 15C recognizes the identification and position of each physical object using the content of the information received from the display instruction. The two-dimensional position is recognized at the time of the identification, and the position is recognized three-dimensionally, such as the inclination of the physical object at this position.
[0052]
Based on the current position information of each physical object recognized by the recognizing unit 15C, the execution task selecting unit 15D compares the information displayed at the position on each display surface corresponding to the current position of each physical object with each physical object. The information displayed on the object is associated, and a task to be executed is selected according to three types of patterns A, B, and C using the movement of the physical object.
[0053]
The information updating unit 15E updates information displayed on the display surface based on the execution result of the selected task. For this, display information is generated, information to be displayed next is mapped on a display surface, and output is performed, and summary information of time-series information is output to a physical object.
[0054]
Next, various processes realized by the computer according to the present invention will be described in detail below with reference to the process flow shown in FIG.
[0055]
First, the identification and position of each physical object 16 are recognized by inputting a camera image (S1), inputting a display surface image, and receiving a display image instruction (S2) (S3, S4). This mechanism is as follows.
[0056]
The camera 17 is installed so that the field of view covers the entire surface of the table 11, and recognizes the position of each physical object 16 on the table 11 and its identifier from the image thus captured. At this time, since the information displayed on the physical object is controlled by the computer, processing is performed using this control and the input image, but these have two aspects.
[0057]
One is to use where the appearance of the information that should be displayed is the same as the image obtained via the image input means. That is, the physical object is identified by catching the coincidence of the color information and the coincidence of the time-series information. When the color information is used, a related portion in the obtained image is searched for the pattern and graphic pattern indicated for display and the individual color information. When time-series information is used, a related portion in the obtained image is searched for the on / off or color change pattern of each dot designated for display. Thus, each physical object is identified by searching for a location where a match is found (S3). By this identification, the two-dimensional position on the display surface is also recognized.
[0058]
Following this, in order to recognize the three-dimensional position of each physical object, such as tilting or rotating, or being placed on the display surface or being lifted into space, Another aspect, that is, how the appearance of information that should be displayed is different from the image obtained via the image input means is used. That is, the three-dimensional position of the display surface of the physical object and the inclination thereof are calculated by capturing the change in the shape. With respect to the shape or pattern designated for display, a corresponding shape or pattern in the obtained image is searched. Then, it is determined how different these shapes and patterns are, and a three-dimensional position and its inclination are calculated (S4).
[0059]
When such image processing is performed, the information displayed on the display surface may adversely affect the processing. For example, when the same color is used or when the luminance greatly changes, stable and robust image processing becomes difficult. Therefore, in the present embodiment, the identification and position of each physical object are recognized using the content of the information instructed to be displayed on each display surface from the computer. Actually, the correction processing of the image to be used is performed by using the difference between the current and past captured images, or by using the difference between the current captured image and the image displayed on the display surface.
[0060]
Next, a mechanism for selecting a task to be executed will be described. In the present embodiment, identification information and position information of each continuous physical object, information displayed at a position on each display surface corresponding to the current position of each physical object, and displayed on each physical object Use the information to select a task to perform.
[0061]
Based on the current position information of each physical object, information displayed at a position on each display surface corresponding to the current position of each physical object is associated with information displayed on each physical object. The digital information displayed thereon is control information and content information, and has the following three types of patterns.
[0062]
(A) Physical object: control information, display surface: content information, (B) physical object: content information, display surface: control information, (C) physical object: content information, display surface: content information.
[0063]
In the case of the above pattern (A), a task is determined by selecting from the control information displayed on the physical object using the movement of the physical object. In the case of the pattern (B), a task is determined by selecting from the control information displayed on the display surface using the movement of the physical object. In the case of the pattern (C), the direction of the control is determined by using the movement of the physical object.
[0064]
A task to be executed on the digital information associated with the information is selected (S5). At this time, the movement of the physical object is determined from the position information of each continuous physical object. A motion such as placing, lifting, tilting, and rotating the physical object is determined, and an operation assigned to the motion is performed.
[0065]
Finally, a mechanism for updating the information displayed on the display surface and the physical object based on the execution result of the selected task will be described.
[0066]
In the present embodiment, when updating the information displayed on each display surface, information to be displayed is generated avoiding a portion corresponding to the current position of the physical object (S6), and the information is displayed on the display surface. Is output (S7). This information output uses, in the process of selecting a task to be executed, the position information of each of the acquired physical objects, and information to be displayed next in an area excluding a portion corresponding to the position. Is mapped and output to the display surface.
[0067]
Further, when updating the information displayed on each physical object, information generated by summarizing time-series information such as video information is output to the physical object (S8). This summarization process is performed based on a change in content or a change in camera work.
[0068]
Hereinafter, an example of the processing described above will be described. Now, as shown in FIG. 4A, it is assumed that “Menu” 24 is displayed on the display surface 21 as digital information, and that the physical object 23 is placed on the display surface 21. At this time, by performing an operation of tilting the physical object 23, “Select” that is control information is displayed. Further, as shown in FIG. 4B, the physical object 23 is superimposed on “TV Program” which is one of “Menu” 24. Thereby, “TV Program” is “Selected” on the display surface 22.
[0069]
In accordance with this, the information displayed on the display surface is updated, and “TV Program” 34 is displayed on the display surface 31 as digital information, as shown in FIG. Subsequently, by performing an operation of tilting the physical object 33, “Record” which is control information is displayed. Further, as shown in FIG. 5B, the physical object 33 is overlaid on “drama” which is one of “TV Program” 34. As a result, on the display surface 32, the “drama” is “Recorded” by the physical object 33.
[0070]
When “Record” is completed in this way, this video is summarized and displayed on the physical object 43 on the display surface 41 as shown in FIG. Subsequently, assuming that the user wants to copy this video to another device, the user can select a menu and perform an operation such as selecting a menu on the display surface 42, as shown in FIG. 46 is displayed. At this time, by tilting the physical object 43 and superimposing it on the device 45, the control from the physical object 43 to the device 45 is determined, and the video “Recorded” on the physical object 43 is copied to the device 45. .
[0071]
In addition, assuming that the user wants to search for a scene similar to a certain scene in the video, an operation such as selecting a menu causes the control information “similarity search” to be displayed on the display surface 51 as shown in FIG. 54 is displayed, and the physical object 53 in a state where the corresponding scene is displayed is matched with this. As a result, a scene similar to this scene is searched for in the video “Recorded” on the physical object 53. At the same time, as shown in FIG. 7B, the information displayed on the display surface 52 is updated, and the search result 55 is displayed.
[0072]
FIG. 8 shows another example of construction of the environment according to the present invention. As shown in the figure, one or more LCD projectors 62 are installed to display digital information on the sensing table 61. The content displayed by each LCD projector is controlled by computers 64 interconnected by a network 63.
[0073]
The sensing table 61 is a device for sensing the physical object 65 thereon, and may use, for example, an RFID (Radio Frequency Identification) system. At this time, the physical object 65 includes a chip including an IC memory and a communication circuit, a micro antenna, and the like. The sensing table 61 is composed of an RF module and a control module, and writes data from the connected environment-embedded computer 64 to the physical object 65, and writes data from the physical object 65 to the environment-embedded computer 64. I send it. The environment-embedded computer 64 is the same as the configuration example described above.
[0074]
It is needless to say that some or all of the processing functions described above can be realized using a computer, or that each processing procedure can be executed by a computer. Or a program for causing a computer to execute the processing procedure on a computer-readable recording medium such as a flexible disk, an MO, a ROM, a memory card, a CD, a DVD, and a removable disk. It can be recorded and stored or provided, and can be distributed through a communication network such as the Internet.
[0075]
Although the present invention has been described above in detail with reference to a specific embodiment, the present invention is not limited to the above-described embodiment, and various modifications may be made without departing from the scope of the invention. It goes without saying that it is possible. That is, the present invention has been disclosed by way of example, and should not be construed as limiting.
[0076]
【The invention's effect】
As described above, according to the present invention, a digital space on a computer is extended to a real world space by using a physical object in the real world as a medium between two spaces, a digital space and a real world space. A suitable environment can be provided.
[0077]
In addition, by controlling the interaction between the spaces by operating the physical object according to the present invention, an intuitive and easy interface environment can be constructed.
[0078]
Further, according to the present invention, since each physical object has means for displaying visual information, it is possible to immediately understand what kind of information is the information to be processed, and to have an intuitive and easy interface environment. Can be constructed.
[0079]
Furthermore, since individual digital information can be associated with each physical object, effective management of digital information that tends to be buried in the logical space of a computer can be realized.
[Brief description of the drawings]
FIG. 1 is a diagram schematically showing a configuration example of an environment according to the present invention.
FIG. 2 is a software configuration diagram of a computer for information control according to the present invention.
FIG. 3 is a processing flow of information control according to the present invention.
FIG. 4 is a diagram for explaining an example of a process according to the present invention.
FIG. 5 is a diagram illustrating an example of a process according to the present invention.
FIG. 6 is a diagram illustrating an example of a process according to the present invention.
FIG. 7 is a diagram illustrating an example of a process according to the present invention.
FIG. 8 is a diagram illustrating an example of a process according to the present invention.
[Explanation of symbols]
11 ... Table (display surface)
12 ... wall surface (display surface)
13 LCD projector
14. Network
15 ... Computer
16 ... Physical object
17… Camera
21, 22 ... display surface
23 ... Physical object
24 ... Menu
31, 32 ... display surface
33 ... Physical object
34… TV Program
41, 42 ... display surface
43 ... Physical object
44, 45, 46 ... Equipment
51, 52 ... display surface
53 ... Physical object
54… Similar search
55… Search results
61 ... Sensing table (display surface)
62 ... LCD projector
63… Network
64 ... Computer
65 ... Physical object

Claims (17)

コンピュータ上のデジタル空間が実世界空間に拡張される環境において、該2つの空間の媒介となる物理オブジェクトを利用したインタフェース環境を構築するための情報制御システムであって、
前記環境に配置された各種情報を表示可能な1つ以上の表示面と、前記表示面を撮影可能な1つ以上の画像入力手段と、前記表示面上に載置され各種情報を表示可能な1つ以上の可搬型の物理オブジェクトと、前記表示面、画像入力手段、及び物理オブジェクトに接続された環境埋め込み型のコンピュータとを備え、
前記コンピュータは、前記画像入力手段による入力画像に基づいて、各物理オブジェクトの識別及び位置を認識する処理と、実行するタスクを選択する処理と、該選択されたタスクの実行結果に基づいて、前記表示面及び物理オブジェクトに表示されている情報を更新する処理のための各手段を備えたことを特徴とする情報制御システム。
An information control system for constructing an interface environment using a physical object serving as a medium between the two spaces in an environment where a digital space on a computer is extended to a real world space,
One or more display surfaces capable of displaying various information arranged in the environment, one or more image input means capable of photographing the display surface, and capable of displaying various information placed on the display surface Comprising one or more portable physical objects, an environment-embedded computer connected to the display surface, the image input means, and the physical objects,
The computer, based on an image input by the image input unit, a process of recognizing the identification and position of each physical object, a process of selecting a task to be executed, and based on an execution result of the selected task, An information control system, comprising: means for updating information displayed on a display surface and a physical object.
前記コンピュータは、該コンピュータから各物理オブジェクトに表示指示した情報の内容を利用して、各物理オブジェクトの識別及び位置を認識することを特徴とする請求項1に記載の情報制御システム。The information control system according to claim 1, wherein the computer recognizes the identification and the position of each physical object by using the content of information instructed to be displayed on each physical object from the computer. 前記コンピュータは、該コンピュータから各表示面に表示指示した情報の内容を利用して、各物理オブジェクトの識別、及び位置を認識することを特徴とする請求項1に記載の情報制御システム。The information control system according to claim 1, wherein the computer recognizes the identification and the position of each physical object by using the content of information instructed to be displayed on each display surface from the computer. コンピュータ上のデジタル空間が実世界空間に拡張される環境において、該2つの空間の媒介となる物理オブジェクトを利用したインタフェース環境を構築するための情報制御システムであって、
前記環境に配置された各種情報を表示可能な1つ以上の表示面と、前記表示面上に載置され各種情報を表示可能な1つ以上の可搬型の物理オブジェクトと、前記物理オブジェクトをセンシングする1つ以上のセンシング手段と、前記表示面、物理オブジェクト、及びセンシング手段に接続された環境埋め込み型のコンピュータとを備え、
前記コンピュータは、前記センシング手段のセンシング結果に基づいて、各物理オブジェクトの識別及び位置を認識する処理と、実行するタスクを選択する処理と、該選択されたタスクの実行結果に基づいて、前記表示面及び物理オブジェクトに表示されている情報を更新する処理のための各手段を備えたことを特徴とする情報制御システム。
An information control system for constructing an interface environment using a physical object serving as a medium between the two spaces in an environment where a digital space on a computer is extended to a real world space,
One or more display surfaces capable of displaying various information arranged in the environment, one or more portable physical objects mounted on the display surface and capable of displaying various information, and sensing the physical object And one or more sensing means, and an environment-embedded computer connected to the display surface, the physical object, and the sensing means.
The computer performs a process of recognizing an identification and a position of each physical object based on a sensing result of the sensing unit, a process of selecting a task to be executed, and the display based on an execution result of the selected task. An information control system comprising: means for updating information displayed on a surface and a physical object.
前記コンピュータは、連続した各物理オブジェクトの識別情報、及び位置情報、現在の各物理オブジェクトの位置に対応する各表示面上の位置に表示されている情報、及び各物理オブジェクトに表示されている情報を利用して、実行するタスクを選択する手段を備えたことを特徴とする請求項1または4に記載の情報制御システム。The computer calculates identification information and position information of each successive physical object, information displayed at a position on each display surface corresponding to the current position of each physical object, and information displayed on each physical object. 5. The information control system according to claim 1, further comprising: means for selecting a task to be executed by using the information control system. 前記コンピュータは、各表示面に表示されている情報を更新する際に、現在の各物理オブジェクトの位置に該当する箇所を避けて、表示するための情報を生成し、表示面へ情報を提示することを特徴とする請求項1または4に記載の情報制御システム。The computer, when updating the information displayed on each display surface, avoids a location corresponding to the current position of each physical object, generates information for display, and presents the information to the display surface. The information control system according to claim 1 or 4, wherein: 前記コンピュータは、各物理オブジェクトに表示されている情報を更新する際に、表示対象となる情報が映像情報といった時系列情報である場合に、該情報を要約した情報を生成し、物理オブジェクトへ情報を提示することを特徴とする請求項1または4に記載の情報制御システム。When updating the information displayed on each physical object, if the information to be displayed is time-series information such as video information, the computer generates information that summarizes the information and sends the information to the physical object. The information control system according to claim 1, wherein the information control system presents the information. 前記物理オブジェクトは、固有のIDを有しており、ネットワークにて前記コンピュータに接続され、該コンピュータから表示指示のあった情報を表示する手段を有することを特徴とする請求項1または4に記載の情報制御システム。5. The physical object according to claim 1, wherein the physical object has a unique ID, is connected to the computer via a network, and has a unit that displays information for which a display instruction is given from the computer. 6. Information control system. コンピュータ上のデジタル空間が実世界空間に拡張される環境において、該2つの空間の媒介となる物理オブジェクトを利用したインタフェース環境を構築するための情報制御方法であって、
前記環境は、各種情報を表示可能な1つ以上の表示面と、前記表示面を撮影可能な1つ以上の画像入力手段と、前記表示面上に載置され各種情報を表示可能な1つ以上の可搬型の物理オブジェクトと、前記表示面、画像入力手段、及び物理オブジェクトに接続された環境埋め込み型のコンピュータとを備え、
前記コンピュータは、
(1)前記画像入力手段による入力画像に基づいて、各物理オブジェクトの識別及び位置を認識するステップと、
(2)実行するタスクを選択するステップと、
(3)該選択されたタスクの実行結果に基づいて、前記表示面及び物理オブジェクトに表示されている情報を更新するステップと、
を具備することを特徴とする情報制御方法。
An information control method for constructing an interface environment using a physical object serving as a medium between the two spaces in an environment where a digital space on a computer is extended to a real world space,
The environment includes at least one display surface capable of displaying various information, at least one image input unit capable of photographing the display surface, and at least one image input device mounted on the display surface and capable of displaying various information. The portable physical object and the display surface, the image input means, comprising an environment embedded computer connected to the physical object,
The computer is
(1) recognizing the identification and the position of each physical object based on the image input by the image input means;
(2) selecting a task to be performed;
(3) updating information displayed on the display surface and the physical object based on an execution result of the selected task;
An information control method, comprising:
前記ステップ(1)では、前記コンピュータから各物理オブジェクトに表示指示した情報の内容を利用して、各物理オブジェクトの識別及び位置を認識することを特徴とする請求項9に記載の情報制御方法。10. The information control method according to claim 9, wherein in the step (1), the identification and the position of each physical object are recognized using the content of information instructed to be displayed on each physical object from the computer. 前記ステップ(1)では、前記コンピュータから各表示面に表示指示した情報の内容を利用して、各物理オブジェクトの識別及び位置を認識することを特徴とする請求項9に記載の情報制御方法。10. The information control method according to claim 9, wherein in the step (1), the identification and the position of each physical object are recognized by using contents of information instructed to be displayed on each display surface from the computer. コンピュータ上のデジタル空間が実世界空間に拡張される環境において、該2つの空間の媒介となる物理オブジェクトを利用したインタフェース環境を構築するための情報制御方法であって、
前記環境は、各種情報を表示可能な1つ以上の表示面と、前記表示面上に載置され各種情報を表示可能な1つ以上の可搬型の物理オブジェクトと、前記物理オブジェクトをセンシングする1つ以上のセンシング手段と、前記表示面、物理オブジェクト、及びセンシング手段に接続された環境埋め込み型のコンピュータとを備え、
前記コンピュータは、
(1)前記センシング手段のセンシング結果に基づいて、各物理オブジェクトの識別及び位置を認識するステップと、
(2)実行するタスクを選択するステップと、
(3)該選択されたタスクの実行結果に基づいて、前記表示面、及び物理オブジェクトに表示されている情報を更新するステップと、
を具備することを特徴とする情報制御方法。
An information control method for constructing an interface environment using a physical object serving as a medium between the two spaces in an environment where a digital space on a computer is extended to a real world space,
The environment includes one or more display surfaces capable of displaying various information, one or more portable physical objects mounted on the display surface and capable of displaying various information, and sensing 1 of the physical object. Comprising one or more sensing means, an environment-embedded computer connected to the display surface, the physical object, and the sensing means,
The computer is
(1) recognizing the identification and position of each physical object based on the sensing result of the sensing means;
(2) selecting a task to be performed;
(3) updating information displayed on the display surface and the physical object based on the execution result of the selected task;
An information control method, comprising:
前記ステップ(2)では、連続した各物理オブジェクトの識別情報、及び位置情報、現在の各物理オブジェクトの位置に対応する各表示面上の位置に表示されている情報、及び各物理オブジェクトに表示されている情報を利用して実行するタスクを選択することを特徴とする請求項9または12に記載の情報制御方法。In the step (2), identification information and position information of each continuous physical object, information displayed at a position on each display surface corresponding to the current position of each physical object, and displayed at each physical object 13. The information control method according to claim 9, wherein a task to be executed is selected by using the information. 前記ステップ(3)では、各表示面に表示されている情報を更新する際に、現在の各物理オブジェクトの位置に該当する箇所を避けて、表示するための情報を生成し、表示面へ情報を提示することを特徴とする請求項9または12に記載の情報制御方法。In the step (3), when updating the information displayed on each display surface, information to be displayed is generated by avoiding a portion corresponding to the current position of each physical object, and the information is displayed on the display surface. The information control method according to claim 9, wherein the information is presented. 前記ステップ(3)では、各物理オブジェクトに表示されている情報を更新する際に、表示対象となる情報が映像情報といった時系列情報である場合に、該情報を要約した情報を生成し、物理オブジェクトへ情報を提示することを特徴とする請求項9または12に記載の情報制御方法。In the step (3), when information displayed on each physical object is updated, if information to be displayed is time-series information such as video information, information that summarizes the information is generated. The information control method according to claim 9, wherein information is presented to an object. 請求項9〜15のいずれか1項に記載の情報制御方法を、コンピュータで実行可能に構成したことを特徴とする情報制御方法のプログラム。A program for an information control method, wherein the information control method according to any one of claims 9 to 15 is configured to be executable by a computer. 請求項9〜15のいずれか1項に記載の情報制御方法を、コンピュータで実行可能に構成したプログラムを記録したことを特徴とする記録媒体。A recording medium on which is recorded a program configured to execute the information control method according to any one of claims 9 to 15 on a computer.
JP2002326545A 2002-11-11 2002-11-11 Information control system, information control method, program for the same, recording medium recording that program Pending JP2004164069A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002326545A JP2004164069A (en) 2002-11-11 2002-11-11 Information control system, information control method, program for the same, recording medium recording that program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002326545A JP2004164069A (en) 2002-11-11 2002-11-11 Information control system, information control method, program for the same, recording medium recording that program

Publications (1)

Publication Number Publication Date
JP2004164069A true JP2004164069A (en) 2004-06-10

Family

ID=32805435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002326545A Pending JP2004164069A (en) 2002-11-11 2002-11-11 Information control system, information control method, program for the same, recording medium recording that program

Country Status (1)

Country Link
JP (1) JP2004164069A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178205A (en) * 2004-12-22 2006-07-06 Olympus Imaging Corp Digital platform device
JP2007026121A (en) * 2005-07-15 2007-02-01 National Institute Of Advanced Industrial & Technology Information input/output system
JP2008047115A (en) * 2006-08-15 2008-02-28 Fuji Xerox Co Ltd Method, system and program for supporting object control
JP2008242367A (en) * 2007-03-29 2008-10-09 Fuji Xerox Co Ltd Display-control device, display device, display system, and program
JP2008276219A (en) * 2008-04-15 2008-11-13 Olympus Imaging Corp Digital platform device
JP2009110493A (en) * 2007-10-10 2009-05-21 Ricoh Co Ltd Information processor, information processing method, and program thereof
JP2010079529A (en) * 2008-09-25 2010-04-08 Ricoh Co Ltd Information processor, information processing method, program therefor and recording medium
US7768550B2 (en) * 2005-04-05 2010-08-03 Olympus Imaging Corp. Camera capable of data transmission
JP2010277552A (en) * 2009-06-01 2010-12-09 Canon Inc Output controller, control method therefor, and program
JP2011043855A (en) * 2010-11-22 2011-03-03 Olympus Imaging Corp Digital platform device
JP2011221542A (en) * 2011-05-30 2011-11-04 Olympus Imaging Corp Digital platform device
JP2011248150A (en) * 2010-05-27 2011-12-08 Kyocera Corp Portable electronic device and image projection unit
JP2012238065A (en) * 2011-05-10 2012-12-06 Pioneer Electronic Corp Information processing device, information processing system, and information processing method
JP2012252356A (en) * 2012-08-10 2012-12-20 Fuji Xerox Co Ltd Display control device, display system and program
JP2013228878A (en) * 2012-04-25 2013-11-07 Sharp Corp Display system and display program
JP2014215977A (en) * 2013-04-30 2014-11-17 キヤノン株式会社 Image processing device, image processing method, and program
JP2016521882A (en) * 2013-06-03 2016-07-25 ダクリ エルエルシーDaqri, LLC Data manipulation based on real world object manipulation
WO2018096827A1 (en) * 2016-11-25 2018-05-31 ソニー株式会社 Display control device, display control method, and computer program

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178205A (en) * 2004-12-22 2006-07-06 Olympus Imaging Corp Digital platform device
US7535489B2 (en) 2004-12-22 2009-05-19 Olympus Imaging Corp. Digital platform apparatus
JP4664665B2 (en) * 2004-12-22 2011-04-06 オリンパスイメージング株式会社 Digital platform device
US7768550B2 (en) * 2005-04-05 2010-08-03 Olympus Imaging Corp. Camera capable of data transmission
JP2007026121A (en) * 2005-07-15 2007-02-01 National Institute Of Advanced Industrial & Technology Information input/output system
JP2008047115A (en) * 2006-08-15 2008-02-28 Fuji Xerox Co Ltd Method, system and program for supporting object control
JP2008242367A (en) * 2007-03-29 2008-10-09 Fuji Xerox Co Ltd Display-control device, display device, display system, and program
US9024841B2 (en) 2007-03-29 2015-05-05 Fuji Xerox Co., Ltd. Display device that depicts images on first display apparatus in accordance with position of a second display apparatus and display system and computer readable-medium thereof
US8482483B2 (en) 2007-03-29 2013-07-09 Fuji Xerox Co., Ltd. Display control device, display, display system and computer-readable medium
JP2009110493A (en) * 2007-10-10 2009-05-21 Ricoh Co Ltd Information processor, information processing method, and program thereof
JP2008276219A (en) * 2008-04-15 2008-11-13 Olympus Imaging Corp Digital platform device
JP2010079529A (en) * 2008-09-25 2010-04-08 Ricoh Co Ltd Information processor, information processing method, program therefor and recording medium
JP2010277552A (en) * 2009-06-01 2010-12-09 Canon Inc Output controller, control method therefor, and program
JP2011248150A (en) * 2010-05-27 2011-12-08 Kyocera Corp Portable electronic device and image projection unit
JP2011043855A (en) * 2010-11-22 2011-03-03 Olympus Imaging Corp Digital platform device
JP2012238065A (en) * 2011-05-10 2012-12-06 Pioneer Electronic Corp Information processing device, information processing system, and information processing method
JP2011221542A (en) * 2011-05-30 2011-11-04 Olympus Imaging Corp Digital platform device
JP2013228878A (en) * 2012-04-25 2013-11-07 Sharp Corp Display system and display program
JP2012252356A (en) * 2012-08-10 2012-12-20 Fuji Xerox Co Ltd Display control device, display system and program
JP2014215977A (en) * 2013-04-30 2014-11-17 キヤノン株式会社 Image processing device, image processing method, and program
JP2016521882A (en) * 2013-06-03 2016-07-25 ダクリ エルエルシーDaqri, LLC Data manipulation based on real world object manipulation
WO2018096827A1 (en) * 2016-11-25 2018-05-31 ソニー株式会社 Display control device, display control method, and computer program
US11023050B2 (en) 2016-11-25 2021-06-01 Sony Corporation Display control device, display control method, and computer program

Similar Documents

Publication Publication Date Title
JP2004164069A (en) Information control system, information control method, program for the same, recording medium recording that program
JP3926837B2 (en) Display control method and apparatus, program, and portable device
US8379098B2 (en) Real time video process control using gestures
JP6121647B2 (en) Information processing apparatus, information processing method, and program
JP2001175374A (en) Information input/output system and information input/ output method
JP2001265523A (en) Information input/output system, information input/ output method and program storage medium
EP2363793A2 (en) Information processing apparatus, information processing method, and program
JP2013200793A (en) Information processing apparatus, information processing method, and program
US9110512B2 (en) Interactive input system having a 3D input space
JP2008206153A (en) Method of providing area zoom functionality for camera
JP2012094138A (en) Apparatus and method for providing augmented reality user interface
JP6337907B2 (en) Display control apparatus, display control method, and program
JP2016201714A (en) Display control device and display control method
JP2001136504A (en) System and method for information input and output
EP2840517A2 (en) Method and apparatus for managing images in electronic device
JP2011054162A (en) Interactive information control system and program
US20150261385A1 (en) Picture signal output apparatus, picture signal output method, program, and display system
CN109691081A (en) For controlling the method for monitor camera and using the monitoring system of this method
JP6314564B2 (en) Image processing apparatus, image processing method, and program
CN112051919B (en) Interaction method and interaction system based on position
CN107924272B (en) Information processing apparatus, information processing method, and program
JP2006222622A (en) Input control system, and controller and control program
JP2009301290A (en) Information display system, information display method, information display program and recording medium
JP5115496B2 (en) Content remote control system and remote control terminal
JP2022014758A (en) Information processing device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070508

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070807

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071009

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071120