JP2002232849A - Interface device - Google Patents

Interface device

Info

Publication number
JP2002232849A
JP2002232849A JP2001219787A JP2001219787A JP2002232849A JP 2002232849 A JP2002232849 A JP 2002232849A JP 2001219787 A JP2001219787 A JP 2001219787A JP 2001219787 A JP2001219787 A JP 2001219787A JP 2002232849 A JP2002232849 A JP 2002232849A
Authority
JP
Japan
Prior art keywords
time
desk
data
book
interface device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001219787A
Other languages
Japanese (ja)
Inventor
Nobuyuki Doi
伸幸 土井
Hirohiko Mori
博彦 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2001219787A priority Critical patent/JP2002232849A/en
Publication of JP2002232849A publication Critical patent/JP2002232849A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an interface device where time is assigned to an object itself and time is designated by designating an object by a user. SOLUTION: A picture input part 1, an object deciding part 2 and an application 3 are incorporated in a desk 5. A video camera photographing work performed on the desk 5 is equivalent to the picture input part 1. A PC is the object deciding part 2 and is the application 3 is performed. Numeral 4 is a mirror. When a worker works on the desk, physical objects are treated almost in the flat world on the desk. A computer picture projected by a display exists in the almost vertical world with respect to a plane on the desk. The computer picture is projected on the desk and it is considered to have the same dimensions as those of the real world. Thus, the coming and going of the real world and the virtual world become continuous.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、インターフェース
装置、より詳細には、オブジェクトそのものに時間をア
サインし、ユーザがそのオブジェクトを指定すると、そ
れに対応する時間が指定されるようにしたインターフェ
ース装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an interface device, and more particularly, to an interface device in which time is assigned to an object itself, and when a user designates the object, a time corresponding to the object is designated.

【0002】[0002]

【従来の技術】特開平11−191061号公報に記載
の「コンピュータプログラム生成装置およびコンピュー
タプログラム生成方法」は、物理空間で物体を配置・操
作することによって、コンピュータプログラムを生成す
る手法である。この従来技術を、ビデオデータや音楽デ
ータの編集を行う際に使用すると以下のようになる。
2. Description of the Related Art The "computer program generation device and computer program generation method" described in JP-A-11-191061 is a technique for generating a computer program by arranging and operating an object in a physical space. When this conventional technique is used when editing video data and music data, the following is achieved.

【0003】ビデオデータや音楽データを取り扱う場合
には、数百時間以上にもおよぶ時間幅の中から30分の
1秒単位を指定する等、高い精度が要求される作業を素
早く繰り返し行う必要がある。このような作業におい
て、前記公報に記載の方法は、人間が作業するが故に生
じる、取り扱う物理空間の広さの限界や、物体を配置す
る際の位置精度の悪さ、物体を操作する際の操作精度の
悪さ故に、当該作業に要求される精度を満たしてはいな
い。また、これら物理空間の広さの限界や、人間の位置
・操作精度の悪さを、物理空間における物体の位置が示
す時間単位などを変化させることによって回避するとな
れば、その時間単位の変化を行う作業分だけ無駄な作業
が増加してしまう。以上の点より、従来の方式は、ビデ
オデータや音楽データを扱う作業を行う場合には大きな
問題点があるといえる。
When handling video data and music data, it is necessary to quickly and repeatedly perform operations requiring high accuracy, such as specifying a unit of 1/30 second from a time width of several hundred hours or more. is there. In such work, the method described in the above-mentioned gazette, the limit of the size of the physical space to be handled, caused by human work, poor positional accuracy when arranging the object, operation when operating the object Due to poor accuracy, the accuracy required for the work is not satisfied. In addition, if the limitation of the size of the physical space and the inaccuracy of the position and operation accuracy of the human can be avoided by changing the time unit indicated by the position of the object in the physical space, the time unit is changed. Useless work increases by the work. From the above points, it can be said that the conventional method has a significant problem when performing an operation using video data or music data.

【0004】[0004]

【発明が解決しようとする課題】現在、マルチメディア
データ編集の分野において、DTV・DTM(DTV:
ビデオ編集ソフト・アニメーション作成ソフト、DT
M:シーケンスソフト・サンプリングソフト)ソフトウ
エアは、コンピュータに欠かす事のできないツールとな
っている。今まで各種のメディアの作成・編集にはそれ
ぞれ特化した専用のマシンを必要としたものが、演算器
のスペック向上により単一マシン上のDTV・DTMソ
フトウエアで統合的に編集することが可能になった。こ
のDTV・DTMソフトウエアの出現は、従来よりもは
るかに低コストの手段を提供するようになった。しか
し、次々リリースされるDTM・DTVソフトウエアは
プロユースの高度な要求に答えていく一方で、その機能
は複雑化した。このことはプロユースを満足させる一方
で、ユーザに多大な労力と時間、高いモチベーションを
必要とするまでに至っている。
At present, in the field of multimedia data editing, DTV / DTM (DTV:
Video editing software / animation creation software, DT
M: sequence software / sampling software) Software has become an indispensable tool for computers. Until now, the creation and editing of various types of media required specialized machines, but with the improved specifications of the computing unit, it is now possible to perform integrated editing with DTV / DTM software on a single machine Became. The advent of DTV DTM software has provided a much lower cost means than before. However, while the DTM / DTV software released one after another responded to the high demands of professional use, its functions became more complicated. While this satisfies professional use, it has required a great deal of effort, time and motivation for users.

【0005】また、一方で、現在までに、DTV・DT
Mソフトウエアは低コストを背景にエントリー(アマチ
ュア)ユーザまでも裾野が広がった。年々の高機能化は
エントリーユーザに対しては取り扱いの敷居が高く、初
心者向けを標榜するものも登場するようになった。しか
し、これらは機能の削減によって難易度を落としている
ために、専門的アプリケーションに比べるとデータ操作
の自由度が低い。エントリーユーザもプロユーザほどで
はないとはいえ、機能に対する要求がある為に、今後、
PCの低価格化により更に広まりつつあるエントリー市
場の競争とあいまって、DTM・DTMアプリケーショ
ン製作会社は「機能と難易度」の相反する要求に答えて
いかざるを得なくなっている。
On the other hand, up to now, DTV / DT
Due to the low cost of M software, the base has expanded to entry (amateur) users. With the increasing functionality year by year, the handling threshold for entry users is high, and those advocating for beginners have come to appear. However, since the degree of difficulty is reduced by reducing the number of functions, the degree of freedom of data operation is lower than that of a specialized application. Although the entry user is not as good as the professional user, due to the demand for functions,
Combined with the growing competition in the entry market due to the lower prices of PCs, DTM / DTM application manufacturers are compelled to respond to conflicting requirements for "function and difficulty."

【0006】DTV・DTMアプリケーション市場でこ
のような動きがあった一方で、物理的に存在する物体を
操作することによって、ソフトウエアの操作を簡便に行
う技術が近年提案されてきている。この技術は現実世界
の物体と仮想世界(コンピュータ・ソフトウエア)を結
びつけ、ユーザに理解と操作のしやすさを提供するもの
である。勿論、DTV・DTMソフトウエアでの応用も
考えられてはいるが、これらの技術はDTV・DTMに
おいては決して単純に取り入れられるものではない。な
ぜなら、DTV・DTMの分野においてこの技術を応用
する場合には、フレーム(時間)の取り扱いが非常に大
きな問題となるからである。DTVの取り扱う映像にし
ても、DTMの取り扱う音楽にしても、大量の映像・音
楽データを取り扱うと同時に、広大な時間枠の中から極
めて高い精度で一瞬のフレーム(時間)を頭出ししなく
てはならない。放送現場や音楽製作現場においては、そ
れを“瞬時”に要求されることがあり、現実世界と仮想
世界を結びつけたインターフェースは、ユーザに対する
理解のしやすさ、機能の使いやすさを提供する一方で、
この即時性(即興性)を同時に満たすことが何より重要
課題とされている。
[0006] While there has been such a movement in the DTV / DTM application market, a technique for easily operating software by operating a physically existing object has recently been proposed. This technology connects the real world object with the virtual world (computer software) and provides the user with ease of understanding and operation. Of course, application with DTV / DTM software is also considered, but these techniques are not simply adopted in DTV / DTM. This is because, when this technology is applied in the field of DTV / DTM, handling of frames (time) becomes a very serious problem. Regardless of the video handled by the DTV or the music handled by the DTM, a large amount of video and music data is handled, and at the same time, an instantaneous frame (time) is searched from a vast time frame with extremely high accuracy. Not be. Broadcasting sites and music production sites are sometimes called for “instantly”, and interfaces that link the real and virtual worlds provide users with easy-to-understand and easy-to-use functions. so,
Achieving this immediacy (improvement) at the same time is of paramount importance.

【0007】本発明は、上述のごとき実情に鑑みてなさ
れたもので、オブジェクトそのものに時間をアサイン
し、ユーザがそのオブジェクトを指定することにより時
間を指定するようにしたものであり、これにより、請求
項1の発明は、人間が物体を操作し位置決めすることに
より生じる時間指定の精度の悪さを解消することを可能
とし、更には、即時性(即興性)のある操作を可能とす
る。請求項2の発明は、オブジェクトの数に制限される
こと無く、様々な時間の指定を可能にすることを目的と
する。請求項3の発明は、時間パラメータの変化によ
り、オブジェクトを使用した作業中に扱える時間枠を変
更し、作業者が様々な時間を表現することを目的とす
る。請求項4の発明は、例えば、ある部位を示すと、ビ
デオデータの最初や章の最初に戻る、もしくは最後に移
動するなどのように、データの時間のならびにとらわれ
ず、オブジェクトに対して柔軟に時間設定を行うことを
目的とする。請求項5の発明は、大まかな検索を行うと
きは、時間間隔を大きく取り、細かな時間枠の中で検索
を行いたいときは、時間間隔を小さくして検索すること
を目的とする。請求項6の発明は、オブジェクトの特徴
量を一括管理することを目的とする。
The present invention has been made in view of the above-mentioned circumstances, and assigns a time to an object itself, and designates a time by a user designating the object. According to the first aspect of the present invention, it is possible to eliminate the inaccuracy of time designation caused by manipulating and positioning an object, and further, to enable an operation with immediacy (improvement). A second object of the present invention is to enable designation of various times without being limited by the number of objects. A third object of the present invention is to change a time frame that can be handled during work using an object by changing a time parameter, so that an operator can express various times. According to the invention of claim 4, for example, when a certain portion is indicated, the object can be flexibly applied to the object without being tied to the time of the data, such as returning to the beginning of the video data or moving to the beginning of the chapter, or moving to the end. The purpose is to set the time. A fifth object of the present invention is to perform a search with a large time interval when performing a rough search, and a small time interval when performing a search within a fine time frame. A sixth object of the present invention is to collectively manage the feature amount of an object.

【0008】[0008]

【課題を解決するための手段】上記の問題を解決するた
めに、請求項1の発明は、オブジェクトの表現が時間パ
ラメータを含み、オブジェクトを観察した結果を信号へ
変換する手段を持ち、その信号を送信する手段を持つ、
オブジェクト観察部と、入力として信号を受信する手段
を持ち、受信した信号よりオブジェクトの観察結果を生
成する手段を持ち、オブジェクト判別結果に対応する命
令をアプリケーションに送信する手段を持つ、命令送信
部と、を備えることを特徴としたものである。したがっ
て、オブジェクトが時間を表現したパラメータを含むた
め、オブジェクトの時間指定を正確に行うことが可能に
なる。
According to a first aspect of the present invention, an object representation includes a time parameter, and includes means for converting a result of observing the object into a signal. Having means to send
An instruction transmission unit, having an object observation unit, having means for receiving a signal as input, having means for generating an object observation result from the received signal, and having means for transmitting an instruction corresponding to the object determination result to an application; , Is provided. Therefore, since the object includes a parameter expressing time, it is possible to accurately specify the time of the object.

【0009】また、請求項2の発明は、請求項1の発明
において、前記オブジェクトがその部位によって異なる
時間を表現することを特徴としたものである。したがっ
て、複数のオブジェクトの組み合わせにより、様々な時
間を表現することが可能になる。
The invention of claim 2 is characterized in that, in the invention of claim 1, the object expresses different times depending on its part. Therefore, various times can be expressed by combining a plurality of objects.

【0010】また、請求項3の発明は、請求項1の発明
において、前記オブジェクトの表現する時間が変更可能
なことを特徴としたものである。したがって、時間パラ
メータの変化により、オブジェクトを使用した作業中に
扱える時間枠を変更し、作業者が様々な時間を表現する
ことが可能になる。
A third aspect of the present invention is characterized in that, in the first aspect of the present invention, the time for expressing the object can be changed. Therefore, by changing the time parameter, the time frame that can be handled during the work using the object can be changed, and the operator can express various times.

【0011】また、請求項4の発明は、請求項2の発明
において、前記オブジェクトの部位が表現する時間が変
更可能なことを特徴としたものである。したがって、一
つのオブジェクトに、部位a、部位b、部位c、...
部位zがあるとすると、本システムでは、それぞれが異
なる時間を表すことができる。それらのうち、例えば、
部位a、部位b、部位c、...部位zのうち、部位b
だけの一つの部位だけ、時間を変更することによって、
連続値の中に、最初の時間や最後の時間を表現すること
が可能になる。例えば、本をメタファとするインターフ
ェースの場合、本が2時間のビデオを表現している場
合、本の目次におけるページの各行の章を表す箇所がそ
れぞれ、章の最初の時間を表しているなどが表現できる
ようになる。
According to a fourth aspect of the present invention, in the second aspect of the present invention, the time expressed by the part of the object can be changed. Therefore, in one object, the parts a, b, c,. . .
Assuming that there is a site z, the system can represent different times. Among them, for example,
Site a, site b, site c,. . . Site b of site z
By changing the time, only one part,
It is possible to represent the first time and the last time in a continuous value. For example, in the case of a book-based metaphor interface, if a book represents a two-hour video, each section of each line of a page in the book table of contents represents the first time of a chapter, etc. Be able to express.

【0012】また、請求項5の発明は、請求項2の発明
において、前記オブジェクトの隣接する各部位の表現す
る時間の単位が変化することを特徴としたものである。
したがって、複数のオブジェクトの組み合わせにより、
様々な時間を表現することが可能になる。大まかな検索
を行うときは、時間間隔を大きく取り、細かな時間枠の
中で検索を行いたいときは、時間間隔を小さくして検索
すること等ができるようになる。
According to a fifth aspect of the present invention, in the second aspect of the present invention, a unit of time expressed by each adjacent part of the object is changed.
Therefore, by combining multiple objects,
It is possible to express various times. When a rough search is performed, a large time interval is set. When a search is to be performed within a small time frame, the search can be performed with a small time interval.

【0013】また、請求項6の発明は、請求項1の発明
において、前記命令送信部が前記オブジェクトの情報を
格納するデータベースから情報を受信する手段を持ち、
該データベースが前記命令送信部に情報を送信する手段
を持つことを特徴としたものである。したがって、デー
タベースを用いることによって、ユーザはデータベース
にオブジェクトの特徴量を入力し、それらを一括管理す
ることが容易になる。
According to a sixth aspect of the present invention, in the first aspect of the present invention, the command transmitting section has means for receiving information from a database storing information of the object.
The database has means for transmitting information to the command transmitting unit. Therefore, by using the database, the user can easily input the feature amounts of the objects into the database and manage them collectively.

【0014】[0014]

【発明の実施の形態】図1は、本発明によるインターフ
ェース装置のシステム構成例を示す図で、図中、101
はオブジェクト、102はオブジェクト観察部、103
はアプリケーション、104は命令送信部、105はデ
ータベースで、表現が時間パラメータを含むオブジェク
ト101をオブジェクト観察部102で観察し、命令送
信部104より判別結果に対応する命令をアプリケーシ
ョン103に送信する。データベース105はオブジェ
クト情報を格納するものである。
FIG. 1 is a diagram showing an example of the system configuration of an interface device according to the present invention.
Is an object, 102 is an object observation unit, 103
Is an application, 104 is a command transmission unit, 105 is a database, an object 101 whose expression includes a time parameter is observed by the object observation unit 102, and a command corresponding to the determination result is transmitted from the command transmission unit 104 to the application 103. The database 105 stores object information.

【0015】なお、本発明のインターフェース装置の実
施例として、以下に、使用するシステム、構築事例(作
業例)を挙げる。なお、ここで、使用するアプリケーシ
ョンはビデオデータを再生するDTV向けアプリケーシ
ョンとする。
As an embodiment of the interface device of the present invention, a system to be used and a construction example (work example) will be described below. Here, the application to be used is a DTV application for reproducing video data.

【0016】1.システム例 1.1.LiveDesk 図2は、本発明によるLiveDeskの一実施例を説
明するための図で、図2(A)は正面図、図2(B)は
側面図で、机5には、画像入力部1とオブジェクト判定
部2、アプリケーション3が一体化されている。机5上
で行われる作業を撮影するビデオカメラが画像入力部1
に相当し、PCがオブジェクト判定部2であり、該オブ
ジェクト判定部2は、なおかつ、アプリケーション3を
実行する個所でもある。なお、4は鏡である。
1. System example 1.1. LiveDesk FIG. 2 is a view for explaining an embodiment of LiveDesk according to the present invention. FIG. 2A is a front view, FIG. 2B is a side view, and the desk 5 has an image input unit 1 and The object determination unit 2 and the application 3 are integrated. A video camera that captures work performed on the desk 5 is an image input unit 1
, And the PC is the object determination unit 2, and the object determination unit 2 is also where the application 3 is executed. 4 is a mirror.

【0017】机上にコンピュータの画面を投影したの
は、現実・仮想世界の融合を考慮してのものである。作
業者が机上で作業するとき、物理的な物体はほとんど机
上の平面の世界で扱われている。だが、ディスプレイに
よって映し出されているコンピュータ画面は、机上の平
面に対してほぼ垂直の世界に存在する。つまり、現実世
界のモノと、仮想世界のモノを違った次元で扱っている
と言える。そこで、コンピュータの画面を机上に投影
し、現実世界のモノと同じ次元と見なし、現実世界と仮
想世界との行き来が連続的になるよう考慮してある。L
iveDeskでは、電子的な文書に、作業者が普段使
い慣れた本やファイルフォルダなどを使って作業するこ
とができる。
The reason why the computer screen is projected on the desk is to consider the fusion of the real and virtual worlds. When workers work on a desk, physical objects are mostly handled in a flat world on the desk. However, the computer screen displayed by the display exists in a world that is almost perpendicular to the surface of the desk. In other words, it can be said that real world objects and virtual world objects are handled in different dimensions. Therefore, the computer screen is projected on a desk, and is regarded as having the same dimension as that of the real world object, so that the continuous flow between the real world and the virtual world is considered. L
In the live Desk, a worker can work on an electronic document by using a book, a file folder, and the like which are usually used.

【0018】図3は、LiveDeskの構成例を示す
平面図、正面図、及び、側面図で、図示のように、Li
veDeskの机5の部分は、縦60cm、横100c
m、高さ70cm、材質は木材で作られており、これ
は、普段我々が使い慣れている机の大きさ、高さをもと
に設計されたものである。机5の表面5aは強化ガラス
を木の枠にはめ込む形になっている。ガラスの表面にト
レーシングペーパーを貼ることによって、机の表面をス
クリーンの代わりとし、プロジェクタ(アプリケーショ
ン)3と鏡4を使ってコンピュータの画面を机上に投影
する仕組みとなっている。図4にビデオカメラ1の固定
部分の構成を示す。
FIG. 3 is a plan view, a front view, and a side view showing a configuration example of a Live Desk. As shown in FIG.
The part of the desk 5 of veDesk is 60cm in height and 100c in width.
m, height 70cm, made of wood, which is designed based on the size and height of the desk we are used to. The surface 5a of the desk 5 has a shape in which tempered glass is fitted into a wooden frame. By attaching tracing paper to the surface of glass, the surface of the desk is used as a screen instead of the screen, and the screen of the computer is projected on the desk using the projector (application) 3 and the mirror 4. FIG. 4 shows a configuration of a fixed portion of the video camera 1.

【0019】1.2.LiveDeskを構成する機材 LiveDeskでは以下の機材が使用される。 オブジェクト判定部: PC Macintosh(CPU: PowerPC G3、 DRAM:128M) OS Mac OS 8.5 ソフトウェア開発言語 Max 液晶プロジェクタ: Proxima社 Desktop Projector 5500C デジタルビデオカメラ: ソニー(株)社 DCR−VX10001.2. Equipment for LiveDesk The following equipment is used in LiveDesk. Object judgment unit: PC Macintosh (CPU: PowerPC G3, DRAM: 128M) OS Mac OS 8.5 Software development language Max Liquid crystal projector: Proxima Desktop Projector 5500C Digital video camera: Sony Corporation DCR-VX1000

【0020】1.3.オブジェクト画像入力 図5は、PC2の処理例を説明するための図で、該PC
2は、デジタルビデオカメラ(画像入力部)1からの画
像情報を受け取るIEEE 1394 Fire Wireというバス規格
を備えている。デジタルビデオカメラ1はDV端子を備
えており、デジタルで情報を取り込み、Fire Wireケー
ブルを通してPC側に送る。現在、IEEE1394 Fire Wire
バス規格の転送レートは、最大200Mps(25MB/se
c、Ultra Wide SCSI HD使用で720×480ドットの解
像度を1秒間に30枚まで取り込むことが可能)であ
る。
1.3. FIG. 5 is a diagram for explaining a processing example of the PC 2.
2 has a bus standard called IEEE 1394 Fire Wire which receives image information from a digital video camera (image input unit) 1. The digital video camera 1 has a DV terminal, fetches information digitally, and sends it to the PC through a Fire Wire cable. Currently, IEEE1394 Fire Wire
The transfer rate of the bus standard is a maximum of 200 Mbps (25 MB / se
c, using Ultra Wide SCSI HD, it is possible to capture a resolution of 720 × 480 dots up to 30 sheets per second).

【0021】1.4.カラーコード認識 LiveDesk上でオブジェクトを認識するために、
本実施例では色紙を使ったカラーコードによる認識を取
り入れる。色認識は、360×240ドット32ビット
フルカラー映像の画像による処理を行っている。本実施
例で採用する色は赤、青、黄、緑、ピンク、黄緑、オレ
ンジの七色である。色の認識方法は、360×240ド
ットの画像をそれぞれの色にあった6つのパラメータ
(R、G、B、Y、Cr、Cb)分析によって行われ
る。RGBは光の三原色、YCrCbはカラー画像から
白黒画像にしたときの輝度(Y)と彩度(Cr、Cb)
の成分である。本実施例で設定する七色の光のパラメー
タは表1に示す通りである。
1.4. Color Code Recognition To recognize objects on LiveDesk,
In this embodiment, recognition based on a color code using colored paper is incorporated. In color recognition, processing is performed using a 360 × 240 dot 32-bit full color video image. The colors adopted in this embodiment are seven colors of red, blue, yellow, green, pink, yellow-green, and orange. The color recognition method is performed by analyzing an image of 360 × 240 dots by six parameters (R, G, B, Y, Cr, Cb) corresponding to each color. RGB is the three primary colors of light, and YCrCb is the luminance (Y) and saturation (Cr, Cb) when converting from a color image to a black and white image.
It is a component of. The parameters of the seven colors of light set in the present embodiment are as shown in Table 1.

【0022】[0022]

【表1】 [Table 1]

【0023】上記の設定によって、画像の中に同じ色が
何ドットあるかによって色判定をする。しかし、1ドッ
トずつ検出すると誤差がかなりでるため、ある位置の上
下左右が同じ色の範囲だったら検出することにする。
With the above setting, color judgment is made based on how many dots of the same color exist in the image. However, if the detection is performed one dot at a time, the error becomes considerable. Therefore, if the upper, lower, left, and right positions are within the same color range, the detection is performed.

【0024】RGB成分からYCrCb成分への色の変
換は、画素ごとのRGBの値に、適当な係数を掛けて足
し合わせることによって行われる。RGBからYCrC
bへの変換は以下の変換式によって行われる。
The color conversion from the RGB components to the YCrCb components is performed by multiplying the RGB values for each pixel by an appropriate coefficient. RGB to YCrC
Conversion to b is performed by the following conversion formula.

【0025】 Y = 0.29900 × R + 0.587000 × G + 0.11400 × B Cb = -0.16874 × R - 0.331260 × G + 0.50000 × B Cr = 0.50000 × R - 0.418690 × G - 0.081310 × BY = 0.29900 × R + 0.587000 × G + 0.11400 × B Cb = -0.16874 × R-0.331260 × G + 0.50000 × B Cr = 0.50000 × R-0.418690 × G-0.081310 × B

【0026】以上の技術により認識されたカラーコード
を信号に変換して、コンピュータ(Macintosh
G3)内部のMax(ビデオデータ処理システム)に
転送し、データベースを呼び出す。なお、ここでは、一
例としてカラーコードを挙げたが、他の手法(例えば、
2次元バーコード、3次元バーコードなど)を使用する
場合もある。
The color code recognized by the above technique is converted into a signal, and the signal is converted into a signal by a computer (Macintosh).
G3) Transfer to the internal Max (video data processing system) and call the database. Here, a color code is described as an example, but other methods (for example,
2D barcodes, 3D barcodes, etc.).

【0027】1.5.使用するソフトウエア 1.5.1.Max Maxはサウンドを中心としたマルチメディアに特化し
たプログラム言語であり、C言語をベースとして、19
86年よりフランスのIRCAM(Institut de Recherche et
de Coordination Acoustique/Musique)国立研究所で開
発が始まり、一般的な商用パッケージとして、Maci
ntosh対応版が1990年から販売される。ビデオ
データの操作可能な機能やEBL(Explanation Based L
earning:説明に基づく学習)などのコンピュータ内部に
おける処理を行う。
1.5. Software used 1.5.1. Max is a programming language specialized in multimedia centering on sound, and is based on the C language.
Since 1986, the French IRCAM (Institut de Recherche et
de Coordination Acoustique / Musique) Development started at the National Laboratory and Maci as a general commercial package
Ntosh compatible version will be on sale from 1990. Video data operable functions and EBL (Explanation Based L)
Performing internal processes such as earning (learning based on explanation).

【0028】1.5.2.QuickTime ビデオデータのファイル形式はApple Computer社のQuic
kTime4.0のmovie形式であり、再生処理はこのQuickTime
4.0を用いる。
1.5.2. QuickTime Video data file format is Apple Computer's Quick
It is a movie format of kTime4.0, and the playback process is this QuickTime
Use 4.0.

【0029】1.6.データの比較 次に、オブジェクトのデータベースの記述と、指示可能
な命令について記述する。本実施例で使用するアプリケ
ーションはビデオデータを取り扱うアプリケーションと
した。また、本実施例において説明を行う際には、ユー
ザの定めたメタフォア(比喩)を用いる。ここでは、ユ
ーザがビデオデータを再生する際に、本をメタフォアと
する場合と、ファイルキャビネットをメタフォアとする
場合を取り上げる。また、一部説明の為にヒモ型インタ
ーフェースを取り上げる。
1.6. Data Comparison Next, a description of the object database and instructions that can be specified will be described. The application used in this embodiment is an application that handles video data. In the description of this embodiment, a metaphor (metaphor) determined by the user is used. Here, when a user plays back video data, a case where a book is used as a metaphor and a case where a file cabinet is used as a metaphor are taken up. In addition, the string type interface is taken up for the sake of explanation.

【0030】1.6.1.操作可能な機能を決定するた
めに使用する知識 ビデオデータの特性を背景知識、また、本・ファイルキ
ャビネットの特性を基底リテラルとして、EBL(Expl
anation Based Learning:説明に基づく学習)によって
操作可能な機能を決定する(図6)。最初に、ビデオデ
ータと本・ファイルキャビネットの特性を比較する。次
に、共通するビデオデータの特性をメタフォアの特性に
アサインして、機能毎に用意された、機能を付加させる
ために必要な特性と照らし合わせ、操作可能な機能を決
定する。データベースに記述した特性は以下の通りであ
る。また、図7は、機能を操作可能にするための必要条
件である背景知識から導出される一般化された証明木で
ある。
1.6.1. Knowledge used to determine operable functions EBL (Expl) using the characteristics of video data as background knowledge and the characteristics of books and file cabinets as base literals
An operable function is determined by anation based learning (FIG. 6). First, the characteristics of the video data and the book / file cabinet are compared. Next, the common video data characteristic is assigned to the metaphor characteristic, and the operable function is determined by comparing the characteristic with the characteristic required for adding the function prepared for each function. The characteristics described in the database are as follows. FIG. 7 is a generalized proof tree derived from background knowledge that is a necessary condition for enabling a function to be operated.

【0031】目標概念: Videodata_physical→load(X)^start.stop(X)^ff.rev
(X)^marking(X)
Target concept: Videodata_physical → load (X) ^ start.stop (X) ^ ff.rev
(X) ^ marking (X)

【0032】 背景知識(ビデオデータの特性): sort(frame,t) 、 frame(flat,dimention(2)) 、 t(axis) flat(video,frame) 、 dimention_value(video) square(video,frame) 、 axis(video,frame,t) send(video,frame)Background knowledge (characteristics of video data): sort (frame, t), frame (flat, dimention (2)), t (axis) flat (video, frame), dimention_value (video) square (video, frame) , Axis (video, frame, t) send (video, frame)

【0033】 基底リテラル(本の特性): physical(Book) 、 sort(frame,t) 、 frame(flat,dimention(2)) t(axis) 、 flat(Book,Page) 、 dimention_value(Book) square(Book,Page) 、 axis(Book,Z) 、 send(Book,Page) hold(Book,Page)Base literals (book characteristics): physical (Book), sort (frame, t), frame (flat, dimention (2)) t (axis), flat (Book, Page), dimention_value (Book) square ( Book, Page), axis (Book, Z), send (Book, Page) hold (Book, Page)

【0034】 基底リテラル(ファイルキャビネットの特性): physical(Cabinet) 、 flat(Cabinet,File) dimention_value(Cabinet) 、 square(Cabinet,File) axis(Cabinet,Z) 、 send(Cabinet,File) hold(Cabinet,File)Base literals (characteristics of file cabinet): physical (Cabinet), flat (Cabinet, File) dimention_value (Cabinet), square (Cabinet, File) axis (Cabinet, Z), send (Cabinet, File) hold (Cabinet) , File)

【0035】背景知識(機能を操作可能にするための必
要条件): flat(X,P)^frame_dimention_value(X,P,D)^square(X,P)
^equal(D,2)→load(X) load(X)^axis(X,T)^ over(P,5)→start.stop(X) start.stop(X)^send(X,P)→ff.rev(X) start.stop(X)^hold(X,P)→marking(X)
Background knowledge (requirements for enabling functions): flat (X, P) ^ frame_dimention_value (X, P, D) ^ square (X, P)
^ equal (D, 2) → load (X) load (X) ^ axis (X, T) ^ over (P, 5) → start.stop (X) start.stop (X) ^ send (X, P) → ff.rev (X) start.stop (X) ^ hold (X, P) → marking (X)

【0036】1.6.2.オブジェクトデータフォーマ
ット オブジェクトのデータフォーマットは、次のような項目
を持っている。 カラーコードナンバー/オブジェクトナンバー/オブジ
ェクト部位ナンバー/フルパスムービーデータ名/時間
パラメータ(フレームのこと。データの先頭からの絶対
時間[hhmmss]で表現される。)
1.6.2. Object Data Format The object data format has the following items. Color code number / object number / object part number / full path movie data name / time parameter (frame; expressed in absolute time [hhmmss] from the beginning of data)

【0037】次にカラーコードナンバー0001に対するオ
ブジェクトの例を挙げる。 0001,0001,001,c:\data\movie001.qt,000000 0001,0001,002,c:\data\movie001.qt,000015 0001,0001,003,c:\data\movie001.qt,000030 0001,0001,004,c:\data\movie001.qt,000100 0001,0001,005,c:\data\movie002.qt,000000 0001,0001,006,c:\data\movie003.qt,000015 ...
Next, an example of an object corresponding to the color code number 0001 will be described. 0001,0001,001, c: \ data \ movie001.qt, 000000 0001,0001,002, c: \ data \ movie001.qt, 000015 0001,0001,003, c: \ data \ movie001.qt, 000030 0001, 0001,004, c: \ data \ movie001.qt, 000100 0001,0001,005, c: \ data \ movie002.qt, 000000 0001,0001,006, c: \ data \ movie003.qt, 000015 ...

【0038】これらのデータは、図5に示されるPC2
内にあるオブジェクトのデータベースに格納されてお
り、1.5.1で説明したソフトウエアMaxからアク
セスされる。
These data are stored in the PC2 shown in FIG.
And is accessed from the software Max described in 1.5.1.

【0039】また、オブジェクトの部位に応じてつけら
れた時間情報を変更する場合は、例えば、上記のフォー
マットは次のように変更が行われる。例:オブジェクト
ナンバー0001の部位003のデータが000030
→000045に変更される場合 0001,0001,003,c:\data\movie001.qt,000030→0001,000
1,003,c:\data\movie001.qt,000045
When changing the time information given according to the part of the object, for example, the above format is changed as follows. Example: Data of part 003 of object number 0001 is 000030
→ When changed to 000045 0001,0001,003, c: \ data \ movie001.qt, 000030 → 0001,000
1,003, c: \ data \ movie001.qt, 000045

【0040】このように自由にオブジェクトの部位にア
サインされた時間情報を変更できるメリットとしては、
例えば、章立てのあるムービー等を例にとると、オブジ
ェクトのある箇所にその章立てを集中して配置し、その
部位周辺を目次として活用することなどができるように
なる。
The merit that the time information assigned to the part of the object can be changed freely is as follows.
For example, in the case of a movie with chapters, for example, the chapters can be centrally arranged at a certain location of an object, and the area around the site can be used as a table of contents.

【0041】例:ヒモ型インターフェース 図8、図9はヒモ型インターフェースの例を示す図で、
図示のように、ひも状のオブジェクトを各部位に分割
し、部位ごとに各映像データのファイルの時間パラメー
タを割り付けてある。図8は、向かって左手が映像フレ
ームの最初であり、右手が最後である。この一連の映像
データの中には章立て(チャプター)が存在する。図9
は、章立て(チャプター)の章の始まりを向かって左手
に集め、映像データの頭出しを容易に行うようにデータ
のアサインを変更したものである。ユーザは向かって左
端部位周辺を集中的に操作するだけで、章の頭出しを容
易に行うことができる。
Example: String type interface FIGS. 8 and 9 show examples of the string type interface.
As shown in the figure, the string-shaped object is divided into each part, and the time parameter of each video data file is assigned to each part. In FIG. 8, the left hand is the beginning of the video frame and the right hand is the last. Chapters exist in this series of video data. FIG.
Is a collection of chapters (chapter) with the beginning of the chapter gathered in the left hand, and the data assignment is changed so that the cue of the video data can be easily performed. The user can easily find the beginning of a chapter only by intensively operating around the left end portion.

【0042】1.7.MIDI MIDI(Musical Instrument Digital Interface)と
は、電子楽器の制御信号およびインターフェースなどの
規格を定めた規格である。このMIDI規格によるデー
タは、音色、音程、音量、音質を指定するだけのファイ
ルなので、非常にコンパクトであることが特徴といえ
る。本実施例では、このMIDIデータ表現を、オブジ
ェクトを認識した後の情報をアプリケーションの操作用
のプログラムに入力する際に用いている。
1.7. MIDI MIDI (Musical Instrument Digital Interface) is a standard that defines standards for control signals and interfaces of electronic musical instruments. Since the data according to the MIDI standard is a file for simply specifying the timbre, the pitch, the volume, and the sound quality, it can be said that the data is very compact. In the present embodiment, the MIDI data expression is used when inputting information after recognizing an object into a program for operating an application.

【0043】2.作業例 次に、構築したシステムの作業方法について説明する。
ここでは、ビデオデータのメタフォアとして、「本」と
「ファイルキャビネット」の2つを例に説明を行う。
2. Working Example Next, a working method of the constructed system will be described.
Here, two examples of a metaphor of video data, “book” and “file cabinet”, will be described.

【0044】2.1.本をメタフォアとした作業方式の
場合 図10に示すように、LiveDesk5上にカラーコ
ードを付加させた本6を置く。この本が一定幅の時間を
表現している。
2.1. In the case of the work method using a book as a metaphor As shown in FIG. 10, a book 6 with a color code added is placed on a Live Desk 5. This book expresses a certain range of time.

【0045】LiveDesk上部に設置されたカメラ
より画像データがオブジェクト判定部(PowerMa
cintoshG3)に送信される。次に、オブジェク
ト判定部は、内部でカラーコードを認識し、カラーコー
ドからオブジェクトを判別する。そして判別されたオブ
ジェクトに関するデータをオブジェクトのデータベース
より引き出し、それをオブジェクト判定部内に実装する
Maxに送信する。オブジェクトのデータベースにはオ
ブジェクトとカラーコードナンバーとの対応が記述され
ている。Maxは、データを受け取り、オブジェクト判
定部に接続した液晶プロジェクタに対し、本の絵と特徴
を記述したデータを表示する(図11)。
The image data from the camera installed on the upper part of the LiveDesk is converted into an object determination unit (PowerMa).
cintoshG3). Next, the object determination unit internally recognizes the color code and determines the object from the color code. Then, data relating to the determined object is extracted from the database of the object, and transmitted to Max mounted in the object determination unit. The correspondence between objects and color code numbers is described in the object database. Max receives the data and displays the data describing the picture and features of the book on the liquid crystal projector connected to the object determination unit (FIG. 11).

【0046】次に、アプリケーション(画面:virt
ual_object)として、ビデオデータを再生す
るアプリケーション(画面:video)により、アプ
リケーションのデータベースからVideoのデータが
表示され(図12)、両方のデータを比較し、アサイン
可能なビデオデータの機能が表示され(図13)、更
に、「FUNCTION View」ウィンドウにおい
て、movieファイルのウィンドウが出現し(図1
4)、[BOOK_WINDOW]が立ち上がり、本を
用いてビデオデータの操作が可能となる(図15)。こ
の操作は、例えば、次のようなものがある。 再生:本を置くことにより開始 停止:本の閉じた状態で指定 フレーム指定:本の各ページが対応
Next, an application (screen: virt)
As an ual_object), an application (screen: video) that reproduces video data displays video data from the application database (FIG. 12), compares both data, and displays an assignable video data function ( FIG. 13) Further, in the “FUNCTION View” window, a window of the movie file appears (FIG. 1).
4), [BOOK_WINDOW] rises, and video data can be operated using the book (FIG. 15). This operation includes, for example, the following. Play: Start by placing a book Stop: Specify with the book closed Frame specification: Each page of the book corresponds

【0047】仮に、本のページが7ページで構成されて
いるとすると、データ全体を7分割しかできないことに
なる。そのため、細かいサーチに向いていないといえる
が、オブジェクトのデータベース内にあるオブジェクト
の時間パラメータをユーザの操作によって変更すること
を可能とすることでこの問題に対処できる。つまり、オ
ブジェクトのデータベース内にあるオブジェクトの各部
位(例えば、本“オブジェクト”の各ページなど)の時
間パラメータをユーザの操作によって変更することが可
能である。
Assuming that a book page is composed of seven pages, the entire data can be divided into only seven parts. Therefore, it can be said that it is not suitable for a detailed search, but this problem can be dealt with by making it possible to change the time parameter of an object in the object database by a user operation. That is, it is possible to change the time parameter of each part of the object (for example, each page of the present “object”) in the object database by a user operation.

【0048】例えば、オブジェクトの隣接する各部位の
表現する時間を変更することを考えると、次のようにな
る。ブックインターフェースにおいて各ページの表現す
る時間が次の様に1秒単位であると、 1ページ:1秒目 2ページ:2秒目 3ページ:3秒目 4ページ:4秒目 5ページ:5秒目 : :
For example, assuming that the time expressed by each adjacent part of the object is changed, the following is obtained. If the time to represent each page in the book interface is in units of 1 second as follows: 1st page: 1 second 2 pages: 2 seconds 3 pages: 3 seconds 4 pages: 4 seconds 5 pages: 5 seconds Eye : :

【0049】このとき、各ページの時間表現単位を変更
する。例えば、20分単位に変更すると次のようにな
る。 1ページ:0分目 2ページ:20分目 3ページ:40分目 4ページ:60分目 5ページ:80分目 : :
At this time, the time expression unit of each page is changed. For example, changing to the unit of 20 minutes is as follows. Page 1: 0 minutes Page 2: 20 minutes Page 3: 40 minutes Page 4: 60 minutes Page 5: 80 minutes ::

【0050】以上の様に隣接するオブジェクトの各部位
の時間表現単位を変更する。これによって異なる時間表
現ができるオブジェクトの部位が少ない場合でも、その
表現時間の単位を変更することによって、様々なユーザ
要求に対応することができる。ユーザは本を開くという
動作でフレーム(映像のある時間)を指定することがで
きる。また、ユーザは開くページの本の厚さで、映像の
再生位置を直感的に理解し、本を開くスピードにより、
映像の再生スピードを直感的に操作することまでも可能
である。
As described above, the time expression unit of each part of the adjacent object is changed. As a result, even when the number of parts of the object that can express different times is small, it is possible to respond to various user requests by changing the unit of the expression time. The user can designate a frame (a certain time of a video) by opening a book. In addition, the user can intuitively understand the playback position of the image by the thickness of the book on the page to be opened, and by the speed of opening the book,
It is also possible to intuitively control the video playback speed.

【0051】2.2.ファイルキャビネットをメタフォ
アとした作業方式の場合 図16に示すようにLiveDesk上にカラーコード
を付加させた本7を置く。このキャビネットがある一定
時間幅を表現している。本の場合と同様、ファイルキャ
ビネットが認識され、オブジェクトのデータベースより
データが呼び出され(図17)、データベースの比較を
行った後、オブジェクトの特性の表示、アプリケーショ
ンのデータベースからアプリケーションの指示可能な命
令を取得した後、ムービーを操作するウィンドウが立ち
上がる(図18)。主な機能は本と同じである。具体的
な操作としては次のものがある。 再生:キャビネット自体が対応 停止:キャビネットが存在しない状態が対応 フレーム指定:キャビネット内のファイルの一つ一つが
該当 この例では、ファイルキャビネットにおいては、5枚の
ファイルが収納されていると仮定し、ムービー全体を5
分割している。そのため、複数のキャビネットから一つ
のフレーム(時間)の位置を検索する場合など、大まか
なサーチに向いている作業方式と言える。
2.2. In the case of the working method using a file cabinet as a metaphor As shown in FIG. 16, a book 7 with a color code added is placed on a Live Desk. This cabinet expresses a certain period of time. As in the case of the book, the file cabinet is recognized, the data is called from the database of the object (FIG. 17), and after comparing the databases, the characteristics of the object are displayed, and a command that can be specified by the application from the application database is issued. After the acquisition, a window for operating the movie is activated (FIG. 18). The main function is the same as a book. Specific operations include the following. Playback: Cabinet itself supported Stop: Cabinet does not exist Frame specification: Each file in the cabinet is applicable In this example, it is assumed that five files are stored in the file cabinet, 5 whole movie
Divided. Therefore, it can be said that this work method is suitable for a rough search such as when searching for the position of one frame (time) from a plurality of cabinets.

【0052】[0052]

【発明の効果】以上説明したように、本発明によれば、
オブジェクトそのものに時間をアサインし、ユーザがそ
のオブジェクトを指定することにより時間を指定するよ
うにしたことにより、人間が物体を操作し位置決めする
ことにより生じる時間指定の精度の悪さを解消すること
を可能とし、更には、即時性(即興性)のある操作を可
能とする。
As described above, according to the present invention,
By assigning time to the object itself and specifying the time by the user specifying the object, it is possible to eliminate the inaccuracy of time specification caused by manipulating and positioning the object Further, an operation with immediacy (improvement) can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明によるインターフェース装置のシステ
ム構成例を示す図である。
FIG. 1 is a diagram showing a system configuration example of an interface device according to the present invention.

【図2】 本発明によるLiveDeskの一実施例を
説明するための図で、(A)は正面側よりみた図、
(B)は側面図である。
FIG. 2 is a view for explaining an embodiment of a LiveDesk according to the present invention, wherein FIG.
(B) is a side view.

【図3】 LiveDeskの構成例を示す平面図、正
面図、及び、側面図である。
FIG. 3 is a plan view, a front view, and a side view illustrating a configuration example of a Live Desk.

【図4】 ビデオカメラの固定部分の構成を示す図であ
る。
FIG. 4 is a diagram showing a configuration of a fixed portion of the video camera.

【図5】 PCの処理例を説明するための図である。FIG. 5 is a diagram illustrating a processing example of a PC.

【図6】 EBLによって操作可能な機能の決定を説明
するための図である。
FIG. 6 is a diagram for explaining determination of a function operable by the EBL.

【図7】 背景知識から導出される一般化された証明木
である。
FIG. 7 is a generalized proof tree derived from background knowledge.

【図8】 ヒモ型インターフェースの例を示す図であ
る。
FIG. 8 is a diagram illustrating an example of a string type interface.

【図9】 ヒモ型インターフェースの他の例を示す図で
ある。
FIG. 9 is a diagram showing another example of a string type interface.

【図10】 LiveDesk上にカラーコードを付加
させた本を置いた状態を示す図である。
FIG. 10 is a diagram showing a state in which a book with a color code added is placed on a Live Desk.

【図11】 オブジェクトのデータベースよりデータが
呼び出されたことを示す図である。
FIG. 11 is a diagram showing that data is called from an object database.

【図12】 Videoのデータが表示された状態を示
す図である。
FIG. 12 is a diagram showing a state in which Video data is displayed.

【図13】 アサイン可能なVideoデータの機能が
表示された状態を示す図である。
FIG. 13 is a diagram showing a state in which functions of assignable Video data are displayed.

【図14】 movieファイルのウィンドウが表示さ
れた状態を示す図である。
FIG. 14 is a diagram illustrating a state in which a window of a movie file is displayed.

【図15】 Videoデータが操作可能となった時の
表示状態を示す図である。
FIG. 15 is a diagram showing a display state when video data becomes operable.

【図16】 LiveDesk上にカラーコードを付加
させた本を置いた状態を示す図である。
FIG. 16 is a diagram showing a state in which a book with a color code added is placed on a Live Desk.

【図17】 オブジェクトのデータベースよりデータが
呼び出されたことを示す図である。
FIG. 17 is a diagram showing that data is called from an object database.

【図18】 ムービーを操作するウィンドウが立ち上が
る状態を示す図である。
FIG. 18 is a diagram illustrating a state in which a window for operating a movie starts up.

【符号の説明】[Explanation of symbols]

1…画像入力部、2…オブジェクト判定部、3…アプリ
ケーション、4…鏡、5…机、101…オブジェクト、
102…オブジェクト観察部、103…アプリケーショ
ン、104…命令送信部、105…データベース。
REFERENCE SIGNS LIST 1 image input unit 2 object determination unit 3 application 4 mirror 5 desk 101 object
102: object observation unit; 103: application; 104: command transmission unit; 105: database.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B087 AA09 AB04 BC11 BC32 CC09 CC11 CC33 DD11 DE05 5C053 FA14 HA29 LA01 LA11 LA15 5E501 AA01 AC15 AC34 BA03 BA12 CA02 DA14 FA14 FA26 FB33 FB45  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5B087 AA09 AB04 BC11 BC32 CC09 CC11 CC33 DD11 DE05 5C053 FA14 HA29 LA01 LA11 LA15 5E501 AA01 AC15 AC34 BA03 BA12 CA02 DA14 FA14 FA26 FB33 FB45

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 オブジェクトの表現が時間パラメータを
含み、オブジェクトを観察した結果を信号へ変換する手
段を持ち、その信号を送信する手段を持つオブジェクト
観察部と、入力として信号を受信する手段を持ち、受信
した信号よりオブジェクトの観察結果を生成する手段を
持ち、オブジェクト判別結果に対応する命令をアプリケ
ーションに送信する手段を持つ命令送信部と、を備える
ことを特徴とするインターフェース装置。
The object representation includes a time parameter, has a means for converting a result of observing the object into a signal, has an object observation unit having a means for transmitting the signal, and has means for receiving a signal as an input. And an instruction transmission unit having means for generating an observation result of the object from the received signal, and having means for transmitting an instruction corresponding to the object determination result to the application.
【請求項2】 請求項1において、前記オブジェクトが
その部位によって異なる時間を表現すること、を特徴と
するインターフェース装置。
2. The interface device according to claim 1, wherein the object expresses a different time depending on its part.
【請求項3】 請求項1において、前記オブジェクトの
表現する時間が変更可能なこと、を特徴とするインター
フェース装置。
3. The interface device according to claim 1, wherein a time represented by the object can be changed.
【請求項4】 請求項2において、前記オブジェクトの
部位が表現する時間が変更可能なこと、を特徴とするイ
ンターフェース装置。
4. The interface device according to claim 2, wherein the time expressed by the part of the object can be changed.
【請求項5】 請求項2において、前記オブジェクトの
隣接する各部位の表現する時間の単位が変化すること、
を特徴とするインターフェース装置。
5. The method according to claim 2, wherein a unit of time expressed by each adjacent part of the object changes.
An interface device characterized by the above-mentioned.
【請求項6】 請求項1において、前記命令送信部が前
記オブジェクトの情報を格納するデータベースから情報
を受信する手段を持ち、該データベースが前記命令送信
部に情報を送信する手段を持つこと、を特徴とするイン
ターフェース装置。
6. The apparatus according to claim 1, wherein the command transmitting unit has means for receiving information from a database storing information of the object, and the database has means for transmitting information to the command transmitting unit. Interface device characterized.
JP2001219787A 2000-11-30 2001-07-19 Interface device Pending JP2002232849A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001219787A JP2002232849A (en) 2000-11-30 2001-07-19 Interface device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-365923 2000-11-30
JP2000365923 2000-11-30
JP2001219787A JP2002232849A (en) 2000-11-30 2001-07-19 Interface device

Publications (1)

Publication Number Publication Date
JP2002232849A true JP2002232849A (en) 2002-08-16

Family

ID=26605004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001219787A Pending JP2002232849A (en) 2000-11-30 2001-07-19 Interface device

Country Status (1)

Country Link
JP (1) JP2002232849A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005222544A (en) * 2004-01-29 2005-08-18 Heidelberger Druckmas Ag Display and/or operation device depending on projection plane
JP2009506457A (en) * 2005-08-31 2009-02-12 マイクロソフト コーポレーション Interactive display screen input method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005222544A (en) * 2004-01-29 2005-08-18 Heidelberger Druckmas Ag Display and/or operation device depending on projection plane
US7860587B2 (en) 2004-01-29 2010-12-28 Heidelberger Druckmaschinen Ag Projection-area dependent display/operating device
JP4727240B2 (en) * 2004-01-29 2011-07-20 ハイデルベルガー ドルツクマシーネン アクチエンゲゼルシヤフト Display and / or operation device depending on the projection plane
JP2009506457A (en) * 2005-08-31 2009-02-12 マイクロソフト コーポレーション Interactive display screen input method

Similar Documents

Publication Publication Date Title
US6873344B2 (en) Media production system using flowgraph representation of operations
EP2044538B1 (en) Determining an ambient parameter set
US7545386B2 (en) Unified mobile display emulator
JPH06208500A (en) Device for preparing video data with hyper-text
JPH05307476A (en) Tree structure displaying and editing device
JP2003507793A (en) System and method for performing region-based image retrieval using color-based segmentation
JP2007128526A (en) Standard illumination color converting method, standard illumination color conversion program, computer readable recording medium with standard illumination color conversion program recorded, color information extracting method, computer readable recording medium with color information extraction program recorded and color information extracting device
JPH07104922B2 (en) Graphics attribute conversion system and method
JPH0850648A (en) Coloring supporting method and device therefor
JPH05249102A (en) Method and apparatus for automatic cell analysis
WO2021232818A1 (en) Kvm-based distributed system, operation and control method, and medium
CN100343801C (en) Method for producing intelligent virtual display
JP2002232849A (en) Interface device
CN110647573B (en) Chart visualization editing method and system based on database technology
JP2001078091A (en) Device and method for displaying and editing media scene information and storage medium storing program related to the method
JP2002342374A (en) System and method for retrieving data
JP3707913B2 (en) Information processing apparatus, information processing method, and recording medium
JPH02297229A (en) Data base system
JP4446714B2 (en) Document search device, document search method, and document search program
JPH02103160A (en) Color solid display apparatus
JPH11353254A (en) Network managing device and storage medium in which network managing program is recorded
JP2000181700A (en) Program analyzing device and recording medium
CN103295244A (en) Method and electronic equipment for identifying colors
JPS6355667A (en) Image data management system
JP3059330B2 (en) CAD data converter