JP4474577B2 - Experience mapping device - Google Patents

Experience mapping device Download PDF

Info

Publication number
JP4474577B2
JP4474577B2 JP2004123297A JP2004123297A JP4474577B2 JP 4474577 B2 JP4474577 B2 JP 4474577B2 JP 2004123297 A JP2004123297 A JP 2004123297A JP 2004123297 A JP2004123297 A JP 2004123297A JP 4474577 B2 JP4474577 B2 JP 4474577B2
Authority
JP
Japan
Prior art keywords
observation
time
observation vector
vectors
experience
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004123297A
Other languages
Japanese (ja)
Other versions
JP2005309609A (en
Inventor
ノーマン・リン
健二 間瀬
康之 角
仁 土川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004123297A priority Critical patent/JP4474577B2/en
Publication of JP2005309609A publication Critical patent/JP2005309609A/en
Application granted granted Critical
Publication of JP4474577B2 publication Critical patent/JP4474577B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、ユーザの体験に伴う映像等の記録情報を再構成して、ユーザの体験した内容を、当該ユーザまたは他のユーザに対して提示するための体験マッピング装置の構成に関する。   The present invention relates to a configuration of an experience mapping apparatus for reconstructing recorded information such as video accompanying a user's experience and presenting the content experienced by the user to the user or another user.

センサ素子やマイクロプロセッサなどが小さく安価になり、微細加工技術が発達したことにより、日常の生活空間内に、ネットワーク化されたセンサ群、いわゆる「ユビキタスセンサ」を配置することが実用化されようとしている。   With sensor elements and microprocessors becoming smaller and cheaper and the development of microfabrication technology, it is going to be practical to place networked sensor groups, so-called “ubiquitous sensors”, in everyday living spaces. Yes.

一方で、このような「ユビキタスセンサ」技術を用いた応用技術についてもすでにいくつかの報告がある(たとえば、非特許文献1を参照)。
Tetsuya Matsuguchi, Yasuyuki Sumi, and Kenji Mase. "Deciphering interactions from spatio-temporal data." ISPJ SIGNotes Human Interface, (102), 2002.
On the other hand, there have already been several reports on applied technology using such “ubiquitous sensor” technology (see, for example, Non-Patent Document 1).
Tetsuya Matsuguchi, Yasuyuki Sumi, and Kenji Mase. "Deciphering interactions from spatio-temporal data." ISPJ SIGNotes Human Interface, (102), 2002.

以上のような「ユビキタスセンサ」の実現された環境では、その環境下で行動するユーザの様々な活動・体験をセンシングして記録することが可能となる。   In the environment where the “ubiquitous sensor” as described above is realized, it is possible to sense and record various activities and experiences of users who act in the environment.

その場合、たとえば、当該ユーザが自分の活動を振り返り、過去の体験を語りたいときに、上記のようにして記録されたデータに基づいて、自己の体験の記憶を視覚的に呼び起こすことを補助することができれば有用である。   In that case, for example, when the user wants to look back on his / her activity and talk about his / her past experience, he / she assists in visually recalling his / her own experience based on the data recorded as described above. Useful if possible.

本発明の目的は、ユーザの体験した視覚・音声情報を体系化して、ユーザに体験マップとして提示することが可能な体験マッピング装置を提供することである。   An object of the present invention is to provide an experience mapping apparatus that can systematize visual / audio information experienced by a user and present it to a user as an experience map.

このような目的を達成するために、本発明の体験マッピング装置は、光学的に識別可能な識別標識を各々付された複数の対象物が配置された領域において、観測者の視野に相当する範囲を撮像するように装着した撮像手段により、観測者の行動にしたがって順次撮影される対象物を含む画像を時間軸上の順序情報と関連付けた撮影画像情報を記憶する記憶装置を備え、各々が所定時間の間隔を有する第1のタイムスライスごとに、撮影画像情報内において識別標識が検出された対象物と識別標識が検出されない対象物とで区別可能なように、識別標識が検出された対象物に特定の値を割当てることで、当該第1のタイムスライスについての観測ベクトルを定義するとき、観測ベクトルの集合から、所定時間よりも長い時間にわたって時間的に隣接する観測ベクトルの塊である観測ベクトル塊を抽出する抽出手段と、観測ベクトル塊を代表する塊観測ベクトルの間の類似度に基づいて、撮影画像情報のうち観測ベクトル塊をそれぞれ代表するビデオクリップの各々に、引力または斥力を対応付けることにより、観測者が時間的に繰返して相互作用を行う対象物のグループに対応し、時間軸上で異なる観測ベクトル塊を代表するビデオクリップが、クラスタを形成するように表示する表示手段とを備える。 In order to achieve such an object, the experience mapping apparatus of the present invention has a range corresponding to an observer's visual field in an area where a plurality of objects each having an optically identifiable identification mark are arranged. the imaging means is mounted to image, comprising a storage device for storing a photographed image information associated with the sequence information on the time axis the image includes sequential photographing an object being in accordance with actions of the observer, each predetermined For each first time slice having a time interval, the object for which the identification mark is detected so that the object for which the identification mark is detected in the captured image information can be distinguished from the object for which the identification mark is not detected. By assigning a specific value to, when defining the observation vector for the first time slice, from the set of observation vectors, it is temporally over a time longer than a predetermined time. Extracting means for extracting the mass at which observation vector chunks of the observation vector in contact, based on the similarity between the mass observation vector representing the observation vector chunks, video clips representing, respectively observation vector chunks among the captured image information By associating each with an attractive force or a repulsive force, video clips representing different groups of observation vectors on the time axis correspond to groups of objects with which the observer interacts repeatedly in time , forming clusters. Display means for displaying as described above.

好ましくは、塊観測ベクトルは、各要素が、塊観測ベクトルに対応する観測ベクトル塊に含まれるすべての観測ベクトルの当該要素の論理和である。
好ましくは、抽出手段は、所定時間よりも長い一定の時間間隔を有する第2のタイムスライスとなるように第1のタイムスライスを集めることにより、観測ベクトルの集合から、第2のタイムスライスごとの観測ベクトルの塊である観測ベクトル塊を抽出する
Preferably, the lump observation vector is a logical sum of the elements of all the observation vectors included in the observation vector lump, each element corresponding to the lump observation vector.
Preferably, the extraction unit collects the first time slice so as to be the second time slice having a certain time interval longer than the predetermined time, and thereby, from the set of observation vectors, for each second time slice. An observation vector block that is a block of observation vectors is extracted .

好ましくは、抽出手段は、同一の対象物の連続的な観測に対応した時間的に近接する第1のタイムスライスを集めることにより、観測ベクトルの集合から、観測ベクトルの塊である観測ベクトル塊を抽出するPreferably, the extraction unit collects first time slices that are close in time corresponding to continuous observation of the same object, thereby obtaining an observation vector block that is a block of observation vectors from the set of observation vectors. Extract .

好ましくは、引力または斥力は、所定の有効距離を有し、ユーザがビデオクリップを選択して移動先を指示する信号を入力するための入力手段をさらに備え、表示手段は、ユーザが選択したビデオクリップを移動して他のビデオクリップ間を移動させることに応じて、有効距離内において相互に斥力を有するビデオクリップが互いに反発するとともに、有効距離内において相互に引力を有するビデオクリップがクラスタを形成するように表示する。 Preferably, the attractive force or the repulsive force has a predetermined effective distance, and further includes an input means for the user to select a video clip and input a signal indicating a destination, and the display means is a video selected by the user. in response to moving between other video clips by moving a clip along with a video clip repel each other with a repulsive to each other at the effective distance, form a video clip clusters with mutually attractive force within the effective distance To display.

以下、図面を参照して本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

[本発明のシステム構成]
図1は、本発明の体験キャプチャシステム20の一例を示す概念図である。
[System configuration of the present invention]
FIG. 1 is a conceptual diagram showing an example of the experience capture system 20 of the present invention.

図1に示すように、元々の観測者2は、携帯型の体験キャプチャシステム20を装着している。この体験キャプチャシステム20は、着用可能な(以下、「ウェアラブルな」という)コンピュータ100と、映像カメラ(赤外線感知型カメラを含む)142と、マイク(図1では図示せず)とを備える。   As shown in FIG. 1, the original observer 2 is wearing a portable experience capture system 20. The experience capture system 20 includes a wearable (hereinafter referred to as “wearable”) computer 100, a video camera (including an infrared-sensitive camera) 142, and a microphone (not shown in FIG. 1).

さらに、環境下において、相互作用の対象となっている対象物には、予め、赤外線を発するLED(Light Emitting Diode)タグ10.1〜10.n(n:自然数)が、付けられているものとする。赤外線を発するLEDタグ(以下、「IRタグ」と呼ぶ)10.1〜10.nの各々は、赤外線により、固有な識別信号を発している。このような、固有な識別信号は、上述した赤外線感知型カメラ(以下、「IRカメラ」)によって読込むことが可能である。   Further, in an environment, an object that is an object of interaction is previously provided with an LED (Light Emitting Diode) tag 10.1-10. It is assumed that n (n: natural number) is attached. LED tag emitting infrared rays (hereinafter referred to as “IR tag”) 10.1-10. Each of n emits a unique identification signal by infrared rays. Such a unique identification signal can be read by the above-described infrared-sensing camera (hereinafter referred to as “IR camera”).

体験キャプチャシステム20は、マイクにより集音される音声データと、映像カメラ142により撮影される映像データと、IRカメラにより撮影されるIRタグデータを、データ獲得期間(キャプチャ期間)のすべての期間にわたって記録する。観測者2のいる地点において、IRカメラの視野の範囲内において光学的に検知できるIRタグのみがシステム20に記録される。   The experience capture system 20 uses the audio data collected by the microphone, the video data captured by the video camera 142, and the IR tag data captured by the IR camera throughout the data acquisition period (capture period). Record. Only IR tags that can be optically detected within the field of view of the IR camera are recorded in the system 20 at the point where the observer 2 is present.

なお、コンピュータ100は、特に限定されないが、たとえば、無線によりLAN(Local Area Network)に接続する構成とすることが可能である。   The computer 100 is not particularly limited. For example, the computer 100 can be configured to be connected to a LAN (Local Area Network) wirelessly.

[体験キャプチャシステム20のハードウェア構成]
図2は、体験キャプチャシステム20の構成をブロック図形式で示す図である。
[Hardware configuration of experience capture system 20]
FIG. 2 is a block diagram showing the configuration of the experience capture system 20.

図2を参照して、体験キャプチャシステム20のコンピュータ100は、メモリカードなどの外部媒体150上の情報を読込むための外部媒体ドライブ116と、それぞれバスBS1に接続されたCPU(Central Processing Unit )110と、ROM(Read Only Memory)およびRAM(Random Access Memory)を含むメモリ112と、直接アクセスメモリ装置、たとえば、ハードディスク114と、無線等による接続を用いてLANとデータの授受を行うための通信インタフェース118と、システムにより使用される時刻を提供するためのタイマ122とを備える。   Referring to FIG. 2, a computer 100 of the experience capture system 20 includes an external medium drive 116 for reading information on an external medium 150 such as a memory card, and a CPU (Central Processing Unit) 110 connected to the bus BS1. A memory 112 including a ROM (Read Only Memory) and a RAM (Random Access Memory), a direct access memory device, for example, a hard disk 114, and a communication interface 118 for exchanging data with the LAN using wireless connection or the like And a timer 122 for providing the time used by the system.

さらに、コンピュータ100は、必要に応じてコンピュータ100に接続され、ユーザによるデータ入力に使用される入力装置160からのデータを受け取るための外部装置インタフェース120を備える。この外部装置インタフェース120は、観測者2が、その頭部に装着するヘッドセット140に装着された映像カメラ142およびマイク144からの画像データや音声データを受け取る。さらに、ヘッドセット140には、必要に応じて、映像カメラ142からの画像を観測者2に対して表示するためのヘッドセット型ディスプレイ146が設けられてもよい。また、映像カメラ142には、可視光の映像を撮影するためのカメラシステムだけでなく、上述したとおり、赤外線の映像を撮影するためのIRカメラシステムも設けられているものとする。   The computer 100 further includes an external device interface 120 for receiving data from the input device 160 that is connected to the computer 100 as needed and used for data input by the user. The external device interface 120 receives image data and audio data from the video camera 142 and the microphone 144 attached to the headset 140 attached to the head of the observer 2. Furthermore, the headset 140 may be provided with a headset display 146 for displaying an image from the video camera 142 to the observer 2 as necessary. Further, it is assumed that the video camera 142 is provided with not only a camera system for capturing a visible light image but also an IR camera system for capturing an infrared image as described above.

なお、外部媒体150は、コンピュータ本体に対してインストールされるプログラム等の情報を記録可能な媒体である。また、必要に応じて、キャプチャされたデータを記録可能なものとする。   The external medium 150 is a medium capable of recording information such as programs installed in the computer main body. In addition, the captured data can be recorded as necessary.

また、画像データの記録媒体として、ハードディスク114、あるいは、他の大容量の外部媒体を用いることで、体験キャプチャシステム20におけるコンピュータ100は、基本的には、汎用のモバイルコンピュータを用いることができる。もちろん、体験キャプチャシステム20におけるコンピュータ100を、汎用のモバイルコンピュータの代わりに、専用のハードウェアで構成してもよい。   Further, by using the hard disk 114 or other large-capacity external medium as the image data recording medium, the computer 100 in the experience capture system 20 can basically be a general-purpose mobile computer. Of course, the computer 100 in the experience capture system 20 may be configured with dedicated hardware instead of a general-purpose mobile computer.

[体験マッピング装置1000のハードウェア構成]
図3は、本発明の体験マッピング装置1000の一例を示す概念図である。
[Hardware configuration of experience mapping apparatus 1000]
FIG. 3 is a conceptual diagram showing an example of the experience mapping apparatus 1000 of the present invention.

図3を参照して、体験マッピング装置1000は、観測者2または第三者の操作に基づいて、観測者2の体験した音声データおよび画像データへアクセスするためのコンピュータ300を備える。   Referring to FIG. 3, experience mapping apparatus 1000 includes a computer 300 for accessing voice data and image data experienced by observer 2 based on the operation of observer 2 or a third party.

図3を参照して、このコンピュータ300は、CD−ROM(Compact Disc Read-Only Memory )上の情報を読込むためのCD−ROMドライブ308および外部媒体150に対して情報を読み書きするための外部媒体ドライブ306を備えたコンピュータ本体302と、コンピュータ本体302に接続された表示装置としてのディスプレイ304と、同じくコンピュータ本体302に接続された入力装置としてのキーボード310およびマウス312と、音声入力装置としてのマイク332と、音声出力装置としてのスピーカ334とを含む。   Referring to FIG. 3, a computer 300 includes a CD-ROM drive 308 for reading information on a CD-ROM (Compact Disc Read-Only Memory) and an external medium drive for reading / writing information from / to an external medium 150. A computer main body 302 provided with 306, a display 304 as a display device connected to the computer main body 302, a keyboard 310 and a mouse 312 as input devices also connected to the computer main body 302, and a microphone 332 as a voice input device. And a speaker 334 as an audio output device.

図4は、このコンピュータ300のハードウェア構成をブロック図形式で示す図である。   FIG. 4 is a block diagram showing the hardware configuration of the computer 300. As shown in FIG.

図4に示されるように、このコンピュータ300を構成するコンピュータ本体302は、CD−ROMドライブ308および外部媒体ドライブ306に加えて、それぞれバスBS2に接続されたCPU320と、ROMおよびRAMを含むメモリ322と、直接アクセスメモリ装置、たとえば、ハードディスク324と、マイク332またはスピーカ334とデータの授受を行うためのインタフェース328とを含んでいる。   As shown in FIG. 4, in addition to the CD-ROM drive 308 and the external medium drive 306, the computer main body 302 constituting the computer 300 includes a CPU 320 connected to the bus BS2 and a memory 322 including ROM and RAM, respectively. And a direct access memory device such as a hard disk 324 and an interface 328 for exchanging data with the microphone 332 or the speaker 334.

なお、インタフェース328は、たとえば、LAN410を介して体験キャプチャシステム20と直接に、あるいは、システムの構成によっては、体験キャプチャシステム20により獲得されたデータをLANを介してアクセス可能なように蓄積したサーバ(図示せず)との通信を行うために使用することもできる。   The interface 328 is a server that stores the data acquired by the experience capture system 20 so as to be accessible via the LAN, for example, directly with the experience capture system 20 via the LAN 410 or depending on the system configuration. It can also be used to communicate with (not shown).

以下の説明では、体験マッピング装置1000が動作するにあたっては、体験キャプチャシステム20により獲得されたデータは、LANを介して、あるいは外部媒体150を介して、ハードディスク324に格納されるものとして説明を行う。   In the following description, when the experience mapping apparatus 1000 operates, the data acquired by the experience capture system 20 is described as being stored in the hard disk 324 via the LAN or the external medium 150. .

なお、CD−ROM318は、コンピュータ本体に対してインストールされるプログラム等の情報を記録可能な媒体であれば、他の媒体、たとえば、DVD−ROM(Digital Versatile Disc)などでもよく、その場合は、コンピュータ本体302には、このような他の媒体を読取ることが可能なドライブ装置が設けられる。   Note that the CD-ROM 318 may be another medium, such as a DVD-ROM (Digital Versatile Disc), as long as it can record information such as a program installed in the computer main body. The computer main body 302 is provided with a drive device capable of reading such other media.

本発明の体験マッピング装置1000の主要部は、コンピュータハードウェアと、CPU320により実行されるソフトウェアとにより構成される。一般的にこうしたソフトウェアはCD−ROM318等の記憶媒体に格納されて流通し、CD−ROMドライブ308等により記憶媒体から読取られてハードディスク324に一旦格納される。または、当該装置がネットワークに接続されている場合には、ネットワーク上のサーバから一旦ハードディスク324にコピーされる。そうしてさらにハードディスク324からメモリ322中のRAMに読出されてCPU320により実行される。なお、ネットワーク接続されている場合には、ハードディスク324に格納することなくRAMに直接ロードして実行するようにしてもよい。   The main part of the experience mapping apparatus 1000 of the present invention is composed of computer hardware and software executed by the CPU 320. Generally, such software is stored and distributed in a storage medium such as a CD-ROM 318, read from the storage medium by a CD-ROM drive 308 or the like, and temporarily stored in the hard disk 324. Alternatively, when the device is connected to the network, it is temporarily copied from the server on the network to the hard disk 324. Then, the data is further read from the hard disk 324 to the RAM in the memory 322 and executed by the CPU 320. In the case of network connection, the program may be directly loaded into the RAM and executed without being stored in the hard disk 324.

図3および図4に示したコンピュータのハードウェア自体およびその動作原理は一般的なものである。したがって、本発明の最も本質的な部分は、CD−ROM318、ハードディスク324等の記憶媒体に記憶されたソフトウェアである。   The computer hardware itself and its operating principle shown in FIGS. 3 and 4 are general. Therefore, the most essential part of the present invention is software stored in a storage medium such as the CD-ROM 318 and the hard disk 324.

なお、一般的傾向として、コンピュータのオペレーティングシステムの一部として様々なプログラムモジュールを用意しておき、アプリケーションプログラムはこれらモジュールを所定の配列で必要な時に呼び出して処理を進める方式が一般的である。そうした場合、当該体験マッピング装置1000を実現するためのソフトウェア自体にはそうしたモジュールは含まれず、当該コンピュータでオペレーティングシステムと協働してはじめて体験マッピング装置1000が実現することになる。しかし、一般的なプラットフォームを使用する限り、そうしたモジュールを含ませたソフトウェアを流通させる必要はなく、それらモジュールを含まないソフトウェア自体およびそれらソフトウェアを記録した記録媒体(およびそれらソフトウェアがネットワーク上を流通する場合のデータ信号)が実施の形態を構成すると考えることができる。
(本発明の動作の概要)
以下に説明されるように、体験キャプチャシステム20およびこの体験キャプチャシステム20によりキャプチャされたデータの提示を行なうための体験マッピング装置1000の目的は、自動的に、あるいは半自動的に、キャプチャされた大量の素材を、「状況(シチュエーション)」に分類し、事後において、時間とは無関係に、検索することを可能とするものである。このような分類を行なうのは、大量のキャプチャされた生データは、手動で、かつ時間軸に沿って興味あるキャプチャデータの探索を行なうことが効率的でないためである。
As a general tendency, various program modules are prepared as a part of a computer operating system, and an application program generally calls a module in a predetermined arrangement and advances the processing when necessary. In such a case, the software itself for realizing the experience mapping apparatus 1000 does not include such modules, and the experience mapping apparatus 1000 is realized only when the computer cooperates with the operating system. However, as long as a general platform is used, it is not necessary to distribute software including such modules, and the software itself not including these modules and the recording medium storing the software (and the software distributes on the network). Data signal) can be considered to constitute the embodiment.
(Outline of operation of the present invention)
As will be described below, the purpose of the experience capture system 20 and the experience mapping apparatus 1000 for presenting data captured by the experience capture system 20 is to automatically or semi-automatically capture the mass Are classified into “situations”, and can be searched after the fact regardless of time. Such classification is performed because a large amount of captured raw data is not efficient to search for the captured data of interest manually and along the time axis.

また、本発明の体験マッピング装置では、後に定義するように、キャプチャされたデータ間の「類似度」の関係に基づいて他の関連したキャプチャデータにアクセスすることを可能とし、観測者2の記憶の想起の補助として役立たせることを目的として、「類似度」の関係を持つように分類された「状況」とキャプチャデータとを相互に関連づかせる。このような「類似度」の関係は、観測者2の活動する環境下において、対象物に装着されたユビキタスなIRタグ10.1〜10.nと協働させることで、ヘッドマウントカメラによってキャプチャされた観測データを相互に関連付けるものである。   Also, the experience mapping apparatus of the present invention makes it possible to access other related captured data based on the “similarity” relationship between captured data, as will be defined later, and to store the memory of the observer 2 For the purpose of assisting the recall, the “situation” classified so as to have the relationship of “similarity” and the captured data are correlated with each other. Such a relationship of “similarity” is related to the ubiquitous IR tags 10.1 to 10.6 attached to the object in the environment where the observer 2 is active. By cooperating with n, observation data captured by the head-mounted camera are correlated with each other.

このような「類似度」の測定を可能としているということにより、本発明では、時間軸に拘束されず、「“状況”という概念に基づいた分類」という新たな分類法を提供し、キャプチャされた映像、音声および他のデータにアクセスすることを可能とするものである。   By making it possible to measure such “similarity”, the present invention provides a new classification method called “classification based on the concept of“ situation ”” without being bound by the time axis, and is captured. Video, audio and other data can be accessed.

(本発明の動作の詳細)
本発明では、対象物の観点から上述した「状況」を定義して、キャプチャされたデータを離散的な「塊(チャンク:chunk)」に区分し、観測ベクトルとその塊との間に、類似度の計量を定義して、最終的には、このような類似度の計量を用いて、「状況」(塊のグループ)を形成する。
(Details of operation of the present invention)
In the present invention, the above-mentioned “situation” is defined from the viewpoint of the object, and the captured data is divided into discrete “chunks”, and similarities are observed between the observation vector and the chunks. A degree metric is defined and ultimately such a similarity metric is used to form a “situation” (group of chunks).

(1.対象物の観点からの「状況」の定義)
本発明においては、時間的に繰返されて観測者2により観測される対象物(または対象物のグループ)として、「状況」を定義する。このような対象物のグループは、観測者が、ある期間にわたって、繰返し相互作用を行なうものである。
(1. Definition of “situation” from the viewpoint of the object)
In the present invention, a “situation” is defined as an object (or group of objects) that is repeated in time and observed by the observer 2. Such a group of objects is one in which an observer repeatedly interacts over a period of time.

1つの対象物は、時間軸において、そのタグが、各瞬間において、IRカメラによって撮影されている場合には、「相互作用を行なっている」と呼ぶこととする。このような対象物のグループは、そのような相互作用が繰返し行なわれることによって、観測者2の体験の全体からみたときに、意味上の重要性を持っているものであると考えられる。   An object is referred to as “interacting” when its tag is taken by an IR camera at each moment on the time axis. Such a group of objects is considered to have significance in terms of the entire experience of the observer 2 by repeating such interaction.

(2.キャプチャデータを離散的な塊に区分け)
キャプチャデータの一部分は、ヘッドマウント型のIRカメラによりもたらされ、このような一部分は、いずれのIRタグが、ある時点において、観測者2の視野内に存在しているかということを特定する。
(2. Divide the capture data into discrete chunks)
A portion of the captured data is provided by a head-mounted IR camera, and such a portion identifies which IR tag is present in the observer's 2 field of view at some point in time.

図5は、このようにして獲得されるキャプチャデータの一部分を示す図である。   FIG. 5 is a diagram showing a part of the capture data acquired in this way.

図5に示すとおり、IRカメラに基づいて観測される対象物を特定するキャプチャデータの一部分は、その生データの形式では、ユーザが相互作用を行なった対象物を時間軸で並べられたリストとなっている。視野内にある観測対象が存在し始めてから、当該対象物が視野から消えるまでの1区切りを「レコード」と呼ぶことにする。また、並行して画像データおよび音声データが獲得されているので、このレコードの開始時刻および終了時刻の時刻データを介して、対象物の観測と画像および音声データとが関連付けられている。   As shown in FIG. 5, a part of captured data that identifies an object to be observed based on an IR camera is, in the form of its raw data, a list in which objects that the user interacted with are arranged on a time axis. It has become. One section from when the observation object in the field of view begins to exist until the object disappears from the field of view is referred to as a “record”. In addition, since image data and audio data are acquired in parallel, the observation of the object is associated with the image and audio data via the time data of the start time and end time of this record.

つまり、与えられた瞬間において、ユーザは、ある組の対象物を見ており、したがって、ある意味で、このようなある組の対象物と相互作用を行なっている。そして、これらの対象物は、IRタグ10.1〜10.nによって識別され得る。各IRタグ10.1〜10.nは、上述したとおり、固有な整数の識別子を有している。   In other words, at a given moment, the user is looking at a set of objects and, in a sense, interacting with such a set of objects. And these objects are IR tags 10.1-10. can be identified by n. Each IR tag 10.1-10. As described above, n has a unique integer identifier.

図6は、時間に従った1人の観測者2の観測状態をグラフで示すものである。図6において、縦軸は対象物に付されたIRタグ10.1〜10.nの識別番号を示し、横軸は、観測の経過時間を示す。   FIG. 6 is a graph showing the observation state of one observer 2 according to time. In FIG. 6, the vertical axis represents IR tags 10.1-10. The identification number of n is shown, and the horizontal axis shows the elapsed time of observation.

このような状況下で、データのサンプリングを行なうという観点から、無限小の時間を考えるよりは、ある微小な時間間隔(タイムスライス、たとえば、特に限定されないが、1秒間)に注目する方が便利である。1つのタイムスライスの期間中に、ユーザによって観測されるすべての対象物の組を、そのタイムスライスにおける観測ベクトルと呼ぶ。   In this situation, from the viewpoint of sampling data, it is more convenient to focus on a small time interval (time slice, for example, but not limited to 1 second) rather than considering an infinitely small time. It is. The set of all objects observed by the user during a time slice is called the observation vector in that time slice.

図7は、観測ベクトルの具体的な構成を示す概念図である。   FIG. 7 is a conceptual diagram showing a specific configuration of the observation vector.

「観測ベクトル」は、あるタイムスライスにおいて、観測対象となっている対象物に対応する要素が“1”であり、観測対象となっていない対象物に対応する要素が“0”となっているようなベクトルである。もちろん、有限な値である限り、観測対象となっている対象物に対応する要素の値は、1以外の値であってもよい。   In the “observation vector”, an element corresponding to an object to be observed is “1” and an element corresponding to an object not to be observed is “0” in a time slice. It is a vector like this. Of course, as long as it is a finite value, the value of the element corresponding to the object to be observed may be a value other than 1.

図6においては、観測ベクトルの1つの例が、垂直な長方形で示されている。図6からも分かるように、観測ベクトルは、そのタイムスライスにおいて観測者2が見ているすべてのIRタグの識別子を含んでいる。   In FIG. 6, one example of an observation vector is shown by a vertical rectangle. As can be seen from FIG. 6, the observation vector includes the identifiers of all IR tags that the observer 2 is viewing in the time slice.

図6では、1つの観測ベクトルに対応する垂直な長方形において、各位置は、1つのドットを含んでいるか、空であるかのいずれかである。ドットが含まれているということは、観測ベクトルのその位置によって表現された対象物が、その時間スライスにおいて観測されているということを示している。一方で、空であるということは、観測ベクトルにおけるその位置によって表現される対象物が、そのタイムスライス中において観測されていないことを表わす。   In FIG. 6, in a vertical rectangle corresponding to one observation vector, each position either contains one dot or is empty. The inclusion of a dot indicates that the object represented by that position in the observation vector is being observed in that time slice. On the other hand, being empty means that the object represented by the position in the observation vector is not observed in the time slice.

図6においては、時間の進行に従って、観測される対象物の組の変化を見いだすことができる。このようにして、観測ベクトルが時間的に変化する。さらに、観測ベクトルにおいては、繰返される一定のパターンがあることがわかる。これは、ユーザがそのような「状況」にあることを表現している。   In FIG. 6, a change in the set of observed objects can be found as time progresses. In this way, the observation vector changes with time. Furthermore, it can be seen that there are certain patterns that are repeated in the observation vector. This expresses that the user is in such a “situation”.

図6に示したような時間軸に沿った観測が行なわれた後に、すべての観測ベクトルの組を「塊(チャンク)」に分割する。1つの塊は、時間的に近接した観測ベクトルの列に対応している。このような塊を抽出する作業は、以下のような2つの方法によって行なうことができる。   After the observation along the time axis as shown in FIG. 6 is performed, all sets of observation vectors are divided into “chunks”. One block corresponds to a sequence of observation vectors that are close in time. The operation of extracting such a lump can be performed by the following two methods.

図8は、このような塊を抽出する第1の方法を示す図である。   FIG. 8 is a diagram showing a first method for extracting such a lump.

図8に示すように、塊を抽出する1つの方法は、タイムスライス(この場合、特に限定されないが、たとえば、5秒間)のレベルで塊の抽出を行なうことである。言い換えると、キャプチャされた観測データを同じサイズの微小なタイムスライスに分割して、各タイムスライスを次のステップにおいて使用されるような1つの塊とする。この方法の利点は、そのような処理が簡単であるということと、生データを直接的に処理することが可能であるという点である。   As shown in FIG. 8, one method of extracting a lump is to perform lump extraction at the level of a time slice (in this case, although not particularly limited, for example, 5 seconds). In other words, the captured observation data is divided into small time slices of the same size, and each time slice is made into one lump that is used in the next step. The advantage of this method is that such processing is simple and that raw data can be processed directly.

図9は、このような塊を抽出する第2の方法を示す図である。   FIG. 9 is a diagram showing a second method of extracting such a lump.

図9に示すように、塊を抽出するための第2の方法は、獲得された観測データを同じサイズのタイムスライスではなく、同一の対象物の観測に対応した時間的に近接する塊に分けるということである。   As shown in FIG. 9, the second method for extracting chunks divides the acquired observation data into temporally close chunks corresponding to observations of the same object, rather than time slices of the same size. That's what it means.

この第2の方法では、ユーザは、典型的には、ある期間においては、ある特定の対象物の組との間で相互作用を行なっており、このことは、観測ベクトルが相互に同一または類似している期間が、1つの「状況」を表わす「塊」の一部を表わしているとして塊の抽出を行なうことに対応する。そして、他の異なった組の対象物との間の相互作用を行なうようになることは、もう1つの状況の「塊」を表現しているということに対応している。このような方法の利点は、同一または類似の観測に対応している時間的に隣接した「塊」を分割することがないということであり、クラスタリングされる部分の時間的な一貫性を増加させることができ、これによって、各クラスタのユニットの「意味的」な価値を増加させられるということである。   In this second method, the user typically interacts with a particular set of objects for a period of time, which means that the observation vectors are identical or similar to each other. This corresponds to the extraction of a lump assuming that the period of time represents a part of a “lump” representing one “situation”. And the interaction with other different sets of objects corresponds to the expression of a “chunk” of another situation. The advantage of such a method is that it does not split temporally adjacent “lumps” corresponding to the same or similar observations, increasing the temporal consistency of the clustered parts. This can increase the “semantic” value of the units in each cluster.

このようにして、時間的に隣接した観測ベクトルの「塊」(以下、「観測ベクトル塊」と呼ぶ)を抽出すると、さらに、相互に同一または類似の「観測ベクトル塊」の集合として、「状況」が定義できる。   In this way, by extracting “lumps” of observation vectors that are temporally adjacent to each other (hereinafter referred to as “observation vector chunks”), as a set of “observation vector chunks” that are the same or similar to each other, Can be defined.

第2番目のような観測ベクトル塊を抽出する方法は、観測ベクトルの比較を行なうことを要求する。以下その内容について説明する。   The second method of extracting observation vector blocks requires comparison of observation vectors. The contents will be described below.

(3.観測ベクトルの間および観測ベクトル塊の間の類似度の計量)
類似度の計量は、ある観測ベクトルと他の観測ベクトルとの間の類似度を比較するために必要である。
(3. Measurement of similarity between observation vectors and between observation vector chunks)
The similarity metric is necessary to compare the similarity between one observation vector and another observation vector.

また、同様の類似度の計量方法は、1つの観測ベクトル塊に対応する「塊観測ベクトル」を、当該観測ベクトル塊に含まれるすべての観測ベクトルの論理的な和であると定義することによって、観測ベクトル塊の比較に用いることもできる。   Further, a similar similarity metric method defines a “bulk observation vector” corresponding to one observation vector block as a logical sum of all the observation vectors included in the observation vector block, It can also be used to compare observation vector clusters.

たとえば、1つの観測ベクトル塊内において、与えられた観測ベクトルが(0,1,0,1)と(0,0,1,1)である場合、これら2つのベクトルの論理和は、(0,1,1,1)となる。そして、これが、観測ベクトル塊全体に対応した塊観測ベクトルとなる。   For example, when given observation vectors are (0, 1, 0, 1) and (0, 0, 1, 1) in one observation vector block, the logical sum of these two vectors is (0 , 1, 1, 1). This is a block observation vector corresponding to the entire observation vector block.

特定の時間間隔内に対する観測ベクトルは、考慮され得るすべての対象物に対して、当該対象物が観測されているかいないかを示す2値のベクトルである。以下のような類似度の計測がこのような観測ベクトルの比較に用いられ得る。   The observation vector for a specific time interval is a binary vector indicating whether or not the object is observed for all objects that can be considered. The following similarity measure can be used to compare such observation vectors.

(3−1.共通な構成要素の数に基づく類似度)
この比較方法においては、類似度のスコアを得るために、2つの観測ベクトルの間の同一の要素の数をカウントする。このようにして得られたスコアは、正規化された類似度スコアを得るために、要素の数によって除算される。
(3-1. Similarity based on the number of common components)
In this comparison method, the number of identical elements between two observation vectors is counted in order to obtain a similarity score. The score thus obtained is divided by the number of elements to obtain a normalized similarity score.

(3−2.相違する構成要素の数に基づく類似度)
これは単に、3−1の共通な構成要素の数に基づく類似度のスコアの相補的なスコアを求めることに相当する。
(3-2. Similarity based on the number of different components)
This simply corresponds to obtaining a complementary score of the similarity score based on the number of 3-1 common components.

(3−3.タニモト類似度)
文献:Teuvvo Kohonen. ”Self-Organizing Maps.”Springer-Verlag Berlin Heidelberg, 1995, pp.16-17に示されるように、タニモトによって提案されている類似度STの計量は、2つの観測ベクトルa,bに対して、以下のように定義することができる。
(3-3. Tanimoto similarity)
Literature:. ". Self-Organizing Maps " Teuvvo Kohonen Springer-Verlag Berlin Heidelberg, 1995, as shown in Pp.16-17, metering of similarity S T proposed by Tanimoto has two observation vector a , B can be defined as follows.

T(a,b)=(a・b)/((a・a)+(b・b)―(a・b))
ここで、(a・b)は、ベクトルaとbとの内積を表す。
S T (a, b) = (a · b) / ((a · a) + (b · b) − (a · b))
Here, (a · b) represents the inner product of the vectors a and b.

このタニモト類似度は、本質的に、異なった要素の数に対する共通な要素の数の割合を求めていることに相当する。   This Tanimoto similarity essentially corresponds to finding the ratio of the number of common elements to the number of different elements.

(3−4.重み付けられた類似度の計量)
上述したような類似度の計量は、類似度の重み付けが行なわれていない計量値を意味している。言い換えると、各ベクトルにおけるすべての要素は、同一の重みで扱われている。このような重み付けがなされていない類似度ベクトルを用いることの問題点は、1つの観測ベクトル中における要素間の類似度を考慮することができないということである。
(3-4. Weighted similarity measure)
The similarity metric as described above means a metric value that is not weighted. In other words, all elements in each vector are treated with the same weight. The problem with using a similarity vector that is not weighted is that the similarity between elements in one observation vector cannot be considered.

観測ベクトルの要素は、ヘッドマウントIRカメラが観測することができるIRタグに基づいて形成されているものである。空間的に近接している、あるいは意味的に近接しているIRタグは、相互に置き換えられ得るものである。たとえば、1つの対象物が2つのIRタグaおよびbをその上に装着されている場合、2つのベクトル(a,0)および(0,b)の間の類似度は、大変高いことになる。なぜならば、これらのタグは意味上において非常に近接したものといえるからである。   The element of the observation vector is formed based on an IR tag that can be observed by the head mounted IR camera. IR tags that are spatially close or semantically close can be interchanged. For example, if one object has two IR tags a and b mounted on it, the similarity between the two vectors (a, 0) and (0, b) will be very high. . This is because these tags are very close in meaning.

しかしながら、タグaおよびbが、空間的あるいは意味的に離れているとき、たとえば、それらが物理的に異なった対象物上に装着されているかあるいは空間的に離れている場合は、(a,0)と(0,b)との間の類似度は低いものとなる。   However, if the tags a and b are spatially or semantically separated, for example if they are mounted on or physically separated from different objects, (a, 0 ) And (0, b) have a low similarity.

したがって、予めこのような観測ベクトルの要素間で、空間的に近接している、あるいは意味的に近接している場合には、これらの要素が2つの観測ベクトル間に共通に存在している場合には、類似度を大きくするように重み付けをすることができる。   Therefore, if elements of such observation vectors are spatially close or semantically close in advance, these elements are common between the two observation vectors. Can be weighted to increase the similarity.

また、タニモト類似度における内積の計算では、たとえば、タグaに対応する要素が“1”である場合は、観測の生データに関わりなく、タグbに対応する要素についても“1”であるものとして、内積を計算することにして、類似度に重みをつけることもできる。   Further, in the calculation of the inner product in the Tanimoto similarity, for example, when the element corresponding to the tag a is “1”, the element corresponding to the tag b is also “1” regardless of the raw data of observation. By calculating the inner product, the similarity can be weighted.

タグaおよびbの空間的あるいは意味的な内容に基づいて、上述のように、予め重みを割当てておくことは、個別の具体的な場合において、比較するための計量の個別の微調整を可能とするものである。   Pre-assigning weights as described above based on the spatial or semantic content of tags a and b allows for individual fine-tuning of the metrics for comparison in individual specific cases. It is what.

(類似度の計量を用いた「状況(チャンクのグループ)」の形成)
上述のようにして観測ベクトル間での類似度に基づいて観測ベクトル塊を抽出すると、各観測ベクトル塊は、ある経験の期間中において観測が行なわれたある共通の情報を含んでいる一連の体験の塊を表現する。
(Formation of “situation (chunk group)” using similarity measure)
When an observation vector block is extracted based on the similarity between observation vectors as described above, each observation vector block is a series of experiences that contain some common information that has been observed during a certain period of experience. Represent a lump of.

各観測ベクトル塊は、特定可能な時間において発生するものであるため、各観測ベクトル塊に対応して音声や映像のデータを対応付けることができる。   Since each observation vector block is generated at an identifiable time, audio or video data can be associated with each observation vector block.

また、観測ベクトル塊間の類似度については、上述した塊観測ベクトルの類似度に基づいて、比較を行なうことができる。   Further, the similarity between the observation vector blocks can be compared based on the above-described similarity of the block observation vectors.

これらの情報が与えられていれば、類似した観測ベクトル塊のグループを形成することができる。相互に類似した観測ベクトル塊のグループは、各々「状況」に相当する。このことは、「状況」が、「ある時間間隔にわたって観測者が相互作用を行なうことが、時間的に繰返される対象物のグループ」を意味することに対応する。   If these pieces of information are given, groups of similar observation vector clusters can be formed. Each group of observation vector clusters similar to each other corresponds to a “situation”. This corresponds to the fact that “situation” means “a group of objects in which it is repeated in time that an observer interacts over a certain time interval”.

観測ベクトル塊の間の類似度は、上述したようなステップにおいて説明した類似度の計量によって定義され得る。類似度の計量が与えられると、観測ベクトル塊に対応したビデオクリップのクラスタリングを行なう方法については周知の方法を用いることができる。   The similarity between observation vector chunks can be defined by the similarity metric described in the steps as described above. When a similarity metric is given, a well-known method can be used as a method for clustering video clips corresponding to observation vector chunks.

たとえば、自己組織化されたマップや、あるいは引力あるいは斥力の磁力モデルに基づいて、クラスタリングする方法を用いることができる。   For example, it is possible to use a clustering method based on a self-organized map or an attractive or repulsive magnetic model.

すなわち、後者では、たとえば、所定の時間スライスに対応する映像および音声データ(「ビデオクリップ」と呼ぶ)のクリップの各々について、同一の状況に対応するクリップ間には引力が働き、異なる状況に対応するクリップ間には斥力が働くものとして、2次元的に表示を行なうと、この表示上では、同一の状況に対応するクリップがクラスタリングされる。   That is, in the latter case, for example, for each of the clips of video and audio data (referred to as “video clips”) corresponding to a predetermined time slice, attraction works between the clips corresponding to the same situation, and corresponds to different situations. When a two-dimensional display is performed on the assumption that repulsive force acts between clips, clips corresponding to the same situation are clustered on this display.

図10は、相互作用を行なう磁力モデルを用いたクラスタリング表示(マップ表示)の例を示す図である。   FIG. 10 is a diagram illustrating an example of clustering display (map display) using a magnetic force model that performs interaction.

図10では、各ビデオクリップが代表される静止画で表現されている。   In FIG. 10, each video clip is represented by a still image represented.

特に限定されないが、図10に示した例では、ビデオクリップ間に働く力は、クラスタを形成するために、所定の半径以内で作用するように限定されている。このことは、ビデオクリップのクラスタが、全体として自動的に形成されるわけではないという不利益を有しているが、ドラッギングを行なったデータの間では、関連の相互的な検索を行なうことが可能となるという利点を有する。もちろん、ビデオクリップ間に働く力の有効半径に制限を設けずに、ビデオクリップが、状況に対応するクラスタを自動的に生成することとしてもよい。類似度に対応したビデオクリップ間に働く力は、あるしきい値より類似度が高ければ引力的であり、あるしきい値より類似度が低ければ斥力的であるかが分類される。   Although not particularly limited, in the example shown in FIG. 10, the force acting between the video clips is limited to act within a predetermined radius in order to form a cluster. This has the disadvantage that a cluster of video clips is not automatically formed as a whole, but it is possible to perform a reciprocal correlation search between the dragged data. It has the advantage of being possible. Of course, the video clip may automatically generate a cluster corresponding to the situation without limiting the effective radius of the force acting between the video clips. The force acting between the video clips corresponding to the similarity is classified as attractive if the similarity is higher than a certain threshold, and repulsive if the similarity is lower than a certain threshold.

体験に対応する観測ベクトルおよびビデオクリップから成るデータ(体験コーパスデータ)は、同一のサイズを持った時間スライスに分割されており、各時間スライスに対して、観測ベクトルと、ヘッドマウントカメラから得られた動画像のうち各時間スライスに対応する動画像を代表するビデオフレーム(たとえば、特に限定されないが、時間スライスの中央のビデオフレーム)が、抽出される。   Data consisting of observation vectors and video clips (experience corpus data) corresponding to the experience is divided into time slices having the same size. For each time slice, the observation vector and the head-mounted camera are used. A video frame representing the moving image corresponding to each time slice among the moving images (for example, the video frame at the center of the time slice) is extracted.

図10に示すとおり、ビデオフレームは、2次元マップ上に最初はランダムに分布している。その後で、引力の相互作用が、類似の観測を寄せ集めてそれぞれの「状況」を形成する。   As shown in FIG. 10, the video frames are initially randomly distributed on the two-dimensional map. Later, the interaction of attractive forces brings together similar observations to form each “situation”.

各ビデオフレームは、それに付随した観測ベクトルを有している。すなわち、当該体験の区分の期間中に観測された対象物は、IRタグセンサによって獲得されており、これによって、対象物が、観測ベクトルと関連付けられることになる。   Each video frame has an observation vector associated with it. That is, the object observed during the period of the experience is acquired by the IR tag sensor, and the object is associated with the observation vector.

図10に示した体験マップ上においては、各フレームに働く力が影響を及ぼし得る半径を有しているものとし、タニモトの類似度計量が、考慮中のフレームとそれに隣接した影響範囲内における近接したすべてのフレームとの間の類似度の計測に用いられる。ユーザは、マップ上において、いずれのフレームをドラッグして移動させることができ、当該ドラッグしているフレームが、他のフレームとどのように引き合うかあるいは反発し合うかを観測することができる。そして、ユーザは、マップ内に存在するフレームをすべて微小量だけ動かすことによって、クラスタリングが半自動的に行なわれることを助長することができる。   In the experience map shown in FIG. 10, it is assumed that the force acting on each frame has a radius that can be affected, and the similarity metric of Tanimoto is close to the frame under consideration and the adjacent influence range. It is used to measure the similarity between all frames. The user can drag and move any frame on the map, and can observe how the dragged frame attracts or repels other frames. Then, the user can promote that the clustering is performed semi-automatically by moving all the frames existing in the map by a minute amount.

図10においては、マップ内において、フレームをドラッギングすることによってそのレイアウトが相互作用的に形成され、かつ、類似のフレームが、相互にクラスタを形成させるようになっている。これは、類似した観測ベクトルによっては、引力が生成されることによる。このようなマップは、したがって、ビデオフレームとして視覚化された観測ベクトルにおいて作用する引力的あるいは斥力的な有効半径が限定された力によって、2次元空間における検索を可能とするものである。図10の例においては、各静止画像は、1つの時間スライスを表現しており、類似した観測ベクトルに対応するビデオクリップは、時間的には関連をたとえ持っていない場合であっても、互いに引き合って、状況のクラスタを形成する。異なった状況に対応するビデオクリップは、相互に反発するものである。たとえば、図10の左下側の画像をドラッグして右側のクラスタに持っていった場合(図中では矢印で示す)、これらの観測ベクトルが非類似であるため、当該クラスタは、この画像に対しては反発して1つのクラスタとはならない。   In FIG. 10, the layout is interactively formed by dragging the frames in the map, and similar frames are clustered with each other. This is because an attractive force is generated depending on a similar observation vector. Such a map can therefore be searched in a two-dimensional space by a force with a limited effective or repulsive effective radius acting on an observation vector visualized as a video frame. In the example of FIG. 10, each still image represents one time slice, and video clips corresponding to similar observation vectors are mutually related even if they are not temporally related. Inquire and form a cluster of situations. Video clips that correspond to different situations repel each other. For example, if the lower left image in FIG. 10 is dragged and moved to the right cluster (indicated by an arrow in the figure), these observation vectors are dissimilar, so the cluster Will not be a single cluster.

このような観測ベクトルのグループの視覚化は、たとえば、図10に示されているとおり、時間軸に沿わないで、状況に基づいた態様でキャプチャされた画像データをアクセスして見ることが可能なインタフェースとして用いることができる。また、キャプチャされた画像データの中で、類似した関係を検索することに用いることもできる。観測ベクトル塊の間の類似度の関係は、ユーザに対して、考慮中の特定のビデオクリップと類似しているキャプチャされたビデオクリップを思い出させるために、記憶の想起の補助として用いることもできる。   Visualization of such a group of observation vectors can access and view image data captured in a situation-based manner without being along the time axis as shown in FIG. 10, for example. It can be used as an interface. It can also be used to search for similar relationships in captured image data. The similarity relationship between observation vector chunks can also be used as a memory recall aid to remind the user of a captured video clip that is similar to the particular video clip under consideration. .

なお、図10の説明では、動画像を代表するビデオフレームの抽出は、獲得された観測データを同じサイズのタイムスライスで分割した場合について説明したが、同一の対象物の観測に対応した時間的に近接する塊に分割し、この塊の動画像を代表するビデオフレームを抽出してもよい。   In the description of FIG. 10, the video frame representing the moving image is extracted in the case where the acquired observation data is divided into time slices of the same size. However, the time frame corresponding to the observation of the same object is used. It is also possible to divide into chunks adjacent to and extract a video frame representing a moving image of the chunk.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本発明の体験キャプチャシステム20の一例を示す概念図である。It is a conceptual diagram which shows an example of the experience capture system 20 of this invention. 体験キャプチャシステム20の構成をブロック図形式で示す図である。It is a figure which shows the structure of the experience capture system 20 in a block diagram format. 本発明の体験マッピング装置1000の一例を示す概念図である。It is a conceptual diagram which shows an example of the experience mapping apparatus 1000 of this invention. コンピュータ300のハードウェア構成をブロック図形式で示す図である。FIG. 2 is a block diagram showing a hardware configuration of a computer 300. 獲得されるキャプチャデータの一部分を示す図である。It is a figure which shows a part of capture data acquired. 時間に従った1人の観測者2の観測状態をグラフで示すものである。The observation state of one observer 2 according to time is shown by a graph. 観測ベクトルの具体的な構成を示す概念図である。It is a conceptual diagram which shows the specific structure of an observation vector. 塊を抽出する第1の方法を示す図である。It is a figure which shows the 1st method of extracting a lump. 塊を抽出する第2の方法を示す図である。It is a figure which shows the 2nd method of extracting a lump. 相互作用を行なう磁力モデルを用いたクラスタリング表示(マップ表示)の例を示す図である。It is a figure which shows the example of the clustering display (map display) using the magnetic force model which performs interaction.

符号の説明Explanation of symbols

2 観測者、10.1〜10.n IRタグ、20 体験キャプチャシステム、100 コンピュータ、110 CPU、112 メモリ、114 ハードディスク、116 外部媒体ドライブ、118 通信インタフェース、120 外部装置インタフェース、122 タイマ、140 ヘッドセット、142 映像カメラ、144 マイク、146 ヘッドセット型ディスプレイ、150 外部媒体、300 コンピュータ、302 コンピュータ本体、304 ディスプレイ、306 外部媒体ドライブ、308 CD−ROMドライブ、310 キーボード、312 マウス、318 CD−ROM、320 CPU、322 メモリ、324 ハードディスク、328 インタフェース、1000 体験マッピング装置。   2 observers, 10.1-10. n IR tag, 20 experience capture system, 100 computer, 110 CPU, 112 memory, 114 hard disk, 116 external media drive, 118 communication interface, 120 external device interface, 122 timer, 140 headset, 142 video camera, 144 microphone, 146 Headset type display, 150 external medium, 300 computer, 302 computer main body, 304 display, 306 external medium drive, 308 CD-ROM drive, 310 keyboard, 312 mouse, 318 CD-ROM, 320 CPU, 322 memory, 324 hard disk, 328 interface, 1000 experience mapping device.

Claims (5)

光学的に識別可能な識別標識を各々付された複数の対象物が配置された領域において、観測者の視野に相当する範囲を撮像するように装着した撮像手段により、前記観測者の行動にしたがって順次撮影される前記対象物を含む画像を時間軸上の順序情報と関連付けた撮影画像情報を記憶する記憶装置を備え、
各々が所定時間の間隔を有する第1のタイムスライスごとに、前記撮影画像情報内において前記識別標識が検出された対象物と前記識別標識が検出されない対象物とで区別可能なように、前記識別標識が検出された対象物に特定の値を割当てることで、当該第1のタイムスライスについての観測ベクトルを定義するとき、
前記観測ベクトルの集合から、前記所定時間よりも長い時間にわたって時間的に隣接する前記観測ベクトルの塊である観測ベクトル塊を抽出する抽出手段と、
前記観測ベクトル塊を代表する塊観測ベクトルの間の類似度に基づいて、前記撮影画像情報のうち前記観測ベクトル塊をそれぞれ代表するビデオクリップの各々に、引力または斥力を対応付けることにより、前記観測者が時間的に繰返して相互作用を行う前記対象物のグループに対応し、時間軸上で異なる前記観測ベクトル塊を代表する前記ビデオクリップが、クラスタを形成するように表示する表示手段とを備える、体験マッピング装置。
In an area where a plurality of objects each having an optically identifiable identification mark are arranged, an imaging means attached to image a range corresponding to the visual field of the observer according to the behavior of the observer A storage device for storing captured image information in which images including the objects to be sequentially captured are associated with sequence information on a time axis;
For each of the first time slices each having a predetermined time interval, the identification is performed so that the object in which the identification mark is detected and the object in which the identification mark is not detected can be distinguished in the captured image information. When defining an observation vector for the first time slice by assigning a specific value to the object for which the sign is detected,
Extraction means for extracting from the set of observation vectors an observation vector block that is a block of the observation vectors that are temporally adjacent over a time longer than the predetermined time ;
Based on the similarity between the mass observation vectors representing the observation vector mass, the observer can associate an attractive force or a repulsive force with each video clip representing the observation vector mass in the captured image information. The video clip corresponding to the group of objects interacting repeatedly in time and representing the different observation vector clusters on the time axis, and display means for displaying to form a cluster, Experience mapping device.
前記塊観測ベクトルは、各要素が、前記塊観測ベクトルに対応する観測ベクトル塊に含まれるすべての観測ベクトルの当該要素の論理和である、請求項1記載の体験マッピング装置。The experience mapping apparatus according to claim 1, wherein each of the lump observation vectors is a logical sum of the elements of all the observation vectors included in the observation vector lump corresponding to the lump observation vector. 前記抽出手段は、前記所定時間よりも長い一定の時間間隔を有する第2のタイムスライスとなるように前記第1のタイムスライスを集めることにより、前記観測ベクトルの集合から、前記第2のタイムスライスごとの前記観測ベクトルの塊である観測ベクトル塊を抽出する、請求項記載の体験マッピング装置。 The extraction means collects the first time slice so as to be a second time slice having a certain time interval longer than the predetermined time, thereby obtaining the second time slice from the set of observation vectors. The experience mapping apparatus according to claim 2 , wherein an observation vector block that is a block of the observation vectors is extracted . 前記抽出手段は、同一の対象物の連続的な観測に対応した時間的に近接する前記第1のタイムスライスを集めることにより、前記観測ベクトルの集合から、前記観測ベクトルの塊である観測ベクトル塊を抽出する、請求項記載の体験マッピング装置。 The extraction means collects the first time slices that are close in time corresponding to continuous observation of the same object , so that an observation vector block that is a block of the observation vectors is collected from the set of observation vectors. The experience mapping device according to claim 2, wherein the device is extracted . 前記引力または斥力は、所定の有効距離を有し、
ユーザが前記ビデオクリップを選択して移動先を指示する信号を入力するための入力手段をさらに備え、
前記表示手段は、前記ユーザが選択した前記ビデオクリップを移動して他の前記ビデオクリップ間を移動させることに応じて、前記有効距離内において相互に斥力を有する前記ビデオクリップが互いに反発するとともに、前記有効距離内において相互に引力を有する前記ビデオクリップが前記クラスタを形成するように表示する、請求項記載の体験マッピング装置。
The attractive force or repulsive force has a predetermined effective distance;
An input means for the user to select the video clip and input a signal indicating the destination;
It said display means in response to said user to move between the other of the video clip by moving the video clip selected, together with the video clip with repulsive to each other at said effective distance repel each other, The experience mapping apparatus according to claim 2 , wherein the video clips that are mutually attractive within the effective distance are displayed to form the cluster.
JP2004123297A 2004-04-19 2004-04-19 Experience mapping device Expired - Lifetime JP4474577B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004123297A JP4474577B2 (en) 2004-04-19 2004-04-19 Experience mapping device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004123297A JP4474577B2 (en) 2004-04-19 2004-04-19 Experience mapping device

Publications (2)

Publication Number Publication Date
JP2005309609A JP2005309609A (en) 2005-11-04
JP4474577B2 true JP4474577B2 (en) 2010-06-09

Family

ID=35438360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004123297A Expired - Lifetime JP4474577B2 (en) 2004-04-19 2004-04-19 Experience mapping device

Country Status (1)

Country Link
JP (1) JP4474577B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5261776B2 (en) * 2010-04-21 2013-08-14 日本電信電話株式会社 Similar data discriminating apparatus, similar data discriminating method and program
US9805725B2 (en) 2012-12-21 2017-10-31 Dolby Laboratories Licensing Corporation Object clustering for rendering object-based audio content based on perceptual criteria

Also Published As

Publication number Publication date
JP2005309609A (en) 2005-11-04

Similar Documents

Publication Publication Date Title
Gurrin et al. Overview of the NTCIR-14 lifelog-3 task
TWI579838B (en) Automatic generation of compilation videos
CN102668548B (en) Video information processing method and video information processing apparatus
US8842882B2 (en) Individualizing generic communications
JP5735330B2 (en) Image processing apparatus and image processing method
JP5527423B2 (en) Image processing system, image processing method, and storage medium storing image processing program
Adithya et al. Hand gestures for emergency situations: A video dataset based on words from Indian sign language
US9646046B2 (en) Mental state data tagging for data collected from multiple sources
CN108475326A (en) For providing and method, storage medium and the electronic equipment of the associated service of image
WO2015094589A1 (en) Tagging images with emotional state information
CN102132244A (en) Image tagging user interface
CN102132312A (en) Tagging images with labels
CN101553855A (en) Memory training via visual journal
CN103988202A (en) Image attractiveness based indexing and searching
CN113870133B (en) Multimedia display and matching method, device, equipment and medium
Aiordachioae et al. Life-tags: a smartglasses-based system for recording and abstracting life with tag clouds
CN117178271A (en) Automatic memory creation and retrieval of content items from time of day
JP7202935B2 (en) Attention level calculation device, attention level calculation method, and attention level calculation program
US20190008466A1 (en) Life log utilization system, life log utilization method, and recording medium
JP4474577B2 (en) Experience mapping device
JP7037180B2 (en) Learning data discriminator and learning data discriminator
JP2012022561A (en) Image processing apparatus and program
CN117795502A (en) Evolution of topics in messaging systems
CN115374141A (en) Virtual image updating method and device
CN110764676B (en) Information resource display method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090728

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100217

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3