JP2016181244A - ユーザ注意判定システム、方法及びプログラム - Google Patents

ユーザ注意判定システム、方法及びプログラム Download PDF

Info

Publication number
JP2016181244A
JP2016181244A JP2015139477A JP2015139477A JP2016181244A JP 2016181244 A JP2016181244 A JP 2016181244A JP 2015139477 A JP2015139477 A JP 2015139477A JP 2015139477 A JP2015139477 A JP 2015139477A JP 2016181244 A JP2016181244 A JP 2016181244A
Authority
JP
Japan
Prior art keywords
user
content
sequence
presentation
users
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015139477A
Other languages
English (en)
Other versions
JP6519370B2 (ja
Inventor
クラッツ スベン
Kratz Sven
クラッツ スベン
新宮 淳
Atsushi Shingu
淳 新宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Publication of JP2016181244A publication Critical patent/JP2016181244A/ja
Application granted granted Critical
Publication of JP6519370B2 publication Critical patent/JP6519370B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】ユーザが複数である場合、もしくは空間が広い場合であっても、提示されているコンテンツにユーザが注意を払っているか否か判定することを可能とする。
【解決手段】データ統合部は、画像のシーケンス及び頭部向きのシーケンスの各々を記憶し、関連付ける。コンテンツ識別部は、取得した画像のシーケンスのマーカのメタデータを評価することによってプレゼンテーションコンテンツを識別する。ユーザ注意判定部は、第1ユーザの視認アクティビティを測定する。視認アクティビティの測定値は第1ユーザが表示されているコンテンツに注意を払っている場合であるか注意を払っていない場合であるかを含む。
【選択図】図5

Description

本開示は、提示されているコンテンツへのユーザの注意を判定するシステム、方法及びプログラムに関する。
ここ10年の間、スマート環境はよく見られるリサーチのトピックであった。スマート空間(パーベイシブコンピューティング環境、スマート環境、アンビエントインテリジェンスとも呼ばれる)は、1つのタスクに関して共同して作業するユーザのグループによって使用される技術的に拡張された作業環境である。例えば、ユーザ(例えば、ミーティング参加者)の位置及びアクティブな話者の検出など、行われているアクティビティに関するメタデータを収集するために、職場の会議室がスマート空間として使用され得る。収集された情報は、ミーティングを後でレビューするための情報もしくはビデオ要約を生成するための情報などの豊富なフィードバックをユーザに提供することができる。
チウ(Chiu)ら、「簡易議事録:マルチメディアミーティング議事録のためのインターネットベース議事録(Liteminutes: an internet-based system for multimedia meeting minutes)」、wwwに関する第10回国際会議抄録(Proceedings of the 10th international conference on World Wide Web)、ACM、2001年、頁140〜149 カーン(Kern)ら、「ミーティング記録に注釈を付すためのウェアラブルセンシング(Wearable sensing to annotate meeting recordings)」、パーソナル及びユビキタスコンピューティング(Personal and Ubiquitous Computing)、2003年、7(5)、頁263〜274
スマート空間におけるエゴセントリックトラッキング(自己中心的追跡)に関する以前の技術では、深度センサ及びカメラなどの拡張センサアレイをスマート空間に取り付けることによってユーザの位置検出を行っていた。しかしながら、従来の方法には、例えば、非常に広い部屋へのスケーラビリティ(拡張性)及び/もしくは多数の参加者を追跡するための能力などに限界があった。詳細には、従来の方法は、スケーラビリティについて指数関数的に増大するセンサを必要とすることがよくある。即ち、群集を追跡するために従来の方法を使用する場合、隠れ問題が結果として生ずる。
本発明は、ユーザが複数である場合、もしくは空間が広い場合であっても、提示されているコンテンツにユーザが注意を払っているか否か判定することを可能とする。
第1の態様は、提示されているコンテンツへのユーザの注意を判定するシステムであって、複数のユーザに対して提示されているコンテンツの第1セットに第1マーカを適用する可視ラベリング部であって、前記第1マーカの各々はコンテンツの前記第1セット及びプレゼンテーションの提示ユニットの各々と対応付けられている少なくともコンテンツIDを識別する第1メタデータを含む、可視ラベリング部と、適用された前記第1マーカと共に、複数の前記ユーザに対して、前記提示ユニットに前記プレゼンテーションを表示する表示部と、複数のユーザの内の第1ユーザによって装着されたボディ搭載カメラから頭部向き情報を受信し、前記頭部向き情報から前記第1ユーザの頭部向きのシーケンスを判定し、前記第1ユーザ及び対応する第1タイムスタンプのシーケンスと関連付けられている識別子と頭部向きのシーケンスの各々とを関連付ける頭部向き判定部と、前記第1ユーザによって装着された前記ボディ搭載カメラによって取得された画像のシーケンスを受信し、前記第1ユーザ及び前記ボディ搭載カメラと対応付けられている識別子と対応する第2タイムスタンプのシーケンスとを前記画像のシーケンスと関連付ける画像受信部であって、画像の前記シーケンスは前記第1ユーザに対して提示される、もしくは視認可能な室内表示/情報である、画像受信部と、前記画像のシーケンス及び前記頭部向きのシーケンスの各々を記憶し、関連付けるデータ統合部と、取得した前記画像のシーケンスのマーカのメタデータを評価することによってプレゼンテーションコンテンツを識別するコンテンツ識別部と、前記第1ユーザの視認アクティビティを測定するユーザ注意判定部であって、前記視認アクティビティの測定値は前記第1ユーザが表示されているコンテンツに注意を払っている場合であるか注意を払っていない場合であるかを含む、ユーザ注意判定部と、を含む。
第2の態様は、第1の態様のシステムであって、前記第1マーカは、前記プレゼンテーションが提示される前記プレゼンテーションの提示面を識別する物理マーカ、を含み、前記プレゼンテーションは非デジタルコンテンツ及び/もしくはデジタルコンテンツを含む。
第3の態様は、第1又は第2の態様のシステムであって、埋め込まれた前記可視マーカはプレゼンテーションスクリーンと共にパーソナルスクリーンに表示される。
第4の態様は、第1〜第3の何れかの態様のシステムであって、前記画像受信部は複数の前記ユーザの内2人以上のユーザによって装着された2つ以上のボディ搭載カメラによって取得された前記画像のシーケンスを受信する。
第5の態様は、第1〜第4の何れかの態様のシステムであって、前記ボディ搭載カメラに結合されているマイクロフォンによって記憶された室内音声を受信する音声受信部、をさらに含み、前記室内音声は提示されたコンテンツの前記第1セットの音声及び前記室内の話者の音声を含み、前記室内音声は前記第1ユーザと関連付けられている。
第6の態様は、第1〜第5の何れかの態様のシステムであって、前記ボディ搭載カメラに結合されているどのマイクロフォンが所定の任意の時間に最も強い音声信号を有するかに基づいて、複数の前記ユーザの内どのユーザが話しているかを識別する話者識別部、をさらに含む。
第7の態様は、第1〜第6の何れかの態様のシステムであって、複数の前記ユーザの話者の識別を検証するために音声フィンガープリントを使用する話者認証部、をさらに含む。
第8の態様は、第1〜第7の何れかの態様のシステムであって、複数の前記ユーザの視認アクティビティに基づいて、複数の前記ユーザのサブセットを識別し、複数の前記ユーザのサブセットにおける支配的なもしくは受動的な話者を識別するディスカッションダイナミック判定部、をさらに含み、複数の前記ユーザのサブセットのメンバは所定の時間に互いに会話している。
第9の態様は、第1〜第8の何れかの態様のシステムであって、前記プレゼンテーションにおける視聴者全体の関心及び個人の関心に関する報告を生成する報告部、をさらに含む。
第10の態様は、第1〜第9の何れかの態様のシステムであって、サーバに記憶されている前記視認アクティビティに基づいて、前記ユーザに関連付けられている一つもしくは複数のデバイスに表示するユーザに関連する追加的なコンテンツを送信する追加ビデオフィード部、をさらに含む。
第11の態様は、第1〜第10の何れかの態様のシステムであって、前記測定値は、前記頭部向きのシーケンスと前記画像のシーケンスの識別されたコンテンツの相対的な位置との差異を計算することによって取得され、関連付けられている第1及び第2のタイムスタンプに基づいて、2つの方向の角度差が所定値内である場合に、識別されたコンテンツに前記第1ユーザが注意を払っていると判定する。
第12の態様は、コンテンツにユーザが注意を払っているか否か判定する方法であって、プロセッサ及びメモリを有するコンピュータシステムが、複数のユーザに提示されるコンテンツの第1セットに第1マーカを適用し、前記第1マーカの各々はコンテンツの前記第1セット及びプレゼンテーションの提示ユニットの各々と関連付けられている少なくともコンテンツIDを識別する第1メタデータを含み、適用された前記第1マーカと共に複数の前記ユーザに対して前記提示ユニットに前記プレゼンテーションを表示し、複数のユーザの内第1ユーザによって装着されたボディ搭載カメラから頭部向き情報を受信し、前記第1ユーザの頭部向きのシーケンスを前記頭部向き情報から判定し、頭部向きのシーケンスの各々を前記第1ユーザ及び対応する第1タイムスタンプのシーケンスと関連付けられている識別子と関連付け、前記第1ユーザによって装着されたボディ搭載カメラによって取得された画像のシーケンスを受信し、前記画像のシーケンスは前記第1ユーザに対して提示され、前記第1ユーザによって視認可能な室内表示/情報であり、前記第1ユーザ及び前記ボディ搭載カメラと関連付けられている識別子及び対応する第2タイムスタンプのシーケンスを前記画像のシーケンスと関連付け、画像のシーケンス及び頭部向きのシーケンスの各々を記憶し、関連付け、取得した前記画像のシーケンスのマーカの前記メタデータを評価することによってプレゼンテーションコンテンツを識別し、前記第1ユーザの視認アクティビティを測定し、前記視認アクティビティの測定値は、前記第1ユーザが表示されたコンテンツに注意を払っている場合であるか、もしくは注意を払っていない場合であるかを含む。
第13の態様は、第12の態様の方法であって、前記第1マーカは、前記プレゼンテーションが提示されている前記プレゼンテーションの提示面を識別する物理的マーカを含み、前記プレゼンテーションは非デジタルコンテンツ及び/もしくはデジタルコンテンツを含む。
第14の態様は、第12又は第13の態様の方法であって、埋め込まれた可視マーカを含むプレゼンテーションは、プレゼンテーションスクリーンと共に、パーソナルスクリーンに表示される。
第15の態様は、第12〜第14の何れかの態様の方法であって、画像のシーケンスを受信することは、複数の前記ユーザの内、2人以上のユーザによって装着された2つ以上のボディ搭載カメラによって取得される画像のシーケンスを受信することを含む。
第16の態様は、第12〜第15の何れかの態様の方法であって、前記ボディ搭載カメラに結合されたマイクロフォンによって記録された室内音声を受信することをさらに含み、前記室内音声は、提示されたコンテンツの前記第1セットからの音声及び室内の話者の音声を含み、前記室内音声は前記第1ユーザと関連付けられている。
第17の態様は、第12〜第16の何れかの態様の方法であって、前記ボディ搭載カメラに結合されているどのマイクロフォンが任意の所定の時間に最も強い音声信号を有しているかに基づいて、複数の前記ユーザのどのユーザが話しているかを識別する、ことをさらに含む。
第18の態様は、第12〜第17の何れかの態様の方法であって、複数の前記ユーザの視認アクティビティに基づいて、複数の前記ユーザのサブセットを識別し、複数の前記ユーザのサブセットのメンバは、所定の時間に互いに会話しており、複数の前記ユーザのサブセットにおいて支配的な話者であるか、もしくは受動的な話者であるかを識別する、ことをさらに含む。
第19の態様は、第12〜第18の何れかの態様の方法であって、サーバに記憶された視認アクティビティに基づいて、前記ユーザに関連付けられている一つもしくは複数のデバイスに表示するために、前記ユーザに関連する追加的なコンテンツを送信する、ことをさらに含む。
第20の態様は、プログラムであって、複数のユーザに提示されるコンテンツの第1セットに第1マーカを適用し、前記第1マーカの各々は、コンテンツの第1セット及びプレゼンテーションの提示ユニットの各々と関連付けられている少なくともコンテンツIDを識別する第1メタデータを含み、適用された前記第1マーカと共に、複数の前記ユーザに対して、前記提示ユニットにプレゼンテーションを表示し、複数の前記ユーザの内第1ユーザによって装着されているボディ搭載カメラから頭部向き情報を受信し、前記第1ユーザの頭部向きのシーケンスを前記頭部向き情報から判定し、前記第1のユーザ及び対応する第1タイムスタンプのシーケンスと関連付けられている識別子と、頭部向きのシーケンスの各々とを関連付け、前記第1ユーザによって装着された前記ボディ搭載カメラによって取得された画像のシーケンスを受信し、前記画像のシーケンスは前記第1ユーザに対して提示され、前記第1ユーザによって視認可能である室内表示/情報であり、前記第1ユーザ及びボディ搭載カメラと関連付けられている識別子及び対応する第2タイムスタンプのシーケンスと前記画像のシーケンスとを関連付け、前記画像のシーケンス及び頭部向きのシーケンスの各々を記憶し、関連付け、取得した画像のシーケンスのマーカのメタデータを評価することによりプレゼンテーションコンテンツを識別し、前記第1のユーザの視認アクティビティを測定し、前記視認アクティビティの測定値は、前記第1ユーザが表示されたコンテンツに注意を払っている場合であるか、注意を払っていない場合であるかを含む、提示されているコンテンツにユーザが注意を払っているか否か判定する処理をコンピュータに実行させる。
本発明は、ユーザが複数である場合、もしくは空間が広い場合であっても、提示されているコンテンツにユーザが注意を払っているか否か判定することを可能とする。
実装のいくつかによるスマート空間におけるエゴセントリックトラッキングシステムを例示する。 実装のいくつかによるエゴセントリックトラッキングシステムによって使用されるスマート空間における可視マーカを例示する。 実装のいくつかによるスマート空間におけるエゴセントリックトラッキングシステム他の例を示す。 実装のいくつかによるエゴセントリックトラッキングシステムにおいて使用されるクライアントデバイスを例示するブロック図である。 実装のいくつかによるエゴセントリックトラッキングシステムにおいて使用されるサーバシステムを例示するブロック図である。 実装のいくつかによるスマート空間におけるエゴセントリックトラッキングを使用するパーソナライズされたミーティングイベントの取得を例示するフローチャートである。 実装のいくつかによるスマート空間において提示されたコンテンツにユーザが注意を払っているか否か判定する方法を例示するフローチャートである。 実装のいくつかによるスマート空間において提示されたコンテンツにユーザが注意を払っているか否か判定する方法を例示するフローチャートである。 実装のいくつかによるスマート空間において提示されたコンテンツにユーザが注意を払っているか否か判定する方法を例示するフローチャートである。
最近の技術的進歩は、軽量なヘッドマウントカメラを実用化及び利用可能化し、グーグルグラスのような製品はエゴセントリックトラッキングの考えを主流とすることを意図している。エゴセントリックトラッキングの間、オブザーバが操作するオブジェクトもしくはオブザーバがやりとりする人々及び顔は、自然と、視界の中心となる傾向があり、隠れは少ない傾向がある。エゴセントリックトラッキングによって取得された情報は、ユーザの位置検出などの特定の適用に有用であり得る。
本開示は、エゴセントリック位置検出による、パーソナライズされたミーティングイベントの生成及び計測を促進する技術を提案する。ここで使用されるように、用語「エゴセントリック位置検出」、「エゴセントリックユーザ位置検出」、「ユーザ位置検出」もしくは「位置検出」は、所定の環境におけるユーザの視野から可視情報(例えば、ユーザの位置及び頭部向き情報)を取得する操作を示し、ユーザが何に注意を払っているか(例えば、見ているか)を判定するために使用される。実装のいくつかにおいて、エゴセントリック位置検出は、可視マーカ及びカメラを備えたヘッドマウントデバイス(HMD)の組み合わせを用いて達成される。実装のいくつかにおいて、カメラを備えたHMDを装着したユーザに方法は依存する。実装のいくつかにおいて、追跡はユーザの知覚から自己中心的に実行される。カメラを備えた軽量なHMD及び慣性計測ユニット(IMU)(例えば、グーグルグラス)の出現はこれを可能とする。
この方法でカメラベース位置検出を可能とするために、スマート空間において、可視マーカに依存する。可視マーカは、ここでマーカとして示されるように、拡張現実(AR)システムにおいて広く利用される。拡張現実(AR)技術は、強調した環境の視界をユーザに提供するために、仮想及び現実世界を組み合わせる。例えば、ARシステムは、関連付けられているソフトウェアによる表示及び動き追跡を含み得る。ソフトウェアは、表示の位置を知るために、及び、仮想オブジェクトを描画するために追跡イベントを読み込む。正確に描画するために、仮想オブジェクト及び現実世界を登録する必要がある。この登録は、拡張が実行される仮想カメラの幾何学的位置が現実世界に対して既知であることを暗示する。可視マーカが動き検出、位置検出及び/もしくは姿勢推定のためにARシステムにおいて使用され得る。
実装のいくつかにおいて、外部可視マーカもしくはマーカは、スマート空間のモニタ(もし存在するなら)に表示されてもよいし、実装のいくつかによる装飾(例えば、壁に添付、表示、スクリーン、家具など)の部分であってもよい。マーカの幾何学的情報(例えば、マーカスケール、ピッチ、ロール及びヨーと2次元カメラ画像の中心及びコーナーポイント位置)を論理的に提供し得る複数の可視マーカスキームが存在する。実装のいくつかにおいて、スマート空間における任意のマーカに対する視線を見失ったとしても(例えば、隠れもしくは通常でない頭部の姿勢などにより生じ得る)、位置検出は、新しいマーカが検出されるまでの所定の時間、HMDのIMUのデッドレコニングによって実行され得る。例えば、HMDのIMUはスマート空間においてユーザの視線から可視情報を取得することが可能であり、加速度計及びジャイロスコープからのデータ、歩数カウント、及び/もしくはユーザが何に注意を払っている(例えば、見ている)かを判定するために当該技術分野で既知の技術を用いて取得される情報を組み合わせる。
用語「隠れ」はユーザが見たいものがあるがセンサ設定の特性のいくつかもしくはイベントのいくつかによって見ることができない何かが存在することを意味する。例えば、オブジェクト(例えば、人、車など)を追跡するシステムにおいて、例えば、互いにすれ違う2人のユーザもしくは橋の下を走る車など他のオブジェクトによってシステムが追跡するオブジェクトが隠れる場合隠れが発生する。他の例において、レンジカメラ(例えば、シーンの各ポイントまでの距離を示す画像を提供するカメラ)を用いる場合、隠れはレンジカメラが任意の情報を収集することができない領域で生じ得る。他の例において、レーザレンジカメラのいくつかはユーザが検討している面にレーザビームを送信することによって動作し、結果画像において、レーザのインパクトのポイントをカメラに識別させる。しかしながら、カメラ及びレーザは位置揃えする必要はなく、検討されている面のポイントのいくつかは隠れ、即ち、カメラから隠れ、もしくはカメラの視界内で検出されるがレーザはヒットできない。
スマート空間においてユーザの位置を推定するために、実装のいくつかによるシステムはマーカの論理的及び幾何学的情報の両方を利用する。例えば、論理的マーカ情報は、マーカのIDを識別するためにまず使用される。マーカのIDは、次に、スマート空間におけるマーカの位置及び大きさを含むデータベースを問い合わせるために使用される。論理的情報と併せて、マーカ検出アルゴリズムによって提供される幾何学的情報は空間におけるユーザの位置を推定するために使用され得る。実装のいくつかにおいて、マーカ検出アルゴリズムに使用されるシステムは富士ゼロックス株式会社によるEMM(Embedded Media Marker)システムである。QR検出の可視基準コード、SIFT、SURFなどの不変画像特徴検出などの当該技術分野で知られている他のマーカ検出システムが、いくつかの実装によって使用され得る。複数の検出されたマーカは、実装のいくつかによる推定されたユーザ位置を平均化することにより位置検出を改善するために使用され得る。マーカの位置推定についてサーバに問い合わせることに加えて、実装のいくつかによるシステムはHMDのIMUを利用することによりユーザの頭部の向きを推定することが可能である。
即ち、実装による方法及びシステムはエゴセントリックアプローチによるユーザ位置検出の問題を解決する。このアプローチは少なくとも以下の効果を有する。(1)可視マーカはスマート空間に配置し得ると仮定すると、本方法は任意の空間サイズに適応可能である。(2)空間を用いることにより、詳細には、ユーザの各々が適切なHMDを備える場合、本方法は多数のユーザに適応可能である。
様々な実装について詳細に説明する。実装の例は添付図面に例示される。図面において、同様の構成要素は同様の参照符号で示される。以下の詳細な説明において、開示及び説明される実装の全体的な理解を支援するために特定の詳細が多く記載される。しかしながら、特定の詳細なしで、本開示を実施することができる。他の例において、よく知られた方法、プロシージャ、コンポーネント及び回路については、実装の態様を不必要に不明瞭にしないために、詳細には説明しない。
図1は、実装のいくつかによるスマート空間102のエゴセントリックトラッキングシステム100を例示する。システム100は、基準及び/もしくは自然特徴を含む可視マーカのエゴセントリックトラッキングを提供する。ここで、「基準マーカ」もしくは「基準」は撮像システムの視野に配置されているオブジェクトである。オブジェクトは生成される画像に現れ、基準点として使用される。オブジェクトは、撮像対象の中又は上に配置される物(例えば、QRコード(登録商標)を含むステッカー、バーコード、もしくは対象を識別する読みやすいラベル)であってもよいし、光学機器のレチクル(光学機器の焦点面に付加される網線、十字線など)のマーク、もしくはマークのセットであってもよい。また、可視マーカとして用いられる自然特徴は、塗装もしくは他の装飾的なオブジェクトなどの装飾であってよい。
例えば、会議室であるスマート空間102に、破線で示されるカメラの視野に近い視野を有する複数のミーティング参加者が存在する。観葉植物104は装飾的な自然特徴であり、参加者が装着しているカメラによって行われるエゴセントリックトラッキングのために、会議室であるスマート空間102に配置され得る。投影スクリーン及び/もしくはモニタ106、及び/もしくはピクチャフレームは、基準特徴もしくは自然特徴であり、カメラの視野に配置されることができ、エゴセントリックトラッキングのために検出されることができる。室内の可視マーカは、参加者のトラッキングカメラの視野に入らないスポットがほとんどないように、配置され得る。
図2は、実装のいくつかによる可視マーカの例、及びユーザ202のトラッキングカメラ204の視野に入らないスポットがほとんどないように、例示的な可視マーカを配置した例を示す。図2において、可視マーカは、空間において区別可能なオブジェクト240、モニタ230、ホワイトボード/黒板210、QRコード212、もしくはラベル214などの自然特徴、及び、画像222、コンテンツID(例えば、スクリーンID)224もしくはコンテンツID(例えば、スライドID)232などの基準特徴を含む。ホワイトボードもしくは黒板210に貼り付けられている正方形の可視マーカ212などのこれらのマーカは、カメラ204のために、少なくとも4つの同一平面上の対応する点を提供し得る。同様に、円形のマーカ222(例えば、投影スクリーン220に表示された画像)もしくは矩形のマーカ214などの他の形状は、カメラ204のために、位置推定のための基準点を提供し得る。
可視マーカの例としてQRコード212を図2に示すが、可視マーカは、他の形状であってもよいし、及び/もしくはコンテンツによって計算されたフォーマットであってもよい。実装のいくつかにおいて、可視マーカは、スクリーン自身、もしくは、スクリーンに基づいて符号化されたテキスト及び/もしくは画像であってよい。同様に、ラベル214、画像222、コンテンツを識別するために使用されるスクリーンID224及び/もしくはスライドID232は他の形状及び/もしくはフォーマットであってよい。
実装のいくつかにおいて、マーカの各々(例えば、マーカ212、214、222、224、232、及び240)は、コンテンツのセット及びプレゼンテーションの提示ユニットの各々(例えば、ページもしくはフレーム/ビデオタイムマーク)に関連付けられているコンテンツIDを少なくとも識別するメタデータを含む。例えば、投影スクリーン220に表示されているスクリーンID224は、投影ユニットである投影スクリーン220に表示されているコンテンツのセット(例えば、プレゼンテーションスライドのセット)と関連付けられているコンテンツID(例えば、フレーム/ビデオタイムマーク)を少なくとも識別するメタデータを含む。メタデータは、投影スクリーン220に投影された場合、コンテンツのセット内のマーカを反映する。同様に、モニタ230に表示されるスライドID232は、提示ユニットであるモニタ230に表示されているコンテンツのセット(例えば、プレゼンテーションスライドのセット)と関連付けられているコンテンツID(例えば、フレーム/ビデオタイムマーク)を少なくとも識別するメタデータを含む。メタデータは、モニタ230で提示される場合、コンテンツのセット内のマーカを反映する。
図2において、可視マーカ212、214、222、224、232、240は、ユーザ202のトラッキングカメラ204の視野に入らないスポットがほとんどないように配置されている。実装のいくつかにおいて、隠れもしくは普通ではない頭部の姿勢によって、トラッキングカメラ204の視野に入らないスポットが生じたとしても、新しいマーカが検出されるまでの所定時間の間、HMD(Head mounted Display)のIMUで、例えば、デッドレコニングによる位置検出が実行され得る。
図3は、スマート空間のエゴセントリックトラッキングシステム300のブロック図を示す。エゴセントリックトラッキングシステム300は、実装のいくつかによってミーティングイベントをパーソナライズするために使用され得る。システム300は、一人もしくは複数のユーザ302によって装着されたクライアントデバイス106及び一つもしくは複数の通信ネットワーク328によって相互に接続されたサーバ320を含む。実装のいくつかにおいて、システム300はコンテンツを提示するために使用され得るコンピューティングデバイス308も含む。コンピューティングデバイス308は、通信ネットワーク328を介して、クライアントデバイス306及び/もしくはサーバ320と接続されている。
通信ネットワーク328は、イントラネット、エクストラネット、もしくはインターネットなどの有線または無線のローカルエリアネットワーク(LAN)及び/もしくはワイドエリアネットワーク(WAN)の何れであってもよい。通信ネットワーク328は、サーバシステム320及びクライアントデバイス306と、デバイス308との間の通信機能を十分に提供する。
例示的なエゴセントリックトラッキングシステム300において、プレゼンター(例えば、ユーザ302−N)はユーザのグループ(例えば、ユーザ302−1、302−2、302−3)に投影スクリーン304に表示されているコンテンツを提示している。提示している間、プレゼンター(例えば、ユーザ302−N)はホワイトボードもしくは黒板305に書いたコンテンツを参照することができる。図1及び図2に関して上記したように、観葉植物307などの自然特徴、及び備品309、投影スクリーン304、ホワイトボードもしくは黒板305、スマート空間に貼り付けられているQRコードもしくはラベルが可視マーカとして使用され得る。さらに、画像、スクリーンID、スライドIDなどの基準マーカと同様に、コンピューティングデバイス308及び/もしくは投影スクリーン304に表示されているプレゼンテーションに埋め込まれている可視マーカが使用されてもよい。これらのマーカは、スマート空間のユーザ302の位置を推定するために、一人もしくは複数のユーザ302によって装着されているクライアントデバイス106の基準点を提供し得る。
一人もしくは複数のユーザ(例えば、ユーザ302−1、302−2及び302−3)は投影スクリーン304、コンピューティングデバイス308及び/もしくはホワイトボードもしくは黒板305に表示されている、画像、スクリーンID、QRコードもしくはラベルなどのコンテンツを見ている。ユーザ302の各々は視野(例えば、ローカルユーザの目)を有し、クライアントデバイス306の各々は視野を有する。実装のいくつかにおいて、クライアントデバイス306はユーザ302によって装着または保持されている。従って、ユーザ302の視野及びクライアントデバイス306の視野は、少なくとも部分的に重なり、実質的に同一の方向に向かう。例えば、クライアントデバイス306はユーザ302の頭部に装着されていてもよい。これらの実装において、クライアントデバイス306の絶対位置はユーザ302が移動すると変化するが、ユーザ302とクライアントデバイス306との相対的な位置及び距離は変化しない。ユーザ302との相対的な距離を同一に維持する他の方法も利用可能である(例えば、ユーザ302によって押されるカートもしくは他の車輪を有するプラットフォームに搭載されていてもよい。
実装のいくつかにおいて、クライアントデバイス306は、ネットワーク328への接続を有する少なくとも1つの画像取得デバイスを含む。クライアントデバイス306は、クライアントデバイス306の位置及び/もしくは方向及び視野を決定することができる一つもしくは複数の追加的なセンサ(例えば、GPS(Global Positioning System)受信手段、加速度計、ジャイロスコープ、磁気計など)を含んでもよい。実装のいくつかにおいて、クライアントデバイス306は、ユーザ302への追加的なテレプレゼンス情報を提供するマイクロフォン及び他のセンサ(例えば、温度計、高度計、気圧計など)も含む。結果として、クライアントデバイス306は、ミーティング、プレゼンテーション、ツアー及びミュージカルもしくは劇場パフォーマンスなどの位置検出のための音声及び/もしくはビデオ、方向に関する情報及び他の環境情報を提供することができる。
実装のいくつかにおいて、クライアントデバイス306は少なくとも1つのセンサデバイスを含む。センサデバイスは、ユーザ302の頭部の位置及び視界の方向に対して較正されると、ユーザの視野(視界の方向及び角度範囲を含む)を決定するために使用され得るデータを出力する一つもしくは複数のセンサを含む。センサデバイスはネットワーク328への接続を含む。
実装のいくつかにおいて、クライアントデバイス306は、ユーザの視野を決定するためにも使用され得るデータを出力するカメラデバイスを含む。実装のいくつかにおいて、クライアントデバイス306は、ユーザ302に対して情報を表示する表示デバイスを含む。実装のいくつかにおいて、クライアントデバイス306はセンサ、カメラデバイスを有する装着可能なヘッドギア、及び/もしくはヘッドアップディスプレイもしくはヘッドマウントディスプレイもしくは他のディスプレイである。例えば、クライアントデバイス306はグーグルのグーグルグラスであってよいが、これに限定されるものではない。
クライアントデバイス306はサーバ320を介してデータを交換する。実装のいくつかにおいて、クライアントデバイス306は、画像データ、センサデータ及び/もしくはメタデータを、サーバシステム320に送信する。ネットワーク328を介して、クライアントデバイス306及びサーバ320は通信可能に接続されている。実装のいくつかにおいて、サーバシステム320はクライアントデバイス306間のデータ交換及び連携を調整するモジュール(図5を参照して以下で詳述する)を含む。即ち、クライアントデバイス306はネットワーク328を介してサーバシステム320と接続され、サーバシステム320を介して相互にデータを送受信する。
サーバ320は画像データ、センサデータ及び/もしくはメタデータをクライアントデバイス306から受信する。実装のいくつかにおいて、サーバ320は、例えば、投影スクリーン304、コンピューティングデバイス308、ホワイトボード/黒板305、観葉植物307、備品309などのマーカ、スクリーンID、スライドID、QRコード及び/もしくはラベルなどを識別するためにこれらのデータを処理する。サーバ320は、さらに、マーカの位置を識別し、クライアントデバイス306の位置及び向きを推定する。実装のいくつかにおいて、位置及び向き情報を用いて、サーバ320は、ユーザ302が提示されているコンテンツに注意を払っているか否か、及びユーザの注意に対応するコンテンツの位置を判定する。注意情報は、ミーティングイベントをパーソナライズするために使用され得る。
図4は、実装のいくつかによる代表的なクライアントデバイス306を例示するブロック図である。クライアントデバイス306は、一般的に、一つもしくは複数の処理ユニット(CPU)402、一つもしくは複数のネットワークインターフェイス410、メモリ406、ユーザインターフェイス442、及び、これらの構成要素(チップセットともいう)を相互に接続する一つもしくは複数の通信バス404を含む。ユーザインターフェイス442は、一つもしくは複数の話者及び/もしくは一つもしくは複数の可視表示を含む、メディアコンテンツの提示を可能とする一つもしくは複数の出力デバイス446を含む。ユーザインターフェイス442は、キーボード、マウス、音声コマンド入力ユニットもしくはマイクロフォン、タッチスクリーンディスプレイ、タッチセンシティブ入力パッド、(例えば、符号化された画像を走査するための)カメラ、ジェスチャ取得カメラ、もしくは他の入力ボタンもしくはコントロールなどのユーザ入力を促すユーザインターフェイス構成要素を含む、一つもしくは複数の入力デバイス444を含む。さらに、クライアントデバイス306のいくつかは、キーボードを補助するため、もしくはキーボードに替えて、マイクロフォン及び音声認識もしくはカメラ及びジェスチャ認識を使用する。
メモリ406は、DRAM、SRAM、DDR RAM、もしくは他のランダムアクセスソリッドステートメモリなどの高速ランダムアクセスメモリを含む。メモリ406は、また、一つもしくは複数の磁気ディスクストレージデバイス、一つもしくは複数の光ディスクストレージデバイス、一つもしくは複数のフラッシュメモリデバイス、もしくは一つもしくは複数の他の不揮発性ソリッドステートストレージデバイスなどの不揮発性メモリを含んでもよい。メモリ406は、一つもしくは複数の処理ユニット402と離間して配置されている一つもしくは複数のストレージデバイスを含んでいてもよい。メモリ406、もしくは、メモリ406内の不揮発性メモリは、非一時的コンピュータ可読記録媒体を含む。実装のいくつかにおいて、メモリ406、もしくは、メモリ406の非一時的コンピュータ可読記録媒体は、以下のプログラム、モジュール及びデータ構造もしくは、プログラム、モジュール及びデータ構造のサブセットもしくはスーパーセットを記憶している。
●オペレーティングシステム414。オペレーティングシステム414は、様々な基本システムサービスを取り扱い、ハードウェア依存タスクを実行するプロシージャを含む。
●ネットワーク通信モジュール416。ネットワーク通信モジュール416は、クライアントデバイス306を、一つもしくは複数のネットワークインターフェイス410を介して一つもしくは複数のネットワーク328と(有線もしくは無線で)接続されている他のコンピューティングデバイス(例えば、サーバシステム320及びコンピューティングデバイス308)と接続する。
●カメラモジュール418。カメラモジュール418は、画像取得デバイス408によって取得された一連の画像(例えば、静止画像及び/もしくはビデオのフレーム)を受信し、処理し、取得した画像を画像データに符号化し、画像データをサーバシステム320に送信する。
●センサモジュール420。センサモジュール420は、センサ412から検出データを取得し、検出データをセンサデータに処理し、センサデータをサーバシステム320に送信する。
●ユーザインターフェイスモジュール422。ユーザインターフェイスモジュール422は、入力デバイス444及び/もしくは音声入力デバイス409で受信したユーザ入力を処理し、操作(例えば、画像記録、音声記録、画像再生、音声再生など)を実行するようコンピューティングデバイス306に指示する。ユーザインターフェイスモジュール422は、サーバシステム320から制御信号を受信し、制御信号に従って処理を実行するようコンピューティングデバイス306に指示してもよい。
●可視表示モジュール424。可視表示モジュール424は、データ(例えば、画像取得デバイス408及びセンサデバイス412からのセンサデータ、もしくはサーバ320からの可視データなど)を受信し、データを処理し、出力デバイス446にデータを表示する。可視表示モジュール424は、また、コンピューティングデバイス306へのコマンドを発行するためのユーザインターフェイスを表示する。可視表示モジュール424は表示された可視データとインタラクションしてもよい。
●画像分析モジュール426。画像分析モジュール426は、画像取得デバイス408によって取得された画像のマーカを識別する、などの追加的な画像処理を行う。
●音声モジュール428。音声モジュール428は、音声入力デバイス409によって取得された音声信号を受信し、処理し、音声信号を音声データに符号化し、音声データをサーバシステム320に送信する。
●クライアントデータストレージ430。クライアントデータストレージ430は、クライアントデバイス306と関連付けられているユーザのデータを記憶する。クライアントデータストレージ430は、以下のストレージを含んでいてもよい。
○ユーザデータ432。ユーザデータ432はユーザ識別データを記憶する。
○デバイスデータ434。デバイスデータ434は、デバイス306の位置、向き、ピッチ、チルト、ロールなど、ユーザによって装着されているデバイス306の情報を記憶する。
○タイムスタンプ436。タイムスタンプ436は、ユーザによって装着されているときに、デバイス306によって取得された可視アクティビティのタイムスタンプを記憶する。
上記構成要素の各々は、上記メモリデバイスの一つもしくは複数に記憶されてもよく、上記構成要素の各々は、上記機能を実行するための命令セットに対応する。上記モジュールもしくはプログラム(即ち、命令セット)は、別個のソフトウェアプログラム、プロシージャ、モジュールもしくはデータ構造として実装される必要はなく、モジュールの様々なサブセットは組み合わされてもよいし、様々な実装において再構成されてもよい。実装のいくつかにおいて、メモリ406は、上記モジュール及びデータ構造のサブセットを記憶してもよい。さらに、メモリ406は、上記されていない他のモジュール及びデータ構造を記憶してもよい。
図5は、実装のいくつかによる図3のサーバシステム320のブロック図である。サーバシステム320の一つもしくは複数の構成要素は、単一のコンピュータ、もしくは複数のコンピュータデバイスからアクセスされてもよく、また、単一のコンピュータ、もしくは複数のコンピュータデバイスで実行されてもよい。他の一般的な構成要素が含まれてもよいが、簡潔さの観点からここでは示さない。一般的に、サーバシステム320は一つもしくは複数の処理ユニット(CPU)512、一つもしくは複数のネットワークもしくは他の通信インターフェイス504、メモリ506、及びこれらの構成要素を相互に接続する一つもしくは複数の通信バス508を含む。通信バス508はシステム構成要素間の通信を相互に接続し、制御する回路(チップセットと呼ばれることもある)を含んでもよい。
図5には示されないが、サーバシステム320は、例えば、表示手段、入力デバイス及び出力デバイスを含むユーザインターフェイスを含んでもよい。入力デバイスは、例えば、キーボード、マウス、タッチセンシティブディスプレイスクリーン、タッチパッドディスプレイスクリーンもしくはサーバシステム320に情報を入力させ得る他の適切なデバイスを含み得る。出力デバイスは、例えば、ビデオディスプレイユニット、プリンタ、もしくは出力データを提供可能な他の適切なデバイスを含み得る。入力デバイス及び出力デバイスは、単一の入力/出力デバイスであってもよい。
メモリ506は、高速ランダムアクセスメモリを含んでいてもよく、一つもしくは複数の磁気ディスクストレージデバイスなどの不揮発性メモリを含んでいてもよい。メモリ506は、CPU512と離間して配置されている大容量ストレージを含んでいてもよい。メモリ506もしくはメモリ506内の不揮発性メモリデバイスはコンピュータ可読記録媒体を含む。メモリ506は以下の構成要素、もしくはこれらの構成要素のサブセット及び他の構成要素を記憶する。
●オペレーティングシステム516。オペレーティングシステム516は、様々な基本サーバシステムサービスを扱い、ハードウェア依存タスクを実行するプロシージャを含む。
●ネットワーク通信モジュール518。ネットワーク通信モジュール518は、インターネット、他のワイドエリアネットワーク、ローカルエリアネットワーク及びメトロポリタンエリアネットワークなどの一つもしくは複数の通信ネットワーク(有線もしくは無線)を介して他のサーバもしくはコンピュータとサーバシステム320とを接続するために使用される。実装のいくつかにおいて、ネットワーク通信モジュール518はサーバ320とネットワーク328を接続するサーバインターフェイスの部分である。
●可視ラベリングモジュール520。可視ラベリングモジュール520は、スマート空間のユーザ302に提示されるコンテンツに可視マーカを適用する。実装のいくつかにおいて、可視マーカの各々はコンテンツ及びプレゼンテーションの提示ユニット(例えば、投影スクリーン106−1、220、304及び/もしくはモニタなど)の各々と関連付けられている少なくとも1つのコンテンツIDを識別するメタデータを含む。
●表示モジュール522。表示モジュール522は、適用された可視マーカによって、ユーザ302に対して、提示ユニット(例えば、投影スクリーン106−1、220、304及び/もしくはモニタ)にプレゼンテーションを表示する。
●頭部向き判定モジュール524。頭部向き判定モジュール524は、ユーザ302によって装着されたボディ搭載カメラ(例えば、デバイス306のカメラ)から頭部向き情報を受信し、ユーザ302の頭部向きのシーケンスを第1のユーザ及び対応する第1のタイムスタンプのシーケンスと関連付けられている識別子と関連付ける。
●画像受信モジュール526。画像受信モジュール526は、一人もしくは複数のユーザ302によって装着されている一つもしくは複数のボディ装着カメラ(例えば、デバイス306のカメラ)によって取得された画像のシーケンスを受信する。実装のいくつかにおいて、画像のシーケンスは、ユーザ302に対して提示され、ユーザ302によって視認可能である室内可視画像/情報である。画像のシーケンスは、ユーザ302、ボディ装着カメラ(例えば、デバイス306のカメラ)及び対応する第2のタイムスタンプと関連付けられている識別子と関連付けられる。
●データ統合モジュール528。データ統合モジュール528は、画像シーケンス及び頭部向きのシーケンスのメンバの各々を記憶し、関連付ける。
●コンテンツ識別モジュール530。コンテンツ識別モジュール530は、取得された画像のシーケンスのマーカのメタデータを評価することによってプレゼンテーションコンテンツを識別する。
●ユーザ注意判定モジュール532。ユーザ注意判定モジュール532は、ユーザ302の視認アクティビティを測定する。視認アクティビティの測定の値はユーザ302が表示されているコンテンツに注意を払っているか払っていないかを含む。
●音声受信モジュール534。音声受信モジュール534はボディ装着カメラ(例えば、デバイス306のカメラ)に結合されているマイクロフォン(例えば、音声入力デバイス409)によって記録される室内音声を受信する。実装のいくつかにおいて、室内音声は、提示されているコンテンツからの音声及び室内の話者からの音声を含む。また、室内音声はユーザ302に関連付けられている。
●話者識別モジュール536。話者識別モジュール536は、どの室内ユーザ302が話しているか、をボディ装着カメラ(例えば、デバイス306のカメラ)に結合されているどのマイクロフォン(例えば、音声入力デバイス409)が任意の時点で最大音声信号を有するかに基づいて、識別する。
●話者認証モジュール538。話者認証モジュール538は室内ユーザ302の話者の識別を検証するための音声フィンガープリントを使用する。
●ディスカッションダイナミック判定モジュール540。ディスカッションダイナミック判定モジュール540は、ユーザ302の視認アクティビティに基づいて、ユーザ302のサブセット、所定の時点で相互に会話しているユーザ302のサブセットのメンバ、及びユーザ302のサブセットの支配的なもしくは受動的な話者を識別する。
●報告モジュール542。報告モジュール542は、プレゼンテーションの視聴者全員の関心及び個人の関心に関するレポートを準備する。
●追加ビデオフィードモジュール544。追加ビデオフィードモジュール544は、サーバに記憶されている視認アクティビティに基づいて、ユーザ302に関連付けられている一つもしくは複数のデバイス、例えば、投影スクリーン106−1、220、304及び/もしくはモニタに表示するために室内ユーザ302に関連する追加コンテンツを送信する。
●データストレージ322。データストレージ322は上記モジュールによって生成されたデータを記憶し、以下のデータベースを含む。
●コンテンツデータベース546。コンテンツデータベース546は、例えば、コンテンツに関連付けられているコンテンツID、メタデータを含む、ユーザ302に提示されているコンテンツに関連付けられている情報を記憶する。実装のいくつかにおいて、コンテンツID及び/もしくはメタデータはコンテンツから導出されてもよい。例えば、QRコード212はコンテンツから計算され、コンテンツID及び/もしくはメタデータとして使用されてもよい。実装のいくつかにおいて、メタデータは、コンテンツに関連付けられている形状、位置、長さ、画像などコンテンツの属性を含むが、これらに限定されるものではない。
●デバイスデータベース548。デバイスデータベース548は、デバイスに関連する情報を記憶する。デバイスデータベース548は、プレゼンテーションを見るために、ユーザ302によって使用されるデバイス及びエゴセントリックトラッキングのためにユーザ302によって装着されるデバイスに関連する情報を記憶する。情報は、デバイスID、デバイス位置、デバイス向き、地理的情報を含むが、これらに限定されない。
●ユーザデータベース550。ユーザデータベース550は、ユーザID及びエゴセントリックトラッキングのためにユーザによって装着されているデバイスとユーザとの関係を含むが、これらに限定されないユーザ302の各々のユーザ情報を記憶する。
●視認アクティビティデータベース552。視認アクティビティデータベース552は、ユーザ302によって装着されたボディ装着カメラ(例えば、デバイス306のカメラ)によって取得された画像のシーケンス、頭部向きのシーケンス、視認アクティビティに関連付けられているタイムスタンプ、ユーザ識別、提示ユニット識別、ボディ装着カメラ情報、音声ユーザ役割(例えば、支配的もしくは受動的)を含むが、これらに限定されない視認アクティビティに関連する情報を記憶する。
実装のいくつかにおいて、データストレージ322に記憶されている他の情報と併せて、視認アクティビティデータベース552に記憶されている情報を用いることによって、スマート空間における視認アクティビティはパーソナライズされたミーティングイベントの情報を取得するために定量化され得る。例えば、視認アクティビティは、パーソナルディスプレイ(例えば、コンピューティングデバイス308のモニタ)を用いた視認の回数、共有ディスプレイ(例えば、コンピューティングデバイス308のモニタ、投影スクリーン304及び/もしくはホワイトボード/黒板305)を用いた視認の回数、ユーザの総視認時間及び/もしくは平均視認時間、プレゼンテーションコンテンツを見るために使用された遠隔スクリーン(例えば、投影スクリーン304及び/もしくはホワイトボード/黒板305)、見られている識別されたコンテンツの各々の時間、遠隔ディスプレイ(例えば、投影スクリーン304及び/もしくはホワイトボード/黒板305)もしくはパーソナルディスプレイ(例えば、コンピューティングデバイス308のモニタ)で見られている識別されたコンテンツの各々の時間によって定量化され得る。定量化は、イベントにおいてどのようなコンテンツがどの参加者によって見られているか、及び視認アクティビティの時間長に関する識見を提供する。スマート空間から取得された視認アクティビティ情報を用いて、カスタマイズされたコンテンツが生成され、スマート空間のユーザの特定のグループに提供されてもよい。
実装のいくつかにおいて、サーバシステム320の機能の少なくともいくつかはクライアントデバイス306によって実行され、これらの機能の対応するサブモジュールはサーバシステム320ではなく、クライアントデバイス306に配置されてもよい。例えば、クライアントデバイス306が十分な処理能力を有している場合、分析のために、サーバ320へ未処理画像データをストリーミングする代わりに、クライアントデバイス302の画像分析モジュール426はプレゼンテーションコンテンツの可視マーカを識別するために画像分析を実行してもよく、音声モジュール428は話者を識別するために音声分析を実行してもよく、センサモジュール420は、ユーザと関連付けられている頭部向き情報、頭部向きのシーケンス及びタイムスタンプを判定することができる。
実装のいくつかにおいて、クライアントデバイス306の機能の少なくともいくつかはサーバシステム320によって実行され、これらの機能の対応するサブモジュールはクライアントデバイス306ではなくサーバシステム320に配置されてもよい。例えば、位置及び向き情報を収集するためにクライアントデバイス306のセンサモジュール420を使用する代わりに、サーバシステム320は、スマート空間の他のオブジェクトの幾何学的配置及び位置に基づいて情報を計算してもよい。図4及び図5に示されるクライアントデバイス306及びシステム320は、単なる例示であり、ここで説明した機能を実装するためのモジュールの異なる構成が様々な実装において可能である。
図6は、実装のいくつかによるスマート空間のエゴセントリックトラッキングシステム300を用いたパーソナライズされたミーティングイベント取得のフローチャートである。実装のいくつかにおいて、ミーティングの間ユーザがHMDを装着している場合、図6の方法によってパーソナライズされたミーティングイベントの取得を可能にするために価値あるデータを取得することが可能である。例えば、プレゼンテーション空間において、他のユーザに対する特定のユーザの位置、プレゼンテーションの間ユーザが参加しているもしくは参加していないプレゼンテーションスクリーン及び室内会議、及び空間のユーザの近傍に位置している、もしくは位置していないかもしれないプレゼンテーション空間での他のユーザとのユーザインタラクションに関連する詳細が取得され得る。
実装のいくつかにおいて、エゴセントリックシステム300はクライアントデバイス306(例えば、HMD)を装着しているユーザ302の識別を追跡する。話者識別(602)は、スマート空間のユーザ302の各々が実装のいくつかによるHMDを装着していると仮定すると、比較的シンプルである。人工的なシステムにおける従来の音声位置検出はマイクロフォンアレイを使用する。2つのマイクロフォンでの音声の到着時間の差異を用いることによって、音声ソースの方向を数学的に推定することが可能である。しかしながら、位置検出におけるマイクロフォンアレイの正確さは、アレイの物理的なサイズによって制限される。詳細には、アレイがあまりにも小さい場合、マイクロフォン同士が相互に接近し過ぎ、全てのマイクロフォンが基本的に同様の音声を記録し、向きを推定することは非常に困難となる。
実装のいくつかにおいて、クライアントデバイス306の音声入力デバイス409(例えば、車載マイクロフォン)は(例えば、適切な周波数範囲で増幅された音量を検出し測定することにより)会話を検出するために使用される。スマート空間の複数のユーザ302が音声入力装置を有する場合、エゴセントリックシステム300は、適切な周波数範囲で増幅された音量を分析することにより、複数の話者を同時に追跡することが可能である。クライアントデバイス306によって収集された他の情報と増幅された音量とを組み合わせると、エゴセントリックトラッキングシステム300は話者識別の従来の方法(例えば、アレイからの音声距離及び方向を推定するための指向性マイクロフォンアレイを用いる)よりも正確になる。
話者識別に加えて、エゴセントリックトラッキングシステム300は話者認証を実行する(604)。実装のいくつかにおいて、音声フィンガープリントを使用すると、エゴセントリックトラッキングシステム300は話者装着HMDの識別を検証することが可能である。即ち、エゴセントリックトラッキングシステム300は、別個の認証システムを必要とすることなく、ミーティングの参加者の存在を検証することが可能であることを意味する。
話者識別(602)及び話者認証(604)の双方のオペレーションは、クライアントデバイス306及び/もしくはサーバ320で実行され得る。例えば、クライアントデバイス306が十分な処理能力を有する場合、識別(602)及び/もしくは認証(604)はクライアントデバイス306で実行されることが可能であり、識別及び/もしくは認証の結果は、通信ネットワーク328を介してサーバ320に送信される。他の例において、クライアントデバイス306の処理能力及び/もしくはバッテリ寿命が限定されている場合、音声入力はクライアントデバイス306によって取得され、サーバ306にストリーミングされ得る。話者識別(602)及び/もしくは話者認証(604)はサーバ320に委ねられてもよい。サーバ320は、次に、識別及び/もしくは認証結果をクライアントデバイス306に通信ネットワーク328を介して通信する。
話者を識別し、認証すると、エゴセントリックトラッキングシステム300はクライアントデバイス306の部分であるカメラによって画像フィードを開始する(606)。実装のいくつかにおいて、画像フィードは画像及び/もしくはビデオを含む。クライアントデバイス306によって取得されたカメラ画像(608)は、図3及び図4で説明したように、ユーザ302のエゴセントリック視野を反映するように、スマート空間の画像を含む。実装のいくつかにおいて、カメラ画像は、通信ネットワーク328を介してサーバ320に送信される。
カメラ画像を受信すると、サーバ320は画像を分析し、データストレージ322に記憶されている可視マーカの特徴と画像の特徴とを比較する。サーバ320がカメラ画像の可視マーカを検出しない場合、サーバ320は分析のためにより多くのカメラ画像を要求する。一方、サーバ320がカメラ画像の可視マーカを検出すると(610)、サーバ320はデータストレージ322の可視マーカの論理的(例えば、マーカID)及び幾何学的(例えば、マーカスケール、ピッチ、ロール及びヨー、2次元カメラ画像の中心及びコーナーポイント)情報を識別する。
実装のいくつかにおいて、富士ゼロックス株式会社のEMMシステムが、可視マーカを識別するための画像分析に使用されてもよい。実装のいくつかにおいて、EMMを使用するシステムは、まず定期的にサンプリングし(例えば、スクリーンショットを取得し)メタデータ(例えば、アプリケーション、プレゼンテーション名、スライド番号など)によって表示されたコンテンツにタグを付することによって特徴を照合する。スクリーンショット及びメタデータは、次に、EMMサーバに送信され、処理され、コンテンツデータベース546にメタデータと共にEMMとして記憶される。実装のいくつかにおいて、EMMサーバはサーバシステム320の部分である。クライアント側において、クライアントデバイス306のカメラは、スマート空間の第1のユーザの視界を示すスマート空間の写真を定期的に取得する。写真は、EMMサーバにクエリとして送信される。EMMサーバは、特徴照合によって記憶された写真に埋め込まれたメディアマーカを検出すると、画像分析を完了するために関連付けられているメタデータと共にマーカのIDを返す。実装のいくつかにおいて、当該技術において知られている他のマーカ検出方法及びシステムも、特徴照合及びマーカ検出のためにEMMシステムと共に、もしくはEMMシステムに代えて、使用される。
図5によって説明したように、可視マーカの特徴、論理的(例えば、マーカID)及び幾何学的(例えば、サイズ、次元、及び/もしくは方向など)情報、及び位置は実装のいくつかによるデータストレージ322に記憶される。可視マーカの論理的及び幾何学的情報を用いて、エゴセントリックトラッキングシステム300はマーカ位置を取得するために(例えば、マーカIDを用いて)データストレージ322に問い合わせを行う(612)。マーカの位置推定のためにサーバに問い合わせることに加えて、実装のいくつかによるエゴセントリックトラッキングシステム300は、HMDのIMU(614)(例えば、ピッチ、チルト、ロール情報)を利用することによりユーザの頭部の向きを推定する(616)。位置情報は次にサーバ320に記憶され、クライアントデバイス306で稼働するユーザアプリケーションに送信される。
実装のいくつかにおいて、位置、向き及び音声チャネルから、エゴセントリックトラッキングシステムはディスカッションダイナミックを推定することができる。タイムフレームの所定の瞬間に相互に会話するミーティング参加者のサブセットが識別可能である。所定の時間間隔で、視界の向きが相互に位置揃えされ、当該時間間隔で二人が会話する場合、例えば、二人のミーティング参加者の間の会話イベントはログをとられる。このアプローチは、一対多及び多対多の会話シナリオにも当然適用可能である。音声チャネルを用いて、エゴセントリックシステム300は、参加者の各々が話す期間を記録することが可能であり、ミーティングの間ディスカッションで支配的なもしくは受動的な参加者を識別する。例えば、支配的な参加者は、より多くの人々とより多く話す、大きい声で話す、及び/もしくは他のユーザより長く話してもよい。HMDのIMUによって感知されるより物理的な多くのアクティビティ及び/もしくは他の人々(対投影スクリーン)の方向を見るより多くのアクティビティは、ユーザの役割を判定するために使用されてもよい。
実装のいくつかにおいて、位置及び向き情報から、エゴセントリックトラッキングシステム300は、参加者の各々が可視マーカ(例えば、特定のスライド)を見る時間量など、スライドを見るアクティビティを計測可能である。音声チャネルを用いて、エゴセントリックトラッキングシステム300は特定のスライドのディスカッションのアクティビティレベルを推定する。この情報は次に、例えば、どのくらい長くスライドが見られていたか、及び、スライドの各々についてユーザによってどのくらいのコメントが付与されたかに関する参加者毎の情報を提供するために用いられ、パーソナルレベルについて評価され得る。最後に、HMDから直接的に利用可能な向き情報、もしくは、ユーザのHMDによって取得される可視マーカから推定される向き情報は、ユーザがグローバルディスプレイに提示された情報を見ている(例えば、投影スクリーンもしくは大型ディスプレイを前方に見ている)か否か、もしくは、ユーザのローカルデバイスに提示された情報を見ている(例えば、ラップトップ、スマートフォンなどを下方に見ている)か否か推定するために使用されてもよい。
実装のいくつかにおいて、推定されたパーソナライズされた視認アクティビティを用いて、エゴセントリックトラッキングシステム300は自動生成ミーティングサマリに追加的な第1ユーザビデオフィードを提供することができる。例えば、HMDカメラは、ビデオベースミーティングサマリ生成を自動化するために追加的なビデオフィードを提供するために使用され得る。ミーティング参加者によって装着されたHMDのカメラによって提供された第1ユーザの視界はビデオミーティングサマリにより多くの関連するカットを提供する。例えば、カットは、視認アクティビティに基づいて、話しているユーザの視界、続いている会話の会話パートナーの視界、プレゼンテーションがインタラクティブである場合、視聴者及び話者の間の交互の視界、及び/もしくは、視聴者の多くが見ることに関連している場合、共通のスクリーンコンテンツを含む。
実装のいくつかにおいて、図1及び図2に示すように、基準はミーティング空間に存在するデジタルディスプレイに表示されている。基準は、ユーザ位置の追跡を促進するだけでなく、動的に表示される(例えば、ディスプレイのコンテンツと共に変化する)場合、HMDのユーザによってパーソナライズされたコンテンツを示すために使用され得る。例えば、ビジネス指向参加者は関連するビジネスデータで示され得る。また、エンジニアはメインデジタルディスプレイに示されるコンテンツに関連する技術情報で示され得る。さらに、動的に表示される基準は、デジタルディスプレイに表示されたコンテンツがユーザによって見られた回数の追跡を維持することによりパーソナルミーティングの生成を支援するために使用され得る(デジタルディスプレイのコンテンツの方向に頭部が固定した方向を向いていることがユーザによる視認を構成すると仮定する)。
従来の方法は、非常に多くの計測を必要とする可視マーカを用いた位置検出に焦点を合わせる。現在の解決法の効果は、ユーザが空間への感知をもたらすので、スマート空間はセンサに関してより少ない測定を必要とする、ということである。上記したように、これは、スケーラビリティの所定量、特に、従来の方法によれば多くのセンサによって測定されるべき大空間を保証する。可視マーカを使用する他の効果は、いくつかの実装によって構成された可視マーカが可変スケールであることであり、これにより、スタジアムもしくは展示ホールなどの非常に広い空間で大きなスケールで使用され得る。さらに、話者位置検出のためにHMDを用いることは、空間、特に、音声方向検出ハードウェアの能力を越える距離を有する広い空間において当該能力を有するセンサに依存するよりもシンプルかつロバストである。
図7は、実装のいくつかによるスマート空間におけるエゴセントリックトラッキングを用いたパーソナライズされたイベント取得の方法700のフローチャートを例示する。実装のいくつかにおいて、方法700は、一つもしくは複数のプロセッサ(例えば、CPU512)及びプロセッサ(例えば、CPU512)によって実行される命令を記憶するメモリ(例えば、メモリ506)を有するコンピュータシステム(例えば、エゴセントリックトラッキングシステム300のサーバ320)で実行される。
可視ラベリングモジュール520は、複数のユーザに提示されるコンテンツの第1セットに第1マーカを適用する(702)。実装のいくつかにおいて、第1マーカの各々は、コンテンツの第1セット及びプレゼンテーションの提示ユニットの各々と関連付けられている少なくともコンテンツIDを識別する第1メタデータを含む。実装のいくつかにおいて、第1マーカはプレゼンテーションが提示されるプレゼンテーションの提示面(例えば、ホワイトボード/黒板210、投影スクリーン220)を識別するための物理的なマーカを含む(704)。実装のいくつかにおいて、プレゼンテーションは非デジタルコンテンツ(例えば、ホワイトボード/黒板への書き込み)及び/もしくはデジタルコンテンツ(例えば、プレゼンテーションに埋め込まれたコンテンツ)を含む。実装のいくつかにおいて、埋め込まれたバーチャルマーカを有するプレゼンテーションは、パーソナルスクリーンとプレゼンテーションスクリーンとに同時に表示される(706)。
例えば、図2及び図3において、プレゼンテーションのコンテンツは投影スクリーン220、304及びモニタ230、308の両方に表示され得る。これにより、投影スクリーン220、304に表示される一次コンテンツに加えて、あるいは当該一次コンテンツの代わりに、コンピューティングデバイス230に表示されている補足的なコンテンツへのユーザの注意を評価し得る。実装のいくつかにおいて、パーソナルスクリーンのマーカ(例えば、コンピューティングデバイス230、308のモニタ)はトレーニング、ウェビナーなどを遠隔から見る一次プレゼンテーションに使用され得る。
実装のいくつかにおいて、コンテンツID及びメタデータを含むコンテンツの属性は、コンテンツと共に、サーバ320のコンテンツデータベース322に記憶される。可視ラベリングモジュール520がコンテンツID及びメタデータをコンテンツと関連付けた後、サーバ320はコンテンツデータベース322からコンテンツを取り出し、コンテンツ属性と共に複数のユーザにコンテンツを送信する。表示モジュール522は、複数のユーザに対して、適用された第1マーカと共に提示ユニットにプレゼンテーションを表示する(708)。実装のいくつかにおいて、室内プロジェクタ及び/もしくはラップトップなどの他のコンピューティングデバイスは、サーバ320から通信ネットワーク328を介して適用された第1マーカを有するプレゼンテーションデータを受信し、例えば、投影スクリーン304、220及び/もしくはモニタ230、308などの提示ユニットに適用された第1マーカと共にプレゼンテーションを表示する。
プレゼンテーションコンテンツが表示された後、頭部向き判定モジュール524は複数のユーザの内第1ユーザによって装着されているボディ搭載カメラから頭部向き情報を受信し(710)、第1ユーザの頭部向きシーケンスを頭部向き情報から判定し、第1ユーザ及び対応する第1タイムスタンプのシーケンスと関連付けられている識別子と頭部向きのシーケンスの各々とを関連付ける。加えて、画像受信モジュール526は、第1ユーザによって装着されたボディ搭載カメラによって取得された画像シーケンスを受信する(712)。実装のいくつかにおいて、画像のシーケンスは第1ユーザに定義され、第1ユーザが視認可能である室内表示/情報であり、第1ユーザ及びボディ搭載カメラと関連付けられている識別子と画像シーケンスと対応する第2タイムスタンプのシーケンスとを関連付ける。
実装のいくつかにおいて、図3及び図4に示されるように、カメラはクライアントデバイス306(例えば、グーグルグラス)の部分として頭部に搭載される。これにより、プレゼンテーションコンテンツの第1ユーザの視界及び頭部向きはエゴセントリックトラッキングのためにカメラによって取得される。他の実装のいくつかにおいて、アイトラッキング及び/もしくは視線トラッキングは、タイムスタンプを有するプレゼンテーションの間、ユーザの注意の位置及び向きを取得するために、頭部搭載クライアントデバイス306の代わりに、もしくは頭部搭載クライアントデバイス306に加えて、使用され得る。サーバ320は、ユーザの視認アクティビティを推定するために、タイムスタンプを含むプレゼンテーションコンテンツ情報と視線/アイトラッキング情報、ユーザ情報、デバイス情報及び/もしくはスマート空間情報(例えば、マーカの位置及び幾何学的形状)とを結び付ける。
実装のいくつかにおいて、画像のシーケンスを受信することは、複数のユーザの2人以上によって装着されたボディ搭載カメラによって取得された画像のシーケンスを含む(714)。例えば、2人以上のユーザが出席しているミーティングにおいて、図3に示されるように、ユーザ320の各々はプレゼンテーションコンテンツの第1ユーザの視界を取得するためにヘッドマウントデバイスを装着する。取得された画像は、次に、さらなる分析のために通信ネットワーク328を介してサーバ320に送信される。
クライアントデバイス306から画像及び頭部の向きを受信すると、データ統合モジュール528は画像のシーケンスのメンバの各々と頭部向きのシーケンスとを記憶し、関連付ける(716)。コンテンツ識別モジュール530は、さらに、取得した画像シーケンスのマーカのメタデータを評価することによってプレゼンテーションコンテンツを識別する(718)。さらに、ユーザ注意判定モジュール532は、第1ユーザの視認アクティビティを測定する(720)。視認アクティビティ測定は、第1ユーザが表示されたコンテンツに注意している場合、及び、注意していない場合を含む。
例えば、サーバ320は、クライアントデバイス306から画像及び頭部の向きを受信した後、ユーザの各々に関連付けられている画像及び頭部の向きを分析する。画像のマーカを検出する際に、サーバ320は、マーカのメタデータを識別する。実装のいくつかにおいて、サーバ320は、コンテンツIDに基づいて、メタデータを取り出すために、コンテンツデータベース546に問い合わせを行う。頭部向き情報と結合することにより、ユーザ注意判定モジュール532は、ユーザが提示されているコンテンツに注意を払っているか、ユーザが注意を払っているコンテンツの部分及び/もしくは視認アクティビティの期間を測定することができる。
可視入力に加えて、サーバ320はスマート空間におけるエゴセントリックトラッキングへの音声入力も使用することができる。実装のいくつかにおいて、音声受信モジュール534は、ボディ搭載カメラに結合されているマイクロフォン(例えば、音声入力デバイス409)によって記録されている室内音声を記録する(722)。実装のいくつかにおいて、室内音声は、提示されたコンテンツの第1セットからの音声及び室内における話者からの音声を含み、室内音声は第1のユーザに関連付けられている。実装のいくつかにおいて、音声を受信した後、話者識別モジュール536は、複数のユーザのどのユーザが話しているか、ボディ搭載カメラに結合されているどのマイクロフォンが任意のある時点で最も強い音声信号を有しているかに基づいて識別する(724)。実装のいくつかにおいて、話者認証モジュール538は、複数のユーザの話者の識別を検証するために音声フィンガープリントを使用する(726)。ユーザが2人以上存在する場合、複数のユーザの視認アクティビティに基づいて、ディスカッションダイナミック判定モジュール540は複数のユーザのサブセットを識別する(728)。実装のいくつかにおいて、識別された複数のユーザのサブセットのメンバは所定の瞬間に相互に会話しており、複数のユーザのサブセットの支配的なもしくは受動的な話者を識別する。
例えば、図3において、プレゼンター302−Nは投影スクリーン304及びコンピューティングデバイス308に表示されているコンテンツを提示しており、ヘッドマウントデバイス306−Nの音声入力デバイス409は室内音声を記録する。室内音声はプレゼンテーションコンテンツのプレゼンター302−Nの説明、及び、例えば、スマート空間の2人以上の話者によってブロードキャストされたプレゼンテーションコンテンツからの音声の両方を含み得る。実装のいくつかにおいて、クライアントデバイス306の音声入力デバイス409(例えば、オンボードマイクロフォン)は話者の音声とブロードキャストされたプレゼンテーションコンテンツからの音声とを区別するために適切な周波数範囲で音量振幅を検出し測定することができる。同様に、スマート空間の複数のユーザ302が音声入力デバイスを有している場合、音声入力デバイス409は複数のユーザからの音声を記録し、サーバ320に音声を送信することができる。複数のクライアントデバイス306からの音声入力を受信すると、サーバ320はクライアントデバイス306と結合されるマイクロフォンが所定の時間に最も強い音声信号を有することを識別するために、音量振幅を比較する。
話者を識別するために、実装のいくつかにおいて、タイムスタンプと共に音声情報が視認アクティビティデータベース552に記憶される。デバイスデータベース548及びユーザデータベースに記憶されている情報を結び合わせることにより、話者識別モジュール536及び話者認証モジュールは音声入力デバイス409とクライアントデバイス306とを関連付け、さらに、クライアントデバイス306を装着しているユーザ302と関連付ける。上記例を継続すると、所定の時間にクライアントデータベース306−Nに結合されているマイクロフォンが最も強い音声信号を有することを識別する際に、話者識別モジュール536は、ユーザ302−Nが所定の時間にプレゼンターの話者であることを識別するために、デバイスデータベース548及びユーザデータベース550に問い合わせを行う。
同様に、異なる時点で、ユーザ302−1が疑問を呈すると、音声受信モジュール534は通信ネットワーク328を介してクライアントデバイス306−1から音声データを受信する。話者識別モジュール536は、次に、ユーザ302−1が所定の時点で話者であることを識別するために、デバイスデータベース548及びユーザデータベース550に問い合わせを行う。さらに、ユーザ302−1がプレゼンター及び/もしくは他のユーザ302−2などと共にディスカッションに参加している場合、音声受信モジュール534は通信ネットワーク328を介して複数のクライアントデバイス306から音声データを受信する。話者識別モジュール536は、次に、ユーザ302−1がディスカッションにおいて所定の時点で話者であることを識別するために、デバイスデータベース548及びユーザデータベース550に問い合わせを行う。音声データを含む視認アクティビティデータベース552に記憶されているデータに基づいて、ディスカッションダイナミック判定モジュール540は、ディスカッションの間、所定の時点で、どのユーザが互いに会話しているか識別し、音声信号の振幅に基づいて、支配的もしくは受動的な話者を識別することが可能である。
実装のいくつかにおいて、別個の認証システムを必要とすることなく、システム(例えば、室内もしくはサーバ側構成要素)にセキュリティが構築される。例えば、音声フィンガープリントを用いて、話者認証モジュール538及び/もしくは話者識別モジュール536はヘッドマウントデバイスを装着している話者の認証を検証し、ミーティングの参加者の存在を検証することが可能である。実装のいくつかにおいて、音声フィンガープリントオペレーションから得られるシグネチャは、次のユーザの照合及び識別のために、デバイスデータベース548及び/もしくはユーザデータベース550に記憶される。実装のいくつかにおいて、話者識別及び認証機能は、ユーザデータ432及び/もしくはデバイスデータ434及び/もしくはタイムスタンプ436に記憶されている情報を用いて、クライアントデバイス306で実行される。例えば、デバイス306は午前に予定されているミーティングでユーザによって使用され得る。また、同一のデバイス306が午後に予定されている異なるミーティングで異なるユーザによって使用され得る。音声フィンガープリントを用いて、異なるミーティングでデバイス306を使用するユーザは実装のいくつかによって認証が失敗したことを示すアラームを出すことが可能となる。
実装のいくつかにおいて、報告モジュール542はプレゼンテーションにおける視聴者全員の関心及び個人の関心に関する報告を生成する(730)。例えば、自動化されたビデオベースミーティングサマリが報告モジュール542によって生成され得る。ミーティングサマリにおいて、ヘッドマウントデバイス306によって取得された第1ユーザの視覚からのクリップはユーザが最も関心をもったコンテンツの部分をハイライトするために使用され得る。実装のいくつかにおいて、視認アクティビティデータベースにサーバが記憶した視認アクティビティに基づいて、追加的なビデオフィードモジュール544は、ユーザに関連付けられている一つもしくは複数のデバイスに表示されるユーザに関連する追加的なコンテンツ(例えば、プレゼンテーションスクリーン304、コンピューティングデバイス308及び/もしくはヘッドマウントデバイス306)を送信する(732)。
例えば、スライドの同一セットが異なるグループに対して提示された後、視認アクティビティデータベース552に記憶されている情報を用いた視認アクティビティ分析に基づいて、ユーザデータベース550、デバイスデータベース548、及びコンテンツデータベース546、報告モジュール542はグループAが最初のいくつかのスライドにより関心をもっており、グループBが最後のいくつかのスライドにより関心をもっていることを示す報告を生成する。報告に基づいて、追加的なビデオフィードモジュール544はグループAに最初のいくつかのスライドに関連する追加的なコンテンツを送信し、グループBに最後のいくつかのスライドに関連する追加的なコンテンツを送信する。グループAは、次に、グループAに関連付けられている投影スクリーン、モニタ及び/もしくはヘッドマウントデバイスでカスタマイズされたコンテンツを見ることが可能である。グループBは、次に、グループBに関連付けられている投影スクリーン、モニタ及び/もしくはヘッドマウントデバイスでカスタマイズされたコンテンツを見ることが可能である。実装のいくつかによるシステム及び方法は、ミーティングイベントのパーソナライズされた取得を可能とするように、ユーザの位置検出にエゴセントリックトラッキングを使用する。
「第1」、「第2」などの用語が様々な構成要素を記述するために使用されるが、これらの用語によって構成要素は限定されない。これらの用語は構成要素を区別するために使用されているだけである。例えば、第1のコンタクトは第2のコンタクトであってもよい。同様に、第2のコンタクトは第1のコンタクトであってもよい。「第1のコンタクト」の全てが矛盾なく変更され、第2のコンタクトの全てが矛盾なく変更される場合、記述の意味は変更される。第1のコンタクト及び第2のコンタクトは両方ともコンタクトであるが、同一のコンタクトではない。
ここで使用されている用語は特定の実装を記述する目的であり、請求項を限定することを意図していない。実装及び添付の請求項の記載に使用される単数の形態は、明示的に示さない限り、複数の形態を含むことを意図する。ここで使用される「及び/もしくは」は関連するアイテムの一つもしくは複数の任意の全ての可能な組み合わせを参照し包含する。「含む」との記載は、特徴、整数、ステップ、操作、構成要素及び/もしくは要素の存在を特定するが、一もしくは複数の他の特徴、整数、ステップ、操作、構成要素、要素及び/もしくはこれらのグループの追加を除外しない。
「[記載した条件が真である]場合」との記載は、文脈に応じて、「判定すると」、「判定に応答して」、「判定に基づいて」、[検出すると」、「検出に応答して」などの意味であると解釈され得る。
様々な実装を詳細に参照するために、図面と共に例を示した。全体が理解できるように、多くの特定の詳細を記載した。しかしながら、これらの特定な詳細なしに、本開示を実施することができる。また、実装の態様を不必要に不明瞭にしないように、よく知られた方法、プロシージャ、構成要素及び回路は詳細に記載していない。
上記において、説明のために、特定の実装を参照した。しかしながら、上記例示は網羅的であることもしくは開示の詳細な形態に本開示を限定することを意図していない。多くの変更が可能である。本開示の原理及びその実用的な応用を最も適切に説明するために、実装は選択され、記述された。これにより、当業者であれば、本開示及び様々な変更を有する様々な実装が最適に利用可能である。
320 サーバシステム
520 可視ラベリングモジュール
522 表示モジュール
524 頭部向き判定モジュール
526 画像受信モジュール
528 データ統合モジュール
530 コンテンツ識別モジュール
532 ユーザ注意判定モジュール

Claims (20)

  1. 複数のユーザに対して提示されているコンテンツの第1セットに第1マーカを適用する可視ラベリング部であって、前記第1マーカの各々はコンテンツの前記第1セット及びプレゼンテーションの提示ユニットの各々と対応付けられている少なくともコンテンツIDを識別する第1メタデータを含む、可視ラベリング部と、
    適用された前記第1マーカと共に、複数の前記ユーザに対して、前記提示ユニットに前記プレゼンテーションを表示する表示部と、
    複数のユーザの内の第1ユーザによって装着されたボディ搭載カメラから頭部向き情報を受信し、前記頭部向き情報から前記第1ユーザの頭部向きのシーケンスを判定し、前記第1ユーザ及び対応する第1タイムスタンプのシーケンスと関連付けられている識別子と頭部向きのシーケンスの各々とを関連付ける頭部向き判定部と、
    前記第1ユーザによって装着された前記ボディ搭載カメラによって取得された画像のシーケンスを受信し、前記第1ユーザ及び前記ボディ搭載カメラと対応付けられている識別子と対応する第2タイムスタンプのシーケンスとを前記画像のシーケンスと関連付ける画像受信部であって、画像の前記シーケンスは前記第1ユーザに対して提示される、もしくは視認可能な室内表示/情報である、画像受信部と、
    前記画像のシーケンス及び前記頭部向きのシーケンスの各々を記憶し、関連付けるデータ統合部と、
    取得した前記画像のシーケンスにおけるマーカのメタデータを評価しプレゼンテーションコンテンツを識別するコンテンツ識別部と、
    前記第1ユーザの視認アクティビティを測定するユーザ注意判定部であって、前記視認アクティビティの測定値は前記第1ユーザが表示されているコンテンツに注意を払っている場合であるか否かを含む、ユーザ注意判定部と、
    を含む、
    提示されているコンテンツへのユーザの注意を判定するシステム。
  2. 前記第1マーカは、
    前記プレゼンテーションが提示される前記プレゼンテーションの提示面を識別する物理マーカ、
    を含み、
    前記プレゼンテーションは非デジタルコンテンツ及び/もしくはデジタルコンテンツを含む、
    請求項1に記載のシステム。
  3. 埋め込まれた可視マーカはプレゼンテーションスクリーンと共にパーソナルスクリーンに表示される、請求項1又は請求項2に記載のシステム。
  4. 前記画像受信部は複数の前記ユーザの内2人以上のユーザによって装着された2つ以上のボディ搭載カメラによって取得された前記画像のシーケンスを受信する、
    請求項1〜請求項3の何れか1項に記載のシステム。
  5. 前記ボディ搭載カメラに結合されているマイクロフォンによって記憶された室内音声を受信する音声受信部、
    をさらに含み、
    前記室内音声は提示されたコンテンツの第1セットの音声及び室内の話者の音声を含み、前記室内音声は第1ユーザと関連付けられている、
    請求項1〜請求項4の何れか1項に記載のシステム。
  6. 前記ボディ搭載カメラに結合されているどのマイクロフォンが所定の任意の時間に最も強い音声信号を有するかに基づいて、複数のユーザの内どのユーザが話しているかを識別する話者識別部、
    をさらに含む、
    請求項1〜請求項5の何れか1項に記載のシステム。
  7. 複数のユーザの話者の識別を検証するために音声フィンガープリントを使用する話者認証部、
    をさらに含む請求項1〜請求項6の何れか1項に記載のシステム。
  8. 複数のユーザの視認アクティビティに基づいて、複数の前記ユーザのサブセットを識別し、複数の前記ユーザのサブセットにおける支配的なもしくは受動的な話者を識別するディスカッションダイナミック判定部、
    をさらに含み、
    複数の前記ユーザのサブセットのメンバは所定の時間に互いに会話している、
    請求項1〜請求項7の何れか1項に記載のシステム。
  9. プレゼンテーションにおける視聴者全体の関心及び個人の関心に関する報告を生成する報告部、
    をさらに含む、
    請求項1〜請求項8の何れか1項に記載のシステム。
  10. サーバに記憶されている視認アクティビティに基づいて、ユーザに関連付けられている一つもしくは複数のデバイスに表示するユーザに関連する追加的なコンテンツを送信する追加ビデオフィード部、
    をさらに含む、
    請求項1〜請求項9の何れか1項に記載のシステム。
  11. 測定値は、頭部向きのシーケンスと画像のシーケンスの識別されたコンテンツの相対的な位置との差異を計算することによって取得され、
    関連付けられている第1及び第2のタイムスタンプに基づいて、2つの方向の角度差が所定値内である場合に、識別されたコンテンツに第1ユーザが注意を払っていると判定する、
    請求項1〜請求項10の何れか1項に記載のシステム。
  12. プロセッサ及びメモリを有するコンピュータシステムが、
    複数のユーザに提示されるコンテンツの第1セットに第1マーカを適用し、
    前記第1マーカの各々はコンテンツの前記第1セット及びプレゼンテーションの提示ユニットの各々と関連付けられている少なくともコンテンツIDを識別する第1メタデータを含み、
    適用された前記第1マーカと共に複数の前記ユーザに対して前記提示ユニットに前記プレゼンテーションを表示し、
    複数のユーザの内の第1ユーザによって装着されたボディ搭載カメラから頭部向き情報を受信し、前記第1ユーザの頭部向きのシーケンスを前記頭部向き情報から判定し、頭部向きのシーケンスの各々を前記第1ユーザ及び対応する第1タイムスタンプのシーケンスと関連付けられている識別子と関連付け、
    前記第1ユーザによって装着されたボディ搭載カメラによって取得された画像のシーケンスを受信し、
    前記画像のシーケンスは前記第1ユーザに対して提示され、前記第1ユーザによって視認可能な室内表示/情報であり、前記第1ユーザ及び前記ボディ搭載カメラと関連付けられている識別子及び対応する第2タイムスタンプのシーケンスを前記画像のシーケンスと関連付け、
    画像のシーケンス及び頭部向きのシーケンスの各々を記憶し、関連付け、
    取得した前記画像のシーケンスのマーカのメタデータを評価することによってプレゼンテーションコンテンツを識別し、
    前記第1ユーザの視認アクティビティを測定し、
    前記視認アクティビティの測定値は、前記第1ユーザが表示されたコンテンツに注意を払っている場合であるか、もしくは注意を払っていない場合であるかを含む、
    提示されているコンテンツにユーザが注意を払っているか否か判定する方法。
  13. 前記第1マーカは、
    前記プレゼンテーションが提示されている前記プレゼンテーションの提示面を識別する物理的マーカを含み、
    前記プレゼンテーションは非デジタルコンテンツ及び/もしくはデジタルコンテンツを含む、
    請求項12に記載の方法。
  14. 埋め込まれた可視マーカを含むプレゼンテーションは、プレゼンテーションスクリーンと共に、パーソナルスクリーンに表示される、
    請求項12又は請求項13に記載の方法。
  15. 画像のシーケンスを受信することは、
    複数の前記ユーザの内、2人以上のユーザによって装着された2つ以上のボディ搭載カメラによって取得される画像のシーケンスを受信することを含む、
    請求項12〜請求項14の何れか1項に記載の方法。
  16. 前記ボディ搭載カメラに結合されたマイクロフォンによって記録された室内音声を受信することをさらに含み、
    前記室内音声は、提示されたコンテンツの第1セットからの音声及び室内の話者の音声を含み、
    前記室内音声は第1ユーザと関連付けられている、
    請求項12〜請求項15の何れか1項に記載の方法。
  17. 前記ボディ搭載カメラに結合されているどのマイクロフォンが任意の所定の時間に最も強い音声信号を有しているかに基づいて、複数のユーザのどのユーザが話しているかを識別する、
    ことをさらに含む、
    請求項12〜請求項16の何れか1項に記載の方法。
  18. 複数のユーザの視認アクティビティに基づいて、複数の前記ユーザのサブセットを識別し、
    複数の前記ユーザのサブセットのメンバは、所定の時間に互いに会話しており、
    複数の前記ユーザのサブセットにおいて支配的な話者であるか、もしくは受動的な話者であるかを識別する、
    ことをさらに含む、
    請求項12〜請求項17の何れか1項に記載の方法。
  19. サーバに記憶された視認アクティビティに基づいて、ユーザに関連付けられている一つもしくは複数のデバイスに表示するために、前記ユーザに関連する追加的なコンテンツを送信する、
    ことをさらに含む、請求項12〜請求項18の何れか1項に記載の方法。
  20. 複数のユーザに提示されるコンテンツの第1セットに第1マーカを適用し、
    前記第1マーカの各々は、コンテンツの第1セット及びプレゼンテーションの提示ユニットの各々と関連付けられている少なくともコンテンツIDを識別する第1メタデータを含み、
    適用された前記第1マーカと共に、複数の前記ユーザに対して、前記提示ユニットにプレゼンテーションを表示し、
    複数の前記ユーザの内の第1ユーザによって装着されているボディ搭載カメラから頭部向き情報を受信し、前記第1ユーザの頭部向きのシーケンスを前記頭部向き情報から判定し、前記第1ユーザ及び対応する第1タイムスタンプのシーケンスと関連付けられている識別子と、頭部向きのシーケンスの各々とを関連付け、
    前記第1ユーザによって装着された前記ボディ搭載カメラによって取得された画像のシーケンスを受信し、前記画像のシーケンスは前記第1ユーザに対して提示され、前記第1ユーザによって視認可能である室内表示/情報であり、前記第1ユーザ及びボディ搭載カメラと関連付けられている識別子及び対応する第2タイムスタンプのシーケンスと前記画像のシーケンスとを関連付け、
    前記画像のシーケンス及び頭部向きのシーケンスの各々を記憶し、関連付け、
    取得した画像のシーケンスにおけるマーカのメタデータを評価しプレゼンテーションコンテンツを識別し、
    前記第1ユーザの視認アクティビティを測定し、
    前記視認アクティビティの測定値は、前記第1ユーザが表示されたコンテンツに注意を払っている場合であるか否かを含む、
    提示されているコンテンツにユーザが注意を払っているか否か判定する処理をコンピュータに実行させるためのプログラム。
JP2015139477A 2015-03-24 2015-07-13 ユーザ注意判定システム、方法及びプログラム Expired - Fee Related JP6519370B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/667,504 2015-03-24
US14/667,504 US9503687B2 (en) 2015-03-24 2015-03-24 Personalized meeting event capture using egocentric tracking in smart spaces

Publications (2)

Publication Number Publication Date
JP2016181244A true JP2016181244A (ja) 2016-10-13
JP6519370B2 JP6519370B2 (ja) 2019-05-29

Family

ID=56975933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015139477A Expired - Fee Related JP6519370B2 (ja) 2015-03-24 2015-07-13 ユーザ注意判定システム、方法及びプログラム

Country Status (2)

Country Link
US (1) US9503687B2 (ja)
JP (1) JP6519370B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021128714A (ja) * 2020-02-17 2021-09-02 株式会社ジオクリエイツ 調整装置及び調整方法
WO2023007782A1 (ja) * 2021-07-30 2023-02-02 株式会社日立製作所 仮想空間内で実行されたミーティングのまとめ映像を作成するシステム及び方法

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5482740B2 (ja) * 2011-07-11 2014-05-07 コニカミノルタ株式会社 プレゼンテーションシステム、プレゼンテーション装置およびプログラム
CN108027655A (zh) * 2016-02-25 2018-05-11 日本电气株式会社 信息处理系统、信息处理设备、控制方法和程序
CN107807480B (zh) * 2016-09-08 2021-04-20 株式会社日本显示器 显示装置
US10409102B2 (en) * 2016-09-08 2019-09-10 Japan Display Inc. Display device
US20180095835A1 (en) * 2016-10-05 2018-04-05 International Business Machines Corporation Resilient analytics utilizing dark data
JP6972729B2 (ja) * 2017-07-24 2021-11-24 コニカミノルタ株式会社 画像表示システム、資料提供支援装置、資料取得装置、資料提供支援方法、およびコンピュータプログラム
CN109862345B (zh) * 2017-11-30 2022-09-30 京东方科技集团股份有限公司 视场角测试方法和系统
US10397519B1 (en) * 2018-06-12 2019-08-27 Cisco Technology, Inc. Defining content of interest for video conference endpoints with multiple pieces of content
US10855978B2 (en) * 2018-09-14 2020-12-01 The Toronto-Dominion Bank System and method for receiving user input in virtual/augmented reality
US10536666B1 (en) * 2019-01-22 2020-01-14 Facebook Technologies, Llc Systems and methods for transmitting aggregated video data
CN109951743A (zh) * 2019-03-29 2019-06-28 上海哔哩哔哩科技有限公司 弹幕信息处理方法、系统及计算机设备
US10885819B1 (en) * 2019-08-02 2021-01-05 Harman International Industries, Incorporated In-vehicle augmented reality system
US11023729B1 (en) 2019-11-08 2021-06-01 Msg Entertainment Group, Llc Providing visual guidance for presenting visual content in a venue
US11269183B2 (en) 2019-11-14 2022-03-08 Microsoft Technology Licensing, Llc Display information on a head-mountable apparatus corresponding to data of a computing device
US11941792B2 (en) * 2021-04-09 2024-03-26 Dell Products L.P. Machine learning-based analysis of computing device images included in requests to service computing devices
US20240203276A1 (en) * 2021-04-13 2024-06-20 Dathomir Laboratories Llc Presentation with Audience Feedback

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267279A (ja) * 2004-03-18 2005-09-29 Fuji Xerox Co Ltd 情報処理システム及び情報処理方法、並びにコンピュータ・プログラム
JP2010067154A (ja) * 2008-09-12 2010-03-25 Brother Ind Ltd ヘッドマウントディスプレイ、情報閲覧システム及び管理サーバ
US20110157365A1 (en) * 2009-12-28 2011-06-30 Brother Kogyo Kabushiki Kaisha Head-mounted display
JP2011150631A (ja) * 2010-01-25 2011-08-04 Konami Digital Entertainment Co Ltd 表示制御装置、視線誘導方法、および、プログラム
WO2011161937A1 (ja) * 2010-06-24 2011-12-29 パナソニック株式会社 電子出版物閲覧装置、電子出版物閲覧方法、プログラム、及び集積回路
WO2012060039A1 (ja) * 2010-11-02 2012-05-10 Necカシオモバイルコミュニケーションズ株式会社 情報処理システム、および情報処理方法
JP2012243043A (ja) * 2011-05-18 2012-12-10 Panasonic Corp コンテンツ評価装置、方法、及びそのプログラム
JP2013105384A (ja) * 2011-11-15 2013-05-30 Nippon Hoso Kyokai <Nhk> 注目度推定装置およびそのプログラム
JP2015046089A (ja) * 2013-08-29 2015-03-12 ソニー株式会社 情報処理装置および情報処理方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10324598B2 (en) * 2009-12-18 2019-06-18 Graphika, Inc. System and method for a search engine content filter
US20130232263A1 (en) * 2009-12-18 2013-09-05 Morningside Analytics System and method for classifying a contagious phenomenon propagating on a network
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US20120159329A1 (en) * 2010-12-16 2012-06-21 Yahoo! Inc. System for creating anchors for media content
US9229231B2 (en) * 2011-12-07 2016-01-05 Microsoft Technology Licensing, Llc Updating printed content with personalized virtual data
US9349131B2 (en) * 2012-02-02 2016-05-24 Kodak Alaris Inc. Interactive digital advertising system
US20140081659A1 (en) * 2012-09-17 2014-03-20 Depuy Orthopaedics, Inc. Systems and methods for surgical and interventional planning, support, post-operative follow-up, and functional recovery tracking
US20160227228A1 (en) * 2015-01-29 2016-08-04 Vixs Systems, Inc. Video camera with layered encoding, video system and methods for use therewith

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267279A (ja) * 2004-03-18 2005-09-29 Fuji Xerox Co Ltd 情報処理システム及び情報処理方法、並びにコンピュータ・プログラム
JP2010067154A (ja) * 2008-09-12 2010-03-25 Brother Ind Ltd ヘッドマウントディスプレイ、情報閲覧システム及び管理サーバ
US20110157365A1 (en) * 2009-12-28 2011-06-30 Brother Kogyo Kabushiki Kaisha Head-mounted display
JP2011139227A (ja) * 2009-12-28 2011-07-14 Brother Industries Ltd ヘッドマウントディスプレイ
JP2011150631A (ja) * 2010-01-25 2011-08-04 Konami Digital Entertainment Co Ltd 表示制御装置、視線誘導方法、および、プログラム
WO2011161937A1 (ja) * 2010-06-24 2011-12-29 パナソニック株式会社 電子出版物閲覧装置、電子出版物閲覧方法、プログラム、及び集積回路
WO2012060039A1 (ja) * 2010-11-02 2012-05-10 Necカシオモバイルコミュニケーションズ株式会社 情報処理システム、および情報処理方法
JP2012243043A (ja) * 2011-05-18 2012-12-10 Panasonic Corp コンテンツ評価装置、方法、及びそのプログラム
JP2013105384A (ja) * 2011-11-15 2013-05-30 Nippon Hoso Kyokai <Nhk> 注目度推定装置およびそのプログラム
JP2015046089A (ja) * 2013-08-29 2015-03-12 ソニー株式会社 情報処理装置および情報処理方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021128714A (ja) * 2020-02-17 2021-09-02 株式会社ジオクリエイツ 調整装置及び調整方法
JP7475026B2 (ja) 2020-02-17 2024-04-26 株式会社ジオクリエイツ 調整装置及び調整方法
WO2023007782A1 (ja) * 2021-07-30 2023-02-02 株式会社日立製作所 仮想空間内で実行されたミーティングのまとめ映像を作成するシステム及び方法

Also Published As

Publication number Publication date
US9503687B2 (en) 2016-11-22
US20160286164A1 (en) 2016-09-29
JP6519370B2 (ja) 2019-05-29

Similar Documents

Publication Publication Date Title
JP6519370B2 (ja) ユーザ注意判定システム、方法及びプログラム
US11200729B2 (en) Content positioning in extended reality systems
US11127210B2 (en) Touch and social cues as inputs into a computer
EP3400705B1 (en) Active speaker location detection
JP6601053B2 (ja) 注視注釈方法及びコンピューティングデバイス
US8499038B1 (en) Method and mechanism for performing cloud image display and capture with mobile devices
Kasahara et al. Jackin head: Immersive visual telepresence system with omnidirectional wearable camera
US9100667B2 (en) Life streaming
KR102025334B1 (ko) 검출된 물리적 표시를 통한 사용자 관심 결정
CN109416931A (zh) 用于视线跟踪的装置和方法
US20130174213A1 (en) Implicit sharing and privacy control through physical behaviors using sensor-rich devices
WO2011122496A1 (ja) 情報処理システム、会議管理装置、情報処理方法、会議管理装置の制御方法及びプログラム
US20080059578A1 (en) Informing a user of gestures made by others out of the user&#39;s line of sight
US10013889B2 (en) Method and system for enhancing interactions between teachers and students
US20210295550A1 (en) Information processing device, information processing method, and program
JP6359704B2 (ja) イベントに関連付けられる情報を人に供給するための方法
WO2009119288A1 (ja) コミュニケーションシステム及びコミュニケーションプログラム
KR20200143293A (ko) 실시간 다원 ar 방송을 위한 증강 현실 영상 생성 방법 및 장치
Ito et al. Implementation and evaluation of wearable sensor devices for recording and detecting conversational interaction
Zhang et al. MyView: Personalized event retrieval and video compositing from multi-camera video images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190408

R150 Certificate of patent or registration of utility model

Ref document number: 6519370

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees