JP2017535835A - 検索、ユーザの興味または嗜好のインジケータとしての奥行き知覚の使用 - Google Patents

検索、ユーザの興味または嗜好のインジケータとしての奥行き知覚の使用 Download PDF

Info

Publication number
JP2017535835A
JP2017535835A JP2017514696A JP2017514696A JP2017535835A JP 2017535835 A JP2017535835 A JP 2017535835A JP 2017514696 A JP2017514696 A JP 2017514696A JP 2017514696 A JP2017514696 A JP 2017514696A JP 2017535835 A JP2017535835 A JP 2017535835A
Authority
JP
Japan
Prior art keywords
preference information
user
information
data
preference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017514696A
Other languages
English (en)
Other versions
JP2017535835A5 (ja
Inventor
フォーゲルソン,ジョエル
エム. ノゲロル,ジュアン
エム. ノゲロル,ジュアン
バレスト,アダム
アンドレ ロジャー グサール,ギヨーム
アンドレ ロジャー グサール,ギヨーム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2017535835A publication Critical patent/JP2017535835A/ja
Publication of JP2017535835A5 publication Critical patent/JP2017535835A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9038Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/735Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

方法および装置が提供される。方法は、三次元表示上でまたはバーチャルリアリティ空間においてなど、奥行き知覚を使用して嗜好情報の表示を提供する。オブジェクトは、画像または画像シーケンスにおいて識別され、かつ嗜好情報に基づいて関連性情報が割り当てられる。好まれるオブジェクトは、嗜好の強さに基づいて様々な程度で、表示の前景平面に示される。好まれないオブジェクトは、同様に嗜好の強さに基づいて様々な程度で、表示の背景平面に示される。不特定のまたは自然なオブジェクトは、前景でも背景でもない基準面に示される。例示的な実施形態は、様々な俳優が押し込まれてまたは押し出されて示される映画データベース応用のために提供される。別の実施形態は、ユーザの嗜好を変更するためにユーザがオブジェクトの平面を調整することを可能にする。

Description

技術分野
本原理は、検索結果、ユーザの嗜好または興味を示すための三次元(3D)表示上のまたはバーチャルリアリティ(VR)空間における奥行き知覚の使用に関する。
背景
画像セグメンテーション技法は、画像または映像シーケンスにおいて異なるオブジェクトを分離するために使用される場合が多い。オブジェクト認識技法は、既存のシーケンス内でのこれらのオブジェクトの識別または追跡を可能にする。医用撮像分野では、腫瘍のように見えるオブジェクトは、腫瘍がどのように見え得るかを定義し、次いで、シーケンスにおいてこの説明にある程度適合するオブジェクトを検索することによって、医用映像シーケンスから識別することができる。
しかし、ユーザがオブジェクトまたは何らかのサブジェクトを検索することを希望し、いずれのメディアアセットにサブジェクトが含まれるか確信がないか、またはサブジェクトの正確な外観が不明である場合、画像セグメンテーションおよびオブジェクト認識技法は失敗することになる。
別の課題は、ユーザが探しているそれらのオブジェクトをユーザが迅速に識別できるように、有意義な方法でそのような検索の結果をユーザに提示することである。
ビデオ画像またはシーケンスにおいてサブジェクトを識別し、かつそれらのサブジェクトアイテムも画像でユーザに表示するような方法で識別したサブジェクトをユーザに提示する必要がある。
概要
先行技術のこれらのおよび他の欠点および不利な点は、本原理によって対処され、本原理は、検索結果、ユーザの嗜好または興味を示すための三次元(3D)表示上でのまたはバーチャルリアリティ(VR)空間における奥行き知覚の使用をサブジェクトとする。
本原理の態様によれば、三次元またはバーチャルリアリティ空間において嗜好情報を表示するための方法が提供される。方法は、嗜好情報を受信するステップを含む。方法は、嗜好情報に基づいて、入力された画像データにおいて少なくとも1つのセグメント化および識別されたオブジェクトの関連性データを生成するステップをさらに含む。方法は、生成された関連性データに基づいて少なくとも2つの平面に画像データを表示するステップをさらに含む。
本原理の別の態様によれば、装置が提供される。装置は、プロセッサを含み、プロセッサは、嗜好情報を受信し、かつ嗜好情報に基づいて、入力された映像データから少なくとも1つのセグメント化および識別されたオブジェクトの関連性データを生成するように構成される。装置は、ディスプレイプロセッサをさらに含み、ディスプレイプロセッサは、関連性データを受信し、かつ関連性データに基づいて少なくとも2つの平面に画像データを表示するためのデータを生成する。
本原理のこれらのおよび他の態様、特徴および利点は、添付の図面と関係して読み進めるべきである以下の例示的な実施形態の詳細な説明から明らかになるであろう。
図面の簡単な説明
本原理は、以下の例示的な図に従ってより良く理解することができる。
三次元またはバーチャルリアリティ空間において複数の平面を使用して嗜好を表示するための例示的な方法100のフロー図を示す。 三次元またはバーチャルリアリティ空間において複数の平面を使用して嗜好を表示するための装置の一実施形態を示す。 複数のブロックを有する三次元画像の概念図を示す。 複数のブロックを有する三次元画像の概念図を示す。
詳細な説明
本原理は、三次元またはバーチャルリアリティ空間において嗜好情報を表示するための方法および装置をサブジェクトとする。情報は、それらのアイテムのうちで最も興味深いものが、前景に現れる平面にまたは閲覧者の近くに表示されるように、奥行き知覚を使用して表示される。それらのアイテムのうちで嫌われるものは、背景に現れる平面にまたは閲覧者から遠くに表示される。前景および背景平面は、ユーザに対する関連性または興味の程度に基づいて前景および背景平面が前方または後方にあるという程度で異なり得る。
本原理の一実施形態は、図1に示されており、図1は、三次元またはバーチャルリアリティ空間において複数の平面を使用して嗜好を表示するための方法100のフロー図である。方法は、ステップ101の開始で始まり、嗜好情報を受信するステップ110へと進む。嗜好情報は、ユーザ入力、格納されたプロファイル情報または他のそのようなデータを含み得る。また、嗜好情報は、この前述の情報の何らかの組合せも含み得るか、またはこの情報に基づき得る。次いで、方法は、ステップ110からの嗜好情報に基づいて、入力画像データにおいて少なくとも1つのセグメント化および識別されたオブジェクトの関連性データを生成するステップ120へと進む。次いで、方法は、ステップ120からの生成された関連性データに基づいて少なくとも2つの平面に画像データを表示するステップ130へと進む。
図2は、三次元またはバーチャルリアリティ空間において複数の平面を使用して嗜好を表示するための装置200の例示的な一実施形態を示す。装置は、プロセッサ210を含み、プロセッサ210は、嗜好情報を受信し、嗜好情報に基づいて、入力された映像データから少なくとも1つのセグメント化および識別されたオブジェクトの関連性データを生成するように構成される。嗜好情報は、ユーザ入力、格納されたプロファイル情報または他のそのようなデータを含み得る。また、嗜好情報は、この前述の情報の何らかの組合せも含み得るか、またはこの情報に基づき得る。セグメンテーション情報およびオブジェクト識別情報は、本原理の一部としてローカルで生成することも、外部の供給源によって供給することもできる。装置は、ディスプレイプロセッサ220をさらに含み、ディスプレイプロセッサ220は、プロセッサ210の関連性データ出力と信号接続され、関連性データに基づいて少なくとも2つの平面に画像データを表示するためのデータを生成する。
また、装置は、任意選択により、画像のオブジェクトの平面を調整できる(次いで、調整された画像のオブジェクトの平面は、今後の使用に対してユーザの嗜好を調整するために、ユーザの嗜好にフィードバックされる)ユーザから入力を受信することもできる。
上述のように、本原理は、検索結果、ユーザの興味または嗜好のインジケータとしての奥行き知覚の使用をサブジェクトとする。奥行き情報は、三次元(3D)またはバーチャルリアリティ(VR)空間において表示され、画像においてセグメント化および識別された画像または画像シーケンスにおける少なくとも1つのオブジェクトに割り当てられる。以下の説明で画像について言及する場合、個々の画像からなる画像シーケンスにもプロセスを適用できることを理解すべきである。
嗜好情報は、奥行き情報を生成するために使用され、関連性情報とも称される。嗜好情報は、いくつかの方法で引き出すことができる。嗜好情報は、例えば、検索クエリなどのユーザ入力に基づき得る。嗜好情報は、ユーザプロファイル情報に基づき得るか、または嗜好情報は、例えば、入力画像または画像シーケンスにおけるオブジェクトの関連性を示す外部から供給された何らかの情報などの他の情報に基づき得る。
また、画像を異なるオブジェクトに分割するために、セグメンテーション情報も使用される。セグメンテーション情報は、本原理の一部としてローカルで生成することも、外部の供給源によって供給することもできる。エッジ検出アルゴリズムは、様々なオブジェクトを検出し、画像においてジグソーパズルのピースのようにそれらの様々なオブジェクトを分割するために使用することができる。
オブジェクト識別またはオブジェクト認識情報は、画像からセグメント化されているオブジェクトを識別するために使用される。オブジェクト識別情報はまた、本原理の一部としてローカルで生成することも、外部の供給源によって供給することもできる。
少なくとも1つの例示的な実施形態では、外部の供給源からのデータセットは、特定の映画場面に登場する俳優を示し得る。この例の1つは、DigitalSmithsデータである。
嗜好情報は、入力画像におけるセグメンテーション情報およびオブジェクト識別情報と共に、入力画像におけるオブジェクトの少なくとも1つの関連性情報を生成するために使用される。嗜好情報は、ユーザがオブジェクトにどの程度興味を示しているか、ユーザとのその関連性、または嗜好情報が示す他の何らかの尺度を示し得る。
好まれるオブジェクトは、嗜好の強さに基づいて様々な程度で、表示の前景平面に示される。好まれないオブジェクトは、同様に嗜好の強さに基づいて様々な程度で、表示の背景平面に示される。不特定のまたは自然なオブジェクトは、前景でも背景でもない基準面に示される。
画像における1つまたは複数のオブジェクトの関連性情報は、画像の他のオブジェクトに対するまたは背景に対するユーザの興味を示す映像平面にそのオブジェクトを表示するために使用される。不特定のオブジェクトは、押し込まれても押し出されてもいないように見える基準面に残しておくことができる。例えば、ユーザが特定のオブジェクトを検索していたことを理由に、例えば、ユーザがこのオブジェクトに非常に興味を示している場合、このオブジェクトは、前景平面に示すことができる。別のオブジェクトが、最初のオブジェクトよりもわずかに関連性が低いが、ある程度のユーザの興味がなおも存在する場合、別のオブジェクトは、最初のオブジェクトほど前景ではないが、依然として、示される関連性がない画像の中立部分と比べて前景である平面に示すことができる。例えば、ユーザプロファイルが何らかに対して激しい嫌悪を示し、それが画像に含まれる場合、ユーザの嫌悪を示すために、背景に示される平面に現れることになる。様々なオブジェクトが現れる平面に関するそれらのオブジェクトのレンダリングは、嗜好情報に基づいて調整される。
3DまたはVR空間における画像の前景および背景部分の例は、図3に示される。図3aは、1〜5でラベル付けされた画像の5つのブロックの正面図300を示す。ユーザは、ブロック5 350に最も興味を示しているかまたは好んでおり、次いでブロック3 330、次いでブロック2 320と続く。ユーザは、ブロック1 310には興味を示しておらず、ブロック4 340には全く興味を示していない。
図3bは、本原理の下での画像の概念的な側面図360を示す。ユーザはブロック5 350に最も興味を示しているため、ブロック5 350は、「前方に押し出される」かまたは最も近い前景に示される。次に最も前方のものは、ブロック3 330であり、次いでブロック2 320である。
ユーザは、ブロック1 310には興味を示していないため、ブロック1 310は、画像の背景の方にわずかに「押し戻される」ように示される。また、ユーザは、ブロック4 340には全く興味を示していないため、ブロック4 340は、画像の背景平面の方にさらに深く「押し戻される」ように示される。
本原理の実施形態の一例は、映画クエリ応用の例を通じて示すことができる。ユーザは、俳優Aによる映画を映画ライブラリで検索する(ローカルまたはオンライン)ことを希望している。また、ユーザは、格納されたプロファイルも有し、プロファイルは、ユーザがいずれの俳優/女優を好み、いずれの俳優/女優を好まないかを示す。また、プロファイルは、ジャンル、監督などの他の嗜好情報を示すこともできる。
ユーザが俳優Aによる映画を検索した時点で、ユーザは、画像、クリップまたは予告編の形態で、俳優Aを含む映画の一連の検索結果を受信する。これらの結果、検索からのユーザ要求のため、俳優Aは、前景に押し込むことができる。しかし、プロファイル情報からの他の嗜好も使用されるため、クリップは、結果の各々において他の俳優/女優を示すこともでき、それらの画像は、その俳優に対するユーザの嗜好に基づいて、前方または後方に押し出されるように見える。
ユーザが多くの前景の俳優/女優を見れば、この映画はユーザのお気に入りのスターの多くを含んでいるため、そのユーザは、この映画を観ることを切望し得る。しかし、ユーザが俳優Aを含む映画を前景に見るが、フィルムの他の俳優が押し戻されている場合、ユーザは、残りのキャストを嫌っているため、俳優Aの映画を見たいという望みにもかかわらず、フィルムを視聴することを望まないと決定する可能性がある。
同様のアイデアをメディアアセットタイトルに適用することができ、その場合、ユーザにとって最も魅力的なそれらのタイトルは、前景に押し込むことができ、魅力的ではないタイトルは、押し戻すことができる。
別の例示的な実施形態では、俳優などのオブジェクトを有する表示がそれらの様々な平面に示された時点で、ユーザは、オブジェクトまたは俳優が存在する平面を直接調整することによってユーザの嗜好を変更することができる。例えば、上記の俳優Aの実施形態では、ユーザが画像のオブジェクトのうちの1つに対する意見を変更したと決定した場合、ユーザは、それを押し戻すかまたは前方に引き出すことができ、ユーザの嗜好情報またはプロファイルは自動的に更新され、今度は、新しい方法で検索に影響を及ぼすことになる。
本原理の下での三次元表示では、様々なオブジェクトは、画像の様々な平面において近くまたは遠くに現れる。バーチャルリアリティ空間では、ファイルキャビネット(いくつかの引き出しは様々な程度で突き出ており、他は様々な程度で押し込まれている)のような様々な平面を想像することができる。ユーザは、ファイルを少しずつ動かし、ファイルを押し込むかまたは押し出す程度を決定することができる。
本説明は、本原理を示す。従って、当業者は、本明細書では明示的に説明されても示されてもいないが、本原理を具体化し、本原理の範囲内に含まれる様々な構成を考案できることが理解されよう。
本明細書に記述されるすべての例および条件付きの言語は、教示上の目的で、当技術分野を前進させるために本発明者によって寄与される本原理および概念を読者が理解できるように支援することが意図され、そのような具体的に記述される例および条件に限定されるものではないと解釈されたい。
そのうえ、本原理の原則、態様および実施形態ならびにそれらの具体的な例を記述する本明細書のすべての説明は、それらの構造上の均等物と機能上の均等物との両方を包含することが意図される。それに加えて、そのような均等物は、現在知られている均等物と今後開発される均等物(すなわち、構造にかかわらず同じ機能を実行する、開発される任意の要素)との両方を含むことが意図される。
従って、例えば、本明細書で提示されるブロック図は、本原理を具体化する例示的な回路の概念図を表すことが当業者によって理解されよう。同様に、いかなるフローチャート、フロー図、状態遷移図、擬似コードおよび同様のものも、様々なプロセスを表し、様々なプロセスは、コンピュータ可読媒体で本質的に表すことができ、コンピュータまたはプロセッサが明示的に示されているかどうかにかかわらず、そのようなコンピュータまたはプロセッサによって実行できることが理解されよう。
図に示される様々な要素の機能は、専用ハードウェアおよび適切なソフトウェアに関連してソフトウェアの実行が可能なハードウェアの使用を通じて提供することができる。プロセッサによって提供される場合、機能は、単一の専用プロセッサによって、単一の共有プロセッサによって、またはそのうちのいくつかを共有することができる複数の個々のプロセッサによって提供することができる。そのうえ、「プロセッサ」または「コントローラ」という用語の明示的な使用は、ソフトウェアの実行が可能なハードウェアを排他的に指すものと解釈すべきではなく、限定されることなく、デジタル信号プロセッサ(「DSP」)ハードウェア、ソフトウェアを格納するための読み取り専用メモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)および不揮発性記憶装置を暗黙的に含み得る。
従来のおよび/またはカスタムの他のハードウェアも含めることができる。同様に、図に示されるいかなるスイッチも単なる概念的なものである。それらの機能は、プログラム論理の操作を通じて、専用論理を通じて、プログラム制御と専用論理との相互作用を通じて、または手動でさえも実行することができ、文脈からより具体的に理解されるように、実装者によって特定の技法が選択可能である。
本明細書の請求項では、指定された機能を実行するための手段として表現されたいかなる要素も、例えば、a)その機能を実行する回路要素の組合せ、またはb)機能を実行するためにそのソフトウェアを実行するための適切な回路と組み合わされた任意の形態のソフトウェア(従って、ファームウェア、マイクロコードまたは同様のものを含む)を含む、その機能を実行するいかなる方法も包含することが意図される。そのような請求項によって定義されるような本原理は、記述される様々な手段によって提供される機能が、請求項によって要求される方法で組み合わされてまとめられるという事実に存在する。従って、それらの機能を提供できるいかなる手段も本明細書に示されるものと均等であると見なされる。
本明細書における本原理の「一実施形態」または「実施形態」およびその他の変形例への言及は、実施形態と関係して説明される特定の特徴、構造、特性などが本原理の少なくとも1つの実施形態に含まれることを意味する。従って、本明細書全体を通じて様々な箇所に現れる「一実施形態では」または「実施形態では」という記載および他の変形例の出現は、必ずしもすべてが同じ実施形態を指すわけではない。
以下の「/」、「および/または」および「の少なくとも1つ」のいずれかの使用は、例えば、「A/B」、「Aおよび/またはB」および「AおよびBの少なくとも1つ」の事例では、第1に列挙された選択肢(A)のみの選択、第2に列挙された選択肢(B)のみの選択、または両方の選択肢(AおよびB)の選択を包含することが意図されることを理解されたい。さらなる例として、「A、Bおよび/またはC」および「A、BおよびCの少なくとも1つ」の事例では、そのような記載は、第1に列挙された選択肢(A)のみの選択、第2に列挙された選択肢(B)のみの選択、第3に列挙された選択肢(C)のみの選択、第1および第2に列挙された選択肢(AおよびB)のみの選択、第1および第3に列挙された選択肢(AおよびC)のみの選択、第2および第3に列挙された選択肢(BおよびC)のみの選択、または3つのすべての選択肢(AおよびBおよびC)の選択を包含することが意図される。これは、当業者であれば容易に明らかであるように、記載されるアイテムの分だけ拡張することができる。
本原理のこれらのおよび他の特徴および利点は、当業者であれば、本明細書の教示に基づいて、容易に確認することができる。本原理の教示は、ハードウェア、ソフトウェア、ファームウェア、特殊用途プロセッサまたはそれらの組合せの様々な形態で実装できることを理解されたい。
最も好ましくは、本原理の教示は、ハードウェアとソフトウェアとの組合せとして実装される。そのうえ、ソフトウェアは、プログラム格納ユニット上で有形に具体化されるアプリケーションプログラムとして実装することができる。アプリケーションプログラムは、任意の適切なアーキテクチャを含むマシンにアップロードし、同マシンによって実行することができる。好ましくは、マシンは、1つまたは複数の中央処理装置(「CPU」)、ランダムアクセスメモリ(「RAM」)および入力/出力(「I/O」)インタフェースなどのハードウェアを有するコンピュータプラットフォーム上で実装される。また、コンピュータプラットフォームは、オペレーティングシステムおよびマイクロ命令コードも含み得る。本明細書で説明される様々なプロセスおよび機能は、マイクロ命令コードの一部、アプリケーションプログラムの一部またはそれらの任意の組合せであり得、CPUによって実行することができる。それに加えて、コンピュータプラットフォームには、追加のデータ格納ユニットおよび印刷ユニットなどの様々な他の周辺ユニットを接続することができる。
添付の図面に描写される構成システムコンポーネントおよび方法のいくつかはソフトウェアで実装されることが好ましいため、システムコンポーネント間またはプロセス機能ブロック間の実際の接続は、本原理がプログラムされる方法に応じて異なり得ることをさらに理解されたい。本明細書の教示を考慮すると、当業者は、本原理のこれらのおよび同様の実装形態または構成を企図することができるであろう。
本明細書では、添付の図面を参照して例示的な実施形態について説明してきたが、本原理はそれらの正確な実施形態に限定されるわけではなく、本原理の範囲から逸脱することなく、当業者によってその中で様々な変化形態および変更形態がなされ得ることを理解されたい。そのような変化形態および変更形態はすべて、添付の請求項に記載されるように、本原理の範囲内に含まれることが意図される。

Claims (16)

  1. 嗜好情報を受信するステップと、
    前記嗜好情報に基づいて、少なくとも1つのセグメント化および識別されたオブジェクトの関連性データを生成するステップと、
    前記関連性データに基づいて少なくとも2つの平面のうちの1つに画像データを表示するステップと
    を含む、方法。
  2. 前記表示するステップが三次元またはバーチャルリアリティ空間で起こる、請求項1に記載の方法。
  3. ユーザ入力および格納されたプロファイル情報の少なくとも1つに応答して、格納された参照情報を構成するステップを含む、請求項1に記載の方法。
  4. ユーザ入力として検索クエリを受信するステップを含む、請求項3に記載の方法。
  5. 少なくとも1つのユーザ入力および格納されたプロファイル情報を組み合わせることによって、前記嗜好情報を構成するステップを含む、請求項3に記載の方法。
  6. 前記少なくとも1つのオブジェクトが、前記入力された映像データに含まれるオブジェクトのデータベースによって識別されている、請求項1に記載の方法。
  7. 前記セグメント化されている少なくとも1つのオブジェクトが、エッジ検出プロセスを使用してセグメント化される、請求項1に記載の方法。
  8. 前記嗜好情報が、ユーザが前記表示を通じてオブジェクトの平面を変更することによって修正される、請求項1に記載の方法。
  9. 嗜好情報を受信し、かつ前記嗜好情報に基づいて、入力された映像データからセグメント化および識別された少なくとも1つのオブジェクトの関連性データを生成するように構成されたプロセッサと、
    前記関連性データを受信し、かつ前記関連性データに基づいて少なくとも2つの平面のうちの1つに前記画像データを表示するためのデータを生成するディスプレイプロセッサと
    を含む、装置。
  10. 前記ディスプレイプロセッサが、三次元またはバーチャルリアリティ空間において少なくとも2つの平面のうちの1つに前記画像データを表示するためのデータを生成する、請求項9に記載の装置。
  11. 前記嗜好情報が、ユーザ入力および格納されたプロファイル情報の少なくとも1つに基づく、請求項9に記載の装置。
  12. 前記ユーザ入力が検索クエリである、請求項11に記載の装置。
  13. 前記嗜好情報が、少なくとも1つのユーザ入力および格納された嗜好情報の組合せである、請求項11に記載の装置。
  14. 前記少なくとも1つのオブジェクトが、前記入力された映像データに含まれるオブジェクトのデータベースによって識別されている、請求項11に記載の装置。
  15. 前記セグメント化されている少なくとも1つのオブジェクトが、エッジ検出プロセスを使用してセグメント化される、請求項11に記載の装置。
  16. 前記嗜好情報が、ユーザが前記表示を通じてオブジェクトの平面を変更することによって修正される、請求項11に記載の装置。
JP2017514696A 2014-09-22 2015-08-12 検索、ユーザの興味または嗜好のインジケータとしての奥行き知覚の使用 Pending JP2017535835A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462053349P 2014-09-22 2014-09-22
US62/053,349 2014-09-22
PCT/US2015/044778 WO2016048465A1 (en) 2014-09-22 2015-08-12 Use of depth perception as indicator of search, user interest or preference

Publications (2)

Publication Number Publication Date
JP2017535835A true JP2017535835A (ja) 2017-11-30
JP2017535835A5 JP2017535835A5 (ja) 2018-09-06

Family

ID=54012276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017514696A Pending JP2017535835A (ja) 2014-09-22 2015-08-12 検索、ユーザの興味または嗜好のインジケータとしての奥行き知覚の使用

Country Status (6)

Country Link
US (1) US11347793B2 (ja)
EP (1) EP3198473A1 (ja)
JP (1) JP2017535835A (ja)
KR (1) KR20170058942A (ja)
CN (1) CN107004004B (ja)
WO (1) WO2016048465A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111159541B (zh) * 2019-12-11 2023-08-25 微民保险代理有限公司 一种帐号行为偏好的确定方法及装置
CN112612363A (zh) * 2020-12-18 2021-04-06 上海影创信息科技有限公司 基于余光区域的用户非偏好比较方法和系统
US11334313B1 (en) * 2021-03-30 2022-05-17 Htc Corporation Managing conferences in virtual environment
CN113076436B (zh) * 2021-04-09 2023-07-25 成都天翼空间科技有限公司 一种vr设备主题背景推荐方法及系统
CN115423948B (zh) * 2022-11-04 2023-02-21 江西省映尚科技有限公司 Vr图像的处理方法、系统及可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157269A (ja) * 2000-11-22 2002-05-31 Nippon Telegr & Teleph Corp <Ntt> 映像ポータルシステム及び映像提供方法
JP2003529156A (ja) * 2000-03-29 2003-09-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 視覚的な隠喩に基づいた改善されたアクセス容易性及び使い易さの特徴を有するサーチユーザインタフェース
JP2009080580A (ja) * 2007-09-25 2009-04-16 Toshiba Corp 映像表示装置及び方法
JP2010157073A (ja) * 2008-12-26 2010-07-15 Fujitsu Ltd 顔認識装置、顔認識方法及び顔認識プログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5664077A (en) * 1993-09-06 1997-09-02 Nec Corporation Three-dimensional graph displaying system
WO2001073596A2 (en) 2000-03-29 2001-10-04 Koninklijke Philips Electronics N.V. Search user interface for constructing and managing user profiles and search criteria
GB0013702D0 (en) * 2000-06-07 2000-07-26 Meakes David Visual data interface
US7995810B2 (en) * 2005-06-24 2011-08-09 The University Of Iowa Research Foundation System and methods for image segmentation in n-dimensional space
JP2009508274A (ja) * 2005-09-13 2009-02-26 スペースタイムスリーディー・インコーポレーテッド 3次元グラフィカル・ユーザ・インターフェースを提供するシステム及び方法
US7870140B2 (en) * 2006-06-12 2011-01-11 D&S Consultants, Inc. System and method of incorporating user preferences in image searches
US8549436B1 (en) * 2007-06-04 2013-10-01 RedZ, Inc. Visual web search interface
CN101510291A (zh) 2008-02-15 2009-08-19 国际商业机器公司 多维数据的可视化方法及装置
US8520979B2 (en) * 2008-08-19 2013-08-27 Digimarc Corporation Methods and systems for content processing
US9489403B2 (en) * 2009-04-09 2016-11-08 Nokia Technologies Oy Method and apparatus for providing visual search engine results
US8335784B2 (en) * 2009-08-31 2012-12-18 Microsoft Corporation Visual search and three-dimensional results
US20110063288A1 (en) 2009-09-11 2011-03-17 Siemens Medical Solutions Usa, Inc. Transfer function for volume rendering
JP4988012B2 (ja) * 2010-06-15 2012-08-01 株式会社東芝 電子機器およびインデキシング制御方法
JP2012064200A (ja) * 2010-08-16 2012-03-29 Canon Inc 表示制御装置、表示制御装置の制御方法、プログラム及び記録媒体
KR101777875B1 (ko) 2011-04-28 2017-09-13 엘지디스플레이 주식회사 입체 영상 표시장치와 그 입체 영상 조절 방법
WO2012164685A1 (ja) * 2011-05-31 2012-12-06 楽天株式会社 情報提供装置、情報提供方法、情報提供処理プログラム、情報提供処理プログラムを記録した記録媒体、及び情報提供システム
JP2013029451A (ja) * 2011-07-29 2013-02-07 Ricoh Co Ltd 付着物検出装置及び付着物検出方法
US8799263B2 (en) * 2011-09-04 2014-08-05 Leigh M Rothschild Systems, devices, and methods for providing multidimensional search results
KR101855939B1 (ko) 2011-09-23 2018-05-09 엘지전자 주식회사 영상표시장치의 동작 방법
US8990201B1 (en) * 2011-11-03 2015-03-24 Google Inc. Image search results provisoning
US10032303B2 (en) * 2012-12-14 2018-07-24 Facebook, Inc. Scrolling 3D presentation of images
US9459697B2 (en) * 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9269022B2 (en) * 2013-04-11 2016-02-23 Digimarc Corporation Methods for object recognition and related arrangements

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003529156A (ja) * 2000-03-29 2003-09-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 視覚的な隠喩に基づいた改善されたアクセス容易性及び使い易さの特徴を有するサーチユーザインタフェース
JP2002157269A (ja) * 2000-11-22 2002-05-31 Nippon Telegr & Teleph Corp <Ntt> 映像ポータルシステム及び映像提供方法
JP2009080580A (ja) * 2007-09-25 2009-04-16 Toshiba Corp 映像表示装置及び方法
JP2010157073A (ja) * 2008-12-26 2010-07-15 Fujitsu Ltd 顔認識装置、顔認識方法及び顔認識プログラム

Also Published As

Publication number Publication date
CN107004004A (zh) 2017-08-01
US20170300502A1 (en) 2017-10-19
EP3198473A1 (en) 2017-08-02
WO2016048465A1 (en) 2016-03-31
CN107004004B (zh) 2021-02-02
US11347793B2 (en) 2022-05-31
KR20170058942A (ko) 2017-05-29

Similar Documents

Publication Publication Date Title
AU2022204875B2 (en) Multi-view audio and video interactive playback
JP2017535835A (ja) 検索、ユーザの興味または嗜好のインジケータとしての奥行き知覚の使用
US8583725B2 (en) Social context for inter-media objects
US11960533B2 (en) Visual search using multi-view interactive digital media representations
US20150134651A1 (en) Multi-dimensional surround view based search
US11086396B2 (en) Depth-keying of web content
US11202104B2 (en) Information processing apparatus, information processing method, and medium
WO2015102908A1 (en) Audio based on captured image data
JP2011234226A (ja) 映像編集装置、映像編集方法及びプログラム
Pongnumkul et al. Creating map-based storyboards for browsing tour videos
CN106528800A (zh) 一种基于真实场景的影像生成方法及装置
US20200092444A1 (en) Playback method, playback device and computer-readable storage medium
WO2015107775A1 (ja) 映像情報処理システム
US11055294B2 (en) Communication terminal, content server, content recommendation system, control device, and control method
US20170061215A1 (en) Clustering method using broadcast contents and broadcast related data and user terminal to perform the method
CN114329254A (zh) 一种搜索结果展示方法、装置、计算机设备及存储介质
KR101573676B1 (ko) 메타데이터 기반의 객체기반 가상시점 방송 서비스 방법 및 이를 위한 기록매체
US10353946B2 (en) Client-server communication for live search using multi-view digital media representations
WO2018035830A1 (zh) 一种广告视频文件分级查找方法
US20230333727A1 (en) Immersive gallery with linear scroll
Liu et al. Anisotropic progressive photon mapping
Kim Depth estimation for light field camera using multi-cue integrated cost volume

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180727

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190614

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190911

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200109