JP6495538B2 - イメージコンテンツ検索 - Google Patents

イメージコンテンツ検索 Download PDF

Info

Publication number
JP6495538B2
JP6495538B2 JP2018506908A JP2018506908A JP6495538B2 JP 6495538 B2 JP6495538 B2 JP 6495538B2 JP 2018506908 A JP2018506908 A JP 2018506908A JP 2018506908 A JP2018506908 A JP 2018506908A JP 6495538 B2 JP6495538 B2 JP 6495538B2
Authority
JP
Japan
Prior art keywords
real
image
image content
user
real scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018506908A
Other languages
English (en)
Other versions
JP2018530043A (ja
Inventor
ユッシ レッパネン
ユッシ レッパネン
フランシスコ クリクリ
フランシスコ クリクリ
アンッティ エロネン
アンッティ エロネン
アルト レフティニエミ
アルト レフティニエミ
Original Assignee
ノキア テクノロジーズ オーユー
ノキア テクノロジーズ オーユー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア テクノロジーズ オーユー, ノキア テクノロジーズ オーユー filed Critical ノキア テクノロジーズ オーユー
Publication of JP2018530043A publication Critical patent/JP2018530043A/ja
Application granted granted Critical
Publication of JP6495538B2 publication Critical patent/JP6495538B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/434Query formulation using image data, e.g. images, photos, pictures taken by a user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/54Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)

Description

本発明の実施形態はイメージコンテンツの中の検索に関し、具体的には現実シーンの録画における変更された特定を使ってイメージコンテンツアイテムの中を検索することに関する。
背景
静止画像や動画像のようなイメージコンテンツアイテムは、カメラで撮影できる。こうしたイメージコンテンツアイテムはデバイスが表示することもできる。こうしたデバイスが、イメージコンテンツアイテムの中の閲覧をユーザができるようにしてもよい。
摘要
必ずしも全てではないが、本発明の種々の実施形態によれば、第1のイメージコンテンツアイテムにおける現実シーン録画に少なくとも一つの変更を加えて、ユーザ入力に応答することと;現実シーン録画において少なくとも一つの変更後特性を決定することと;決定された少なくとも一つの変更後特性を含む現実シーン録画を、第1のイメージコンテンツアイテムとは異なる一つ又は複数の追加イメージコンテンツアイテムが有すると決定することと;決定された少なくとも一つの変更後特性を含む現実シーン録画を有する一つ又は複数の追加イメージコンテンツアイテムを、ユーザに提示することを含む方法が提供される。
必ずしも全てではないが、本発明の種々の実施形態によれば、少なくとも一つのプロセッサで実行されると、次のこと:第1のイメージコンテンツアイテムにおける現実シーン録画に少なくとも一つの変更を加えて、ユーザ入力に応答することと;現実シーン録画において少なくとも一つの変更後特性を決定することと;決定された少なくとも一つの変更後特性を含む現実シーン録画を、第1のイメージコンテンツアイテムとは異なる一つ又は複数の追加イメージコンテンツアイテムが有すると決定することと;決定された少なくとも一つの変更後特性を含む現実シーン録画を有する一つ又は複数の追加イメージコンテンツアイテムを、ユーザに提示することを実行するコンピュータプログラムコードが提供される。
一つ又は複数のコンピュータプログラムが前述のコンピュータコードを含んでもよい。一つ又は複数のコンピュータプログラムが、一つ又は複数の非一時的コンピュータ可読媒体に記憶されてもよい。
必ずしも全てではないが、本発明の種々の実施形態によれば、第1のイメージコンテンツアイテムにおける現実シーン録画に少なくとも一つの変更を加えて、ユーザ入力に応答する手段と;現実シーン録画において少なくとも一つの変更後特性を決定する手段と;決定された少なくとも一つの変更後特性を含む現実シーン録画を、第1のイメージコンテンツアイテムとは異なる一つ又は複数の追加イメージコンテンツアイテムが有すると決定する手段と;決定された少なくとも一つの変更後特性を含む現実シーン録画を有する一つ又は複数の追加イメージコンテンツアイテムを、ユーザに提示する手段を備える装置が提供される。
必ずしも全てではないが、本発明の種々の実施形態によれば、少なくとも一つのプロセッサと、コンピュータプログラムコードを含むメモリを備える装置であって、コンピュータプログラムコードが、少なくとも一つのプロセッサを用いて、少なくとも次のこと:第1のイメージコンテンツアイテムにおける現実シーン録画に少なくとも一つの変更を加えて、ユーザ入力に応答することと;現実シーン録画において少なくとも一つの変更後特性を決定することと;決定された少なくとも一つの変更後特性を含む現実シーン録画を、第1のイメージコンテンツアイテムとは異なる一つ又は複数の追加イメージコンテンツアイテムが有すると決定することと;決定された少なくとも一つの変更後特性を含む現実シーン録画を有する一つ又は複数の追加イメージコンテンツアイテムを、ユーザに提示することを実行するように構成される、装置が提供される。
必ずしも全てではないが本発明の種々の実施形態によれば、添付する特許請求の範囲で特定されるような実施例が提供される。
前述の詳細な説明を理解するために有用な種々の実施例の理解に資するべく、例として次の添付図面を参照する。
図1A、1B、1Cは、媒介現実の実施例であって、同一の仮想空間と別々の視点を示す。 図2A、2B、2Cは、媒介現実の実施例であって、それぞれの視点から見た仮想シーンを示す。 図3Aは、現実空間の例を示す。図3Bは、図1Bの仮想空間に部分的に対応する現実シーンの例を示す。 チップ又はチップセットの形態による装置の概略を示す。 一つ又は複数の電子デバイスであって、媒介現実、拡張現実、仮想現実の全部又は一部を可能にするように動作できる電子デバイスの形態による装置の概略を示す。 媒介現実、拡張現実、仮想現実の全部又は一部を可能にする方法の実施例を示す。 拡張現実のための仮想空間モデルを更新する方法の実施例を示す。 図7A、7Bは、ユーザに対して仮想シーンの少なくとも一部を表示可能にする装置の実施例を示す。 方法のフローチャートを示す。 第1のイメージコンテンツアイテムにおける現実シーンの録画であって、現実シーンからの現実物体のイメージを含む録画を示す。 現実シーンの録画をディスプレイが表示中にユーザがジェスチャを開始する状況を示す。 ユーザが図10で開始したジェスチャを完了した状況を示す。 第1のイメージコンテンツアイテムの中の現実シーンの録画における変更された特性に基づいてイメージコンテンツアイテムを検索した後、第2、第3、第4のイメージコンテンツアイテムがディスプレイに表示される状況を示す。 第5のイメージコンテンツアイテムにおける現実シーンの録画を示す。 ユーザが第5のイメージコンテンツアイテムにおける現実物体イメージを複数の候補位置の中の一箇所に移動する状況を示す。 第5のイメージコンテンツアイテムにおける現実物体イメージの位置に基づいてイメージコンテンツアイテムを検索した後、第6、第7、第8のイメージコンテンツアイテムがディスプレイに表示される状況を示す。
詳細説明
本発明の実施形態は、ユーザがイメージコンテンツアイテムにおける現実シーンの録画を変更でき、かつ、変更後録画を用いてイメージコンテンツアイテムの中を検索して更なるイメージコンテンツアイテムを識別できるようにすることに関する。例えば、ユーザは現実物体イメージを別の現実物体イメージと交換することによって現実シーンの録画を変更できてもよく、現実物体イメージの位置を変更できてもよく、現実物体イメージのサイズを変更できてもよい。これらの全部が可能でも一部が可能でもよい。
本発明の実施形態による技術的効果は、ユーザにとって直感的で、改良され、より効率的なイメージコンテンツアイテム検索法を提供することである。
[定義]
本願では以下の定義を採用する。
「視野」とは、ある時点においてユーザに見える観察可能な世界の範囲のことである。
「仮想空間」とは完全人工環境又は半人工環境のことであり、三次元であってもよい。
「仮想シーン」とは、仮想空間内の特定の視点からみえる仮想空間の表現のことである。
「現実空間」とは現実の有形環境のことであり、三次元であってもよい。
「現実シーン」とは、現実空間内の特定の視点からみえる現実空間の一部のことである。
本願において「媒介現実」とは、コンピュータがユーザに少なくとも部分的に表示する完全人工環境又は半人工環境(仮想空間)を仮想シーンとしてユーザが視覚的に体験することである。仮想シーンは、仮想空間内の視点及び視野によって決定される。仮想シーンの表示は、それをユーザに見える形で提供することを意味する。
「媒介現実コンテンツ」とは、仮想シーンとして完全人工環境又は半人工環境(仮想空間)をユーザに視覚的に体験させることができるコンテンツのことである。
本願における「拡張現実」は媒介現実の一形態を言及する。拡張現実では、半人工環境(仮想空間)であって、装置がユーザに表示する一つ又は複数の視覚要素で追加された物理的現実世界環境(現実空間)の現実シーンを含む半人工環境を仮想シーンとしてユーザが視覚的に体験する。
「拡張現実コンテンツ」とは媒介現実コンテンツの一形態のことであり、仮想シーンとして半人工環境(仮想空間)をユーザに視覚的に体験させることができる。
本願における「仮想現実」は媒介現実の一形態を言及する。仮想現実では、装置が表示する完全人工環境(仮想空間)を仮想シーンとしてユーザが視覚的に体験する。
「仮想現実コンテンツ」とは媒介現実コンテンツの一形態のことであり、仮想シーンとして完全人工環境(仮想空間)をユーザに視覚的に体験させることができる。
媒介現実や拡張現実、仮想現実に適用される「視点媒介(perspective-mediated)」は、ユーザの動作が仮想空間内の視点を決定し、その視点が仮想シーンを変えることを意味する。
媒介現実や拡張現実、仮想現実に適用される「一人称視点媒介(first person perspective-mediated)」は、ユーザの現実の視点が仮想空間内の視点を決定する追加制約を持つ視点媒介を意味する。
媒介現実や拡張現実、仮想現実に適用される「インタラクティブ媒介(user interactive-mediated)は、仮想空間内で生じたことがユーザの動作によって少なくとも部分的に決定されることを意味する。
「表示(displaying)」は、ユーザによって視覚的に知覚される形態を提示することを意味する。
詳細な説明
図1Aから1C、2Aから2Cは媒介現実の実施例を示す。媒介現実は拡張現実又は仮想現実でもよい。
図1A、1B、1Cは同一の仮想物体21を含む同一の仮想空間20を示しているが、各図はそれぞれ異なる視点24を示している。視点24の位置及び向きは独立して変化しうる。図1Aから図1Bで視点24の位置は同じで向きが変化している。図1Bから図1Cで視点24の位置と向きが変化している。
図2A、2B、2Cは、図1A、1B、1Cのそれぞれ異なる視点24から見える仮想シーン22を示す。仮想シーン22は、仮想空間20内の視点24及び視野26によって決定される。仮想シーン22は、ユーザに対して少なくとも部分的に表示される。
ここで示す仮想シーン22は、媒介現実シーンや仮想現実シーン、拡張現実シーンでもよい。仮想現実シーンは完全人工仮想空間20を見せる。拡張現実シーンは半人工半現実空間20を見せる。
媒介現実や拡張現実、仮想現実はインタラクティブ媒介(user interactive-mediated)でもよい。この場合、ユーザの動作は、仮想空間20内で起きることを少なくとも部分的に決定する。これにより、仮想空間20内の視覚要素28のような仮想物体21とのインタラクションが可能となる。
媒介現実や拡張現実、仮想現実は視点媒介(perspective-mediated)でもよい。この場合、ユーザの動作は、仮想空間20内における視点24を決定し、その視点24によって仮想シーン22が変わる。例えば、図1A、1B、1Cに示されるように、仮想空間20内における視点24の位置23が変えられてもよく、仮想空間20内における視点24の方向又は向き25が変えられてもよい。また、これら両方が同時に変えられてもよい。仮想空間20が三次元である場合、視点24位置23の自由度は、例えば上下、前後、左右の3であり、仮想空間20内の視点24方向25の自由度は、例えばロール、ピッチ、ヨーの3である。視点24は、位置23、方向25の両方又は片方で連続可変でもよく、ユーザ動作が視点24の位置、方向の両方又は片方を連続的に変える。これとは別に、視点24は量子化された離散位置23、量子化された離散方向25の一方又は両方を持つことができ、ユーザ動作は、視点24に関する許容位置23,許容方向25の一方又は両方の間を離散的に移すことで切換えを行う。
図3Aは、現実物体11を含み、図1Aの仮想空間20に少なくとも部分的に対応する現実空間10を示す。この実施例では、現実空間10における現実物体11はそれぞれ仮想空間20において対応する仮想物体21を持つ。一方、仮想空間20における仮想物体21の中には現実空間10において対応する現実物体11を持たないものもある。この実施例において、仮想物体21の一つであるコンピュータ生成視覚要素28とは、現実空間10において対応する現実物体11を持たない人工的な仮想物体21である。
現実空間10と仮想空間20との間には線形写像が存在し、現実空間10における各現実物体11と対応する仮想物体21との間にも同一の線形写像が存在する。したがって、現実空間10における現実物体11同士の相対関係は、仮想空間20において対応する仮想物体21の間の相対関係と同一である。
図3Bは、図1Bの仮想空間20に一部対応する現実空間10を示す。現実空間10は現実物体11を含むが人工仮想物体は含まない。現実シーンは、図1Aの仮想空間20における視点24に対応する視点から見える。現実シーン12の内容は、それに対応する視点24及び視野26によって決定される。
図2Aは、図3Bに示された現実シーン12に関する拡張現実版の実例である。仮想シーン22は、装置によってユーザに表示された一つ又は複数の視覚要素28が追加された、現実空間10の現実シーン12を含む。視覚要素28は、コンピュータ生成視覚要素でもよい。シースルー構成では、仮想シーン22は、一つ(又は複数)の追加視覚要素28の表示を通して見える実際の現実シーン12を含む。シービデオ構成では、仮想シーン22は、表示された現実シーン12及び表示された一つ(又は複数)の追加視覚要素28を含む。表示現実シーン12は単一視点24からの像に基づいていてもよく、同一時点における別々の視点24からの複数の像に基づいていてもよい。複数の像は、単一視点からの像を生成するために処理される。
図4Aは、チップ又はチップセットの形態による装置4を示す。図示された装置4は、少なくとも一つのプロセッサ40と少なくとも一つのメモリ46を備える。プロセッサ40は中央処理装置(CPU)、グラフィック処理装置(GPU)の一方又は両方でもよく、それらを備えていてもよい。プロセッサ40は、メモリ46から読み出し、かつメモリ24へ書き込むように構成される。プロセッサ40は出力インタフェースと入力インタフェースを備えてもよい。データ又は命令、あるいはその両方は、プロセッサ40によって出力インタフェースを介して出力され、入力インタフェースを介してプロセッサ40に入力される。
メモリ46はコンピュータプログラム148を保存する。コンピュータプログラム148は、プロセッサ40にロードされて装置4/30の動作を制御するコンピュータプログラム命令(コンピュータプログラムコード)48を含む。コンピュータプログラム148のコンピュータプログラム命令48は、図5、6、8に示された方法を装置4/30が実行できるようにするロジック及びルーチンを提供する。プロセッサ40は、メモリ46を読み取ることによりコンピュータプログラム148をロードして実行することができる。
コンピュータプログラム148は、任意の適切な配信機構を介して装置4/30に提供されてもよい。配信機構は、例えば、非一時的コンピュータ可読記憶媒体やコンピュータプログラム製品、メモリデバイス、コンパクトディスク・リードオンリーメモリ(CD−ROM:compact disc read-only memory)又はデジタル多用途ディスク(DVD:digital versatile disc)等の記憶媒体、あるいはコンピュータプログラム148を有形に具現した製造品であってもよい。配信機構はコンピュータプログラム148を確実に伝達するように構成される信号でもよい。信号は、例えば、(無線周波数の通信等)無線通信を介して、または、一以上のプロトコルに準拠した有線回線を介して送信される。装置4/30は、コンピューターデータ信号としてコンピュータプログラム148を送信してもよい。
メモリ46は単独要素又は回路として示されているが、物理的に異なる複数の要素又は回路として実装されてもよい。こうした要素の一部または全部は組込み型でも着脱可能型でもよく、永久/半永久/動的/キャッシュの記憶方式でもよく、あるいはそれら全てでもよい。
プロセッサ40は単一要素又は回路として示されているが、一つ又は複数の別々の要素又は回路のような複数のプロセッサとして実装されてもよい。こうした要素の一部または全部は組込み型でも着脱可能型でもよい。一つ(又は複数)のプロセッサ40はシングルコアでもマルチコアでもよい。
図4Bは、媒介現実、拡張現実、仮想現実の全部又は一部を可能にするように動作できる装置30の概略を示す。
実施形態によっては、装置30が頭部装着型視覚装置のような単一の電子デバイスでもよい。こうした頭部装着型視覚装置の実施例は図7Bに示されている。
他の実施形態では、装置30は複数のデバイスに分けることができ、頭部装着型視覚装置、ゲームコンソール/パーソナルコンピュータ、一つ又は複数の携帯型コントローラの全部又は一部の組合せから形成されてもよい。ゲームコンソール又はパーソナルコンピュータによって装置30の少なくとも一部が形成される場合、プロセッサ40及びメモリ46(あるいは、複数のプロセッサ、複数のメモリの全部又は一部が与えられる場合、その全部又は一部の中から一つ又は複数のもの)は、ゲームコンソール又はパーソナルコンピュータに具備されてもよい。
図示された実施例では、装置30が、図4Aに示された装置4、一つ又は複数のディスプレイ32、一つ又は複数のトランシーバ42、ユーザ入力回路44を備える。
一つ又は複数のディスプレイ32は、ユーザの視点から見える形でそのユーザに仮想シーン22の少なくとも一部を表示する。こうした仮想シーンは、仮想現実コンテンツや拡張現実コンテンツのような媒介現実コンテンツの一部を形成してもよい。一つ(又は複数)のディスプレイ32は、仮想シーン22の少なくとも一部をユーザに表示する光を出す一つ又は複数のビジュアルディスプレイでもよい。ビジュアルディスプレイの例には、液晶ディスプレイや有機発光ダイオードディスプレイ、発光型、反射型、透過型、半透過型の各ディスプレイ、網膜直接投影型ディスプレイ、ニアアイディスプレイ等が含まれる。この実施例では一つ(又は複数)のディスプレイ32がプロセッサ40によって制御されているが、全ての実施例がそうである必要はない。
ユーザが頭を動かすと頭部装着型視覚装置も動く。頭部装着型視覚装置は拡張現実用シースルー構成であって、ライブ現実シーン12を表示可能にしつつ、一つ又は複数の可視要素28も一つ(又は複数)のディスプレイ32によってユーザに表示され、組み合わせて仮想シーン22を提供するシースルー構成でもよい。この場合、バイザーがあれば、ライブ現実シーン12がバイザーを通して見えるように透明又は半透明である。
頭部装着型視覚装置は拡張現実用シービデオ構成として動作してもよい。この拡張現実では、ユーザに見せる一つ(又は複数)のディスプレイ32によって現実シーン12のライブ映像を表示可能にしつつ、一つ又は複数の可視要素28もユーザに見せる一つ(又は複数)のディスプレイ32によって同時に表示される。表示された現実シーン12と表示された一つ又は複数の可視要素28の組合せは、ユーザに仮想シーン22を表示する。この場合、バイザーは不透明で一つ(又は複数)のディスプレイ32として使用されてもよい。
一つ又は複数のトランシーバ42は、プロセッサ40から入力を受け取り、プロセッサ40に出力を与えるように構成される。例えば、一つ又は複数のトランシーバ42はプロセッサ40からデータを受け取ってそれを送信し、プロセッサ40に受信データを与えてもよい。
一つ又は複数のトランシーバ42には、一つ又は複数の無線トランシーバ、一つ又は複数の有線トランシーバの全部又は一部が含まれうる。こうした無線トランシーバには、例えば、一つ又は複数の長距離用セルラー方式トランシーバ又は短距離用無線トランシーバといった形態で無線周波数レシーバが含まれうる(これらのレシーバは、例えば、IEEE(Institute of Electrical and Electronic Engineers)の無線LANネットワークプロトコル802.11またはBluetooth(登録商標)プロトコルに準拠して動作してもよい)。こうした有線トランシーバには、例えば、ユニバーサルシリアルバス(USB)トランシーバが含まれうる。
図示された実施例において、ユーザ入力回路44は、一つ又は複数の触覚センサ43、一つ又は複数の視点センサ45、現実空間10を撮影する一つ又は複数のイメージセンサ47、一つ又は複数の深度センサ49を備えてもよい。
一つ又は複数の触覚センサ43には、例えば一つ又は複数のジョイスティック、一つ又は複数のキー又はボタンが含まれうる。一つ(又は複数)のジョイスティック、一つ(又は複数)のキー/ボタンの全部又は一部は、物理的な携帯セルラーの一部を形成してもよい。装置30が頭部装着型である場合、一つ又は複数の触覚センサ43の少なくとも一部は頭部装着型装置に配置されてもよい。
装置30は、媒介現実、拡張現実、仮想現実の全部又は一部に対してインタラクティブ媒介を可能にしてもよい。ユーザ入力回路44は、一つ(又は複数)の触覚センサ43を介するなどしてユーザ入力を用いたユーザ動作を検出する。こうしたユーザ動作は、プロセッサ40が仮想空間20内で生じたことを決定するために用いられる。これにより、仮想空間20内の視覚要素28とのインタラクションが可能となる。
装置30は、媒介現実、拡張現実、仮想現実の全部又は一部に対して視点媒介を可能にしてもよい。ユーザ入力回路44はユーザ動作を検出する。こうしたユーザ動作は、プロセッサ40が仮想空間20内での視点24を決定するために用いられ、その視点が仮想シーン22を変える。視点24は、位置、方向の両方又は片方で連続可変でもよく、ユーザ動作が視点24の位置、方向の両方又は片方を変える。これとは別に、視点24には量子化された離散位置、量子化された離散方向の両方又は片方があってもよく、ユーザ動作が、視点24に関する次の位置、方向25の両方又は片方に移ることによって切り換える。
装置30は、媒介現実や拡張現実、仮想現実に対する一人称視点を可能にしてもよい。ユーザ入力回路44は、ユーザ視点センサ45を用いてユーザの現実の視点14を検出する。ユーザの現実視点は、プロセッサ40が仮想空間20内での視点24を決定するために用いられ、その視点が仮想シーン22を変える。図3Aに戻ると、ユーザ18には実際の視点(現実視点)14がある。現実視点は、ユーザ18によって変化する場合がある。例えば、現実視点14の実際の位置(現実位置)13はユーザ18の位置であり、ユーザ18の物理的位置13を変えることで変化しうる。例えば、現実視点14の実際の方向(現実方向)15はユーザ18が見ている方向であり、ユーザ18の現実方向を変えることで変化しうる。現実方向15は、例えば、ユーザ18が頭の向きや視点を変えたり、視線方向を変えたり、あるいはその全てを変えたりすることによって変えることができる。一人称視点媒介を可能にするために、頭部装着型装置30が使用されてもよい。
装置30は入力回路44の一部として、現実視点の変化を決定する視点センサ45を備えてもよい。
例えば、ユーザ18の新しい物理的位置13及び現実視点14を決定するために、GPS等の測位技術、複数レシーバへの送信と複数トランスミッタからの受信の全部又は一部による三角測量(三辺測量)、加速度検出、及びそれらの統合が用いられてもよい。
また例えば、ユーザの頭の向きや視点の変化、及び結果として生じる現実視点14の現実方向15での変化を決定するために、加速度計や電子ジャイロスコープ、電子コンパスが使用されてもよい。
さらに例えば、ユーザの片目又は両目の動きを追跡し、それによってユーザの視線方向及びその結果として生じる現実視点14の現実方向15での変化を決定するために、コンピュータビジョン等に基づく瞳孔追跡技術が用いられてもよい。
装置30は入力回路44の一部として、現実空間10を撮像するイメージセンサ47を備えてもよい。
イメージセンサ47の一例は、カメラとして動作するように構成されたデジタルイメージセンサである。こうしたカメラは、静止画、ビデオ画像の一方又は両方を記録するように動作できる。必ずしも全てではないが、実施形態によっては、現実シーン10が様々な視点から見えるように、カメラが立体配置又は他の空間的配置に置かれてもよい。これは、三次元画像の生成、視差効果等を介した奥行きを設定する処理の一方又は両方を可能する。
必ずしも全てではないが実施形態によっては、入力回路44が深度センサ49を備える。深度センサ49は、トランスミッタ及びレシーバを備えてもよい。トランスミッタは(例えば、超音波または赤外光など人間が検出できない信号などの)信号を送信し、レシーバは反射された信号を受信する。単一のトランスミッタ及び単一のレシーバを用い、送信から受信までの伝搬時間を測定することによって、一部の奥行き情報を得ることができる。使用するトランスミッタの数又は使用するレシーバの数、あるいはその両方の数が多ければ多いほど、より高い分解能(空間的ダイバーシティ)が達成できる。一例において、トランスミッタは、光、好ましくは、赤外光など不可視光を使い、空間依存的パターンで、現実空間10を「描く」ように構成される。レシーバによる特定のパターンの検出は、現実空間10が空間的に分解されるようにする。現実空間10が空間的に分解された部分までの距離は、伝搬時間、(レシーバがトランスミッタに対し立体的な位置にある場合)立体視法の一方又は両方で測定できる。
装置30は、例えば図6Aに示された方法60又は同様の方法を用いて、媒介現実、拡張現実、仮想現実の全部又は一部を可能にしてもよい。プロセッサ40は、仮想空間20のモデル50を保存し保持する。モデルはプロセッサ40に与えられてもよく、プロセッサ40が決定してもよい。例えば、仮想空間の深度マップの重ね合わせを別々の視点から作成するために入力回路44のセンサが使用されてもよく、それによって三次元モデルが生成されてもよい。
ブロック62で、仮想空間20のモデルが変わったかどうかが決定される。仮想空間20のモデルが変わった場合、本方法はブロック66に移る。仮想空間20のモデルが変わらなかった場合、本方法はブロック64に移る。
ブロック64で、仮想空間20における視点24が変わったかどうかが決定される。視点24が変わった場合、本方法はブロック66に移る。視点24が変わらなかった場合、本方法はブロック62に戻る。
ブロック66で、三次元仮想空間20の位置23からの二次元投影が、現在視点24によって規定される方向25に取られる。次に、この投影は視野26によって限定され、仮想シーン22を生成する。次に、本方法はブロック62に戻る。
装置30が拡張現実を可能にする場合、仮想空間20は現実空間10からの物体11に加え、現実空間10には存在しない可視要素28も含む。こうした可視要素28の組合せは、人工仮想空間として参照されてもよい。図5Bは、拡張現実のための仮想空間モデルを更新する方法70を示す。
ブロック72で、現実空間10が変わったかどうかが決定される。現実空間10が変わった場合、本方法はブロック76に移る。現実空間10が変わらなかった場合、本方法はブロック74に移る。現実空間10における変化の検出は画素レベルの差異を利用して実現されてもよく、物体の動きに合わせてそれを追跡するコンピュータビジョンを利用して物体レベルで実現されてもよい。
ブロック74で、人工仮想空間が変わったかどうかが決定される。人工仮想空間が変わった場合、本方法はブロック76に移る。人工仮想空間が変わらなかった場合、本方法はブロック72に戻る。人工仮想空間はコントローラ42によって生成されるため、視覚要素28に対する変化は容易に検出される。
ブロック76で、仮想空間20のモデルが更新される。
必ずしも全てではないが実施形態によっては、入力回路44が一つ又は複数のイメージセンサ47及び深度センサ49に加えて、又はそれらの代替として通信回路41を備えてもよい。こうした通信回路41は、現実空間10における一つ又は複数のリモートイメージセンサ47、現実空間10におけるリモート深度センサ49の全部又は一部と通信してもよい。通信回路41は、一つ(又は複数)のトランシーバ42の一部を形成してもよい。
図7A及び7Bは、ユーザに仮想シーン22の少なくとも一部を表示可能にする装置30の実施例を示す。仮想シーン22の少なくとも一部を表示可能する装置30に関する他の実施例が用いられてもよい。
図7Aには、ユーザに画像を表示し、仮想シーンをユーザに表示するためにも使用されるディスプレイ32としての表示画面を備える携帯型装置31が示されている。装置30は、前述した自由度6の内一つ又は複数において、ユーザが意図的に手に持って動かすことができる。
携帯型装置31は拡張現実用シービデオ構成でもよく、それとして動作してもよい。この拡張現実では、ユーザに見せるディスプレイ32に現実シーン12のライブ映像を表示可能にしつつ、一つ又は複数の可視要素28もユーザに見せるディスプレイ32に同時に表示される。表示された現実シーン12と表示された一つ又は複数の可視要素28の組合せは、ユーザに仮想シーン22を表示する。
携帯型装置31は、ディスプレイ32とは反対面に搭載されたカメラを備える場合、ライブ現実シーン12を表示可能にしつつ、一つ又は複数の可視要素28もユーザに表示され、組み合わせて仮想シーン22を提供するシービデオ構成として動作することができる。
図7Bは、ユーザに画像を表示するディスプレイ32を備える頭部装着型視覚装置33を示す。頭部装着型装置33は、ユーザの頭が動くのと合わせて無意識に動かすことができる。
頭部装着型視覚装置33は拡張現実用シースルー構成であって、ライブ現実シーン12を表示可能にしつつ、一つ又は複数の可視要素28もディスプレイ32によってユーザに表示され、組み合わせて仮想シーン22を提供するシースルー構成でもよい。この場合、バイザー34があれば、ライブ現実シーン12がバイザー34を通して見えるように透明又は半透明である。
頭部装着型装置33は拡張現実用シービデオ構成として動作してもよい。この拡張現実では、ユーザに見せるディスプレイ32によって現実シーン12のライブ又は録画を表示可能にしつつ、一つ又は複数の可視要素28もユーザに見せるディスプレイ32によって同時に表示される。表示された現実シーン12と表示された一つ又は複数の可視要素28の組合せは、ユーザに仮想シーン22を表示する。この場合、バイザー34は不透明でディスプレイ32として使用されてもよい。
図4Bに戻って参照すると、装置30は、媒介現実、拡張現実、仮想現実の全部又は一部に対してインタラクティブ媒介を可能にしてもよい。ユーザ入力回路44はユーザ入力からユーザ動作を検出する。こうしたユーザ動作は、プロセッサ40が仮想空間20内で生じたことを決定するために用いられる。これにより、仮想空間20内の視覚要素28とのインタラクションが可能となる。
検出されたユーザ動作は例えば、現実空間10で行われたジェスチャでもよい。ジェスチャは様々な方法で検出できる。例えば、ユーザ18の体の一部の動きを検出するために深度センサ49が使用されてもよく、ユーザ18の体の一部の動きを検出するためにイメージセンサ47が使用されてもよく、手足の動きを検出するためにユーザ18の手足に装着された位置/動きセンサが使用されてもよい。あるいは、これら全てが使用されてもよい。
物体追跡は、物体又はユーザが何時動くかを決定するために使用されてもよい。例えば、物体を大きなマクロスケールで追跡することで、その物体と共に移動する基準枠を生成できる。この基準枠は、物体に対する時間差分を用いて物体の形状の時間進展的な変化を追跡するために使用できる。これは、ジェスチャ、手の動き、顔面の動きなど小規模な人間の動きを検出するために用いることができる。これらは、ユーザに関連する、シーン非依存性のユーザ(のみ)の動きである。
装置30は、ユーザの体の一つ又は複数の関節等、ユーザの身体に関連する複数の物体、複数のポイントの全部又は一部を追跡してもよい。実施例によっては、装置30はユーザの身体の全身骨格的な追跡を行ってもよい。
ジェスチャの認識等において、人物の身体に関連する一つ又は複数の物体、複数のポイントの全部又は一部の追跡が装置30によって使用されてよい。
図8は、本明細書の実施形態に従う第2の方法のフロー図を示す。図4Aから11を参照しながら本方法を説明する。
以降で説明される実施例では、装置30が、ユーザに媒介現実における録画イメージコンテンツアイテム101−109を見せる頭部装着型視覚装置を備える。イメージコンテンツアイテム101−109の各々は、一つ又は複数の現実シーンの録画を含む立体仮想現実コンテンツである。イメージコンテンツアイテム101−109の一部又は全部が装置30のカメラによって撮影されたものでもよい。あるいは又は加えて、イメージコンテンツアイテム101−109の一部又は全部が他の場所で撮影されたものでもよい。
一つ又は複数のイメージコンテンツアイテム101−109は、メモリ46から取り出されて一つ(又は複数)のディスプレイ32に表示される前に録画済みであってもよい。あるいは又は加えて、現実シーンのライブ動画又は現在の(静止)画像の提供と実質的に同時に、イメージコンテンツアイテム101−109がメモリ46に記録されて一つ(又は複数)のディスプレイ32に表示されてもよい。
イメージコンテンツアイテム101−109は、装置30のメモリ46に保存されたものとして図4Bに示されている。実施形態によっては、イメージコンテンツアイテム101−109の一部又は全部を装置30の不揮発性メモリに保存し続けてもよい。他の実施例では、イメージコンテンツアイテム101−109の一部又は全部が、揮発性メモリへの保存等、一時的な装置30への保存に限られてもよい。例として、イメージコンテンツアイテム101−109はリモートロケーション(「クラウド」)で持続的に保存され、ユーザが装置30で見るためにリモートから取り出すことを決めると、装置30のメモリ46に一時的に保存されてもよい。
図9は、プロセッサ40が一つ(又は複数)のディスプレイ32に第1のイメージコンテンツアイテム101を表示させるときに提供される現実シーンの録画161を示す。この録画161は第1のイメージコンテンツアイテム101の全体又は一部のみを形成してもよい。
この実施例では、現実シーンの録画161は、仮想現実においてユーザに提示される動画ビデオコンテンツの一部である。現実シーンの録画161を表示するために、プロセッサ40は、図5に関連して説明された前述の方法を実行する。現実シーンの録画161には、複数の現実物体のイメージ132−135が含まれる。これらのイメージには、テレビ受像機のイメージ131、第1の装飾品のイメージ132、第2の装飾品のイメージ133、第1の絵画額縁のイメージ134が横向きで含まれ、第2の絵画額縁のイメージ135が縦向きで含まれる。
現実シーンの録画161は、図2A、2B、2Cに関連して説明した仮想シーン22のような仮想シーンである。現実シーンの録画161は、図3Bに関連して説明した現実シーン12のような現実シーンを立体媒介現実カメラ又は立体仮想/拡張現実カメラを使用して録画することにより形成されたものである。イメージ132−135は、図1Aから2Cに関連して説明した前述の仮想物体21のような仮想物体であり、そうした仮想物体は、図3Aに関連して説明した前述の現実物体11のような現実物体を録画して形成されたものである。
この実施例において、プロセッサ40は、一つ(又は複数)のディスプレイ32に対して、図9に示す視覚標示141−145を用いて現実物体のイメージ131−135をハイライトさせる。視覚標示141−145は、例えば、ユーザがイメージ131−135を変更できることをユーザに示してもよい。こうした視覚標示を持たない現実物体イメージは、ユーザが変更できないものでもよい。
ユーザは、第1のイメージコンテンツアイテム101における現実シーン録画161に変更を加えるためのユーザ入力を与えてもよい。図8のブロック801で、プロセッサ40は、現実シーン録画161に変更を加えて、こうしたユーザ入力に応答する。
図10は、ユーザ入力を与える過程において、ユーザが現実シーン録画161におけるテレビ受像機イメージ131を選択して変更するユーザ入力を与える様子を示す。この実施例において、イメージを選択して変更するために行われるユーザ入力は、移動入力の形をとるジェスチャである。移動入力とは、開始位置と終了位置を持つ連続した移動入力である。ユーザは、開始点に(ユーザの手や指のような)ユーザ入力オブジェクトを置き、そのユーザ入力オブジェクトを終了位置まで移動させることによってユーザ入力を与えてもよい。
図10は、ユーザが与える移動入力の開始位置151を示す。開始位置151はテレビ受像機イメージ131にあるか、そこに合わせられている。例えば、ユーザの手をテレビ受像機イメージ131に合わせるために、ユーザはテレビ受像機イメージ131に向かって手を伸ばしてもよい。プロセッサ40は、入力回路44を用いて与えられた入力から移動の開始を検出し、それをテレビ受像機イメージ131の選択であると解釈する。この実施例では、イメージ131が選択されたとプロセッサ40が決定すると、視覚標示141−145が表示から削除されるが、このことは必須ではない。
図11は、ユーザが移動入力を完了したときの現実シーンの録画161を示す。ユーザは、矢印152で示すようにユーザ入力オブジェクトを開始位置151から終了位置153に移動し、これによって移動入力が完了する。ユーザがユーザ入力オブジェクトを開始位置151から終了位置153に移動すると、プロセッサ40は、ユーザ入力オブジェクトが動いた通りに一つ(又は複数)のディスプレイ32上でテレビ受像機イメージ131を移動させる。その結果、ユーザにはあたかもテレビ受像機イメージ131がユーザ入力オブジェクトによってドラッグされているかのように見える。テレビ受像機イメージ131の動きによって、別のイメージ136が見えるようになる。このイメージはテレビ受像機イメージ131の下から現れる。移動されるイメージ131は、プロセッサ40が表示から削除されてもよい。
この実施例では、移動されるイメージ131の下から現れるイメージ136もテレビ受像機のイメージである。これは例えば、ある時点に現実空間において、移動されるイメージ131が表わすテレビ受像機と同じ位置に置かれていたテレビ受像機のイメージ136でもよい。こうしたテレビ受像機は、例えば図10に示すイメージ131が描くテレビ受像機よりも古い又は新しいテレビ受像機でもよい。この実施例では、この置換イメージ136が、削除イメージ131が描く現実物体と同じ型の現実物体(テレビ受像機)のイメージである。
状況によっては、適切な置換イメージ136が存在しなくてもよい。こうした状況では、イメージ131が如何なるものとも置換されなくてもよい。
置換イメージ136の現実物体が、削除イメージ131が描く現実物体と同型である必要はない。そのため、置換イメージ136が、ある時点、現実空間において削除イメージ131が表わすテレビ受像機と同じ位置に置かれていた型の異なる現実物体のものであることもある。あるいは、置換イメージ136が如何なる現実物体のイメージとなっていなくてもよい。このことは、その位置にはその時点において何も置かれていなかったことを示す。
プロセッサ40は、イメージコンテンツアイテムにおける物体イメージであって、ある時点、現実シーンの録画161における物体イメージ131−135と同じ現実空間位置に置かれていた物体のイメージを決定するために、例えば、第1のイメージコンテンツアイテム101よりも古い又は新しい、あるいはその両方のイメージコンテンツアイテムをイメージ処理する(あるいは、こうしたイメージ処理をリモートサーバのような装置30とは別の装置に行わせる)ように構成されてもよい。こうしたイメージ処理は、図9及び10に示すような現実シーンの録画161を変更するユーザ入力が与えられる前に行われてもよい。これは、リアルタイムのイメージ処理が行われなくてはならない状況を回避し、適切なユーザ入力が与えられたときにプロセッサ40が現実物体イメージを相互に素早く交換できるようにするためである。
実施形態によっては、現実シーンの録画161における物体と同じ現実空間位置に配置された物体のイメージは、第1のイメージコンテンツアイテム101の一部として現実シーンの録画161と共に保存されてもよい。あるいは、第1のイメージコンテンツアイテム101又はそれに関連するメタデータが、(メモリ46又は装置30とは別の場所に保存可能な)他のイメージコンテンツアイテム102−109における物体のイメージに対する一つ又は複数のリンクを含んでもよい。こうしたリンクは、図8のブロック801で、ユーザが与えるユーザ入力に応答して読み出される。
実施形態によっては、プロセッサ40は、ユーザが連続ユーザ入力を与えることによって、現実シーンの録画161に連続する変更を加えるユーザ入力を与えられるようにしてもよい。例として、ユーザが第1のユーザ入力を与えると、プロセッサ40が、テレビ受像機イメージ131を前述したもう一台のテレビ受像機のイメージ136に置換してもよい。ユーザが第2のユーザ入力を(例えば、同じ向きに)与えると、プロセッサ40が、前述したもう一台のテレビ受像機のイメージ136を更に別のテレビ受像機(更に古いテレビ受像機のような)のイメージに置換してもよい。第2のユーザ入力は、例えば、図10及び11に関連して前述したような同じ向きの移動入力で、開始位置がもう一台のテレビ受像機のイメージ136に合わせられていてもよい。
現実シーンの一つ又は複数の録画であって、図10及び11に示す現実シーンの録画161における現実物体と同じ位置にある現実物体のイメージを含む一つ又は複数の録画を、ある特定のイメージコンテンツアイテムが含むかどうかを決定するために、その特定のイメージコンテンツアイテムが処理される場合、プロセッサ40は更に、そのイメージコンテンツアイテムが当初のイメージコンテンツアイテムよりも古いか新しいかを決定してもよい。これにより、プロセッサ40は、与えられたユーザ入力に応じて、現実シーンの新しい録画又は現実シーンの古い録画から物体イメージを交換することによって、現実シーンの録画161を変更できるようになる。
例えば、プロセッサ40は、現実物体イメージを古い録画又はイメージコンテンツアイテムからのイメージに置換することによって、(例えば、第1の向きの)第1のユーザ入力に応答してもよく、現実物体イメージを新しい録画又はイメージコンテンツアイテムからのイメージに置換することによって、(例えば、第1の向きとは逆にしてもよい第2の向きである)第2のユーザ入力に応答してもよい。
図示した実施例の状況では、移動入力の向き毎に、それぞれ異なるイメージに現実物体イメージを置換させてもよい。ユーザが(図10及び11に示す左向き移動入力ではなく)右向き移動入力を与える場合、プロセッサ40は、テレビ受像機イメージ141を、図11に示すイメージ136とは別のイメージ、例えば新しいテレビ受像機イメージに置換してもよい。
移動入力以外の様々な形のユーザ入力が使用可能であることは、本技術分野の当業者であれば理解されよう。例えば、前述したように、携帯コントローラの一部を形成しうる一つ又は複数の触覚センサ43を用いてユーザ入力を与えることも可能である。
図8のブロック802で、プロセッサ40は、現実シーンの録画161において変更された特性を決定する。この実施例では、変更後の特性がテレビ受像機のイメージ136を含む(元の)録画の撮影時間でもよい。
図8のブロック803で、プロセッサ40は、第1のイメージコンテンツアイテム101とは異なる一つ又は複数のイメージコンテンツアイテム101−109が、決定された変更後の特性を含む現実シーンの録画を有するかどうかを決定する。前述したように、この実施例では、決定された変更後の特性がテレビ受像機のイメージ136を含む(元の)録画の撮影時間であるため、プロセッサ40は、第1のイメージコンテンツアイテム101とは異なる一つ又は複数のイメージコンテンツアイテム101−109の中を検索し、どのイメージコンテンツアイテムが前述の撮影時間に撮影された現実シーンの録画を含んでいるかを決定する。これは例えば、イメージコンテンツアイテム101−109の各々の日付スタンプを解析することで行われる。こうした日付スタンプはメタデータ中に提供されてもよい。
変更後の特性を含む一つ又は複数のイメージコンテンツアイテムが図8のブロック803で決定されると、図8のブロック804で、プロセッサ40はこうしたイメージコンテンツアイテムをユーザに指し示す。これは例えば、こうしたイメージコンテンツアイテムの一つ又は複数を表現するイメージを一つ(又は複数)のディスプレイ32で表示してもよい。こうしたイメージコンテンツアイテムの少なくとも一つは、現実シーンの録画161を変更したときに(図11に示す)古いテレビ受像機のイメージ136が取り出されたイメージコンテンツアイテムとは異なるものでもよい。
実施形態によっては、プロセッサ40は、変更後の特性を含まないイメージコンテンツアイテム(作成日が決められた期間以外であるようなもの)を一つ(又は複数)のディスプレイ32で表示してもよいが、変更後の特性を含むイメージコンテンツアイテムをより際だって表示することができる。
図12は、第2、第3、第4のイメージコンテンツアイテム102−104がそれぞれ、決められた期間に撮影された現実シーンの録画を含むとプロセッサ40が決定した実施例を示す。この実施例では、プロセッサ40は、その期間に撮影された現実シーン録画のサムネイルイメージを使って、第2、第3、第4のイメージコンテンツアイテム102−104の各々を一つ(又は複数)のディスプレイ32に表示する。この検索の「シード」を与える現実物体のイメージ136も表示されている。
図12に示す実施例では、プロセッサ40は、図11で見えるようになったテレビ受像機のイメージ136を含む現実シーンの録画を第2のイメージコンテンツアイテム102が含むことも決定している。その結果、第2のイメージコンテンツアイテム102を表わすイメージ162は、第3及び第4のイメージコンテンツアイテム103、104を表わすイメージ163、164よりも際だって表示されている。あるいは、最もよくアクセスされる又は再生されるイメージコンテンツアイテムのイメージが、最も際立つ位置を占めるようにしてもよい。
変更後の特性は、図8のブロック802に関連して説明したような、テレビ受像機のイメージ136を含む(元の)録画の撮影時間である必要はない。例えば、(図9及び10に示すテレビ受像機のイメージ131を置換する)古いテレビ受像機のイメージ136が存在することであってもよい。その場合、図8のブロック803で、プロセッサ40は、第1のイメージコンテンツアイテム101とは異なる一つ又は複数のイメージコンテンツアイテム101−109が、古いテレビ受像機のイメージを含む現実シーンの録画を有することを決定する。
実装によっては、このことを決定するために、プロセッサ40が、装置30のメモリ46に又はリモートで継続して保存可能なイメージコンテンツアイテム101−109をイメージ処理してもよい。後者の場合、プロセッサ40は、一つ(又は複数)のトランシーバ42にイメージコンテンツアイテム101−109をダウンロードさせ、プロセッサ40が処理するためにそれらを(継続的又は一時的に)保存してもよい。あるいは又は加えて、プロセッサ40は、こうしたイメージ処理をリモートサーバのような装置30とは別の装置に行わせてもよい。
次に図8のブロック804で、プロセッサ40は、前述の方法で古いテレビ受像機のイメージ136を含む一つ又は複数のイメージコンテンツアイテムをユーザに示す。
図13は、プロセッサ40が一つ(又は複数)のディスプレイ32に第5のイメージコンテンツアイテム105を表示させるときに提供される現実シーンの録画165を示す。この録画165は第1のイメージコンテンツアイテム105の全体又は一部のみを形成してもよい。
この実施例では、現実シーンの録画161は、仮想現実においてユーザに提示される動画ビデオコンテンツの一部である。現実シーンの録画165を表示するために、プロセッサ40は、図5に関連して説明された前述の方法を実行する。現実シーンの録画161には、テレビ受像機のイメージ137を含む複数の現実物体イメージが含まれる。
現実シーンの録画165は、図2A、2B、2Cに関連して説明した仮想シーン22のような仮想シーンである。現実シーンの録画165は、図3Bに関連して説明した現実シーン12のような現実シーンを立体媒介現実カメラ又は立体仮想/拡張現実カメラを使用して録画することにより形成されたものである。現実世界の物体のイメージは、図1Aから2Cに関連して説明した前述の仮想物体21のような仮想物体であり、そうした仮想物体は、図3Aに関連して説明した前述の現実物体11のような現実物体を録画して形成されたものである。
前述の実施例に関連して説明したように、プロセッサ40は、一つ(又は複数)のディスプレイ32に、ユーザが変更可能な現実物体イメージをハイライトさせるようにしてもよい。視覚標示を持たない現実物体イメージは、ユーザが変更できないものでもよい。
この実施例では、プロセッサ40は図8に示す方法を再び行う。ただしこの実施例では、ユーザは現実シーン録画165の中の現実物体に対する少なくとも一つのイメージを同じ録画165内の異なる位置に移動することによって、その録画165の特性を変更できる。
ユーザは、現実シーン録画165の中で動かす現実物体イメージを選択するユーザ入力を与えてもよい。こうしたイメージの選択前や選択中、選択後に、プロセッサ40は、現実シーン録画165の中で一つ又は複数の視覚標示をユーザに表示してもよい。こうした視覚標示は、そのイメージが移動可能な少なくとも一つの候補位置を示す。
テレビ受像機又は現実物体のイメージ137の候補位置は、ユーザがユーザ入力を与える前後やその最中にイメージコンテンツアイテムを処理することによって決定されてもよい。こうして、そのイメージコンテンツアイテムにおける現実シーン録画の中にテレビ受像機又は現実物体のイメージ137が存在するかどうか、もし存在する場合は、そのテレビ受像機又は現実物体のイメージの位置が決定される。
こうした状況は図14に示されている。ここでプロセッサ40は、一つ(又は複数)のディスプレイ32に、テレビ受像機のイメージ137が移動可能な候補位置を示す複数の視覚標示172、173を表示させている。
視覚標示172、173が示す位置の各々は、別のイメージコンテンツアイテムの中での現実シーンの追加録画における同一の現実物体(この場合、テレビ受像機)イメージの位置に対応してもよい。
図8のブロック801で、プロセッサ40は、現実シーン録画165に変更を加えて、こうしたユーザ入力に応答する。この変更は、テレビ受像機のイメージ137(の全体)を録画165における別の位置に移動することによって加えられる。テレビ受像機のイメージ137を移動するために与えられるユーザ入力は、前述した移動入力の形でもよい。これは、イメージ137又はそこに合わせた場所を開始位置、イメージ137が移動される場所又はそこに合わせた場所を終了位置としている。
図8のブロック802で、プロセッサ40は、現実シーンの録画165において変更された特性を決定する。この実施例では、変更後の特性は、テレビ受像機イメージ137の新しい位置である。
図8のブロック803で、プロセッサ40は、第5のイメージコンテンツアイテム105とは異なる一つ又は複数のイメージコンテンツアイテムが、決定された変更後の特性を含む現実シーンの録画を有することを決定する。
次にブロック804で、プロセッサ40は、現実シーン録画における新しい位置にテレビ受像機又は現実物体のイメージを含む一つ又は複数のイメージコンテンツアイテムをユーザに提示する。
図15の左上には、図13及び14に示す現実シーン録画165であって、変更前の現実シーン録画165が示されている。プロセッサ40は一つ(又は複数)のディスプレイ32に、第6及び第7のイメージコンテンツアイテム106、107に含まれる現実シーン録画のイメージ166、167を、この実施例では録画165の下に表示させている。イメージコンテンツアイテム106、107は、テレビ受像機又は現実物体のイメージ137をその元の位置に含む。
図15の右側には、図13及び14に示す現実シーン録画165であって、参照番号172を付された視覚標示が示す位置にテレビ受像機のイメージ137の位置を移動した変更後の現実シーン録画165が示されている。プロセッサ40は一つ(又は複数)のディスプレイ32に、第8及び第9のイメージコンテンツアイテム108、109に含まれる現実シーン録画のイメージ168、169を、この実施例では録画165の下に表示させている。イメージコンテンツアイテム108、109は、テレビ受像機又は現実物体のイメージ137をその元の位置に含む。
本発明の実施形態は、前述した様な現実シーン録画の変更に限定されるものではない。例えば、本発明の実施形態によっては、現実物体イメージのサイズが変更され、これによってプロセッサ40が一つ(又は複数)のディスプレイ32に、変更後サイズを持つ現実物体イメージを含む一つ又は複数のイメージコンテンツアイテムをユーザに提示させてもよい。
こうした実施形態では、現実物体が人物のこともある。人物イメージのサイズ変更によって、プロセッサ40に、その人物よりも背の高い/年上の人物、又は背の低い/年下の人物のイメージを含むイメージコンテンツアイテムを検索させてもよい。
これを実行するために、プロセッサ40は、元の録画に写っている現実物体又は人物の実際の大きさを決定してもよい。この決定は、例えば、イメージコンテンツアイテムに関連するメタデータを用いて行うこともできる。こうしたメタデータは例えば、関連する録画を撮影するのに使用されたカメラの光学特性、録画撮影時における撮影装置から現実物体又は人物までの距離を示すことができる。
次にプロセッサ40は、前述の現実物体又は人物のイメージの変更後サイズに対応する実際の大きさを決定し、その大きさを、他のイメージコンテンツアイテムの中の現実シーン録画における現実物体又は人物について決定された実際のサイズと比較するために、現実物体又は人物について決定される実際の大きさを使用してもよい。
要約すると、本発明の実施形態は、ユーザがイメージコンテンツアイテムの中の検索をとりわけ効率的かつ直感的に行えるようにする。このとき、現実物体のイメージは、他のイメージコンテンツアイテムに対するコンテンツ標示又はコンテンツリンクとしての役割を効果的に果たす。
ユーザは例えば、あるイメージコンテンツアイテムと同じ場所、同じ時期の一方又は両方で撮影された別のイメージコンテンツアイテムを、その前のイメージコンテンツアイテムが撮影された正確な時刻や正確な保存場所の何れか又は両方を思い出さずに探すことができる。
例えば、ユーザは、古いテレビ受像機を所有していた時期に録画された特定のイメージコンテンツアイテムを、その正確な保存場所を思い出さなくても再収集できる。本発明の実施形態は、ユーザがそうした検索を直感的なやり方で行うのに役立てる。
「コンピュータ可読記憶媒体」や「コンピュータプログラム製品」、「コンピュータ」、「プロセッサ」等の用語は、種々のアーキテクチャを有するコンピュータに限らず、特殊回路もカバーするものと理解すべきである。こうしたコンピュータのアーキテクチャには、シングル/マルチプロセッサ・アーキテクチャや、直列(ノイマン型)/並列アーキテクチャ等がある。特殊回路にはフィールドプログラマブルゲートアレイ(FPGA)や特定用途向け集積回路(ASIC)、シグナルプロセッシングデバイス、その他の処理回路等がある。コンピュータプログラムや命令,コード等の用語は、プログラマブルプロセッサやファームウェア用のソフトウェアもカバーするものと理解すべきである。こうしたものとして例えば、プロセッサに対する命令や、固定機能デバイス,ゲートアレイ,プログラマブルロジックデバイス等の構成設定といったハードウェアデバイスのプログラマブルコンテンツ等がある。
なお本願において使用される「回路(circuitry)」との語句は、次の全てを表す:
(a)ハードウェアのみの回路実装(アナログおよび/またはデジタル回路のみの実装等);
(b)回路とソフトウェア(および/またはファームウェア)の組合せ、例えば(適用可能である場合):(i)一つまたは複数のプロセッサ、または(ii)一つまたは複数のプロセッサ/ソフトウェア(デジタルシグナルプロセッサを含む)、ソフトウェア、一つまたは複数のメモリの一部(これらは協働して、携帯電話やサーバなどの装置に様々な機能を実行させる);
(c)一つまたは複数のマイクロプロセッサやその一部等の回路であって、動作するためにソフトウェアやファームウェアを必要とする回路(ソフトウェアやファームウェアは物理的に存在しなくてもよい)。
この「回路」の定義は、本願において当該用語を使う全ての場合において適用される。特許請求の範囲においても同様である。さらなる例として、本願で使用される場合、「回路(circuitry)」という用語は、単一(または複数)のプロセッサのみの実装やプロセッサの一部と、付随するソフトウェア、ファームウェアの全部又は一部とによる実装も網羅するものである。「回路」という用語はまた、例えば、特許請求の範囲に記載される特定の要素をその範囲に含められる場合がある。例えば、携帯電話のベースバンド集積回路やアプリケーション処理集積回路を意味してもよく、サーバやセルラネットワークデバイス、その他のネットワークデバイスにおける同様の集積回路を意味してもよい。
図5、6、8に示すブロックは、方法のステップ、コンピュータプログラム148のコード区分の何れか又は全てを表わしてもよい。ブロックを特定の順序で図示することは、必須順序又は推奨順序の存在を必ずしも示唆していない。こうしたブロックの順序や配置構成は変更可能である。また、一部のブロックを省略することも可能である。
構造的特徴が記述されてきたが、こうした構造的特徴は、その構造的特徴における1つ又は複数の機能を実行する手段で置き換えられてもよい。こうした1つ又は複数の機能は明示的に記述されていてもよく、されていなくてもよい。
本願明細書及び図面において、本発明の様々な実施形態が様々な実施例と共に紹介されてきたが、当然のごとく、特許請求の範囲に特定される発明の範囲を逸脱せずに紹介された実施形態を変形できる。例えば、前述のイメージコンテンツアイテムが、頭部装着型視覚装置を使って見える立体仮想現実コンテンツとして説明されてきたが、こうした場合に限らなくてもよい。
実装によっては、イメージコンテンツアイテムが立体拡張現実コンテンツアイテムでもよく、他の実装ではイメージコンテンツアイテムが立体的でなくてもよい。
現実シーン録画に変更を加える、前述とは別の方法もありうる。例えば、現実物体のイメージに細部を追加したり、細部を削除したりしてもよく(人物に眼鏡を掛けたり、人物が掛けている眼鏡を取ったりする等)、現実物体のイメージの色を変更できてもよい。
実装によっては、一つの現実シーン録画に複数の変更を加えることもできる。
これまでに記述してきた事項は、明示的に記述された組合せのみならず、それ以外の組合せで用いられてもよい。
特定の事項を参照して種々の機能を記述してきたが、こうした機能は、記述の有無を問わずその他の事項によって遂行可能であってもよい。
特定の実施形態を参照して種々の事項を記述してきたが、こうした事項は、記述の有無を問わずその他の実施形態で用いられてもよい。
前述のように本明細書において、とりわけ重要であると考えられる本発明のこうした事項に注目するように努めてきた。しかし、前述した特許されうる全ての事項およびそれらの組合せに対して、参照された添付の図面にそうした事項が特段強調されていたかどうかにかかわらず、本出願人はその保護を求めるものである点を理解されたい。

Claims (15)

  1. 第1のイメージコンテンツアイテムにおける現実シーン録画に少なくとも一つの変更を加えて、ユーザ入力に応答することと;
    前記現実シーン録画において少なくとも一つの変更後特性を決定することと;
    前記決定された少なくとも一つの変更後特性を含む現実シーン録画を、前記第1のイメージコンテンツアイテムとは異なる一つ又は複数の追加イメージコンテンツアイテムが有すると決定することと;
    前記決定された少なくとも一つの変更後特性を含む現実シーン録画を有する一つ又は複数の追加イメージコンテンツアイテムを、ユーザに提示することと;
    を含む、方法。
  2. 前記第1のイメージコンテンツアイテムが立体媒介現実コンテンツであり、前記追加イメージコンテンツアイテムも立体媒介現実コンテンツである、請求項1に記載の方法。
  3. 前記ユーザ入力が与えられる前に、前記現実シーン録画における現実物体イメージが変更可能であるとユーザに示す視覚標示を提供することを更に含む、請求項1又は2に記載の方法。
  4. 前記決定された少なくとも一つの変更後特性を含む現実シーン録画を、前記一つ又は複数の追加イメージコンテンツアイテムが有すると決定することが、前記追加イメージコンテンツアイテムの作成日を決定することを含む、請求項1から3の何れかに記載の方法。
  5. 前記現実シーン録画に変更を加えることが、前記現実シーン録画における現実物体イメージの位置を変更することを含む、請求項1から4の何れかに記載の方法。
  6. 前記現実シーン録画における現実物体イメージの位置を変更することが、前記現実物体イメージ全体を第1の位置から第2の位置に移動することを含む、請求項5に記載の方法。
  7. 一つ又は複数の視覚標示を前記現実シーン録画の中でユーザに表示することであって、前記現実物体イメージが移動可能な少なくとも一つの候補位置を前記一つ又は複数の視覚標示が示す、前記表示することを更に含む、請求項5又は6に記載の方法。
  8. 前記現実物体イメージが移動可能な少なくとも一つの候補位置が、前記追加イメージコンテンツアイテムの中の現実シーンの追加録画における現実物体イメージの位置に対応する、請求項7に記載の方法。
  9. 前記現実シーン録画に変更を加えることが、前記現実物体イメージのサイズを変更することを含む、請求項1から8の何れかに記載の方法。
  10. 前記現実物体の実際の大きさを決定することと;
    前記決定された実際の大きさ、及び前記現実物体イメージのサイズを変更するために与えられたユーザ入力に基づいて、該現実物体イメージのサイズの対応する実際の大きさを決定することと;
    を更に含み、前記第1のイメージコンテンツアイテムとは異なる一つ又は複数の追加イメージコンテンツアイテムが前記決定された変更後特性を含む現実シーン録画を有するかどうかを決定することが、現実物体について決定される実際の大きさを、前記現実物体イメージの変更後サイズに対応する実際の大きさと比較することを含む、請求項9に記載の方法。
  11. 前記第1のイメージコンテンツアイテムにおける現実物体イメージが人物である、請求項10に記載の方法。
  12. 前記現実シーン録画に変更を加えることが、現実物体イメージを同種だが別の現実物体イメージと交換することを含む、請求項1から11の何れかに記載の方法。
  13. 装置の少なくとも一つのプロセッサによって実行されたときに、前記装置に、請求項1から請求項12のいずれかに記載の方法を遂行させる、コンピュータプログラムコード。
  14. 第1のイメージコンテンツアイテムにおける現実シーン録画に少なくとも一つの変更を加えて、ユーザ入力に応答する手段と;
    前記現実シーン録画において少なくとも一つの変更後特性を決定する手段と;
    前記決定された少なくとも一つの変更後特性を含む現実シーン録画を、前記第1のイメージコンテンツアイテムとは異なる一つ又は複数の追加イメージコンテンツアイテムが有するかどうかを決定する手段と;
    前記決定された少なくとも一つの変更後特性を含む現実シーン録画を有する一つ又は複数の追加イメージコンテンツアイテムを、ユーザに提示する手段と:
    を備える、装置。
  15. 請求項2から請求項12の何れかに記載の方法を遂行する手段を更に備える、請求項14に記載の装置。
JP2018506908A 2015-08-13 2016-08-10 イメージコンテンツ検索 Active JP6495538B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15181004.1A EP3131064B1 (en) 2015-08-13 2015-08-13 Searching image content
EP15181004.1 2015-08-13
PCT/FI2016/050559 WO2017025663A1 (en) 2015-08-13 2016-08-10 Searching image content

Publications (2)

Publication Number Publication Date
JP2018530043A JP2018530043A (ja) 2018-10-11
JP6495538B2 true JP6495538B2 (ja) 2019-04-03

Family

ID=53836495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018506908A Active JP6495538B2 (ja) 2015-08-13 2016-08-10 イメージコンテンツ検索

Country Status (6)

Country Link
US (1) US10437874B2 (ja)
EP (1) EP3131064B1 (ja)
JP (1) JP6495538B2 (ja)
CN (1) CN107924586B (ja)
PL (1) PL3131064T3 (ja)
WO (1) WO2017025663A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3206121A1 (en) 2016-02-09 2017-08-16 Nokia Technologies Oy Methods and apparatuses relating to the handling of visual virtual reality content
US11301734B2 (en) * 2017-07-12 2022-04-12 Lenovo (Singapore) Pte. Ltd. Object association determination
JP2019053426A (ja) * 2017-09-13 2019-04-04 富士ゼロックス株式会社 情報処理装置及びプログラム
US11163819B2 (en) * 2017-10-23 2021-11-02 Adobe Inc. Image search and retrieval using object attributes
US10757291B2 (en) * 2018-11-12 2020-08-25 International Business Machines Corporation Embedding procedures on digital images as metadata
US11170035B2 (en) * 2019-03-29 2021-11-09 Snap Inc. Context based media curation

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10083542B1 (en) * 1999-10-21 2018-09-25 International Business Machines Corporation Method and system to compare and search polyhedral shape
JP2003046911A (ja) * 2001-05-22 2003-02-14 Matsushita Electric Ind Co Ltd 監視記録装置及びその方法
JP2004310686A (ja) * 2003-04-10 2004-11-04 Canon Inc 画像処理方法及び装置
JP2006039753A (ja) * 2004-07-23 2006-02-09 Canon Inc 画像処理装置、画像処理方法
KR101348521B1 (ko) * 2005-09-16 2014-01-06 플릭서, 인크. 비디오의 개인화
DE102007045835B4 (de) * 2007-09-25 2012-12-20 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
WO2009153392A1 (en) * 2008-06-20 2009-12-23 Nokia Corporation Method and apparatus for searching information
US8817092B2 (en) * 2008-11-25 2014-08-26 Stuart Leslie Wilkinson Method and apparatus for generating and viewing combined images
JP5541868B2 (ja) * 2009-02-04 2014-07-09 富士フイルム株式会社 画像検索指令システムおよびその動作制御方法
JP5471124B2 (ja) * 2009-07-29 2014-04-16 ソニー株式会社 画像検索装置、画像検索方法及び画像検索プログラム
JP2011095797A (ja) * 2009-10-27 2011-05-12 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP5649425B2 (ja) * 2010-12-06 2015-01-07 株式会社東芝 映像検索装置
WO2012160833A1 (ja) * 2011-05-26 2012-11-29 パナソニック株式会社 電子機器および合成画像の編集方法
US9007364B2 (en) * 2011-10-12 2015-04-14 Salesforce.Com, Inc. Augmented reality display apparatus and related methods using database record data
JP2013161416A (ja) * 2012-02-08 2013-08-19 Sony Corp サーバ、クライアント端末、システム、およびプログラム
US9977492B2 (en) * 2012-12-06 2018-05-22 Microsoft Technology Licensing, Llc Mixed reality presentation
US9058693B2 (en) * 2012-12-21 2015-06-16 Dassault Systemes Americas Corp. Location correction of virtual objects
US8910201B1 (en) * 2013-03-11 2014-12-09 Amazon Technologies, Inc. Product placement in digital content
JP2014191718A (ja) * 2013-03-28 2014-10-06 Sony Corp 表示制御装置、表示制御方法および記録媒体
US9354791B2 (en) * 2013-06-20 2016-05-31 Here Global B.V. Apparatus, methods and computer programs for displaying images
US9514573B2 (en) * 2013-12-26 2016-12-06 Dassault Systemes Diminished reality
US9754419B2 (en) * 2014-11-16 2017-09-05 Eonite Perception Inc. Systems and methods for augmented reality preparation, processing, and application
CN104376543B (zh) * 2014-11-28 2017-02-22 湖北工业大学 一种基于杜鹃搜索算法的自适应图像增强方法
EP3112986B1 (en) 2015-07-03 2020-02-26 Nokia Technologies Oy Content browsing
US10074214B2 (en) * 2015-12-31 2018-09-11 Autodesk, Inc. Systems and methods for generating 3D scenes with time element for display

Also Published As

Publication number Publication date
EP3131064B1 (en) 2017-11-08
EP3131064A1 (en) 2017-02-15
WO2017025663A1 (en) 2017-02-16
US20180225290A1 (en) 2018-08-09
CN107924586B (zh) 2021-04-06
PL3131064T3 (pl) 2018-03-30
CN107924586A (zh) 2018-04-17
JP2018530043A (ja) 2018-10-11
US10437874B2 (en) 2019-10-08

Similar Documents

Publication Publication Date Title
JP6495538B2 (ja) イメージコンテンツ検索
US12026806B2 (en) Systems and methods for utilizing a living entity as a marker for augmented reality content
JP6478360B2 (ja) コンテンツ閲覧
JP6558839B2 (ja) 媒介現実
JP6602889B2 (ja) 移動体装置ローカリゼーションのためのエリア記述ファイルのクラウドソーシングによる作成および更新
JP6619871B2 (ja) 媒介現実コンテンツの共有
US20160054791A1 (en) Navigating augmented reality content with a watch
US9578399B2 (en) Remote sensor access and queuing
JP6662914B2 (ja) 媒介現実
US20160227868A1 (en) Removable face shield for augmented reality device
US20240355009A1 (en) Systems and methods for utilizing a living entity as a marker for augmented reality content

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190306

R150 Certificate of patent or registration of utility model

Ref document number: 6495538

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250