JP2016511850A - Method and apparatus for annotating plenoptic light fields - Google Patents

Method and apparatus for annotating plenoptic light fields Download PDF

Info

Publication number
JP2016511850A
JP2016511850A JP2015548228A JP2015548228A JP2016511850A JP 2016511850 A JP2016511850 A JP 2016511850A JP 2015548228 A JP2015548228 A JP 2015548228A JP 2015548228 A JP2015548228 A JP 2015548228A JP 2016511850 A JP2016511850 A JP 2016511850A
Authority
JP
Japan
Prior art keywords
annotation
plenoptic
view
data
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015548228A
Other languages
Japanese (ja)
Inventor
モネ,マティウ
リム,ロラン
エイエ,セルジュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vidinoti SA
Original Assignee
Vidinoti SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vidinoti SA filed Critical Vidinoti SA
Publication of JP2016511850A publication Critical patent/JP2016511850A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography

Abstract

【課題】既存の拡張現実システムに関する問題を解決、軽減する。【解決手段】プレノプティックキャプチャデバイス(4)を用いてライトフィールドを表わすデータをリトリーブするステップ(100)と;対応する基準データとリトリーブしたデータをマッチングするためにプログラムコードを実行するステップ(101)と;前記基準データの一要素に結びつけられたプレノプティックフォーマットの少なくとも1つのアノテーション(61、63、64)をリトリーブするためにプログラムコードを実行するステップ(102)と;前記リトリーブされたデータおよび前記アノテーションからプレノプティックフォーマットでアノテート済みデータを生成するためにプログラムコードを実行するステップ(103)と、を含む方法。【選択図】図8The present invention solves and reduces problems related to existing augmented reality systems. Retrieving (100) data representing a light field using a plenoptic capture device (4); executing program code to match the retrieved data with corresponding reference data (100). 101) and executing (102) program code to retrieve at least one annotation (61, 63, 64) in a plenoptic format associated with an element of the reference data; And (103) executing program code to generate annotated data in a plenoptic format from the data and the annotation. [Selection] Figure 8

Description

本発明は、拡張現実(augmented reality)の方法および装置、詳細には、1つのシーンに対応するデータにアノテーションを付加するための方法およびさまざまな装置に関する。   The present invention relates to an augmented reality method and apparatus, and more particularly to a method and various apparatus for annotating data corresponding to a scene.

スマートフォン、パームトップコンピュータ、ポータブルメディアプレーヤー、携帯情報端末(PDA)デバイスなどのハンドヘルドポータブルデバイスの開発が急速に進歩したことにより、画像処理が関与する新規のフィーチャおよびアプリケーションが内含されるに至った。例えば、ユーザーが1つのシーン、例えば景色、建物、ポスターまたは美術館内の絵画に携帯デバイスを向けると、ディスプレイがそのシーンに関するスーパーインポーズされた情報と共に画像を示す
拡張現実アプリケーションが公知である。このような情報は、例えば山や居住地についての名称、人物の名前、建物の歴史的情報および例えばレストランのメニューなどの広告といった商業的情報が含み得る。このようなシステムの一例が、欧州特許第1246080号明細書および欧州特許出願公開第2207113号明細書の中に記載されている。
The rapid development of handheld portable devices such as smartphones, palmtop computers, portable media players, and personal digital assistant (PDA) devices has led to the inclusion of new features and applications involving image processing. . For example, augmented reality applications are known in which when a user points a mobile device at a scene, such as a landscape, a building, a poster, or a picture in a museum, the display shows an image with superimposed information about the scene. Such information may include commercial information such as, for example, names for mountains and settlements, names of persons, historical information on buildings, and advertisements such as, for example, restaurant menus. An example of such a system is described in EP 1246080 and EP 2207113.

無線通信ネットワーク内でサーバーによりポータブルデバイスに対してアノテーション情報を供給することは公知である。サーバーおよびポータブルデバイスを伴う通信ネットワークを含むアノテーションシステムならびにアノテーション方法も同様に公知である。   It is known to provide annotation information to portable devices by a server in a wireless communication network. Annotation systems and annotation methods including communication networks with servers and portable devices are also known.

多くのアノテーション方法は、標準的CCDまたはCMOSセンサーを伴う標準的なピンホールカメラにより生成される2D画像またはコンピュータ生成画像などの画像を、データベース内に記憶された一組の基準画像と比較するステップを含む。実際の視角および照明条件は、データベース内に記憶された画像に対して異なっている可能性があることから、比較アルゴリズムのねらいは、これらのパラメータの影響を除去することにある。   Many annotation methods involve comparing an image, such as a 2D image or a computer generated image generated by a standard pinhole camera with a standard CCD or CMOS sensor, to a set of reference images stored in a database. including. Since the actual viewing angle and lighting conditions can be different for images stored in the database, the aim of the comparison algorithm is to remove the effects of these parameters.

例えば、国際公開第2008/134901号は、通信端末と結びつけられたデジタルカメラを使用して第1の画像を撮影する方法について記載している。第1の画像に関係するクエリーデータが、通信ネットワークを介してリモートの認識サーバーに伝達され、ここで整合する基準画像が識別される。第1の画像の一部をアノテート済み画像の少なくとも一部で置換することによって、拡張画像が生成され、通信端末において表示される。カメラを用いて撮影した第1の画像の拡張(augmentation)は、平面空間内で発生し、2次元の画像およびオブジェクトのみを処理する。   For example, International Publication No. 2008/134901 describes a method for taking a first image using a digital camera associated with a communication terminal. Query data relating to the first image is communicated over the communication network to the remote recognition server, where a matching reference image is identified. By replacing a part of the first image with at least a part of the annotated image, an extended image is generated and displayed on the communication terminal. Augmentation of the first image taken with the camera occurs in the plane space and processes only two-dimensional images and objects.

光線(light ray)情報、例えば空間の各点内の光線の方向などは、従来の画像アノテーションシステムでは廃棄される。光線情報の無いアノテーションは、アノテート済みシーンの現実的なビューをより困難なものにする。例えば、1つのオブジェクトの表面上のテクスチャをキャプチャまたは表示するには、光線情報が求められる。各オブジェクトはその表面上に異なるテクスチャを有しているが、現在のアノテーションシステム内にテクスチャ情報を付加することは不可能である。その結果、シーン内に現実的に組込まれていないアノテーションが添付されることになる。   Light ray information, such as the direction of light within each point in space, is discarded in conventional image annotation systems. Annotation without ray information makes the realistic view of the annotated scene more difficult. For example, ray information is required to capture or display a texture on the surface of an object. Each object has a different texture on its surface, but it is not possible to add texture information within the current annotation system. As a result, annotations that are not actually incorporated into the scene are attached.

その上、拡張現実アプリケーションの急速な成長は、将来においてアノテーションの氾濫をひき起こしかねない。例えば都市におけるいくつかのシーンは、異なるアノテーションに結びつけられる多くの要素を含み、結果として、背景画像の大きな部分を網羅する非常に多数のアノテーションを伴うアノテート済み画像がもたらされる。多くの状況において、ユーザーは、これらのアノテーションのうち限定数のもののみに関心があり、他のアノテーションは単に気が散るものでしかない。したがって、多くの場合、アノテーションの数を制限し、表示すべきアノテーションを選択する方法を提供することが望ましい。   In addition, the rapid growth of augmented reality applications can cause annotation flooding in the future. For example, some scenes in cities contain many elements that are tied to different annotations, resulting in an annotated image with a large number of annotations covering a large portion of the background image. In many situations, the user is only interested in a limited number of these annotations and other annotations are simply distracting. Therefore, in many cases, it is desirable to provide a method for limiting the number of annotations and selecting the annotations to be displayed.

その上、計算時間(computational expense)は、アノテート済みシーンのビューイングにとって重大な問題である。計算時間の削減が求められるものと考えられる。   In addition, computational time is a significant problem for viewing annotated scenes. It is thought that reduction of calculation time is required.

したがって、本発明の目的は、既存の拡張現実システムに関する上述の問題を解決するかまたは少なくとも軽減することにある。   Accordingly, it is an object of the present invention to solve or at least reduce the above-mentioned problems associated with existing augmented reality systems.

本発明によると、これらの目的は、
− プレノプティックキャプチャデバイスを用いてライトフィールドを表わすデータをリトリーブするステップと;
− キャプチャしたデータと対応する基準データとをマッチングするためにプログラムコードを実行するステップと;
− 前記基準データの一要素に結びつけられたプレノプティックフォーマットのアノテーションをリトリーブするためにプログラムコードを実行するステップと;
− 前記キャプチャされたデータおよび前記アノテーションからアノテート済みデータをプレノプティックフォーマットで生成するためにプログラムコードを実行するステップと;
を含む方法によって達成される。
According to the present invention, these objectives are:
-Retrieving data representing a light field using a plenoptic capture device;
-Executing program code to match the captured data with the corresponding reference data;
-Executing program code to retrieve plenoptic format annotations associated with an element of the reference data;
-Executing program code to generate annotated data in a plenoptic format from the captured data and the annotations;
Achieved by a method comprising:

本発明は同様に、1つのシーンに対応するデータをキャプチャしアノテートするための装置であって、
− ライトフィールドを表わすデータをキャプチャするためのプレノプティックキャプチャデバイスと;
− プロセッサーと;
− ディスプレイと;
− プログラムコードが実行された時点で、前記プレノプティックキャプチャデバイスを用いてキャプチャされたデータの一要素と結びつけられたプレノプティックフォーマットの少なくとも1つのアノテーションを前記プロセッサにリトリーブさせるための、および、キャプチャされたデータから生成され前記少なくとも1つのアノテーションを含むビューを前記ディスプレイ上にレンダリングするための前記プログラムコードと;
を含む装置によって達成される。
The present invention is also an apparatus for capturing and annotating data corresponding to a scene,
A plenoptic capture device for capturing data representing a light field;
-With a processor;
-A display;
For causing the processor to retrieve at least one annotation in a plenoptic format associated with an element of data captured using the plenoptic capture device when the program code is executed; And the program code for rendering on the display a view generated from the captured data and including the at least one annotation;
Achieved by a device comprising:

本発明は同様に、アノテーションを決定するための装置であって:
− プロセッサと;
− 記憶装置(store)と;
− プログラムコードが実行された時点で前記プロセッサにライトフィールドを表わすデータを受信させ、前記データを1つの基準データとマッチさせ、前記基準データと結びつけられたプレノプティックフォーマットの前記記憶装置からのアノテーションを決定させ、かつプレノプティックフォーマットの前記アノテーションかまたはプレノプティックフォーマットのアノテート済み画像に対応するデータのいずれかをリモートデバイスに対して送信させるための前記プログラムコードと;
を含む装置をも提供する。
The present invention is also an apparatus for determining annotations:
-With a processor;
-A storage device;
-When the program code is executed, the processor receives data representing a light field, matches the data with one reference data, and from the storage device in the plenoptic format associated with the reference data The program code for determining an annotation and causing the remote device to transmit either the annotation in plenoptic format or the data corresponding to the annotated image in plenoptic format;
There is also provided an apparatus comprising:

請求対象であるプレノプティックフォーマットのアノテーションの付加により、プレノプティックフォーマットでの画像内のアノテーションのより現実的な組込みが可能になる。アノテーションは、1つの画像上にスーパーインポーズされた単なるテキストではなく、キャプチャされたシーンの1つの要素であるように見える。プレノプティックフォーマットのアノテーション(本出願では「プレノプティックアノテーション」とも呼ばれる)は、光線がいかに修正されるかの情報を含めた、従来のアノテーションよりもさらに完全なライトフィールドの記述を含んでいる。   The addition of billable plenoptic format annotations allows for more realistic embedding of annotations in images in the plenoptic format. Annotations appear to be one element of the captured scene, not just text superimposed on a single image. Plenoptic format annotation (also referred to in this application as “Plenoptic Annotation”) includes a more complete description of the light field than conventional annotation, including information on how rays are modified. It is out.

プレノプティックフォーマットでのアノテーションの提供によって同様に、画像のレンダリングの間にユーザーが選択するかまたは例えばユーザーの関心などに基づいて自動的に選択される視点および/またはフォーカス距離に応じて、表示すべきアノテーションを選択することが可能となる。   Similarly, by providing annotations in a plenoptic format, depending on the viewpoint and / or focus distance that the user selects during image rendering or is automatically selected based on, for example, user interests, An annotation to be displayed can be selected.

アノテーションは、キャプチャされたデータと同じ空間(すなわちプレノプティック空間)内にあることから、アノテーションプロセスのための計算時間は削減される。   Since the annotation is in the same space as the captured data (ie, plenoptic space), the computation time for the annotation process is reduced.

詳細には、人間が理解できるフォーマットのプレノプティックデータをレンダリングするための計算時間は削減される。実際には、プレノプティックフォーマットの画像およびプレノプティックアノテーションは同じ空間内にあることから、レンダリングプロセスは、両方について同様である。一実施形態では、画像および結び付けられたアノテーションをレンダリングするために、単一のレンダリングプロセスを使用することができる。この場合、プレノプティックレンダリングプロセスのために選択される投影パラメータ(例えば焦点、深度、視点変更…の選択)は、プレノプティックアノテーションにも当てはまる。例えば、プレノプティック画像の焦点または視点を変更する場合、さまざまな距離でプレノプティックアノテーションを表示するために同じ変換を使用することができる。別の実施形態では、アノテーションのエフェクトはキャプチャされたプレノプティック画像にも適用され、修正されたプレノプティック画像のレンダリングが実施される。   Specifically, the computation time for rendering plenoptic data in a human readable format is reduced. In practice, the rendering process is similar for both because the plenoptic format image and plenoptic annotation are in the same space. In one embodiment, a single rendering process can be used to render images and associated annotations. In this case, the projection parameters selected for the plenoptic rendering process (e.g. selection of focus, depth, viewpoint change ...) also apply to plenoptic annotation. For example, when changing the focus or viewpoint of a plenoptic image, the same transformation can be used to display plenoptic annotation at various distances. In another embodiment, the annotation effect is also applied to the captured plenoptic image to render the modified plenoptic image.

したがって、プレノプティックアノテーションすなわちプレノプティックフォーマットのアノテーションは、現実的なアノテーション表示方法を提供し、テクスチャリングされたアノテーションを含めたより多くのタイプのアノテーションを可能にし、計算効率を高める。   Thus, plenoptic annotation, or plenoptic format annotation, provides a realistic annotation display method, allows for more types of annotation including textured annotation, and increases computational efficiency.

従来のアノテーションとは異なり、プレノプティックアノテーションは、プレノプティックキャプチャデバイスによりキャプチャされた画像と同じだけの光線に関する情報を含み得る。したがって、2D画像上への投影によりひき起こされる光線情報の喪失無く、キャプチャされたライトフィールド内で直接アノテーションを合成することが可能である。例えば、アノテーションは、アノテートされたオブジェクトの表面上の光反射特性を保持することができるが、これは従来のアノテーションシステムでは不可能である。この意味において、アノテートされたビューはより現実的であるように見える。   Unlike conventional annotation, plenoptic annotation may contain information about as many rays as the image captured by the plenoptic capture device. Therefore, it is possible to synthesize annotation directly in the captured light field without loss of ray information caused by projection onto the 2D image. For example, annotation can preserve light reflection properties on the surface of an annotated object, which is not possible with conventional annotation systems. In this sense, the annotated view appears to be more realistic.

光線の直接的修正は、多数の視点からのアノテートされたシーンの同時生成など、計算を容易にすることができる。アノテートされたシーン生成の例においては、各視点について生成された2D画像上にアノテーションを添付し追加処理を適用する代りに、アノテーション処理およびシーンについての例えばぼかしまたは鮮明化などの他の追加処理が、プレノプティックフォーマットで一回、直接適用される。したがって、直接プレノプティックフォーマットでプレノプティック画像およびプレノプティックアノテーションを合成することが、計算時間の削減を結果としてもたらし得る。   Direct modification of rays can facilitate calculations such as the simultaneous generation of annotated scenes from multiple viewpoints. In the annotated scene generation example, instead of attaching annotations on the 2D images generated for each viewpoint and applying additional processing, the annotation processing and other additional processing on the scene, such as blurring or sharpening, are performed. Applied directly once, in plenoptic format. Thus, synthesizing plenoptic images and plenoptic annotations in a direct plenoptic format can result in reduced computation time.

本発明は同様に、プレノプティックフォーマットの基準画像に対しアノテーションを添付するための方法であって、
− ビューワを用いてプレノプティックフォーマットの前記基準画像を提示するステップと;
− アノテーションを選択するステップと;
− 前記ビューワを用いて、前記アノテーションのための位置を選択し、かつ前記アノテーションを見ることのできる1つまたは複数の方向を選択するステップと;
− メモリー内で、前記アノテーションおよび前記プレノプティックフォーマットの基準画像と前記位置および前記方向とを結びつけるステップと;
を含む方法にも関する。
The present invention is also a method for attaching annotations to a reference image in a plenoptic format,
-Presenting the reference image in plenoptic format using a viewer;
-Selecting an annotation;
Using the viewer to select a position for the annotation and to select one or more directions in which the annotation can be viewed;
Linking the annotation and the plenoptic format reference image with the position and the direction in memory;
It also relates to a method comprising:

本方法は、好適なソフトウェアアプリケーションまたはウェブサイトなどの好適なオーサリングシステムを用いて実施されてよい。   The method may be implemented using a suitable authoring system such as a suitable software application or website.

本発明は、一例として提供され図中に示されている一実施形態の説明を用いてより良く理解されるものである。   The invention will be better understood with the aid of the description of an embodiment provided as an example and shown in the figures.

第1の距離にある1つのオブジェクトを伴うシーンのライトフィールドを表わすデータをキャプチャするためのプレノプティックキャプチャデバイスを概略的に示す。1 schematically illustrates a plenoptic capture device for capturing data representing a light field of a scene with one object at a first distance. 第2の距離にある1つのオブジェクトを伴うシーンのライトフィールドを表わすデータをキャプチャするためのプレノプティックキャプチャデバイスを概略的に示す。FIG. 2 schematically illustrates a plenoptic capture device for capturing data representing a light field of a scene with one object at a second distance. 第3の距離にある1つのオブジェクトを伴うシーンのライトフィールドを表わすデータをキャプチャするためのプレノプティックキャプチャデバイスを概略的に示す。Fig. 6 schematically shows a plenoptic capture device for capturing data representing a light field of a scene with one object at a third distance. 共に本発明を実施するさまざまな装置を含むシステムを概略的に示す。1 schematically illustrates a system that includes various devices that together implement the present invention. 同じプレノプティックデータからレンダリングされたアノテート済みビューを示し、ここでレンダリング中にユーザーが選択した視点は2つのビューの間で変化し、その結果同じアノテーションが異なる形でレンダリングされる。Shows an annotated view rendered from the same plenoptic data, where the viewpoint selected by the user during rendering changes between the two views, so that the same annotation is rendered differently. 同じプレノプティックデータからレンダリングされたアノテート済みビューを示し、ここでレンダリング中にユーザーが選択した視点は2つのビューの間で変化し、その結果同じアノテーションが異なる形でレンダリングされる。Shows an annotated view rendered from the same plenoptic data, where the viewpoint selected by the user during rendering changes between the two views, so that the same annotation is rendered differently. 同じプレノプティックデータからレンダリングされたアノテート済みビューを示し、ここでレンダリング中にユーザーが選択した視点は2つのビューの間で変化し、その結果第1のビュー上には第1のアノテーションが見えるようになっており、第2のビュー上には第2のアノテーションが見えるようになっている。Shows an annotated view rendered from the same plenoptic data, where the viewpoint selected by the user during rendering changes between the two views, so that the first annotation is on the first view. The second annotation is visible on the second view. 同じプレノプティックデータからレンダリングされたアノテート済みビューを示し、ここでレンダリング中にユーザーが選択した視点は2つのビューの間で変化し、その結果第1のビュー上には第1のアノテーションが見えるようになっており、第2のビュー上には第2のアノテーションが見えるようになっている。Shows an annotated view rendered from the same plenoptic data, where the viewpoint selected by the user during rendering changes between the two views, so that the first annotation is on the first view. The second annotation is visible on the second view. 同じプレノプティックデータからレンダリングされたアノテート済みビューを示し、ここでレンダリング中にユーザーが選択したフォーカス距離は2つのビューの間で変化し、その結果第1のビュー上には第1のアノテーションが見えるようになっており、第2のビュー上には第2のアノテーションが見えるようになっている。Shows an annotated view rendered from the same plenoptic data, where the focus distance selected by the user during rendering varies between the two views, so that the first annotation on the first view And the second annotation is visible on the second view. 同じプレノプティックデータからレンダリングされたアノテート済みビューを示し、ここでレンダリング中にユーザーが選択したフォーカス距離は2つのビューの間で変化し、その結果第1のビュー上には第1のアノテーションが見えるようになっており、第2のビュー上には第2のアノテーションが見えるようになっている。Shows an annotated view rendered from the same plenoptic data, where the focus distance selected by the user during rendering varies between the two views, so that the first annotation on the first view And the second annotation is visible on the second view. プレノプティックフォーマットのアノテーションを伴うビューを生成しレンダリングするための方法のブロック図である。FIG. 3 is a block diagram of a method for generating and rendering a view with plenoptic format annotation. ビューワが異なるビューイング方向および/またはビュー上の異なるフォーカス距離を選択した場合にアノテーションのレンダリングを修正するための方法のブロック図である。FIG. 6 is a block diagram of a method for modifying the rendering of annotations when the viewer selects different viewing directions and / or different focus distances on the view. プレノプティックフォーマットのアノテーションと基準データを結びつけるための方法のブロック図である。FIG. 6 is a block diagram of a method for associating plenoptic format annotations with reference data. 一連のプレノプティック画像、例えばビデオプレノプティック画像または移動中のユーザーがキャプチャするプレノプティック画像の連続的アノテーション方法のブロック図である。FIG. 3 is a block diagram of a method for continuous annotation of a series of plenoptic images, eg, video plenoptic images or plenoptic images captured by a moving user.

従来のカメラは、センサー上で1シーンの2D投影をキャプチャし、有色または無色の各ピクセル上の光強度を表わすデータを生成する。一方で、そのようなものとして公知であるプレノプティックキャプチャデバイスは、ライトフィールドを表わすデータを、すなわち光の強度のみならず光の方向を含めたライトフィールドについてのより完全な情報を示すマトリクスをキャプチャする。   Conventional cameras capture a 2D projection of a scene on a sensor and generate data representing the light intensity on each colored or colorless pixel. On the other hand, a plenoptic capture device known as such is a matrix that shows data representing the light field, ie more complete information about the light field including not only the light intensity but also the direction of the light. To capture.

完全なライトフィールドは、各光線を記述するため(あるいは所与の位置における光線を記述するため)に最大で7つのパラメータ、すなわち位置について3つ、方向について2つ、波長について1つそして(ビデオの場合)時間について1つのパラメータを含んでいてよい。現在のプレノプティックカメラの一部のものは、位置について2つ、方向について2つそして波長について1つのパラメータを含むプレノプティックデータを送出する。センサーは、いわゆるプレノプティックライトフィールド、すなわち少なくとも光線の位置および方向を示すマトリクスを表わすプレノプティックデータを生成する。このことはすなわち、プレノプティックキャプチャデバイスにより生成されるプレノプティックデータが、従来の2Dカメラにより生成される従来の2D画像データよりも多くのライトフィールドに関する情報を含んでいるということを意味している。   A complete light field can have up to seven parameters to describe each ray (or to describe a ray at a given position): three for position, two for direction, one for wavelength, and (video In the case of), it may contain one parameter for time. Some of the current plenoptic cameras send out plenoptic data containing two parameters for position, two for direction and one for wavelength. The sensor generates plenoptic data representing a so-called plenoptic light field, i.e. a matrix indicating at least the position and direction of the rays. This means that the plenoptic data generated by the plenoptic capture device contains more information about the light field than the conventional 2D image data generated by the conventional 2D camera. I mean.

今日現在、少なくとも2つの会社、すなわちLytroとRaytrixが、このようなプレノプティックライトフィールドを記録できるプレノプティックセンサーを提案している。2社のカメラは、設計に関してわずかに異なっているものの、主たる考え方は、標準的なカメラセンサー内の単一のフォトサイト(またはピクセル)に当たると推定される光の種々の方向を分解することにある。その目的のため、図1に示されている通り、マイクロレンズ20のアレイが、メインレンズ1の後方に、従来のカメラのセンサーの代りに設置されている。   As of today, at least two companies, Lytro and Raytrix, have proposed plenoptic sensors capable of recording such plenoptic light fields. Although the two cameras are slightly different in design, the main idea is to resolve the different directions of light that are supposed to hit a single photosite (or pixel) in a standard camera sensor. is there. To that end, as shown in FIG. 1, an array of microlenses 20 is placed behind the main lens 1 in place of conventional camera sensors.

このようにして、マイクロレンズ20は、その入射角に応じて光線の方向を変え、方向の変えられた光線はセンサー21の異なるピクセル210に到達する。サブイメージを構成するN×M個のピクセル210の各々によって測定される光の量は、このサブイメージの前でマイクロレンズ20をヒットする光ビームの方向により左右される。   In this way, the microlens 20 changes the direction of the light according to the incident angle, and the changed light reaches the different pixels 210 of the sensor 21. The amount of light measured by each of the N × M pixels 210 that make up the sub-image depends on the direction of the light beam that hits the microlens 20 in front of this sub-image.

図1〜3は、n=9個のサブイメージを含む単純な1次元センサーを示しており、各サブイメージはN×M個のピクセル(またはフォトサイト)210の1本の横列を有し、この例では、Nは3に等しくMは1に等しい。多くのプレノプティックセンサーは、より多くのサブイメージおよび各サブイメージについてより多くのピクセル、例えば9×9個のピクセルを有し、マイクロレンズ20上でN×M=81個の異なる光配向の間での区別を可能にしている。シーンの全てのオブジェクトの焦点が合っていると仮定すると、こうして各サブイメージは、そのサブイメージ上へのさまざまな方向に由来する光の量を表わす明度値のパッチを含む。   1-3 show a simple one-dimensional sensor containing n = 9 sub-images, each sub-image having one row of N × M pixels (or photosites) 210, In this example, N is equal to 3 and M is equal to 1. Many plenoptic sensors have more subimages and more pixels for each subimage, eg, 9 × 9 pixels, and N × M = 81 different light orientations on the microlens 20 Makes it possible to distinguish between them. Assuming that all objects in the scene are in focus, each sub-image thus contains a patch of lightness values representing the amount of light coming from different directions on that sub-image.

この構造では、マイクロレンズ20のアレイは、プレノプティックキャプチャデバイスのメインレンズ1により形成される画像平面上に位置設定され、センサー21は、マイクロレンズから距離fのところに位置設定され、ここでfはマイクロレンズの焦点距離である。この設計は、高い角度分解能を可能にするが、空間分解能が比較的低い(レンダリングされた画像1つあたりの有効ピクセル数はマイクロレンズの数に等しい)。この問題はマイクロレンズがメインレンズの画像平面上に焦点を合わせこうしてマイクロレンズと画像平面の間の空隙を作り出す他のプレノプティックキャプチャデバイスによって対処される。このような設計において支払うべき代償は、角度分解能がより低いということである。   In this structure, the array of microlenses 20 is positioned on the image plane formed by the main lens 1 of the plenoptic capture device, and the sensor 21 is positioned at a distance f from the microlens, where And f is the focal length of the microlens. This design allows high angular resolution, but relatively low spatial resolution (the number of effective pixels per rendered image is equal to the number of microlenses). This problem is addressed by other plenoptic capture devices where the microlens focuses on the image plane of the main lens, thus creating a gap between the microlens and the image plane. The price to pay in such a design is that the angular resolution is lower.

図1〜3に見られるように、この実施例中の単一の点3を伴うシーンに対応するプレノプティックライトフィールドは、点3からメインレンズ1までの距離によって左右される。図1では、このオブジェクトに由来する全ての光ビームは同じマイクロレンズ20に到達し、こうしてこのマイクロレンズに対応するサブイメージ内の全てのピクセルが第1の正の光強度を記録しその一方で他のレンズに対応する他の全てのピクセルが異なるヌル(null)の光強度を記録するプレノプティックライトフィールドが結果としてもたらされる。オブジェクト3がレンズ1により近い図2では、点3に由来する一部の光ビームが、他のサブイメージすなわち前述でヒットされたマイクロレンズに隣接する2つのマイクロレンズに付随するサブイメージの複数のピクセルに到達する。オブジェクト3がレンズ1からより大きい距離のところにある図3では、点3に由来する一部の光ビームは、前述でヒットされたマイクロレンズに隣接する2つのマイクロレンズと結びつけられた異なる複数のピクセルに到達する。したがって、センサー21により送出されるデジタルデータ22は、オブジェクト3までの距離によって左右される。   As seen in FIGS. 1-3, the plenoptic light field corresponding to the scene with a single point 3 in this embodiment depends on the distance from the point 3 to the main lens 1. In FIG. 1, all light beams originating from this object reach the same microlens 20, so that all pixels in the sub-image corresponding to this microlens record a first positive light intensity while This results in a plenoptic light field where all other pixels corresponding to other lenses record different null light intensities. In FIG. 2, where the object 3 is closer to the lens 1, some of the light beams from point 3 are associated with other sub-images, ie sub-images associated with the two micro-lenses adjacent to the micro-lenses hit above. Reach the pixel. In FIG. 3 where the object 3 is at a greater distance from the lens 1, some of the light beams originating from the point 3 will be connected to different microlenses associated with the two microlenses adjacent to the microlenses hit above. Reach the pixel. Therefore, the digital data 22 transmitted by the sensor 21 depends on the distance to the object 3.

プレノプティックセンサー21はこうして、マイクロレンズ20に対応する各サブイメージについて、このサブイメージの上方のレンズ上のさまざまな方向に由来する光の量を示す(N×M)個の値のセットを含むプレノプティックデータ22を送出する。所与の焦点合せされたオブジェクト点について、サブイメージの各ピクセルは、一定の入射角ファイ(頁の平面内)およびシータ(頁の平面に対し垂直)でセンサーをヒットする光線強度の測度に対応する。   The plenoptic sensor 21 thus sets for each subimage corresponding to the microlens 20 a set of (N × M) values indicating the amount of light originating from different directions on the lens above this subimage. The plenoptic data 22 including is sent out. For a given focused object point, each pixel in the sub-image corresponds to a measure of light intensity that hits the sensor at a constant angle of incidence phi (in the plane of the page) and theta (perpendicular to the page plane). To do.

図4は、本発明を実施するアノテーションシステムのブロック図を概略的に示す。システムは、ユーザーデバイス4を、例えばハンドヘルドデバイス、スマートフォン、タブレット、カメラ、メガネ、ゴーグル、コンタクトレンズなどを含む。デバイス4は、プレノプティックキャプチャデバイス41、例えば、シーン3上のライトフィールドを表わすデータをキャプチャするための、図1〜3に示されたカメラなどのプレノプティックキャプチャデバイスと、好適なプログラムコードを伴うマイクロプロセッサ400などのプロセッサと、インターネット6などのネットワークを介して例えばクラウドサーバーなどのリモートサーバー5に対してデバイス4を接続するためのWIFIおよび/またはセルラーインターフェースなどの通信モジュール401を含む。サーバー5は、SQLデータベースなどのデータベース、1組のXML文書、1組のプレノプティックフォーマットなどの画像を伴い、1つまたは複数のグローバルモデルおよび/または画像を表わす基準プレノプティックデータのコレクションを記憶するためのストレージ50を含み、また、アノテーション方法において必要とされるオペレーションをマイクロプロセッサに実施させるためのコンピュータコードを伴うマイクロプロセッサを含むプロセッサ51を含む。アノテーションおよび対応する位置はまた、基準プレノプティックデータと共にストレージ50内に記憶され得る。   FIG. 4 schematically shows a block diagram of an annotation system embodying the present invention. The system includes a user device 4 such as a handheld device, a smartphone, a tablet, a camera, glasses, goggles, contact lenses, and the like. Device 4 is suitable with a plenoptic capture device 41, eg, a plenoptic capture device such as the camera shown in FIGS. 1-3 for capturing data representing a light field on scene 3. A communication module 401 such as a WIFI and / or a cellular interface for connecting the device 4 to a remote server 5 such as a cloud server via a network such as the Internet 6 and a processor such as a microprocessor 400 with program code. Including. Server 5 is accompanied by images such as a database, such as an SQL database, a set of XML documents, a set of plenoptic formats, etc., of one or more global models and / or reference plenoptic data representing the images. It includes a storage 50 for storing the collection and a processor 51 including a microprocessor with computer code for causing the microprocessor to perform the operations required in the annotation method. Annotations and corresponding positions may also be stored in storage 50 along with reference plenoptic data.

ユーザーデバイス4により実行されるプログラムコードは、例えば、ユーザーデバイス4内でユーザーがダウンロードおよびインストールできるアプリケーションソフトウェアつまりappを含むことができる。プログラムコードはまた、ユーザーデバイス4のオペレーティングコードの一部を含むこともできる。プログラムコードはまた、例えばJava(登録商標)、Javascript、HTML5コードなどを含めた、ウェブページ内に埋め込まれるかまたはブラウザ内で実行されるコードをも含むことができる。プログラムコードは、例えばフラッシュメモリー、ハードディスクまたは、任意のタイプの永久または半永久メモリなどの有形装置可読媒体内にコンピュータプログラム製品として記憶されてよい。   The program code executed by the user device 4 can include, for example, application software or app that can be downloaded and installed by the user in the user device 4. The program code can also include part of the operating code of the user device 4. Program code can also include code that is embedded in a web page or executed in a browser, including, for example, Java, Javascript, HTML5 code, and the like. The program code may be stored as a computer program product in a tangible device readable medium, such as flash memory, hard disk, or any type of permanent or semi-permanent memory.

プログラムコードは、ユーザーデバイス4内でマイクロプロセッサ400により実行されて、ライトフィールドに対応するキャプチャされたデータセット、またはこれらのデータセットのフィーチャのうちの少なくとも一部をこのマイクロプロセッサがリモートサーバー5に送るようにする。プログラムコードは「プレノプティックフォーマット」で、すなわち光線の方向に関する情報を喪失することなくデータを送信するように構成される。プログラムコードはまた、マイクロプロセッサ400に、サーバー5から、プレノプティックフォーマットのアノテート済みデータ、またはアノテート済み画像、または先に送信されたプレノプティックデータに関係するアノテーションを受信させ、アノテーションを伴うキャプチャデータ(captured data)に対応するビューをレンダリングすることもできる。   The program code is executed by the microprocessor 400 in the user device 4 so that the microprocessor can transfer the captured data sets corresponding to the light field or at least some of the features of these data sets to the remote server 5. To send. The program code is configured to transmit data in a “plenoptic format”, ie without losing information about the direction of the light beam. The program code also causes the microprocessor 400 to receive from the server 5 annotated data in the plenoptic format, or annotated images, or annotations related to previously transmitted plenoptic data, A view corresponding to the accompanying captured data can also be rendered.

プレノプティックアノテーション方法は、オフラインプロセスとオンラインプロセスの2つの部分を含んでいてよい。概して、オフラインプロセスの主要な目的は、プレノプティックフォーマットの基準画像または他の2D、立体または3D基準画像とアノテーションを結びつけることにある。   The plenoptic annotation method may include two parts, an offline process and an online process. In general, the main purpose of the offline process is to tie annotations with plenoptic format reference images or other 2D, stereoscopic or 3D reference images.

オフラインフェーズ
プレノプティックフォーマットの基準画像の場合、オフラインプロセスは例えば以下のステップを含んでいてよい:
1.プレノプティックフォーマットの基準データをデバイス4から受けとり、ライトフィールドを表現するステップ;
2.例えばプレノプティックビューワを用いて、プレノプティック基準画像のレンダリングされたビューを提示するステップ;
3.プレノプティックアノテーションを選択するステップ;
4.レンダリングされたビュー内のアノテーションのための位置および配向を選択するステップ;
5.アノテーションの1つまたは複数のライトフィールドパラメータを選択するステップ;
6.(任意)1つのアクションをアノテーションに帰属させる(attributing)ステップ;
7.メモリー内で基準画像光線を、その位置および配向に基づいてアノテーション光線と結びつけるステップ。
Offline Phase For reference images in plenoptic format, the offline process may include the following steps, for example:
1. Receiving plenoptic format reference data from device 4 and representing a light field;
2. Presenting a rendered view of the plenoptic reference image, eg, using a plenoptic viewer;
3. Selecting plenoptic annotation;
4). Selecting a position and orientation for the annotation in the rendered view;
5. Selecting one or more light field parameters of the annotation;
6). (Optional) Attributing one action to the annotation;
7). Associating a reference image ray in memory with an annotation ray based on its position and orientation.

このオフラインプロセスは、サーバー5上、ユーザーデバイス4内、またはさらに別の機器、例えばパーソナルコンピュータ、タブレットなどにおいて実施され得る。典型的には、このオフラインプロセスは、基準画像と結びつけられた各アノテーションについて一回だけ実行される。選択されたアノテーションが当初プレノプティックフォーマットで利用可能でない場合、それをプレノプティックフォーマットへとコンバートしてよい。   This offline process can be implemented on the server 5, in the user device 4, or in another device, such as a personal computer, a tablet, etc. Typically, this offline process is performed only once for each annotation associated with the reference image. If the selected annotation is not initially available in the plenoptic format, it may be converted to a plenoptic format.

オンラインプロセスの主要な目的は、プレノプティック画像に対しプレノプティックアノテーションを付加することにある。オンラインプロセスは、2つの段階を含んでいてよい。第1の段階は、実行可能なプログラムを含んでいてよいサーバー5内のマイクロプロセッサによって実行されるプログラムコードあるいはサーバー5に以下のタスクのうちの少なくとも一部を実施させるための他のコードによって実施されてよい:
1.プレノプティックフォーマットのデータをデバイス4から受信し、ライトフィールドを表現すること;
2.前に記憶されたモデル(基準画像)および/または複数の基準データをデータベース50からリトリーブすること;
3.ユーザーデバイスから受信したデータを、基準画像の一部と、または複数の基準画像のうちの1つとそれぞれ、マッチングすること;
4.マッチした基準画像と結びつけられたアノテーションを決定すること、
5.デバイス4に対して、プレノプティックフォーマットのアノテーションまたはプレノプティックフォーマットのアノテート済み画像を送信すること。
The main purpose of the online process is to add plenoptic annotation to plenoptic images. The online process may include two stages. The first stage is performed by program code executed by a microprocessor in the server 5 which may include an executable program or other code for causing the server 5 to perform at least some of the following tasks: May be:
1. Receiving plenoptic format data from device 4 and representing the light field;
2. Retrieving a previously stored model (reference image) and / or a plurality of reference data from the database 50;
3. Matching data received from a user device with a portion of a reference image or one of a plurality of reference images, respectively;
4). Determining the annotation associated with the matched reference image,
5. Sending plenoptic format annotations or plenoptic format annotated images to device 4.

さまざまな実施形態において、サーバー内の基準画像とマッチングするためにリモートサーバー5にキャプチャデータを送信する代りに、このマッチングを、ローカル的に記憶された基準画像セットまたはデバイス内にローカル的に記憶されたモデルと、ユーザーのデバイス内でローカル的に行なうことができる。この実施形態では、サーバー5はユーザーのデバイス4上に搭載される。オンラインプロセスは、ユーザーのリクエストに応じて数回実行することができる。   In various embodiments, instead of sending capture data to the remote server 5 to match a reference image in the server, this match is stored locally in a locally stored reference image set or device. And can be done locally within the user's device. In this embodiment, the server 5 is mounted on the user's device 4. The online process can be executed several times upon user request.

オンラインプロセスの第2段階は、実行可能なプログラムを含んでいてよいデバイス4内のマイクロプロセッサにより実行されるプログラムコードによって、あるいはデバイス4に以下のタスクのうちの少なくとも一部を実施させるための他のコードによって、実施されてよい:
1.場合によっては結びつけられたアクションと共に、プレノプティックフォーマットのアノテーションデータをサーバー5から受信すること;
2.キャプチャされたプレノプティックライトフィールドに対して、受信したアノテーションデータを適用すること;
3.アノテート済みライトフィールドをユーザー可視ビューにレンダリングすること;
4.ユーザーインタラクションを解釈し、結びつけられたアノテーションアクションを実行すること。
The second stage of the online process may be performed by program code executed by a microprocessor in device 4 that may include an executable program, or other to cause device 4 to perform at least some of the following tasks: May be implemented by the following code:
1. Receiving annotation data in plenoptic format from the server 5 with possibly associated actions;
2. Applying the received annotation data to the captured plenoptic light field;
3. Rendering an annotated light field into a user-visible view;
4). Interpret user interaction and perform associated annotation actions.

さまざまな実施形態において、デバイス4上でキャプチャされたプレノプティックライトフィールドに対し受信したアノテーションを適用する代りに、このステップをサーバー5の側で行なうことができる。この場合、最終的なレンダリングされたビュー、またはアノテート済みライトフィールド全体のいずれかがデバイス4に伝送し戻される。   In various embodiments, instead of applying the received annotation to the plenoptic light field captured on the device 4, this step can be performed on the server 5 side. In this case, either the final rendered view or the entire annotated light field is transmitted back to the device 4.

したがって、ユーザーは、プレノプティック基準画像のレンダリングされたビューとの関係における特定の位置および配向とアノテーションを結びつけることができ、また、アノテーションがこの特定のビュー内で使用すべき1つまたは複数のライトフィールドパラメータを指示(indicate)することができる。同じアノテーションを、ビューのレンダリング中ビューワによって選択された視点に応じて異なる形でレンダリングしてもよい。アノテーションのライトフィールドパラメータは変化する場合があることから、ビューワが異なる視点を選択した場合、同じロケーションで第1のアノテーションを第2のアノテーションに置換してよい。   Thus, the user can associate an annotation with a particular position and orientation in relation to the rendered view of the plenoptic reference image, and one or more annotations that should be used within this particular view. The light field parameters can be indicated. The same annotation may be rendered differently depending on the viewpoint selected by the viewer during view rendering. Since the light field parameter of the annotation may change, when the viewer selects a different viewpoint, the first annotation may be replaced with the second annotation at the same location.

オフラインプロセスのフローチャートの一例が、図10に示されている。このフローチャートは、ユーザーが基準画像と結びつけられるべきアノテーションおよびこのアノテーションを伴う位置、配向およびライトフィールドパラメータを選択でき、こうしてこのアノテーションが、このプレノプティック基準画像とマッチするキャプチャされたプレノプティック画像に適用されるようにする方法を示している。   An example of an offline process flowchart is shown in FIG. This flow chart allows the user to select the annotation to be associated with the reference image and the location, orientation and light field parameters that accompany this annotation, so that this annotation will be captured prenoop matching this plenoptic reference image. It shows how to be applied to tick images.

この方法は、ユーザーのデバイス4内でローカル的に実行されてよいアノテーションオーサリングシステムを使用することができる。アノテーションオーサリングシステムはまた、サーバー5上でホスティングされてよく、ここで、ウェブプラットフォームがいくつかのツールを提示してアノテーションを管理しそれらをプレノプティック基準画像に関係づけする。拡張現実使用統計(augmented reality usage statistics)などのサービスはまた、ウェブプラットフォームから利用可能である。アノテーションオーサリングシステムはまた、ユーザーのパーソナルコンピュータ、タブレットなどを含めた異なるサーバーまたは機器において実行されてよい。   This method may use an annotation authoring system that may be executed locally within the user's device 4. The annotation authoring system may also be hosted on the server 5, where the web platform presents several tools to manage the annotations and relate them to the plenoptic reference images. Services such as augmented reality usage statistics are also available from the web platform. The annotation authoring system may also be run on different servers or devices, including the user's personal computer, tablet, etc.

ステップ150において、ユーザーは、基準画像、例えばプレノプティックフォーマットの画像を選択する。画像はプレノプティックオーサリングシステム上にアップロードされ、アノテーションのためのサポート画像として役立つ。   In step 150, the user selects a reference image, eg, an image in a plenoptic format. Images are uploaded onto the plenoptic authoring system and serve as support images for annotation.

プレノプティックオーサリングシステムの一部として、ビューワは、ユーザーがそれを視覚化できるような形でユーザーに対しアップロード済みデータをレンダリングする。データが、人間が容易にそのようなものとして理解することのできないプレノプティックフォーマットである場合、これには、ユーザーにより理解可能な空間内でプレノプティックモデルをレンダリングするためのプレノプティックレンダリングモジュールを使用するステップが含まれる可能性がある。ビューワは、プレノプティックデータを操作し所与のビューとの関係において所望の位置および配向でアノテーションを設置するためのツールを構成するが、プレノプティックアノテーションを用いた全ての処理および組合せは、プレノプティック空間内で直接行なわれる。   As part of the plenoptic authoring system, the viewer renders the uploaded data to the user in such a way that the user can visualize it. If the data is in a plenoptic format that humans cannot easily understand as such, this includes a plenoptic model for rendering the plenoptic model in a space understandable by the user. A step of using a optic rendering module may be included. The viewer constitutes a tool for manipulating plenoptic data and placing annotations at the desired position and orientation in relation to a given view, but all processing and combinations using plenoptic annotation Is performed directly in the plenoptic space.

一実施形態において、プレノプティックモデルは2Dビューとしてレンダリングされ得、こうしてユーザーは一度に1つの視点からかつ一度に1つのフォーカス距離でそれを視覚化できるようになり、こうして、ユーザーはプレノプティックモデルを理解し編集することができるようになる。一方の2Dビューから他方の2Dビューへとナビゲートするためにはリクエストがあった時点で別の2Dビューを表示できるように制御機構が利用可能である。   In one embodiment, the plenoptic model may be rendered as a 2D view, thus allowing the user to visualize it from one viewpoint at a time and one focus distance at a time, thus allowing the user to You will be able to understand and edit ptick models. In order to navigate from one 2D view to the other 2D view, a control mechanism is available so that another 2D view can be displayed upon request.

別の実施形態においては、光線の異なる方向を視覚化することのできる、部分的3Dシーンとしてプレノプティックモデルをレンダリングしてよい。標準的な完全な3Dシーンとの主たる差異は、プレノプティックモデルからレンダリングされた時点で3Dシーンの探索が制限されるということにある。例えば、ビュー方向ならびにビュー位置は、プレノプティックキャプチャデバイスによってキャプチャされていたものに限定される。   In another embodiment, the plenoptic model may be rendered as a partial 3D scene that can visualize different directions of rays. The main difference from a standard full 3D scene is that the search for 3D scenes is limited when rendered from a plenoptic model. For example, the view direction as well as the view position are limited to those that have been captured by the plenoptic capture device.

ステップ151において、ユーザーは、プレノプティックモデルの特定の要素またはロケーションと結びつけたいプレノプティックアノテーションを選択する。すでに言及した通り、プレノプティックアノテーションはプレノプティック空間内で定義づけされ、したがって光線により記述される。これらの光線は、例えばテキスト、画像、ビデオまたはプレノプティック画像光線に対して直接作用する他の要素を記述することができる。プレノプティックアノテーションは、データベース内またはファイルエクスプローラなどの中のプレノプティックアノテーションライブラリからリトリーブされてよい。プレノプティックアノテーションはまた、例えばプレノプティックキャプチャデバイスでそれをキャプチャすることによって、テキストエディタを用いてテキストを入力することによって、画像を描画することによって、および/または音声またはビデオを記録することによって、オンザフライで作り出すこともできる。   In step 151, the user selects a plenoptic annotation that he wishes to associate with a particular element or location of the plenoptic model. As already mentioned, plenoptic annotation is defined in plenoptic space and is therefore described by rays. These rays can describe, for example, text, images, video or other elements that act directly on the plenoptic image rays. Plenoptic annotation may be retrieved from a plenoptic annotation library in a database or in a file explorer or the like. Plenoptic annotation can also record for example by capturing it with a plenoptic capture device, by entering text using a text editor, by drawing an image, and / or recording audio or video To make it on the fly.

一実施形態において、プレノプティックアノテーションを、プレビューとしてオーサリングシステム上のリストまたはライブラリ内に提示することができる。プレノプティックアノテーションプレビューは、デフォルトビューのためのアノテーションのレンダリングに対応する。このデフォルトビューは、ランダムに取ることができ、あるいは好ましい実施形態においては、位置および方向のプレノプティックアノテーション範囲に関してセンタービューに対応するものとして取ることができる。プレビューにより、ユーザーは、プレノプティックアノテーションが何に対応しているかについて迅速かつ明確に認識することができる。モデルの波長に作用しないアノテーションの一般的タイプのアノテーションすなわち、そのままで視覚化できないアノテーションについて、プレビューは、オーサリングシステムによりレンダリングされた現在のモデルビューのセンターに適用されるアノテーションを示す。したがって、このタイプのアノテーションが単に全てのモデル光線を10°回転させる効果しか有さない場合、プレビューは現在のモデルレンダリングされたビューの、各光線が10°回転させられているセンター部分で構成されることになる。   In one embodiment, plenoptic annotation can be presented as a preview in a list or library on the authoring system. The plenoptic annotation preview corresponds to the rendering of the annotation for the default view. This default view can be taken randomly or, in the preferred embodiment, can be taken to correspond to the center view in terms of position and orientation plenoptic annotation ranges. The preview allows the user to quickly and clearly recognize what the plenoptic annotation corresponds to. For a general type of annotation that does not affect the wavelength of the model, ie, an annotation that cannot be visualized as it is, the preview shows the annotation applied to the center of the current model view rendered by the authoring system. Thus, if this type of annotation only has the effect of rotating all model rays by 10 °, the preview consists of the center portion of the current model rendered view where each ray is rotated by 10 °. Will be.

ステップ152では、ユーザーは、自らプレノプティックアノテーションを付加したい選択された基準モデルの、レンダリングされたビューの座標系内の1つの位置を、プレノプティックアノテーションオーサリングシステムを用いて選択する。これは、例えば、所望のロケーションで、表示されたビューのトップにあるアノテーションプレビューリストからアノテーションをドラッグすることによって、および場合によって、アノテーションを移動(translating)、回転、サイズ変更、クロッピングおよび/または他の形で編集することによって行なうことができる。代替的には、ユーザーはまた、制御パネル内に数値として座標を入力してもよい。   At step 152, the user selects a position in the rendered view coordinate system of the selected reference model to which he / she wants to add plenoptic annotation using the plenoptic annotation authoring system. This can be done, for example, by dragging the annotation from the annotation preview list at the top of the displayed view at the desired location, and possibly translating, rotating, resizing, cropping and / or others. It can be done by editing in the form of Alternatively, the user may also enter coordinates as numerical values in the control panel.

ステップ152’において、ユーザーは、アノテーション光線のパラメータを調整してアノテーションの別のビューを生成することができる。ユーザーが、例えばアノテーションの配向を変更するためにコンピュータマウスポインタなどを用いてアノテーションのパラメータを変更するにつれて、アノテーションの光線はプレノプティックモデルの光線と組合わされ、各々の新しい位置または新しい配向について新しい2Dビューがビューワ内で生成される。これは、ユーザーのマウスポインタおよびその動きがプレノプティック空間に対し投影されることから可能になっている。ポインタの動きは、このとき、2Dのレンダリング済みビューに対応する仮想平面に対し平行な平面内でアノテーションに適用される。   In step 152 ', the user can adjust the parameters of the annotation ray to generate another view of the annotation. As the user changes the annotation parameters, for example using a computer mouse pointer to change the orientation of the annotation, the annotation rays are combined with the plenoptic model rays for each new position or new orientation. A new 2D view is generated in the viewer. This is possible because the user's mouse pointer and its movement are projected onto the plenoptic space. The pointer movement is then applied to the annotation in a plane parallel to the virtual plane corresponding to the 2D rendered view.

プレノプティックモデルおよびアノテーションの光線がひとたび組合わされると、アノテーションの効果は基準画像の光線に適用される。プレノプティックアノテーションをスーパーインポーズするプロセスは、光線を修正するプロセスとして考えることができる。キャプチャされたプレノプティックデータは、各光線についての光線方向、波長(すなわち色)に関する情報を含むことができ、したがって、アノテーションをこれらのパラメータの修正とみなすことができる。例えば、オブジェクトの表面上にテキストを添付することは、表面上の特定のエリアにおける光線の波長の修正と考えることができる。   Once the plenoptic model and annotation rays are combined, the annotation effect is applied to the reference image rays. The process of superimposing plenoptic annotation can be thought of as a process of modifying rays. The captured plenoptic data can include information about the ray direction, wavelength (ie, color) for each ray, and thus annotation can be considered a modification of these parameters. For example, attaching text on the surface of an object can be thought of as a modification of the wavelength of a ray in a particular area on the surface.

アノテーションにより生成される効果のタイプは、アノテーション自体により決定される。一実施形態において、プレノプティックアノテーションは例えば、不透明テキストでのみ構成される。この場合、モデル光線の波長は、マッピングされた光線についてのアノテーション光線波長により完全に置換される。他のアノテーションについては、モデルのテクスチャを変更するアノテーションを考慮に入れることによって、モデルの光線は、新しいテクスチャを反映するため、その方向がアノテーションによって変更されるかもしれない。さらに別の実施例では、モデル光線の位置をアノテーションによって変更してもよい。   The type of effect generated by the annotation is determined by the annotation itself. In one embodiment, plenoptic annotation consists only of opaque text, for example. In this case, the wavelength of the model ray is completely replaced by the annotation ray wavelength for the mapped ray. For other annotations, by taking into account annotations that change the texture of the model, the ray of the model reflects the new texture, so its direction may be changed by the annotation. In yet another embodiment, the position of the model ray may be changed by annotation.

プレノプティックアノテーションを、光線を修正するフィルターと考えることが可能である。こうして、アノテート済みシーンを表示するより多くの可能性が提供される。この処理のさらなる1つの例は、光線の方向を改変することである。一実施形態として、光線の方向に対しランダム性を付加することによって、キャプチャされたプレノプティック画像内の特定のオブジェクトから入射する光線に対し、グロー効果(glow effect)を適用することができる。アノテート済みオブジェクトには、反射性が付与され得る。別の例は、テクスチャ情報の修正などの表面特性の修正である。プレノプティックアノテーションは、方向および波長などの光線の変数の修正を可能にすることから、変数の修正を組合わせることによりあたかもテクスチャがその上に付加されるかのようにオブジェクトの表面を修正することが可能である。例えば、プレノプティックアノテーションは、方向および波長を修正することによって、赤色の平担な表面を黄色のでこぼこした(lumpy)表面に変えることを可能にする。   Plenoptic annotation can be thought of as a filter that corrects rays. This provides more possibilities for displaying annotated scenes. One further example of this process is to modify the direction of the rays. In one embodiment, a glow effect can be applied to rays incident from a particular object in the captured plenoptic image by adding randomness to the direction of the rays. . Annotated objects can be given reflectivity. Another example is modification of surface properties such as modification of texture information. Plenoptic annotation allows modification of ray variables such as direction and wavelength, so combining the modification of variables modifies the surface of the object as if a texture were added on top of it Is possible. For example, plenoptic annotation allows a red flat surface to be changed to a yellow lumpy surface by modifying the direction and wavelength.

モデル光線に対するアノテーションの効果を記述する情報は、ステップ154に記載の通り、プレノプティックアノテーションアレイ内に記憶されてよい。   Information describing the effect of the annotation on the model ray may be stored in the plenoptic annotation array as described in step 154.

ステップ153において、ユーザーは、1つまたは複数のアノテーションライトフィールドパラメータを選択する。これは、例えば、その色を変更する目的で、アノテーションの波長であり得る。ユーザーは同様に、異なる方向から見た同じアノテーションについての異なる外観、さらには異なる方向から見た同じ要素に結びつけられた異なるアノテーションを定義づけしてもよい。   In step 153, the user selects one or more annotation light field parameters. This can be the wavelength of the annotation, for example for the purpose of changing its color. The user may similarly define different appearances for the same annotation as seen from different directions, as well as different annotations associated with the same element as seen from different directions.

代替的には、レンダリングされたプレノプティックモデル上でひとたびうまく調整された時点で、ユーザーは、プレノプティックビューワーの別のビューまでナビゲートすることを選択できる。プレノプティックアノテーションは、プレノプティックモデルの新しいビュー上で自動的に報告される。ユーザーはこのとき、アノテーションを編集し、この特定のビューについてそのライトフィールドパラメータまたは外観を変更することを決定できる。ユーザーは、プレノプティックモデルの利用可能なビュー全てについて同じ様に続行することができる。   Alternatively, once successfully adjusted on the rendered plenoptic model, the user can choose to navigate to another view of the plenoptic viewer. Plenoptic annotation is automatically reported on the new view of the plenoptic model. The user can then edit the annotation and decide to change its light field parameters or appearance for this particular view. The user can proceed in the same way for all available views of the plenoptic model.

ユーザーがプレノプティックモデルの全てのビューを通ってナビゲートする必要がないようにするため、プレノプティックアノテーションの第1および第2のビューの間で、補間(interpolation)プロセスを行なってもよい。プレノプティックアノテーションのこれら2つのビューは、連続したものである必要はない。ユーザーは、2つのビューの中のアノテーションの外観を特定しなければならず、プレノプティックオーサリングシステムは、プレノプティックアノテーションの中間ビューを自動的に生成する。アノテーションと結びつけられなかったプレノプティックモデルの他のビューは、それを表示せず、その結果、シーンの特定の視点または焦平面(focal planes)についてのアノテーションをレンダリングしない可能性が出てくる。   An interpolation process is performed between the first and second views of the plenoptic annotation so that the user does not have to navigate through all the views of the plenoptic model. Also good. These two views of plenoptic annotation need not be contiguous. The user must specify the appearance of the annotation in the two views, and the plenoptic authoring system automatically generates an intermediate view of the plenoptic annotation. Other views of the plenoptic model that are not associated with annotations do not display it, and as a result, may not render annotations for specific viewpoints or focal planes of the scene .

プレノプティックアノテーションは、光線に対応し1組のパラメータと共に記述されるデータを含んでいてよい。第1の特定のビューのためにプレノプティックアノテーションをレンダリングする場合、ビューワはいくつかのパラメータを設定し、他のパラメータはユーザーが修正できるようにしておく。このビューから第2のビューへナビゲートして、ユーザーは、ビューワが定めなければならないパラメータを変更し、その一方で他のパラメータは修正できる。補間プロセスは、これら2つのビューの間でプレノプティックアノテーションの光線パラメータを自動的に計算する。   A plenoptic annotation may include data that corresponds to a ray and is described with a set of parameters. When rendering plenoptic annotation for the first specific view, the viewer sets some parameters, while others allow the user to modify. Navigating from this view to the second view, the user can change the parameters that the viewer must define, while other parameters can be modified. The interpolation process automatically calculates the ray parameters of the plenoptic annotation between these two views.

一実施形態において、各プレノプティックアノテーションのパラメータは、以下の通りであってよい:空間内の光線位置について3つ(あるいは場合によっては2つ)のパラメータ、その方向についての2つのパラメータ、その波長についての1つのパラメータ、そして場合によっては時間についての1つのパラメータ。プレノプティックビューワによりレンダリングされる特定のビューについては、例えば位置、方向および時間のパラメータをビューワが設定してよい。このときユーザーは、ビューワによって定められていないパラメータを変更することができ、これは、この例では光線の波長に対応している。ここで、ユーザーがそれを第1の値v1に設定するものと仮定しよう。ここで、アノテーションの別のビューについて、すなわち位置、方向および時間パラメータの異なる値について、ユーザーが第2のビューについての波長値を変更し、それを例えばv2に設定すると仮定しよう。補間プロセスは、第1および第2のビューと結びつけられた位置、方向および時間パラメータの中間において、ビューについてv1とv2の間のアノテーション値を計算することを目的とする。他の実施形態においては、補間にはまた、位置、方向、波長および/または時間を含めたプレノプティックデータの他のパラメータについての値を計算することも考慮されてよい。   In one embodiment, the parameters of each plenoptic annotation may be as follows: three (or possibly two) parameters for ray position in space, two parameters for its direction, One parameter for that wavelength, and possibly one parameter for time. For a particular view rendered by the plenoptic viewer, the viewer may set parameters such as position, direction and time, for example. The user can then change parameters not defined by the viewer, which in this example corresponds to the wavelength of the light beam. Now assume that the user sets it to the first value v1. Now suppose that for another view of the annotation, ie for different values of position, direction and time parameters, the user changes the wavelength value for the second view and sets it to eg v2. The interpolation process aims to calculate an annotation value between v1 and v2 for the view in the middle of the position, direction and time parameters associated with the first and second views. In other embodiments, the interpolation may also consider calculating values for other parameters of the plenoptic data including position, direction, wavelength, and / or time.

補間の具体例としては、例えば、オレンジ色からより赤味がかった色などへと移行するプレノプティックアノテーションの色の変更、特定のビューについてアノテーションが可視的である一方で別のビューについては不可視である場合のアノテーションの可視性の変更、が含まれる。   Specific examples of interpolation include, for example, changing the color of a plenoptic annotation that transitions from orange to a more reddish color, for example, while an annotation is visible for a particular view, Includes changing the visibility of annotations when they are invisible.

例えば、アノテーションの2つのビューの間の線形補間、二次補間またはより大きい次数の補間を含めた、異なる補間方法が可能である。同様に、より高度の補間方法では、アノテーションの新しい光線を生成するために、シーンまたはアノテーションそれ自体の他の特性が考慮に入れられる可能性がある。   Different interpolation methods are possible, including, for example, linear interpolation, quadratic interpolation or higher order interpolation between the two views of the annotation. Similarly, more advanced interpolation methods may take into account other characteristics of the scene or the annotation itself to generate a new ray of annotation.

ステップ153’では、キャプチャされた画像上にアノテーションが表示された時に、アノテーションの全てまたは一部に1つのアクションを結びつけることもできる。これらのアクションは、ユーザーがトリガーすることができ、あるいは例えばタイマーなどを用いて自動的に実行することもできる。アクションには、特定のURLでウェブブラウザを起動させること、1つのアノテーションを移動させる、出現させるまたは消滅させるなど、アノテーションをアニメーションさせること、ビデオを再生すること、考えられるさらなるアクションを提示するメニューを起動させること、スライドショーを起動すること、またはオーディオファイルを再生すること、が含まれる。ユーザーに提供されるプレノプティックデータのビューを修正できるようにするアクション、例えば、所与の焦点距離においてプレノプティックデータのビューを焦点合せできるようにするアクションも同様に可能である。   In step 153 ', when an annotation is displayed on the captured image, one action may be associated with all or part of the annotation. These actions can be triggered by the user, or can be performed automatically using, for example, a timer. Actions include launching a web browser at a specific URL, moving an annotation, making it appear or disappear, animating the annotation, playing a video, and a menu that presents further possible actions. Activating, activating a slide show, or playing an audio file. Actions that allow a view of the plenoptic data provided to the user to be modified are also possible, for example, actions that allow the view of the plenoptic data to be focused at a given focal length.

ステップ154において、プレノプティックアノテーションはメモリー、例えばデータベース51またはユーザーデバイス内に記憶され、対応する位置、配向および選択された基準プレノプティックモデルと結びつけられる。必要とされているアノテーションがわかっているため、各々の基準プレノプティックモデルに添付されたアノテーションをプレノプティックフォーマットに記憶することが可能である。各アノテーションは、別個のプレノプティックファイルとして記憶される。   In step 154, the plenoptic annotation is stored in memory, eg, database 51 or user device, and associated with the corresponding location, orientation, and selected reference plenoptic model. Since the required annotations are known, it is possible to store the annotations attached to each reference plenoptic model in a plenoptic format. Each annotation is stored as a separate plenoptic file.

プレノプティックアノテート済み基準データは、プレノプティック基準データおよび対応する1つまたは複数のプレノプティックアノテーションから生成される。この拡張現実モデルは、その付随するアノテーションと共にプレノプティックモデルをレンダリングし戻すのに必要とされる情報を全て含むファイルの形をとる。したがって、それは、プレノプティック基準データとそのアノテーションの間の関係を記述する。プレノプティックアノテート済み基準データは、プレノプティックアノテーションオーサリングシステム上で直接レンダリングされて結果を予め視覚化することができるだけでなく、クライアント側でレンダリングされて、一部のプレノプティック拡張現実をレンダリングすることもできる。   The plenoptic annotated reference data is generated from the plenoptic reference data and the corresponding one or more plenoptic annotations. This augmented reality model takes the form of a file that contains all the information needed to render the plenoptic model back with its accompanying annotations. It therefore describes the relationship between plenoptic reference data and its annotations. Plenoptic annotated reference data can be rendered directly on the plenoptic annotation authoring system to pre-visualize the results, as well as rendered on the client side for some plenoptic extensions You can also render reality.

モデル光線に対するアノテーションの効果を記述する情報は、プレノプティックアノテーションデータ内に記憶される。アノテーションにより定義される修正は、モデル光線パラメータに作用する。結果として、アノテーションは、例えば、モデル光線の方向、位置、時間または波長の修正を記述することができる。換言すると、この情報は、モデル光線の一関数を記述する。   Information describing the effect of the annotation on the model ray is stored in the plenoptic annotation data. Modifications defined by annotations affect the model ray parameters. As a result, the annotation can describe, for example, a modification of the direction, position, time or wavelength of the model ray. In other words, this information describes a function of the model rays.

アノテーションのクリエイト時に、アノテーションの各光線に対して一意的識別子が割当てられる。オーサリングシステム上でアノテーションを適用する場合、アノテーション光線の一意的識別子は、モデルのそれらの対応する光線にマッチされる。その結果、モデルの各光線にはアノテーション光線識別子が割当てられ、この識別子はその後、例えば主としてオンラインフェーズの場合そうであるようにシステムがモデル上にアノテーションを光線毎に適用しなければならない場合にシステムによって使用される。   At the time of annotation creation, a unique identifier is assigned to each ray of the annotation. When applying annotations on the authoring system, the unique identifiers of the annotation rays are matched to their corresponding rays in the model. As a result, each ray of the model is assigned an annotation ray identifier, which is then used when the system must apply annotations on the model for each ray, as is the case, for example, mainly in the online phase. Used by.

アノテーション情報は、2次元アレイ内に記憶され得、ここで各光線は、各パラメータについてモデルに対するその効果に関する情報を含む。アノテーション光線の一意的識別子は、このとき、各パラメータについてのアレイ内の対応する光線効果を定義するために使用される。換言すると、アレイの第1の次元は、その識別子で参照される光線に対応し、第2の次元はそれらのパラメータ、すなわちライトフィールドパラメータに対応する。任意のパラメータについてのモデル光線のいかなる修正もアレイ内で表現され得ることからこのフォーマットを用いて、いかなるアノテーションでも完全に表現することができる。   Annotation information can be stored in a two-dimensional array, where each ray contains information about its effect on the model for each parameter. The unique identifier of the annotation ray is then used to define the corresponding ray effect in the array for each parameter. In other words, the first dimension of the array corresponds to the ray referenced by its identifier, and the second dimension corresponds to those parameters, ie the light field parameters. This format can be used to fully represent any annotation, since any modification of the model ray for any parameter can be represented in the array.

一実施形態において、アノテーションは例えば、1つの角度について10°全てのモデル光線方向を修正することができる。以下の表1で示されている通り、このとき2次元アレイは、方向角度に対応するパラメータの縦列(column)内に10°を含む。光線は全て同じ形で作用するものと仮定されていることから、縦列には全ての光線について10°と記される。その対応するモデル光線に対するアノテーションの効果を適用したい場合、システムは第1にアノテーションとモデル光線の対を識別し、アノテーション光線に対応する一意的識別子を抽出し、アノテーションテーブルを詳しく調べて、このアノテーション光線がどのような効果を有しているかを見、こうして最終的にこの変更をモデル光線に適用する。この例において、アノテーションによる影響を受けた全てのモデル光線の角度は、10°回転させられる。   In one embodiment, the annotation can modify all model ray directions, for example, 10 ° for one angle. As shown in Table 1 below, the two-dimensional array now includes 10 ° in a parameter column corresponding to the directional angle. Since all rays are assumed to act in the same way, the column is marked 10 ° for all rays. If you want to apply the annotation effect on the corresponding model ray, the system first identifies the annotation and model ray pair, extracts the unique identifier corresponding to the annotation ray, examines the annotation table in detail, See what effect the ray has and thus finally apply this change to the model ray. In this example, the angles of all model rays affected by the annotation are rotated by 10 °.

Figure 2016511850
Figure 2016511850

オフラインフェーズの一例として、ユーザーは、建物を含むシーンに対してテキストアノテーションを付加したいと考えるかもしれない。その上、テキストアノテーションの色は、1つの視点と別の視点の間で変動する必要がある。このとき、ユーザーは以下のステップを行なう:
1.建物のプレノプティックキャプチャが、プレノプティックアノテーションオーサリングシステムにアップロードされる。
2.キャプチャされたプレノプティック画像から2Dビューがレンダリングされ、ユーザーに提示される。
3.ユーザーは、アノテーションタイプリストからテキストアノテーションタイプを選択し、自らのテキストを入力し、テキストアノテーションを、レンダリングされた2Dビュー上にドラッグする。
4.ユーザーは、レンダリングされた2Dビューの視点またはアノテーションの位置および配向を移動させて、アノテーションが正にユーザーの望むように見えるようにすることができる。
5.ユーザーは、現在のレンダリングされた視点についてテキストの色を設定する。
6.ユーザーは、レンダリングされたプレノプティック画像の視点を別の位置まで移動させる。
7.ユーザーは、この他の視点について別の値にテキストの色を設定する。
8.プレノプティックアノテーションモデルがセーブされ、アノテーションプロセスのオンラインフェーズのために使用できる状態になる。
As an example of an offline phase, a user may wish to add text annotation to a scene that includes a building. In addition, the color of the text annotation needs to vary between one viewpoint and another viewpoint. The user then takes the following steps:
1. A plenoptic capture of the building is uploaded to the plenoptic annotation authoring system.
2. A 2D view is rendered from the captured plenoptic image and presented to the user.
3. The user selects a text annotation type from the annotation type list, enters his text, and drags the text annotation onto the rendered 2D view.
4). The user can move the position and orientation of the rendered 2D view viewpoint or annotation so that the annotation looks exactly what the user wants.
5. The user sets the text color for the current rendered viewpoint.
6). The user moves the viewpoint of the rendered plenoptic image to another position.
7). The user sets the text color to a different value for this other viewpoint.
8). The plenoptic annotation model is saved and ready for use for the online phase of the annotation process.

プレノプティックアノテーションオーサリングシステムは、以下のタスクを実施して、テキストアノテーションについての先に記述したユーザーアクションステップに基づいて、適正なアノテーションモデルを生成する。
1.デフォルト値に当初設定された視点設定値に基づいて、2Dビューがユーザーに対してレンダリングされる。
2.テキストオブジェクトから仮想視点まで光線を追跡することにより、テキストアノテーションのプレノプティックバージョンが生成される。これにより、各々一意的識別子により記述される1組の光線が創出される。この光線セットがテキストを記述する。これらの光線は、メモリー内で基準プレノプティック画像に適用されなければならない修正に対応するアレイにより表現される。この場合、アレイは、アノテーション光線とマッチングされる光線がとらなければならない波長の値を含む。
3.アノテーションは当初、オーサリングツール内で予め定義されたデフォルト位置にある。アノテーション光線は、基準プレノプティック画像光線と組合わされる。基準画像の光線とアノテーションの間のこれらの関係は、光線の一意的識別子を使用することにより、将来の使用のために記憶される。
4.ユーザーが、例えばコンピュータのマウスポインタを用いてアノテーションの配向を移動/変更するにつれて、アノテーションの異なる光線が、キャプチャされたプレノプティック画像の他の光線と組合わされ、各位置または配向修正について新しい2Dビューが生成される。これは、ユーザーのマウスポインタがプレノプティック空間内に投影されるので可能となる。このとき、ポインタの移動が、2Dのレンダリングされたビューに対応する仮想平面に平行な平面内でアノテーションに対し適用される。アノテーションが移動させられるにつれて、基準画像とアノテーションの間の光線の関係は、アノテーションの位置または配向の変更にしたがって変更され更新される。
5.ユーザーが、現在の視点についてテキスト用の色を選択した時点で、アノテーションアレイの波長値は選択された色と整合するように変更される。
6.新しい視点が選択され、新しいテキストの色が選択された時点で、この新しいレンダリングされたビューを生成するために使用される光線に対応するアノテーションアレイの波長値は変更される。第1の視点と第2の視点の中間の波長値は、標準のまたは特別な補間方法を用いて補間される。
7.ユーザーがモデルをセーブした時点で、プレノプティックアノテーションアレイは、アップロードされたプレノプティック基準モデルと共にセーブされ、オンラインフェーズ内で使用可能となる。
The plenoptic annotation authoring system performs the following tasks to generate a proper annotation model based on the previously described user action steps for text annotation.
1. A 2D view is rendered to the user based on the viewpoint settings initially set to default values.
2. By tracing the ray from the text object to the virtual viewpoint, a plenoptic version of the text annotation is generated. This creates a set of rays, each described by a unique identifier. This ray set describes the text. These rays are represented in the memory by an array corresponding to the modifications that must be applied to the reference plenoptic image. In this case, the array contains the wavelength values that the ray matched with the annotation ray must take.
3. The annotation is initially in a predefined default position within the authoring tool. Annotation rays are combined with reference plenoptic image rays. These relationships between the reference image rays and the annotations are stored for future use by using the ray unique identifier.
4). As the user moves / changes the orientation of the annotation using, for example, a computer mouse pointer, the different rays of the annotation are combined with the other rays of the captured plenoptic image and new for each position or orientation modification. A 2D view is generated. This is possible because the user's mouse pointer is projected into the plenoptic space. At this time, pointer movement is applied to the annotation in a plane parallel to the virtual plane corresponding to the 2D rendered view. As the annotation is moved, the ray relationship between the reference image and the annotation is changed and updated according to changes in the annotation position or orientation.
5. When the user selects a text color for the current viewpoint, the wavelength value of the annotation array is changed to match the selected color.
6). When a new viewpoint is selected and a new text color is selected, the wavelength values of the annotation array corresponding to the rays used to generate this new rendered view are changed. Wavelength values intermediate between the first viewpoint and the second viewpoint are interpolated using standard or special interpolation methods.
7). When the user saves the model, the plenoptic annotation array is saved with the uploaded plenoptic reference model and can be used in the online phase.

オンラインフェーズ
先に説明した通り、アノテーションプロセス全体におけるオンラインフェーズは、プレノプティック画像をキャプチャするユーザーが、その画像がアノテートされることを望む場合に発生する。
Online Phase As explained above, the online phase of the overall annotation process occurs when a user capturing a plenoptic image wants the image to be annotated.

アノテーションプロセスのオンラインフェーズは、最終的プレノプティックアノテート済み画像を得るために、入力されたプレノプティック画像に対して適用される。これは、入力画像をいくつかの基準モデルとマッチングすること、マッチした基準モデルのアノテーションをリトリーブすること、アノテーションを入力プレノプティック画像と組合わせること、理解可能な形態でユーザーに対しアノテート済みビューをレンダリングすること、そして場合によっては、ユーザーのインタラクションを処理してアノテーションに対する定義された異なるアクションを生成することからなる。   The online phase of the annotation process is applied to the input plenoptic image to obtain the final plenoptic annotated image. It matches the input image with several reference models, retrieves the annotations of the matched reference model, combines the annotation with the input plenoptic image, annotated to the user in an understandable form Rendering the view and possibly processing the user's interaction to generate different defined actions for the annotation.

光線で構成されたアノテーションコンテンツは、プレノプティックフォーマットであり、キャプチャされた画像も同様にプレノプティックフォーマットであることから、これら2つのデータセットは同じ空間内に存在する。こうしてアノテーションは、さらなる投影を必要とせずにプレノプティック画像に直接適用可能である。アノテーションが適用された修正済みプレノプティック空間はこのとき、例えば2Dビュー内に投影され得る。このことはまた、プレノプティックレンダリングプロセスのために選択された投影パラメータ(例えば焦点、深度、視点変更などの選択)が暗にプレノプティックアノテーションにもあてはまるということを意味している。例えば、レンダリングプロセスの焦点または視点を変更する場合、アノテーションはそれらに適用される効果をもつ。   Since the annotation content composed of rays is in the plenoptic format and the captured image is also in the plenoptic format, these two data sets exist in the same space. Thus, the annotation can be applied directly to the plenoptic image without the need for further projection. The modified plenoptic space to which the annotation has been applied can then be projected, for example, into a 2D view. This also means that the projection parameters selected for the plenoptic rendering process (e.g. selection of focus, depth, viewpoint change, etc.) implicitly apply to plenoptic annotation. For example, when changing the focus or viewpoint of a rendering process, annotations have an effect applied to them.

図8に例示されるオンラインプレノプティックアノテーションプロセスは、プレノプティックフォーマットのライトフィールドを表わすデータ(プレノプティックデータ)がリトリーブされる第1のステップ100を含む。プレノプティックデータは、プレノプティックキャプチャデバイスを用いてデータをキャプチャするデバイス4によってリトリーブされるか、または通信リンク上でデバイス4からプレノプティックデータを受信するサーバー5などの装置によってリトリーブされる可能性がある。   The online plenoptic annotation process illustrated in FIG. 8 includes a first step 100 in which data representing a plenoptic format light field (plenoptic data) is retrieved. The plenoptic data is retrieved by a device 4 that captures data using a plenoptic capture device, or by an apparatus such as a server 5 that receives plenoptic data from the device 4 over a communication link. May be retrieved.

ステップ101において、リトリーブされたデータは、基準データとマッチングさせられる。このステップはデバイス4および/またはサーバー5内で実施されてよい。このステップには、例えばUS13645762に記載の通り、キャプチャデータ内のフィーチャセットを決定すること、マッチするフィーチャを伴う基準画像を表わすマッチする基準データを発見すること、およびキャプチャデータと基準データとをレジストレーションする(registering)ことが関与する可能性がある。基準データは、プレノプティックフォーマットの画像または他の画像を表わしていてよく、複数のデバイスからアクセス可能なデータベースなどのメモリー51の中に記憶される可能性がある。マッチする基準データの識別は、ユーザーのロケーション、時間、時刻、シーンの要素から受信した信号、ユーザーおよび/または画像の類似性により提供される指標(indication)に基づくものである可能性がある。レジストレーション(registration)プロセスの目的は、キャプチャされたプレノプティック画像の光線と、マッチされたプレノプティック基準画像由来の光線との間の変換を推定できるように、ユーザーの位置と基準データの間の幾何学的関係を発見することにある。   In step 101, the retrieved data is matched with reference data. This step may be performed in the device 4 and / or the server 5. This step includes determining the feature set in the capture data, finding matching reference data representing a reference image with matching features, and registering the capture data and the reference data, for example, as described in US13645762. Registering may be involved. The reference data may represent plenoptic format images or other images and may be stored in a memory 51 such as a database accessible from multiple devices. Identification of matching reference data may be based on an indication provided by the user's location, time, time, signals received from scene elements, user and / or image similarity. The purpose of the registration process is to estimate the transformation between the captured plenoptic image ray and the ray from the matched plenoptic reference image so that the user's position and reference can be estimated. The goal is to discover geometric relationships between data.

ステップ102では、マッチする基準データと結びつけられたプレノプティックアノテーションが、例えばメモリー51からリトリーブされる。このアノテーションは、プレノプティックフォーマットである。すなわち光線により記述される。これらのアノテーション光線は、例えばテキスト、静止画像、ビデオ画像、ロゴ、および/またはプレノプティック画像光線上に直接作用する他の要素を表わしてよい。   In step 102, the plenoptic annotation associated with the matching reference data is retrieved from the memory 51, for example. This annotation is a plenoptic format. That is, it is described by light rays. These annotation rays may represent, for example, text, still images, video images, logos, and / or other elements that act directly on the plenoptic image rays.

アノテーションは、プレノプティック空間内の音声、例えばプレノプティック基準画像の特定の光線群に添付される音声を含み、こうして選択された光線がプレノプティック画像内でも可視的でかつ/または焦点が合っている一部の方向についてのみ、音声が再生されるようになっていてよい。   Annotations include sound in the plenoptic space, for example sound attached to a specific group of rays in the plenoptic reference image, so that the selected rays are visible in the plenoptic image and / or Alternatively, the sound may be played back only in a part of the directions in focus.

ステップ103では、プレノプティックフォーマットのリトリーブ済みアノテーションは、キャプチャされたプレノプティックデータと組合わされて、プレノプティックフォーマットでアノテート済み画像を表わすアノテート済みデータを生成する。この組合せは、サーバー5内またはデバイス4内で行われるかもしれない。後者の場合、サーバー5は、アノテートされたデータをデバイス4に対して送信してよく、デバイス4は次に組合せを行なう。このアノテーション組合せは、キャプチャされたプレノプティック画像に対して基準画像の光線を投影する変換がマッチングステップ(ステップ101)から既知であるがゆえに、可能になっている。したがってアノテーションは、キャプチャプレノプティック画像(captured plenoptic image)に対しても適用され得る。   In step 103, the retrieved annotations in the plenoptic format are combined with the captured plenoptic data to generate annotated data representing the annotated image in the plenoptic format. This combination may take place in the server 5 or in the device 4. In the latter case, the server 5 may send the annotated data to the device 4, which then performs the combination. This annotation combination is possible because the transformation that projects the rays of the reference image onto the captured plenoptic image is known from the matching step (step 101). Thus, annotations can also be applied to captured plenoptic images.

プレノプティックアノテーションは、以下の方法を用いて、キャプチャプレノプティック画像に適用され得る:
1.図8のステップ100でリトリーブされたオンラインプレノプティック画像光線上に基準プレノプティック画像光線を投影するための変換を発見する;
2.オフラインフェーズ内で定義された基準プレノプティック画像の各々のリトリーブされたアノテーションについて:
1.オフラインフェーズ内で定義されたアノテーションアレイを読取ることにより、アノテーションにしたがって、基準プレノプティック画像のどの光線を修正しなければならないかを識別し選択する。
2.項目(1)で識別された光線をオンラインプレノプティック画像上に投影する。これにより、基準プレノプティック画像の選択された光線とキャプチャプレノプティック画像由来の光線の間の対応関係が作り出される。
3.項目(2)で選択されたキャプチャプレノプティック画像の各光線について、プレノプティックアノテーションアレイ内に定義された通りに光線に対し変換を適用する。アレイはルックアップテーブルとして使用され、そこではステップ(1)および(2)の選択プロセスによって識別可能である光線および変換のパラメータ(例えば波長、方向、...)がルックアップキーとして使用される。
Plenoptic annotation can be applied to a captured plenoptic image using the following method:
1. Find a transformation to project the reference plenoptic image ray onto the online plenoptic image ray retrieved in step 100 of FIG. 8;
2. For each retrieved annotation of the reference plenoptic image defined within the offline phase:
1. By reading the annotation array defined within the offline phase, it identifies and selects which rays of the reference plenoptic image should be modified according to the annotation.
2. Project the ray identified in item (1) onto the online plenoptic image. This creates a correspondence between the selected ray of the reference plenoptic image and the ray derived from the capture plenoptic image.
3. For each ray of the captured plenoptic image selected in item (2), a transformation is applied to the ray as defined in the plenoptic annotation array. The array is used as a lookup table, where the ray and transformation parameters (eg, wavelength, direction, ...) that are identifiable by the selection process of steps (1) and (2) are used as lookup keys. .

一例として、アノテーション光線がテキストを表わす場合、アノテーションアレイは、テキストの色に対応する波長である単一のnullではないライトフィールドパラメータを含む。こうして、キャプチャプレノプティック画像光線は、光線の波長をアノテーションアレイ内に記憶された係数(factor)だけ増減させることによって修正される。この係数は、レジストレーションプロセス中に計算された光線間の変換を使用することによってアレイ内でルックアップされる。   As an example, if the annotation ray represents text, the annotation array includes a single non-null light field parameter that is the wavelength corresponding to the color of the text. Thus, the captured plenoptic image ray is modified by increasing or decreasing the ray wavelength by a factor stored in the annotation array. This coefficient is looked up in the array by using the conversion between rays calculated during the registration process.

ステップ104では、ビューが、例えば2Dまたは立体ビューなど、アノテーションデータからレンダリングされ、例えばディスプレー40上または別の装置を用いて表示されて、ユーザー/ビューワに対し提示される。このビューレンダリングプロセスは、図9と併せて以下でさらに詳述されている。   In step 104, the view is rendered from annotation data, such as a 2D or stereoscopic view, and displayed on the display 40 or using another device and presented to the user / viewer. This view rendering process is described in further detail below in conjunction with FIG.

ステップ105では、アノテーションとのインタラクションが可能にされる。システムは、アノテーションプロセスのオフライン部分の中で先に定義した特定のアクションを実行するために異なるイベントに対し反応することができる。このようなイベントは、アノテーションとのユーザーインタラクションであり得る。タッチスクリーン、ハンドトラッキングセンサーまたは任意の他の入力デバイスを用いて、ユーザーは所与のアノテーションをポイントしそれとインタラクトすることができる。このインタラクションは、アノテーションプロセスのオフラインフェーズにおいて定義される特定のアクションをトリガーできるインタラクションイベントを生成するであろう。   In step 105, interaction with the annotation is enabled. The system can react to different events to perform the specific actions defined earlier in the offline part of the annotation process. Such an event can be a user interaction with the annotation. Using a touch screen, hand tracking sensor or any other input device, the user can point to and interact with a given annotation. This interaction will generate an interaction event that can trigger a specific action defined in the offline phase of the annotation process.

考えられる別のタイプのイベントは、シーン内の特定の変更が検出された場合にトリガーされるイベントである。本節中で後で説明する通り、キャプチャプレノプティック画像内の基準モデルのオブジェクトによる閉塞(occlusion)が検出される可能性がある。この閉塞イベントは、アノテーションプロセスのオフラインフェーズの中で先に定義されたアクションをトリガーし得る。アノテーションアクションをトリガーする考えられるイベントの別の例として、検出された音声の一定のタイプに基づいて一定のアクションをトリガーするために、音声認識モジュールを使用することができる。   Another possible type of event is an event that is triggered when a specific change in the scene is detected. As will be described later in this section, occlusion due to objects of the reference model in the captured plenoptic image may be detected. This occlusion event may trigger an action previously defined during the offline phase of the annotation process. As another example of a possible event that triggers an annotation action, a speech recognition module can be used to trigger a certain action based on a certain type of detected speech.

図9は、ビューのレンダリングおよびビューワーがその後レンダリングを修正するさまざまな可能性を示している。先に指摘した通り、キャプチャされたビューから生成されたアノテート済みデータから、そして先に図8を用いて記述した通り、プレノプティックフォーマットのアノテーションデータから、ステップ104において、拡張現実ビューがレンダリングされる。レンダリングされたビューは、ピンホールカメラにより生成されるような標準的2Dビュー、立体ビュー、ビデオ、プレノプティックデータのホログラフィ投影、または好ましくは視点を再度焦点合せしかつ/または変更するためのいくつかのコマンドを用いて画像を提示する動画像モジュール(dynamic image module)であってよい。動画像モジュールは、コマンド値の一関数としてかまたはフラッシュオブジェクトとしてプレノプティック画像をレンダリングできるHTML5/Javascriptウェブページ、あるいは複数の画像の動的提示を可能にする他の技術であり得る。ステップ104の間にレンダリングされてよいビューの例は、図5A、6Aおよび7Aに示されている。図5Aおよび6A上のビューは、アノテーション61を伴うオブジェクト60を含む。図7Aのビューには、異なる深度で、したがって焦点外で、追加のオブジェクト62も見られる。再焦点合せまたは視点変更は、ユーザーによって手動で(例えば画像上またはその周りのオブジェクトまたは位置を選択することにより)、あるいは自動で(例えばユーザーが移動した場合)トリガーされ得る。   FIG. 9 illustrates the view rendering and various possibilities for the viewer to subsequently modify the rendering. As pointed out above, the augmented reality view is rendered in step 104 from the annotated data generated from the captured view, and from the plenoptic format annotation data as previously described with reference to FIG. Is done. The rendered view can be a standard 2D view, as generated by a pinhole camera, a stereoscopic view, a video, a holographic projection of plenoptic data, or preferably for refocusing and / or changing the viewpoint. It may be a dynamic image module that presents an image using several commands. The video module can be an HTML5 / Javascript web page that can render a plenoptic image as a function of command values or as a flash object, or other technology that allows for the dynamic presentation of multiple images. Examples of views that may be rendered during step 104 are shown in FIGS. 5A, 6A and 7A. The views on FIGS. 5A and 6A include an object 60 with annotation 61. In the view of FIG. 7A, additional objects 62 are also seen at different depths and thus out of focus. The refocusing or viewpoint change can be triggered manually by the user (eg by selecting an object or position on or around the image) or automatically (eg when the user moves).

ステップ105では、ユーザーは、異なる視点から観察した同じシーンに対応する同じプレノプティックデータからの新規ビューをステップ107中に生成する目的で視点を修正するためにコマンドを入力する。異なる視点またはビューイング方向から見たシーンのさまざまな2D画像をプレノプティックデータから生成するためのアルゴリズムが、そのようなものとして公知であり、例えば米国特許第6222937号中に記載されている。このコマンドにより生成され視点選択モジュール403によって実行される修正済み2D画像の一例が、図5Bに示されている。ここでわかるように、オブジェクト60の見え方(perspective)のみならずアノテーション61の見え方も同様にこのコマンドによって修正されている。実際、アノテーションは入力されたプレノプティックデータにより表わされるプレノプティック空間上に直接適用されることから、プレノプティック空間からビューが生成された時点で、アノテーションはプレノプティック画像と同じように変換された状態で現われる。こうして、より現実的なアノテーションが生み出される。   In step 105, the user enters a command to modify the viewpoint for the purpose of generating during step 107 a new view from the same plenoptic data corresponding to the same scene viewed from a different viewpoint. Algorithms for generating various 2D images of a scene viewed from different viewpoints or viewing directions from plenoptic data are known as such and are described, for example, in US Pat. No. 6,222,937. . An example of a modified 2D image generated by this command and executed by the viewpoint selection module 403 is shown in FIG. 5B. As can be seen here, not only the appearance of the object 60 (perspective) but also the appearance of the annotation 61 is similarly modified by this command. In fact, the annotation is applied directly on the plenoptic space represented by the input plenoptic data, so when the view is generated from the plenoptic space, the annotation is a plenoptic image. Appears in a converted state in the same way as. This creates a more realistic annotation.

一部のアノテーションは、第1のビューイング方向セットのみから見え、他の方向からは見えないかもしれない。したがって、図6Bに示されている通り、ステップ105中の視点の変更は結果として、1つのアノテーション61が見えなくされるものの同じオブジェクトに結びつけられた新しいアノテーション64が明らかになっている新しいビューをもたらす可能性がある。複数のアノテーションを基準画像の単一のロケーションと結びつけてよいが、この場合ビューイング方向は異なるものである。アノテーション自体は、また、アノテーションプロセスのオフラインフェーズで設定された異なるアノテーションライトフィールドパラメータに起因して、第2の異なるビュー方向に比べて第1のビューイング方向からレンダリングされた場合、異なって見える可能性がある。外観の変化は、アノテーション自体により定義され得るが、入力されたプレノプティック画像の一関数である可能性もある。   Some annotations may only be visible from the first viewing direction set and not from other directions. Thus, as shown in FIG. 6B, the change of viewpoint during step 105 results in a new view in which one annotation 61 is hidden but a new annotation 64 associated with the same object is revealed. There is a possibility to bring. Multiple annotations may be associated with a single location of the reference image, but in this case the viewing direction is different. The annotation itself can also look different when rendered from the first viewing direction compared to the second different viewing direction due to different annotation light field parameters set during the offline phase of the annotation process. There is sex. The change in appearance can be defined by the annotation itself, but can also be a function of the input plenoptic image.

図9のステップ106では、ユーザーは、画像を再焦点合せし、異なる距離に焦点合せされた新しい画像をプレノプティックフォーマットのデータから生成するためのコマンドを入力する。このコマンドは、再焦点合せモジュール402により実行されてよい。図7Aおよび7Bを見ればわかるように、こうして、第1のフォーカス距離で可視的な第1のアノテーション61が図7Bに示された第2のフォーカス距離では消滅するかまたはより不鮮明になり、一方で第2のアノテーション63のみがこの第2のフォーカス距離で現われる結果となる可能性がある。   In step 106 of FIG. 9, the user enters a command to refocus the image and generate a new image focused at a different distance from the data in the plenoptic format. This command may be executed by the refocus module 402. As can be seen from FIGS. 7A and 7B, the first annotation 61 visible at the first focus distance thus disappears or becomes less blurred at the second focus distance shown in FIG. In this case, only the second annotation 63 may appear at the second focus distance.

レンダリングされたビューを変更するためにステップ105および106において使用される異なるコマンドはまた、ユーザーの移動との関係において自動的に発出され得る。一実施形態では、ユーザーの移動は、プレノプティックキャプチャデバイス内に埋め込まれた慣性計測装置(Inertial Measurement Unit:IMU)を用いて追跡される。このモジュールを使用することによって、レンダリングされたビューは、ユーザーが移動するにつれて自動的に更新される。例えば、ユーザーが左に移動した場合、ビューイング方向はわずかに左へと移動させられる。同じ原理は、ユーザーが前方に移動する場合にも適用され、ここでは、焦点合せ範囲も同様に前方に移動させられ、先にレンダリングされたビューに比べて、背景平面内でより鮮明なオブジェクトを、そして前景平面内でよりソフトなオブジェクトを生み出す。本発明は、ユーザーの移動を追跡するのにIMUの使用に限定されていない。ユーザーの移動を追跡するために直接プレノプティック画像のコンテンツを使用することなどの他の手段を用いることも可能である。   The different commands used in steps 105 and 106 to change the rendered view can also be issued automatically in the context of user movement. In one embodiment, user movement is tracked using an inertial measurement unit (IMU) embedded in the plenoptic capture device. By using this module, the rendered view is automatically updated as the user moves. For example, if the user moves to the left, the viewing direction is moved slightly to the left. The same principle applies when the user moves forward, where the focus range is moved forward as well, making the object clearer in the background plane compared to the previously rendered view. And create softer objects in the foreground plane. The present invention is not limited to the use of an IMU to track user movement. Other means such as using the content of the plenoptic image directly to track user movement can also be used.

別の実施形態では、移動中のユーザーのプレノプティックキャプチャデバイスにより生成されるプレノプティック画像ストリームに対しオンラインプレノプティックアノテーションプロセスが連続的に適用される。この連続的処理によって、ユーザーは連続的に移動するかまたは自らのプレノプティックキャプチャデバイスを移動させ、リアルタイムでプレノプティックアノテーションを更新させることができる。プレノプティック画像ストリームは、ビューのレンダリング(図8のステップ104)と同様、リアルタイムで処理されなければならず、こうしてユーザーは、あたかもシーンの一部であるかのようにアノテーションを知覚することになる。この実施形態では、別のプレノプティックキャプチャを有する必要なく後でビューイング方向を修正することができるという事実により、ストリームから処理される必要のあるプレノプティック画像の数がはるかに少ない状態で同じ効果を達成することが可能になる。実際、単一のプレノプティックキャプチャが一定のビューイング方向範囲内でのビューのレンダリングを可能にすると仮定した場合、そして、ユーザーがこの範囲の外側へ移動しないかぎり、ストリームからのいかなるプレノプティック画像も処理される必要はなく、図8のステップ104を再び実施する必要しかない。これにより、ユーザーがビューイング範囲の境界に近づいた時新しいプレノプティック画像フレームを非同期的に処理することによって計算効率のより優れたリアルタイム追跡を行なう新たな可能性が広がり、こうして新しいフレームを処理しなければならない場合にユーザーが待ち時間を知覚することは無くなる。   In another embodiment, an online plenoptic annotation process is continuously applied to a plenoptic image stream generated by a moving user's plenoptic capture device. This continuous processing allows the user to move continuously or move his / her plenoptic capture device to update the plenoptic annotation in real time. The plenoptic image stream must be processed in real time, similar to the view rendering (step 104 in FIG. 8), so that the user perceives the annotation as if it were part of the scene. become. In this embodiment, the number of plenoptic images that need to be processed from the stream is much less due to the fact that the viewing direction can be modified later without having to have another plenoptic capture It is possible to achieve the same effect in the state. In fact, assuming that a single plenoptic capture would allow the rendering of a view within a certain viewing direction range, and if the user did not move outside this range, any plenoptics from the stream would be Ptic images need not be processed, only step 104 of FIG. 8 need be performed again. This opens new possibilities for more computationally efficient real-time tracking by asynchronously processing new plenoptic image frames as the user approaches the viewing range boundary, thus allowing new frames to be captured. Users no longer perceive latency when it has to be processed.

プレノプティック動画をアノテートするための方法の例が、図11に示されている。   An example of a method for annotating a plenoptic video is shown in FIG.

図11のステップ200、201、202、203は、図8のステップ100、101、102、103と類似であるかまたは等価である。   Steps 200, 201, 202, and 203 in FIG. 11 are similar to or equivalent to steps 100, 101, 102, and 103 in FIG.

ステップ204では、ステップ201のレジストレーションプロセスの結果としてビューイング方向パラメータが計算される。   In step 204, viewing direction parameters are calculated as a result of the registration process of step 201.

ステップ205では、先行するステップ中で計算されたビューイング方向に基づいてビューがレンダリングされる。   In step 205, the view is rendered based on the viewing direction calculated in the previous step.

ステップ206では、慣性計測装置(IMU)を使用して、ステップ200が計算されていた時間との関係においてユーザーの移動を決定する。このとき、新しいプレノプティック画像を処理するためにステップ200に戻るか、直接ステップ204に進んでIMU移動推定に基づいてビューイング方向パラメータを更新するかのいずれかの決定が下される。移動量を用いて、新規ビューを生成するのに、先にキャプチャされたプレノプティックデータを使用できるか否かを決定する。これは典型的に、プレノプティックキャプチャデバイスの視野により左右される。   In step 206, an inertial measurement unit (IMU) is used to determine the user's movement in relation to the time that step 200 was calculated. At this time, a decision is made to either return to step 200 to process the new plenoptic image or go directly to step 204 to update the viewing direction parameter based on the IMU motion estimation. The amount of movement is used to determine whether the previously captured plenoptic data can be used to create a new view. This typically depends on the field of view of the plenoptic capture device.

プレノプティックアノテーションのレンダリングには、可能性ある閉塞が考慮されるかもしれない。アノテートすべきターゲット要素が入力プレノプティック画像の中に存在する別のオブジェクトによってキャプチャデバイスの視界から隠蔽されている場合、プレノプティックアノテーションが閉塞される可能性がある。   Possible blockages may be taken into account when rendering plenoptic annotation. If the target element to be annotated is obscured from the view of the capture device by another object present in the input plenoptic image, the plenoptic annotation may be occluded.

一実施形態において、レンダリングモジュールは、キャプチャデータのプレノプティックフォーマットを利用して、アノテーションを無関係のオブジェクトの後ろに視覚的に隠蔽する。レンダリングモジュールは、プレノプティック基準データから、キャプチャプレノプティック画像の各要素に由来するはずのキャプチャされた光線の特性を認識している。キャプチャされた光線がその要素の予想された光線と異なる特性を有する場合には、それはすなわち、閉塞オブジェクトがその要素の前にあること、したがって、アノテーションはこの要素について表示される必要がないことを意味する可能性がある。   In one embodiment, the rendering module utilizes the plenoptic format of the captured data to visually hide the annotation behind unrelated objects. The rendering module recognizes from the plenoptic reference data the characteristics of the captured ray that would have come from each element of the captured plenoptic image. If the captured ray has a different property than the element's expected ray, it means that the occlusion object is in front of the element, and therefore the annotation need not be displayed for this element. May mean.

同様にして、キャプチャ画像中の一要素に対応する光線が、基準画像中の対応する方向とは異なる方向を有する場合、これはすなわち、要素が異なる深度にあることを意味する可能性がある。レンダリングモジュールはこの情報を用いて閉塞を検出することができる。さらに、光線の色情報を用いて、キャプチャ要素が閉塞されているか否かを決定することもできる。ただし、閉塞するオブジェクトがターゲット要素と同じ色を有する可能性があることから、色情報では充分ではない。   Similarly, if a ray corresponding to an element in the captured image has a different direction than the corresponding direction in the reference image, this may mean that the element is at a different depth. The rendering module can use this information to detect occlusions. In addition, the light color information can be used to determine whether the capture element is occluded. However, the color information is not sufficient because the object to be blocked may have the same color as the target element.

利用分野
プレノプティックフォーマットでのアノテーションの提供およびアノテーションと同じ空間内でプレノプティック画像をアノテートするプロセスは、拡張現実のための新たな利用分野をもたらす。
Fields of Use The process of providing annotations in the plenoptic format and annotating plenoptic images in the same space as the annotations provides a new field of use for augmented reality.

第1の利用分野例としては、ソーシャルコンテキスト内でのプレノプティックアノテーションシステムの使用がある。実際、オブジェクト/シーンのプレノプティック画像は、ユーザーがそのプレノプティックキャプチャデバイスを用いてキャプチャ可能である。このとき、キャプチャプレノプティック画像は、先にキャプチャされアノテーションとして使用されたプレノプティック画像を含め、全ての種類のアノテーションを用いてユーザーによりアノテートされ得る。そのアノテート済みシーンは次にソーシャルネットワークを用いてユーザーの友人と共有され得、こうしてこれらの友人は、自らのプレノプティックキャプチャデバイスを用いてそれをキャプチャしている時にアノテート済みシーンを経験できるようになっている。この場合プレノプティックアノテーションプロセスを使用することの利点は、アノテーションがプレノプティック画像であるためにプレノプティック空間内にすでに存在しているという事実によって強化されている。したがって、同じプレノプティック空間においてアノテーションプロセスを行なうことは、より計算効率が良く、かつより現実的なアノテート済みシーンを生み出す。   An example of a first field of use is the use of plenoptic annotation systems within a social context. In fact, the plenoptic image of the object / scene can be captured by the user using its plenoptic capture device. At this time, the captured plenoptic image can be annotated by the user using all types of annotation, including the plenoptic image previously captured and used as an annotation. The annotated scene can then be shared with the user's friends using a social network so that these friends can experience the annotated scene while capturing it using their plenoptic capture device It is like that. The advantage of using the plenoptic annotation process in this case is enhanced by the fact that the annotation already exists in the plenoptic space because it is a plenoptic image. Thus, performing the annotation process in the same plenoptic space produces a more computationally efficient and more realistic annotated scene.

プレノプティック空間の異なる情報を活用する第2の利用分野例としては、建築設計の分野における特別に設計されたプレノプティックアノテーションの使用がある。本発明の先行する部分で記述した通り、プレノプティックアノテーションは、オンラインフェーズ内でプレノプティック画像光線と組合わされる光線で構成される。この光線が組合わされる方法は、アノテーションプロセスのオフライン部分において定義される。この組合せは、プレノプティック画像からの光線がアノテーションからの他の光線によって置換されず、しかし例えばそれらの方向だけが変更されるようになものであり得る。プレノプティック画像の光線の波長のみならず、例えばそれらの方向をも修正するアノテーションを定義することによって、キャプチャされたシーンのテクスチャまたは材料の変化をシミュレートすることが可能になる。この建築設計の場合、有利には、例えば壁に対し異なる材料を適用した場合に特定の部屋または特定の建物がどのように見えるかをシミュレートするために、プレノプティックアノテーションを使用することができる。別の実施形態では、天候条件のシミュレーションを、キャプチャプレノプティック画像に適用することができる。雨をシミュレートするアノテーションをシーンに適用することができる。こうして、雨の効果が適用された状態のアノテート済み画像が生み出され、こうしてユーザーは、雨または他の異なる気候条件の場合にシーンがどのように見えるかを視覚的に見ることができ、ここで異なる光反射および屈折はプレノプティック情報のおかげで現実的な形で適切に処理され計算される。   A second field of application utilizing different information in the plenoptic space is the use of specially designed plenoptic annotation in the field of architectural design. As described in the preceding part of the present invention, plenoptic annotation consists of rays combined with plenoptic image rays within the online phase. The way in which the rays are combined is defined in the offline part of the annotation process. This combination may be such that the rays from the plenoptic image are not replaced by other rays from the annotation, but only their direction, for example, is changed. By defining annotations that modify not only the wavelength of light in the plenoptic image, but also their direction, for example, it is possible to simulate changes in the texture or material of the captured scene. For this architectural design, it is advantageous to use plenoptic annotation to simulate how a particular room or a particular building will look when different materials are applied to the walls, for example. Can do. In another embodiment, a simulation of weather conditions can be applied to the captured plenoptic image. Annotations that simulate rain can be applied to a scene. This produces an annotated image with the rain effect applied, so that the user can visually see how the scene will look in case of rain or other different climatic conditions, where Different light reflections and refractions are appropriately processed and calculated in a realistic way thanks to plenoptic information.

別の例としては、従来の2次元拡張現実ソリューションにおいて、トレジャーハントがよく知られたアプリケーションである。それは、物理的オブジェクトに対してアノテーションを添付し、友人または他の人々にヒントを与えることによって彼らにこれらのアノテーション(トレジャーと呼ぶ)を探させることからなる。換言すると、誰かが隠されたオブジェクトに近づいた時、彼は自らのプレノプティックキャプチャデバイスを用いて周囲のオブジェクトを走査して、それらが1つのアノテーションと結びつけられているか否かを決定することができる。プレノプティックアノテーションを使用することによって、我々は一部のビューイング方向またはフォーカス距離にアノテーション可視性を制限できることから、トレジャーハントはよりエキサイティングなものとなる。例えば、ユーザーは、1つの塑像にアノテーションを添付し、将来のハンターが塑像の前に立ちしたがってその塑像をその角度から見ている場合にのみ、このアノテーションを可視的なものにするように決定することができる。同様にして、プレノプティック空間の再焦点合せ特性を使用して、ハンターが塑像自体の上で焦点合わせされ、したがってこの場合にのみアノテーションを表示することを保証することができる。そのため、ユーザーが周囲をランダムに走査しながら宝物を発見することは回避され、ナゾを真に解決するように強いられることから、トレジャーハントはさらに興味をそそるものとなる。   As another example, a treasure hunt is a well-known application in conventional 2D augmented reality solutions. It consists of attaching annotations to physical objects and having them look for these annotations (called treasures) by giving hints to friends or others. In other words, when someone approaches a hidden object, he scans surrounding objects using his plenoptic capture device to determine whether they are associated with a single annotation. be able to. By using plenoptic annotation, the treasure hunt becomes more exciting because we can limit annotation visibility to some viewing directions or focus distances. For example, the user decides to attach an annotation to a plastic image and make this annotation visible only if a future hunter stands in front of the plastic image and is looking at the plastic image from that angle. be able to. Similarly, the refocusing property of the plenoptic space can be used to ensure that the hunter is focused on the plastic image itself and therefore only displays the annotation in this case. As a result, the treasure hunt becomes even more intriguing because the user is prevented from discovering treasures while randomly scanning the surroundings, and is forced to resolve the navel truly.

別の利用分野は、都市環境におけるシティガイドに関するものである。例えば、ユーザーが訪問中の都市の中に居り、歴史的モニュメント、観光ポイント、像、美術館、現地のレストランなどの観光スポットを探しているところを考えてみよう。ユーザーは、自らの拡張現実システムを用いて、自らのスクリーン上に一度に全ての情報が現われることをもちろん望んでいない。スクリーン上で視覚的に重複するこの全コンテンツによって混乱させられるだけであろう。その代り、ユーザーの視点および焦点に応じてプレノプティックアノテーションを作製することができる。例えば、特定の視野角で(または特定の視野角範囲内で)ユーザーがキャプチャした画像の要素は、ユーザーが直面する要素よりも低い重要度で表示され得る。一実施形態において、低重要度のアノテーションは、スクリーン上にタイトルまたはポイントとしてのみ表示され得(これはユーザーがそれらをクリックした時点で拡大可能である)、一方、より重要度の高い関心の的であるポイントは、さらなる詳細を提示するか、またはより大きなサイズまたは画像上の強調を有する。   Another area of use relates to city guides in urban environments. For example, consider a user who is in a visiting city and is looking for tourist attractions such as historical monuments, tourist points, statues, museums, and local restaurants. Users, of course, do not want all information to appear on their screen at once using their augmented reality system. You will only be confused by this whole visual overlap on the screen. Instead, plenoptic annotation can be created according to the user's perspective and focus. For example, elements of an image captured by a user at a particular viewing angle (or within a particular viewing angle range) may be displayed with a lower importance than the elements that the user faces. In one embodiment, low-importance annotations may only be displayed on the screen as titles or points (this can be expanded when the user clicks on them), while the more important interests The points that either present further details or have a larger size or enhancement on the image.

アノテーションが見えないビューイング方向を選択する能力は、たとえばナビゲータディスプレイ上に拡張現実画像を得たいと思うものの交通に関係のない広告、店舗などの要素に添付されたアノテーションによって気を散らされることを望まない車両のドライバーにとっては魅力あるものである。この場合、これらの気を散らすアノテーションは、道路からキャプチャされる画像上に表示されないように選択された1つの配向範囲と結びつけられてよい。   The ability to select a viewing direction in which annotations are not visible can be distracted by annotations attached to elements such as advertisements, stores, etc. that are not related to traffic, but want to obtain augmented reality images on the navigator display. It is attractive for drivers of unwanted vehicles. In this case, these distracting annotations may be associated with a single orientation range that is selected not to be displayed on the image captured from the road.

用語と定義
上述の方法のさまざまなオペレーションは、オペレーションを実施できる任意の好適な手段、例えばさまざまなハードウェアおよび/またはソフトウェアコンポーネント(単複)、回路、および/またはモジュール(単複)によって実施されてよい。概して、本出願中に記載のいずれのオペレーションも、オペレーションを実施できる対応する機能的手段によって実施されてよい。さまざまな手段、論理ブロックおよびモジュールが、回路、特定用途向け集積回路(ASIC)または汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ信号(FPGA)または他のプログラマブル論理デバイス(PLD)、離散的ゲートまたはトランジスタ論理、離散的ハードウェアコンポーネントまたは本明細書中に記載の機能を実施するように設計されたそれらの任意の組合せを含めた(ただしこれらに限定されない)、さまざまなハードウェアおよび/またはソフトウェアコンポーネント(単複)および/またはモジュール(単複)を含んでいてよい。汎用プロセッサは、マイクロプロセッサであってよいが、代替的には、プロセッサは任意の市販のプロセッサ、コントローラ、マイクロコントローラまたは状態機械であってよい。プロセッサはまた、計算デバイスの組合せ、例えばDSPとマイクロプロセッサ、複数のマイクロプロセッサ、DSPコアと併わせた1つ以上のマイクロプロセッサ、または他の任意のこのような構成の組合せとして実装されてもよい。サーバーは、単一のマシンとして、一組のマシンとして、仮想サーバーとして、あるいはクラウドサーバーとして実装されてよい。
Terms and Definitions The various operations of the methods described above may be performed by any suitable means capable of performing the operations, for example, various hardware and / or software component (s), circuits, and / or module (s). . In general, any of the operations described in this application may be performed by corresponding functional means capable of performing the operations. Various means, logic blocks and modules may be used in a circuit, application specific integrated circuit (ASIC) or general purpose processor, digital signal processor (DSP), application specific integrated circuit (ASIC), field programmable gate array signal (FPGA) or others. Including, but not limited to, programmable logic devices (PLDs), discrete gate or transistor logic, discrete hardware components, or any combination thereof designed to perform the functions described herein May include various hardware and / or software component (s) and / or module (s). A general purpose processor may be a microprocessor, but in the alternative, the processor may be any commercially available processor, controller, microcontroller or state machine. The processor may also be implemented as a combination of computing devices, such as a DSP and microprocessor, multiple microprocessors, one or more microprocessors in combination with a DSP core, or any other combination of such configurations. . The server may be implemented as a single machine, as a set of machines, as a virtual server, or as a cloud server.

本明細書で使用される「プレノプティックデータ」という表現は、プレノプティックキャプチャデバイスを用いて生成、または他のタイプのデータから計算され、1シーンのライトフィールド画像、すなわち光の明度および色だけでなくこの光の方向も記憶されている画像を記述するあらゆるデータを意味する。このようなプレノプティックデータからレンダリングされた2Dまたは立体投影は、この光の方向が喪失されることから、プレノプティック画像とはみなされない。   As used herein, the expression “plenoptic data” is generated using a plenoptic capture device or calculated from other types of data and is a light field image of a scene, ie, light brightness. And any data describing an image in which this direction of light as well as color is stored. A 2D or stereoscopic projection rendered from such plenoptic data is not considered a plenoptic image because this light direction is lost.

本明細書中で使用される「プレノプティック空間」という表現は、ライトフィールドすなわち空間内の全ての方向における光の量を記述する一関数を記述することのできる多次元空間を表わし得る。プレノプティック空間は、光の位置についての少なくとも2つのパラメータ、その配向について2つ、その波長について1つ、そして場合によっては時間について1つ(ビデオの場合)のパラメータによって記述されてよい。   As used herein, the expression “plenoptic space” may represent a multi-dimensional space that can describe a light field, a function that describes the amount of light in all directions in space. The plenoptic space may be described by at least two parameters for the position of light, two for its orientation, one for its wavelength, and possibly one for time (for video).

本明細書中で使用される「アノテーション」という用語は、例えばテキスト、静止画像、ビデオ画像、ロゴ、音声および/またはプレノプティックデータにより表わされるプレノプティック空間内にスーパーインポーズされ得るまたは他の形でマージされ得る他の要素を含めた、多様な考えられる要素を包含している。より一般的には、アノテーションという用語は、プレノプティックデータにより表わされるプレノプティック空間光線の種々のパラメータを改変するための種々の方法を包含する。アノテーションは動的で、そして経時的にその位置および/または外観を変えてもよい。さらに、アノテーションはユーザー対話型で、ユーザーのオペレーションに反応してよい(例えばユーザーのインタラクションの時点で移動または変換する)。   As used herein, the term “annotation” can be superimposed in a plenoptic space represented by, for example, text, still images, video images, logos, audio and / or plenoptic data. Or it encompasses a variety of possible elements, including other elements that can be merged in other ways. More generally, the term annotation encompasses various methods for modifying various parameters of a plenoptic spatial ray represented by plenoptic data. Annotations are dynamic and may change their position and / or appearance over time. Furthermore, annotations are user-interactive and may be responsive to user operations (eg, moved or transformed at the time of user interaction).

本明細書で使用される「ピクセル」という用語は、単一の白黒フォトサイト、または異なる色で光を検出するための複数の隣接するフォトサイトを表わし得る。例えば、赤、緑および青色光を検出するための3つの隣接するフォトサイトが単一のピクセルを形成できる。   As used herein, the term “pixel” may refer to a single black and white photosite or a plurality of adjacent photosites for detecting light in different colors. For example, three adjacent photosites for detecting red, green and blue light can form a single pixel.

本明細書中で使用される「決定する(determining)」という用語は、多様なアクションを包含する。例えば、「決定する」には、計算する(calculating、computing)、処理する、演繹する(deriving)、調査する(investigating)、ルックアップ(looking up)する(例えばテーブル、データベースまたは別のデータ構造内をルックアップする)、確定する(ascertaining)、推定する(estimating)などが含まれてよい。同様に、「決定する」には、受信する(例えば情報を受信する)、アクセスする(例えばメモリー内のデータにアクセスする)なども含んでいてよい。また、「決定する」には、決定する(resolving)、選択する(selecting、choosing)、確立する(establishing)なども含まれていてよい。   As used herein, the term “determining” encompasses a variety of actions. For example, “determining” includes calculating (calculating, computing), processing, deriving, investigating, looking up (eg, in a table, database or another data structure). ), Ascertaining, estimating, and the like. Similarly, “determining” may include receiving (eg, receiving information), accessing (eg, accessing data in a memory), and the like. Further, “determining” may include determining (resolving), selecting (selecting, choosing), establishing (establishing), and the like.

シーンの画像のキャプチャには、カメラの画像センサーに到達する光の明度を測定するためにデジタルピンホールカメラを使用することが関与する。プレノプティックデータのキャプチャには、プレノプティックキャプチャデバイスを使用することが関与してよく、あるいは、仮想3Dモデルからのライトフィールドデータまたはシーンおよび光源の他の記述を生成することが関与してもよい。画像のリトリーブには、画像をキャプチャすること、または異なるデバイスから通信リンク上で画像をリトリーブすることが関与していてよい。   Capturing an image of a scene involves using a digital pinhole camera to measure the brightness of light reaching the camera's image sensor. Capturing plenoptic data may involve using a plenoptic capture device or generating light field data or other descriptions of scenes and light sources from a virtual 3D model May be. Retrieving an image may involve capturing the image or retrieving the image over a communication link from a different device.

例えば「プレノプティックデータから2Dビューをレンダリングする」などの「ビューをレンダリングする」という表現は、画像を計算または生成するという、例えばプレノプティックデータ内に含まれた情報から2D画像またはホログラフィ画像を計算するというアクションを包含する。   For example, the expression “render a view”, such as “render a 2D view from plenoptic data”, refers to calculating or generating an image, eg, a 2D image from information contained in the plenoptic data or Includes the action of computing a holographic image.

本開示に関連して記述された方法またはアルゴリズムのステップは、直接ハードウェア内、プロセッサにより実行されるソフトウェアモジュール内、またはこれら2つを組合せた形で実施されてよい。ソフトウェアモジュールは、当該技術分野において公知である任意のフォームの記憶媒体内に存在していてよい。使用可能な記憶媒体の一部の例としては、ランダムアクセスメモリー(RAM)、読取り専用メモリー(ROM)、フラッシュメモリー、EPROMメモリー、EEPROMメモリー、レジスタ、ハードディスク、リムーバブルディスク、CD−ROMなどが含まれる。ソフトウェアモジュールは、単一の命令、または多くの命令を含んでいてよく、複数の異なるコードセグメント上、異なるプログラム間で、そして多数の記憶媒体を横断して分散していてよい。ソフトウェアモジュールは、実行可能なプログラム、完全なプログラム内で使用される一つの部分またはルーティンまたはライブラリ、複数の相互接続されたプログラム、多数のスマートフォン、タブレットまたはコンピュータにより実行される「apps」、ウィジェット、Flashアプリケーション、HTMLコードの一部分などで構成されていてよい。記憶媒体は、プロセッサに結合されていてよく、こうしてプロセッサは記憶媒体から情報を読取り、そこに情報を書込むことができる。代替的には、記憶媒体は、プロセッサと一体化されていてよい。データベースは、SQLデータベース、XML文書セット、セマンティックデータベース、またはIPネットワーク上で入手可能な情報セットを含む任意の構造化されたデータコレクション、または他の任意の好適な構造として実装されてよい。   The method or algorithm steps described in connection with this disclosure may be implemented directly in hardware, in a software module executed by a processor, or a combination of the two. A software module may reside in any form of storage medium that is known in the art. Some examples of usable storage media include random access memory (RAM), read only memory (ROM), flash memory, EPROM memory, EEPROM memory, registers, hard disk, removable disk, CD-ROM, etc. . A software module may contain a single instruction, or many instructions, and may be distributed over different code segments, between different programs, and across multiple storage media. Software modules are executable programs, single parts or routines or libraries used within a complete program, multiple interconnected programs, “apps” executed by multiple smartphones, tablets or computers, widgets, It may be composed of a Flash application, a part of an HTML code, or the like. A storage medium may be coupled to the processor such that the processor can read information from, and write information to, the storage medium. In the alternative, the storage medium may be integral to the processor. The database may be implemented as an SQL database, an XML document set, a semantic database, or any structured data collection that includes a set of information available on an IP network, or any other suitable structure.

こうして、一部の態様は、本明細書中で提示されたオペレーションを実施するためのコンピュータプログラム製品を含んでいてよい。例えばこのようなコンピュータプログラム製品は、その上に命令が記憶(および/またはコード化)されているコンピュータ可読媒体を含んでいてよく、命令は、本明細書中に記載のオペレーションを実施するために、1つ以上のプロセッサにより実行可能である。一部の態様については、コンピュータプログラム製品は、パッケージング材料を含んでいてよい。   Thus, some aspects may include a computer program product for performing the operations presented herein. For example, such a computer program product may include a computer readable medium having instructions stored thereon (and / or encoded) with instructions for performing the operations described herein. It can be executed by one or more processors. For some aspects, the computer program product may include packaging material.

クレームは以上で示された厳密な構成および構成要素に限定されるものではないということを理解すべきである。クレームの範囲から逸脱することなく、以上で記述した方法および装置の配置、動作および詳細においてさまざまな修正、変更およびバリエーションを加えることが可能である。   It is to be understood that the claims are not limited to the precise configuration and components illustrated above. Various modifications, changes and variations may be made in the arrangement, operation and details of the methods and apparatus described above without departing from the scope of the claims.

1 メインレンズ
4 ユーザーデバイス
5 サーバー
6 インターネット
20 マイクロレンズ
21 センサー
40 ディスプレイ
41 プレノプティックキャプチャデバイス
50 ストレージ
51 プロセッサ
60、62 オブジェクト
61、63、64 アノテーション
210 ピクセル
400 マイクロプロセッサ
401 通信モジュール
402 再焦点合せモジュール
1 Main Lens 4 User Device 5 Server 6 Internet 20 Micro Lens 21 Sensor 40 Display 41 Plenoptic Capture Device 50 Storage 51 Processor 60, 62 Object 61, 63, 64 Annotation 210 Pixel 400 Microprocessor 401 Communication Module 402 Refocusing module

欧州特許第1246080号明細書EP 1246080 specification 欧州特許出願公開第2207113号明細書European Patent Application No. 2207113 国際公開第2008/134901号International Publication No. 2008/134901

Claims (28)

− プレノプティックキャプチャデバイス(4)を用いてライトフィールドを表わすデータをリトリーブするステップ(100)と;
− 対応する基準データと、リトリーブされたデータとをマッチングするためにプログラムコードを実行するステップ(101)と;
− 前記基準データの一要素に結びつけられたプレノプティックフォーマットの少なくとも1つのアノテーション(61、63、64)をリトリーブするためにプログラムコードを実行するステップ(102)と;
− 前記リトリーブされたデータおよび前記アノテーションからプレノプティックフォーマットでアノテート済みのデータを生成するためにプログラムコードを実行するステップ(103)と;
を含む方法。
-Retrieving (100) data representing a light field using a plenoptic capture device (4);
-Executing (101) program code to match the corresponding reference data with the retrieved data;
-Executing (102) program code to retrieve at least one annotation (61, 63, 64) in a plenoptic format associated with an element of said reference data;
-Executing (103) program code to generate annotated data in a plenoptic format from the retrieved data and the annotation;
Including methods.
− ビューイング方向を選択するステップ(105)と;
− 前記ビューイング方向からの前記アノテート済みデータに対応するビューをレンダリングするステップ(107)と;
をさらに含み、前記アノテーション(61)の表現が前記ビューイング方向によって左右される、請求項1に記載の方法。
-Selecting a viewing direction (105);
Rendering a view corresponding to the annotated data from the viewing direction (107);
The method of claim 1, further comprising: wherein the representation of the annotation (61) depends on the viewing direction.
− 第1のビューイング方向からの前記アノテート済みデータに対応する第1のビューをレンダリングするステップ(104)と;
− 第2のビューイング方向を選択するステップ(105)と;
− 前記第2のビューイング方向からの前記アノテート済みデータに対応する第2のビューをレンダリングするステップ(107)と;
をさらに含み、前記アノテーション(61、61’)の表現が前記第1のビューと前記第2のビューの間で変更される、請求項1に記載の方法。
Rendering a first view corresponding to the annotated data from a first viewing direction (104);
-Selecting a second viewing direction (105);
-Rendering (107) a second view corresponding to the annotated data from the second viewing direction;
The method of claim 1, further comprising: wherein the representation of the annotation (61, 61 ') is changed between the first view and the second view.
− 第1のアノテーション(61)を第1のロケーションおよび第1の方向と結びつけるステップと;
− 第2のアノテーション(64)を前記第1のロケーションおよび第2の方向と結びつけるステップと;
− 前記アノテート済みデータに対応するビューをレンダリングするステップと;
− 第1または第2のビューイング方向の間で選択を行なうステップ(105)と;
− 第1のビューイング方向が選択された場合、前記第1のアノテーションを含むものの前記第2のアノテーションは含まないビューをレンダリングするか、または、第2のビューイング方向が選択された場合、前記第2のアノテーションを含むものの前記第1のアノテーションは含まないビューをレンダリングするステップと;
をさらに含む、請求項1〜3のいずれか一つに記載の方法。
Linking the first annotation (61) with the first location and the first direction;
-Linking a second annotation (64) with the first location and the second direction;
-Rendering a view corresponding to the annotated data;
-Making a selection between the first or second viewing direction (105);
-If a first viewing direction is selected, rendering a view that contains the first annotation but not the second annotation, or if a second viewing direction is selected, Rendering a view that includes a second annotation but not the first annotation;
The method according to claim 1, further comprising:
− プレノプティックフォーマットの基準データおよび第1のビューイング方向に対応する第1のビューをレンダリングするステップと;
− 前記第1のビュー内の1要素に対しアノテーションを結びつけるステップと;
− プレノプティックフォーマットの前記基準データおよび第2のビューイング方向に対応する第2のビューをレンダリングするステップと;
− 前記第2のビュー内の前記要素に対してアノテーションを結びつけるステップと;
− 前記第1および前記第2のビューイング方向の間の中間ビュー内で前記要素のアノテーションを補間するステップと;
をさらに含む、請求項1〜4のいずれか一つに記載の方法。
-Rendering a plenoptic format reference data and a first view corresponding to the first viewing direction;
-Binding annotations to one element in the first view;
Rendering the reference data in a plenoptic format and a second view corresponding to a second viewing direction;
-Binding annotations to the elements in the second view;
Interpolating annotations of the element in an intermediate view between the first and second viewing directions;
The method according to any one of claims 1 to 4, further comprising:
前記第1、第2および中間ビューからプレノプティックフォーマットのアノテーションを計算するステップをさらに含む、請求項5に記載の方法。   6. The method of claim 5, further comprising calculating a plenoptic format annotation from the first, second and intermediate views. − 前記アノテート済みデータおよび第1のフォーカス距離に対応する第1のビューをレンダリングするステップ(104)と;
− フォーカス距離を修正するステップ(106)と;
− 前記アノテート済みデータおよび修正済みフォーカス距離に対応する第2のビューをレンダリングするステップ(107)と;
をさらに含み、前記アノテーション(61)の表現が、前記第1のビューと前記第2のビューの間で変更される、請求項1〜6のいずれか一つに記載の方法。
Rendering (104) a first view corresponding to the annotated data and a first focus distance;
-Modifying the focus distance (106);
Rendering (107) a second view corresponding to the annotated data and the modified focus distance;
The method according to any one of the preceding claims, further comprising: wherein the representation of the annotation (61) is changed between the first view and the second view.
− 第1のアノテーション(61)を第1のロケーションおよび第1の深度と結びつけるステップと;
− 第2のアノテーション(63)を前記第1のロケーションおよび第2の深度と結びつけるステップと;
− 前記アノテート済みデータに対応する第1のビューをレンダリングするステップ(104)と;
− 第1または第2のフォーカス距離の間で選択を行なうステップ(106)と;
− 第1のフォーカス距離が選択された場合、前記第1のアノテーション(61)を含むものの前記第2のアノテーション(63)は含まない第2のビューをレンダリングするか、または、第2のフォーカス距離が選択された場合、前記第2のアノテーションを含むものの前記第1のアノテーションは含まないビューをレンダリングするステップ(107)と;
をさらに含む、請求項7に記載の方法。
Linking the first annotation (61) with the first location and the first depth;
-Associating a second annotation (63) with said first location and a second depth;
Rendering (104) a first view corresponding to the annotated data;
-Selecting between the first or second focus distances (106);
If a first focus distance is selected, render a second view that includes the first annotation (61) but not the second annotation (63), or a second focus distance Rendering a view that includes the second annotation but does not include the first annotation (107);
The method of claim 7, further comprising:
前記アノテーションの少なくとも1つが、座標に添付され特定の方向に結びつけられた音声である、請求項1〜8のいずれか一つに記載の方法。   The method according to any one of claims 1 to 8, wherein at least one of the annotations is a voice attached to coordinates and bound in a specific direction. 前記アノテーションの少なくとも1つがビデオである、請求項1〜9のいずれか一つに記載の方法。   The method according to claim 1, wherein at least one of the annotations is a video. アノテーションの少なくとも1つが、プレノプティック空間内の特定のロケーションにおいて光線の方向を改変するためのフィルターとして作用している、請求項1〜10のいずれか一つに記載の方法。   11. A method according to any one of the preceding claims, wherein at least one of the annotations acts as a filter for altering the direction of the light ray at a specific location in the plenoptic space. 1つの前記アノテーションが光線の方向を修正する、請求項11に記載の方法。   The method of claim 11, wherein one of the annotations modifies the direction of a ray. 1つの前記アノテーションが、オブジェクトの表面またはテクスチャの特性を修正する、請求項12に記載の方法。   The method of claim 12, wherein the one annotation modifies a surface or texture property of the object. 前記アノテーションがプレノプティック空間の異なる点における光線の方向または光線の方向の修正を定義するアレイによって定義される、請求項1〜13のいずれか一つに記載の方法。   14. A method according to any one of the preceding claims, wherein the annotation is defined by a ray direction or an array defining ray direction modifications at different points in the plenoptic space. レンダリングには、アノテーションがリトリーブされたライトフィールドの一要素によって閉塞されている場合、またはアノテーションがリトリーブされたライトフィールドの一要素を閉塞している場合を、前記要素に対応する光線の方向から決定される前記要素の深度に応じて決定することが含まれる、請求項2〜14のいずれか一つに記載の方法。   Rendering determines if the annotation is occluded by an element of the retrieved light field or if the annotation occludes an element of the retrieved light field from the direction of the ray corresponding to the element 15. A method according to any one of claims 2 to 14, comprising determining as a function of the depth of the element to be performed. レンダリングには、プレノプティックフォーマットの1つのアノテーションをリトリーブすること、およびこのアノテーションをリトリーブされたライトフィールドのストリーム中の複数の連続するリトリーブされたライトフィールドに対し適用することが含まれる、請求項2〜15のいずれか一つに記載の方法。   Rendering includes retrieving an annotation in a plenoptic format and applying the annotation to a plurality of consecutive retrieved light fields in a stream of retrieved light fields. Item 16. The method according to any one of Items 2 to 15. レンダリングには、リトリーブされたデータに対応する光線とアノテーションの光線とをマージすることが含まれる、請求項2〜16のいずれか一つに記載の方法。   17. A method according to any one of claims 2 to 16, wherein rendering includes merging rays corresponding to retrieved data and annotation rays. シーンに対応するデータをキャプチャしアノテートするための装置であって、
− ライトフィールドを表わすデータをキャプチャするためのプレノプティックキャプチャデバイス(41)と;
− プロセッサー(400)と;
− ディスプレイ(40)と;
− プログラムコードが実行された時点で、前記プレノプティックキャプチャデバイス(41)を用いてキャプチャされたデータの一要素と結びつけられたプレノプティックフォーマットの少なくとも1つのアノテーション(61、63、64)を前記プロセッサにリトリーブさせ、キャプチャデータから生成され前記少なくとも1つのアノテーションを含むビューを前記ディスプレイ(40)上にレンダリングするための前記プログラムコードと;
を含む装置(4)。
A device for capturing and annotating data corresponding to a scene,
A plenoptic capture device (41) for capturing data representing a light field;
-With a processor (400);
-A display (40);
At least one annotation (61, 63, 64) in a plenoptic format associated with an element of data captured using the plenoptic capture device (41) when the program code is executed The program code for rendering a view on the display (40) generated from capture data and including the at least one annotation;
(4) comprising:
前記プログラムコードがさらに、ユーザーが前記ビューを再度焦点合せできるようにしかつ選択されたフォーカス距離に応じて前記アノテーションの提示を変更するための再焦点合せモジュール(402)を含んでいる、請求項18に記載の装置。   The program code further includes a refocus module (402) for allowing a user to refocus the view and changing the presentation of the annotation in response to a selected focus distance. The device described in 1. 前記プログラムコードがさらに、ユーザーが前記レンダリングのために使用される視点を変更できるようにしかつ選択された視点に応じて前記アノテーションの提示を変更するための視点選択モジュール(403)を含む、請求項18または19に記載の装置。   The program code further comprises a viewpoint selection module (403) for allowing a user to change the viewpoint used for the rendering and to change the presentation of the annotation in response to the selected viewpoint. The apparatus according to 18 or 19. アノテーションを決定するための装置(5)であって:
− プロセッサ(51)と;
− 記憶装置(50)と;
− プログラムコードが実行された時点で前記プロセッサに、ライトフィールドを表わすデータを受信させ、前記データを1つの基準データとマッチさせ、前記記憶装置から前記基準データと結びつけられたプレノプティックフォーマットのアノテーション(61、63、64)を決定させ、かつプレノプティックフォーマットの前記アノテーションかまたはプレノプティックフォーマットのアノテート済み画像のいずれかをリモートデバイス(4)に対して送信させるための前記プログラムコードと;
を含む装置。
An apparatus (5) for determining annotations:
A processor (51);
A storage device (50);
-When the program code is executed, the processor receives data representing a light field, matches the data with one reference data, and a plenoptic format associated with the reference data from the storage device. The program for determining an annotation (61, 63, 64) and causing the remote device (4) to transmit either the annotation in plenoptic format or the annotated image in plenoptic format With code;
Including the device.
前記プログラムコードには、プレノプティックフォーマットのアノテーションを付加し、それらを前記基準データ内の位置および視角と結びつけるためのモジュール(510)がさらに含まれる、請求項21に記載の装置。   The apparatus of claim 21, wherein the program code further includes a module (510) for adding plenoptic format annotations and associating them with positions and viewing angles in the reference data. プレノプティック空間の異なる点において光線方向または光線方向の修正のアレイとしてアノテーションを記憶するメモリーをさらに含む、請求項22に記載の装置。   23. The apparatus of claim 22, further comprising a memory that stores annotations as ray directions or an array of ray direction corrections at different points in the plenoptic space. プレノプティックフォーマットの基準画像に対しアノテーションを添付するための方法であって、
− ビューワを用いてプレノプティックフォーマットの前記基準画像を提示するステップ(150)と;
− アノテーションを選択するステップ(151)と;
− 前記ビューワを用いて、前記アノテーションのための位置を選択し(152)、かつ前記アノテーションを見ることのできる1つまたは複数の方向を選択する(153)ステップと;
− メモリー内で、プレノプティックフォーマットの前記アノテーションおよび前記基準画像と前記位置および前記方向とを結びつけるステップ(154)と;
を含む方法。
A method for attaching annotations to a reference image in a plenoptic format,
Presenting the reference image in plenoptic format using a viewer (150);
-Selecting an annotation (151);
Using the viewer to select a position for the annotation (152) and to select one or more directions in which the annotation can be viewed (153);
Linking in step 154 the annotation and the reference image in plenoptic format with the position and direction;
Including methods.
複数のアノテーションを単一の位置、ただし複数の異なる方向を持つものと結びつけるステップを含む、請求項24に記載の方法。   25. The method of claim 24, comprising associating a plurality of annotations with a single location but having a plurality of different directions. − プレノプティックフォーマットの基準データおよび第1のビューイング方向に対応する第1のビューをレンダリングするステップと;
− 前記第1のビュー内の一要素に第1のアノテーションを結びつけるステップと;
− プレノプティックフォーマットの前記基準データおよび第2のビューイング方向に対応する第2のビューをレンダリングするステップと;
− 前記第1のアノテーションとは異なる第2のアノテーションを前記第2のビュー内の前記要素に結びつけるステップと;
をさらに含む、請求項24または25に記載の方法。
-Rendering a plenoptic format reference data and a first view corresponding to the first viewing direction;
Linking a first annotation to an element in the first view;
Rendering the reference data in a plenoptic format and a second view corresponding to a second viewing direction;
-Linking a second annotation different from the first annotation to the element in the second view;
26. The method of claim 24 or 25, further comprising:
− プレノプティックフォーマットの基準データおよび第1のビューイング方向に対応する第1のビューをレンダリングするステップと;
− 前記第1のビュー内の一要素にアノテーションを結びつけるステップと;
− プレノプティックフォーマットの前記基準データおよび第2のビューイング方向に対応する第2のビューをレンダリングするステップと;
− 前記第2のビュー内の前記要素にアノテーションを結びつけるステップと;
− 前記第1のビューイング方向と前記第2のビューイング方向の間の中間ビュー内で前記要素のアノテーションを補間するステップと;
をさらに含む、請求項24〜26のいずれか一つに記載の方法。
-Rendering a plenoptic format reference data and a first view corresponding to the first viewing direction;
-Binding an annotation to an element in the first view;
Rendering the reference data in a plenoptic format and a second view corresponding to a second viewing direction;
-Attaching annotations to the elements in the second view;
Interpolating annotations of the element in an intermediate view between the first viewing direction and the second viewing direction;
27. The method of any one of claims 24-26, further comprising:
プレノプティックフォーマットの基準画像にアノテーションを添付するための装置であって、
− プロセッサと;
− 前記プロセッサに、ビューワを用いてプレノプティックフォーマットの前記基準画像を提示させ(150);ユーザーがアノテーションを選択できるようにさせ(151)かつ前記アノテーションのための位置を選択できるようにさせ(152)、さらに前記アノテーションを見ることのできる一または複数の方向を選択できるようにさせる(153)ためのプログラムコードと;
− 前記アノテーション、前記位置および前記方向を記憶するメモリーと;
を含む装置。
An apparatus for attaching annotations to a reference image in a plenoptic format,
-With a processor;
-Let the processor present the reference image in plenoptic format using a viewer (150); allow the user to select an annotation (151) and allow the user to select a position for the annotation; (152) program code for allowing (153) to select one or more directions in which the annotation can be seen;
-A memory for storing the annotation, the position and the direction;
Including the device.
JP2015548228A 2012-12-21 2012-12-21 Method and apparatus for annotating plenoptic light fields Pending JP2016511850A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2012/076643 WO2014094874A1 (en) 2012-12-21 2012-12-21 Method and apparatus for adding annotations to a plenoptic light field

Publications (1)

Publication Number Publication Date
JP2016511850A true JP2016511850A (en) 2016-04-21

Family

ID=47553021

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015548228A Pending JP2016511850A (en) 2012-12-21 2012-12-21 Method and apparatus for annotating plenoptic light fields

Country Status (5)

Country Link
EP (1) EP2936442A1 (en)
JP (1) JP2016511850A (en)
KR (1) KR20150106879A (en)
CN (1) CN104969264A (en)
WO (1) WO2014094874A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019179382A (en) * 2018-03-30 2019-10-17 株式会社スクウェア・エニックス Information processing program, information processing method and information processing system
WO2022138327A1 (en) * 2020-12-25 2022-06-30 時男 後藤 Three-dimensional annotation rendering system

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3059949A1 (en) 2015-02-23 2016-08-24 Thomson Licensing Method and apparatus for generating lens-related metadata
US10921896B2 (en) 2015-03-16 2021-02-16 Facebook Technologies, Llc Device interaction in augmented reality
EP3099077B1 (en) * 2015-05-29 2020-07-15 InterDigital CE Patent Holdings Method for displaying a content from 4d light field data
EP3151534A1 (en) 2015-09-29 2017-04-05 Thomson Licensing Method of refocusing images captured by a plenoptic camera and audio based refocusing image system
US11182872B2 (en) 2018-11-02 2021-11-23 Electronics And Telecommunications Research Institute Plenoptic data storage system and operating method thereof
KR102577447B1 (en) 2018-11-02 2023-09-13 한국전자통신연구원 Plenoptic data storage system and operating method thereof
US10565773B1 (en) 2019-01-15 2020-02-18 Nokia Technologies Oy Efficient light field video streaming

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002098548A (en) * 2000-09-22 2002-04-05 Casio Comput Co Ltd Guide information transmitter and recording media
JP2006255021A (en) * 2005-03-15 2006-09-28 Toshiba Corp Image display device and method
US20120127203A1 (en) * 2010-11-18 2012-05-24 Canon Kabushiki Kaisha Mixed reality display

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6009188A (en) 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging
US8432414B2 (en) 1997-09-05 2013-04-30 Ecole Polytechnique Federale De Lausanne Automated annotation of a view
JP2010530998A (en) * 2007-05-08 2010-09-16 アイトゲネーシッシュ テヒニッシュ ホーホシューレ チューリッヒ Image-based information retrieval method and system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002098548A (en) * 2000-09-22 2002-04-05 Casio Comput Co Ltd Guide information transmitter and recording media
JP2006255021A (en) * 2005-03-15 2006-09-28 Toshiba Corp Image display device and method
US20120127203A1 (en) * 2010-11-18 2012-05-24 Canon Kabushiki Kaisha Mixed reality display

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小田島 太郎 ほか 2名: "拡張現実感技術を用いた屋外型ウェアラブル注釈提示システム", 画像電子学会誌 第32巻 第6号, vol. 第32巻, JPN6016027829, 25 November 2003 (2003-11-25), JP, ISSN: 0003362937 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019179382A (en) * 2018-03-30 2019-10-17 株式会社スクウェア・エニックス Information processing program, information processing method and information processing system
JP7209474B2 (en) 2018-03-30 2023-01-20 株式会社スクウェア・エニックス Information processing program, information processing method and information processing system
WO2022138327A1 (en) * 2020-12-25 2022-06-30 時男 後藤 Three-dimensional annotation rendering system

Also Published As

Publication number Publication date
EP2936442A1 (en) 2015-10-28
WO2014094874A1 (en) 2014-06-26
CN104969264A (en) 2015-10-07
KR20150106879A (en) 2015-09-22

Similar Documents

Publication Publication Date Title
US20140181630A1 (en) Method and apparatus for adding annotations to an image
US11663785B2 (en) Augmented and virtual reality
US10755485B2 (en) Augmented reality product preview
JP2016511850A (en) Method and apparatus for annotating plenoptic light fields
US9704295B2 (en) Construction of synthetic augmented reality environment
KR101667345B1 (en) System and method of indicating transition between street level images
EP2732436B1 (en) Simulating three-dimensional features
US10547822B2 (en) Image processing apparatus and method to generate high-definition viewpoint interpolation image
US20110273466A1 (en) View-dependent rendering system with intuitive mixed reality
TW202013149A (en) Augmented reality image display method, device and equipment
US20130321396A1 (en) Multi-input free viewpoint video processing pipeline
US20140282220A1 (en) Presenting object models in augmented reality images
US20080246759A1 (en) Automatic Scene Modeling for the 3D Camera and 3D Video
KR20140082610A (en) Method and apaaratus for augmented exhibition contents in portable terminal
KR20070086037A (en) Method for inter-scene transitions
JP2008520052A5 (en)
JP2016537901A (en) Light field processing method
JP2016500169A (en) Annotation method and apparatus
JP6621565B2 (en) Display control apparatus, display control method, and program
KR102443049B1 (en) Electric apparatus and operation method thereof
US11044464B2 (en) Dynamic content modification of image and video based multi-view interactive digital media representations
JP4379594B2 (en) Re-experience space generator
Hamadouche Augmented reality X-ray vision on optical see-through head mounted displays
CN115244494A (en) System and method for processing a scanned object

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20160212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160726

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161003

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170321