JP2014032443A - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP2014032443A
JP2014032443A JP2012170989A JP2012170989A JP2014032443A JP 2014032443 A JP2014032443 A JP 2014032443A JP 2012170989 A JP2012170989 A JP 2012170989A JP 2012170989 A JP2012170989 A JP 2012170989A JP 2014032443 A JP2014032443 A JP 2014032443A
Authority
JP
Japan
Prior art keywords
image
annotation
free viewpoint
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012170989A
Other languages
English (en)
Other versions
JP5295416B1 (ja
Inventor
Riyuuki Sakamoto
竜基 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2012170989A priority Critical patent/JP5295416B1/ja
Application granted granted Critical
Publication of JP5295416B1 publication Critical patent/JP5295416B1/ja
Publication of JP2014032443A publication Critical patent/JP2014032443A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】自由視点映像の詳細な位置にアノテーションを付与すること。
【解決手段】本願に係る画像処理装置は、視点位置が異なる複数の画像データに基づいて、任意の視点位置に対応する自由視点画像を生成する画像生成手段と、前記画像生成手段によって生成された自由視点画像に対して、説明情報を設定する操作、及び、当該説明情報を設定する設定座標を指定する操作を受け付ける受付手段と、前記受付手段によって受け付けられた前記自由視点画像の設定座標に対応する前記複数の画像データの座標に前記説明情報を付与する付与手段と、前記画像生成手段によって生成された新たな自由視点画像とともに、前記説明情報が付与されている前記複数の画像データの座標に対応する当該新たな自由視点画像の領域に前記説明情報を表示制御する表示制御手段と、を有する。
【選択図】図2

Description

本発明の実施形態は、画像処理装置、画像処理方法及び画像処理プログラムに関する。
従来、自由視点映像と呼ばれる技術が知られている。自由視点映像とは、視点位置の異なる複数台の撮像装置(例えば、カメラ)から得られた映像に基づいて、自由な視点位置から見た映像を生成する技術である。近年では、このような自由視点映像に対してボックス型のマーカーにより所定位置を指定することにより、かかる所定位置にアノテーションを付与する技術が提案されている(特許文献1を参照)。
特開2006−211531号公報 特開2001−118015号公報
しかしながら、上記の従来技術では、自由視点映像の詳細な位置にアノテーションを付与することが困難であった。具体的には、上記の従来技術では、自由視点映像の所定位置をボックス型のマーカーにより指定するので、直方体の空間でしかアノテーションの領域を指定することができなかった。例えば、自由視点映像に人が描出されている場合に、手のひらと手の甲を区別して指定することが困難であった。
本願の開示する技術は、上記に鑑みてなされたものであって、自由視点映像の詳細な位置にアノテーションを付与することができる画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。
実施形態に係る画像処理装置は、視点位置が異なる複数の画像データに基づいて、任意の視点位置に対応する自由視点画像を生成する画像生成手段と、前記画像生成手段によって生成された自由視点画像に対して、説明情報を設定する操作、及び、当該説明情報を設定する設定座標を指定する操作を受け付ける受付手段と、前記受付手段によって受け付けられた前記自由視点画像の設定座標に対応する前記複数の画像データの座標に前記説明情報を付与する付与手段と、前記画像生成手段によって生成された新たな自由視点画像とともに、前記説明情報が付与されている前記複数の画像データの座標に対応する当該新たな自由視点画像の領域に前記説明情報を表示制御する表示制御手段と、を備えることを特徴とする。
実施形態に係る画像処理装置、画像処理方法及び画像処理プログラムは、自由視点映像の詳細な位置にアノテーションを付与することができるという効果を奏する。
図1は、実施形態に係る画像配信システムの構成例を示す図である。 図2は、実施形態に係る画像処理装置による画像処理の一例を説明するための図である。 図3は、実施形態に係る画像処理装置の構成例を示す図である。 図4は、実施形態にかかる映像データを説明するための図である。 図5は、実施形態に係る自由視点映像記憶部の一例を示す図である。 図6は、実施形態に係るアノテーションバッファの一例を示す図である。 図7は、実施形態に係るアノテーション記憶部の一例を示す図である。 図8は、実施形態に係る画像処理装置によるアノテーション付与処理の一例を示す図である。 図9は、実施形態に係る付与部による付与処理の一例を説明するための図である。 図10は、実施形態に係る付与部による付与処理の一例を説明するための図である。 図11は、実施形態に係る付与部による付与処理の一例を説明するための図である。 図12は、実施形態に係る画像処理装置によるアノテーション付与処理手順を示すフローチャートである。 図13は、実施形態に係る画像処理装置によるアノテーション表示処理手順を示すフローチャートである。 図14は、変形例に係るアノテーションバッファの一例を示す図である。
以下に、本願に係る画像処理装置、画像処理方法及び画像処理プログラムの実施形態を図面に基づいて詳細に説明する。なお、この実施形態により本願に係る画像処理装置、画像処理方法及び画像処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.画像配信システムの構成〕
まず、図1を用いて、実施形態に係る画像配信システムについて説明する。図1は、実施形態に係る画像配信システムの構成例を示す図である。図1に例示するように、実施形態に係る画像配信システム1には、管理者装置10と、端末装置20〜20と、画像処理装置100とが含まれる。管理者装置10、端末装置20〜20及び画像処理装置100は、ネットワーク30を介して互いに通信可能に接続される。
管理者装置10は、画像処理装置100のユーザ(管理者等)によって利用される情報処理装置である。例えば、管理者装置10は、パーソナルコンピュータ(Personal Computer)、携帯電話機、PDA(Personal Digital Assistant)等に該当する。なお、画像配信システム1には、複数台の管理者装置10が含まれてもよい。
端末装置20〜20は、画像処理装置100によって提供される自由視点映像を閲覧するユーザによって利用される情報処理装置である。例えば、端末装置20〜20は、パーソナルコンピュータ、携帯電話機、PDA等に該当する。なお、以下では、端末装置20〜20を区別する必要がない場合には、これらを総称して「端末装置20」と表記する場合がある。
画像処理装置100は、自由視点映像を配信するサーバ装置である。例えば、画像処理装置100は、管理者装置10や端末装置20〜20から任意の視点位置を受け付けた場合に、かかる視点位置から見たような自由視点映像を配信する。これにより、管理者装置10や端末装置20〜20のユーザは、画像処理装置100によって配信される映像の視点位置を自由に変更することができる。
また、画像処理装置100は、管理者装置10のユーザから受け付けたアノテーションを自由視点映像に付与し、アノテーション付きの自由視点映像を端末装置20に配信する。
なお、詳細については後述するが、実施形態に係るアノテーションとは、所定のデータに関する説明情報や注釈情報等を示し、「アノテーションが指し示す場所(領域)」、「アノテーションID」、「アノテーション内容」及び「アノテーション属性」によって形成される。
〔2.画像表示処理〕
次に、図2を用いて、上述した画像処理装置100による画像処理について説明する。図2は、実施形態に係る画像処理装置100による画像処理の一例を説明するための図である。
図2に示した例において、画像処理装置100は、異なる視点位置に配置された複数の撮像装置(例えば、カメラ)によって被写体Pが撮像されることで生成された複数の映像データを保持する。すなわち、画像処理装置100は、被写体Pを撮像する位置(又は角度)が異なる撮像装置の台数分の映像データを保持する。このような映像データは、複数のフレーム(画像データ)によって構成される。
画像処理装置100は、各撮像装置に対応する複数の映像データに基づいて、各時刻に対応する自由視点画像を生成することで、各時刻に対応する自由視点画像によって構成される自由視点映像を生成する。図2では、所定時刻に対応する自由視点画像に着目して、画像処理装置100による処理について説明する。また、図2に示した例では、各映像データに含まれる所定時刻のフレームがフレームf〜fであるものとする。
まず、画像処理装置100は、フレームf〜fに基づいて、任意視点位置の自由視点画像G11を生成する(ステップS11)。例えば、画像処理装置100は、管理者装置10のユーザによって指定された視点位置から見たような自由視点画像G11を生成する。
そして、画像処理装置100は、自由視点画像G11を管理者装置10に配信する。これにより、管理者装置10は、自由視点画像G11をディスプレイ等の表示部に表示する。そして、画像処理装置100は、自由視点画像G11にアノテーションの設定位置を指定する操作を受け付ける。
例えば、管理者装置10のユーザは、マウス等によってアノテーションの設定位置を指定する。また、例えば、管理者装置10の表示部がタッチパネルである場合には、ユーザは、表示部に触れることでアノテーションの設定位置を指定する。このとき、ユーザは、マウスや指をドラッグするドローイング操作を行うことにより、アノテーションを設定する設定領域を指定することができる。
そして、画像処理装置100は、アノテーションの設定位置(設定領域)が指定された場合に、アノテーション内容等を入力するための入力欄を表示する。これにより、管理者装置10のユーザは、かかる入力欄にアノテーション内容等を入力する。
そして、管理者装置10は、ユーザにより指定されたアノテーションの設定位置に対応する自由視点画像G11の座標(以下、アノテーション設定座標と表記する)と、アノテーション設定座標に入力されたアノテーション内容等を画像処理装置100に送信する。
そして、画像処理装置100は、管理者装置10から受け付けたアノテーション内容等をフレームf〜fに付与する(ステップS12)。具体的には、画像処理装置100は、アノテーション設定座標に対応するフレームf〜f上の座標にアノテーション内容を付与する。
例えば、図2に示した例において、ユーザが自由視点画像G11に描出されているメガネを指定した上で、かかるメガネの商品名や販売店をアノテーション内容として入力したものとする。この場合、画像処理装置100は、フレームf〜fの各々についてメガネが描出されている座標を特定し、特定した各々の座標にメガネの商品名や販売店をアノテーション内容として付与する。図2に示した例では、画像処理装置100は、フレームfにアノテーション内容aを付与し、同様に、フレームf〜fの各々にアノテーション内容aを付与している。
そして、画像処理装置100は、端末装置20からアクセスされることにより、フレームf〜fに基づいて新たな自由視点画像G12を生成するものとする。ここでは、端末装置20のユーザにより自由視点画像G11と異なる視点位置が指定されたものとする。すなわち、画像処理装置100は、自由視点画像G11と視点位置が異なる自由視点画像G12を生成する。
かかる場合に、画像処理装置100は、自由視点画像G12とともにアノテーション内容等を端末装置20に配信することにより、端末装置20に自由視点画像G12及びアノテーションを表示させる(ステップS13)。具体的には、画像処理装置100は、アノテーション内容aが付与されているフレームf〜fの座標に対応する自由視点画像G12の座標に、かかるアノテーション内容aを表示させる。図2に示した例では、画像処理装置100は、自由視点画像G12に描出されているメガネを指し示す吹き出しに「商品名:黒メガネ」や「販売店:眼鏡東京」といったアノテーション内容を表示させる。
このように、実施形態に係る画像処理装置100は、自由視点画像に対してアノテーション設定座標を受け付け、かかるアノテーション設定座標に対応するフレームf〜fの座標にアノテーションを付与する。これにより、画像処理装置100は、ボックス型のマーカーによりアノテーションの位置を受け付ける場合と比較して、自由視点映像の詳細な位置にアノテーションを付与することを可能にする。
また、画像処理装置100は、自由視点画像の生成元となった視点位置の異なるフレームf〜fにアノテーションを付与するので、新たな自由視点画像を生成する場合にも正確な位置にアノテーションを表示させることができる。
〔3.画像処理装置の構成〕
次に、図3を用いて、上述した画像処理装置100の構成について説明する。図3は、実施形態に係る画像処理装置100の構成例を示す図である。図3に示すように、実施形態に係る画像処理装置100は、IF(interface)部110と、映像記憶部120と、説明情報記憶部130と、制御部140とを有する。なお、画像処理装置100は、画像処理装置100の管理者等から各種操作を受け付ける入力部や、各種情報を表示するための表示部を有してもよい。
IF部110は、ネットワーク30を介して、管理者装置10や端末装置20との間で、自由視点画像等の各種データを送受信する。例えば、IF部110は、NIC(Network Interface Card)等によって実現される。
映像記憶部120は、自由視点映像に関する各種情報を記憶し、自由視点映像記憶部121と、自由視点画像記憶部122とを有する。かかる映像記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等によって実現される。
自由視点映像記憶部121は、被写体に対して異なる視点位置又は角度から撮像されることで生成された映像データを視点位置又は角度毎に記憶する。なお、以下では、視点位置と表記する場合には、被写体に対する視点位置だけでなく、被写体に対する角度を含むものとする。
ここで、図4を用いて、自由視点映像記憶部121に記憶される映像データについて説明する。図4は、実施形態にかかる映像データを説明するための図である。図4に示した例では、撮像空間E1の周囲に撮像装置C11〜C18が略等間隔で配置される。撮像空間E1は、撮像装置C11〜C18によって撮像される3次元空間を示す。ここの例では、撮像空間E1の中に被写体Pが存在するので、撮像装置C11〜C18の各々は、撮像空間E1を撮像することにより、被写体Pの映像データを生成する。
なお、図4に示した例では、仮想的な撮像装置である仮想撮像装置VC11を図示したが、かかる仮想撮像装置VC11は、管理者装置10や端末装置20のユーザ等によって指定され得る任意の視点位置の一例に該当する。
自由視点映像記憶部121は、図4に示した撮像装置C11〜C18によって生成された映像データを記憶するものとする。ここで、図5に、実施形態に係る自由視点映像記憶部121の一例を示す。図5に示すように、自由視点映像記憶部121は、「視点位置」、「映像データ」といった項目を有する。
「視点位置」は、撮像空間E1に対する視点位置及び角度を示し、撮像装置C11〜C18の設置位置や、撮像装置C11〜C18の設置角度に該当する。言い換えれば、「視点位置」は、撮像装置C11〜C18が撮像空間E1を撮像する方向を示す。図5では、自由視点映像記憶部121の「視点位置」に、撮像装置C11〜C18に付した参照符号「C11」〜「C18」が記憶される例を示している。
「映像データ」は、撮像装置C11〜C18のいずれかによって生成された映像データを示す。かかる「映像データ」には、映像データを構成する複数のフレームが記憶される。
例えば、図5では、自由視点映像記憶部121が撮像装置C11によって撮像された映像データM11を記憶し、かかる映像データM11がフレームf11〜f11によって構成されていることを示している。
図3の説明に戻って、自由視点画像記憶部122は、後述するレンダリング部143によって生成される自由視点画像を記憶する。かかる自由視点画像は、3次元情報が反映された2次元画像に該当する。
説明情報記憶部130は、アノテーションに関する各種情報を記憶し、アノテーションバッファ131と、アノテーション記憶部132を有する。かかる説明情報記憶部130は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、又は、ハードディスク、光ディスク等によって実現される。
アノテーションバッファ131は、アノテーションを識別するためのアノテーションIDを記憶する。具体的には、アノテーションバッファ131は、自由視点映像記憶部121に記憶されているフレーム毎に用意される。そして、1個のアノテーションバッファ131は、フレーム内の各画素の位置毎に、アノテーションIDが記憶可能なバッファ領域を有する。
ここで、図6に、実施形態に係るアノテーションバッファ131の一例を示す。図6では、図5に示した映像データM11を構成するフレームf11に対応するアノテーションバッファA11の一例を示す。なお、図6では、説明を簡単にするために、フレームf11が「4×4」の画素p1〜p16により構成される例を示している。
図6に示すように、アノテーションバッファA11は、フレームf11と同サイズである「4×4」のバッファ領域を有する。そして、図6に示した例では、アノテーションバッファA11は、フレームf11の画素p1及びp2に対応する位置にアノテーションID「a11」を記憶し、フレームf11の画素p15及びp16に対応する位置にアノテーションID「a12」を記憶する。アノテーションバッファ131は、このようなアノテーションバッファA11を図5に記憶されているフレーム毎に有する。
アノテーション記憶部132は、アノテーションに関する各種情報を記憶する。図7に、実施形態に係るアノテーション記憶部132の一例を示す。図7に示すように、アノテーション記憶部132は、「アノテーションID」、「アノテーション内容」、「アノテーション属性」といった項目を有する。
「アノテーションID」は、アノテーションバッファ131に記憶されるアノテーションIDに対応する。「アノテーション内容」は、アノテーションの内容を示し、例えば図2に示した自由視点画像G12とともに表示される情報に該当する。「アノテーション属性」は、「アノテーション内容」の属性を示す。
例えば、図7では、アノテーションID「a11」のアノテーション内容が「11111」であり、かかるアノテーション内容がJAN(Japanese Article Number)コードであることを示している。また、例えば、図7では、アノテーションID「a12」のアノテーション内容が「黒メガネ」であり、かかるアノテーション内容が商品名であることを示している。
図3の説明に戻って、制御部140は、画像処理装置100による処理を制御する。かかる制御部140は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、図示しない記憶装置に記憶されているプログラム(画像処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。
図3に示すように、制御部140は、モデル生成部141と、テクスチャリング部142と、レンダリング部143と、表示制御部144と、受付部145と、付与部146とを有する。
モデル生成部141は、視点位置が異なる複数のフレームに基づいて3次元のポリゴンモデルを生成する。テクスチャリング部142は、モデル生成部141によって生成されたポリゴンモデルに対してテクスチャリングを行う。レンダリング部143は、テクスチャリング部142によってテクスチャリングが行われたポリゴンモデルをレンダリングすることにより自由視点画像を生成する。表示制御部144は、レンダリング部143によって生成された自由視点画像を配信することにより、配信先に自由視点画像を表示させる。受付部145は、アノテーションの設定を受け付ける。付与部146は、受付部145によって受け付けられたアノテーションを各フレームに付与する。
以下、制御部140が有する各処理部について、(1)アノテーション付与処理と、(2)アノテーション表示処理とに分けて説明する。なお、以下では、図4に示した撮像装置C11〜C18の視点位置(撮像空間E1を撮像する方向)を単に「視点位置C11〜C18」と表記する場合がある。例えば、視点位置C11は、撮像装置C11〜C18による撮像空間E1の撮像方向に該当する。
(1)アノテーション付与処理
図8を用いて、画像処理装置100によるアノテーション付与処理について説明する。図8は、実施形態に係る画像処理装置100によるアノテーション付与処理の一例を示す図である。図8では、管理者装置10のユーザから受け付けたアノテーションを自由視点映像に付与する例を説明する。なお、以下では、画像処理装置100が、自由視点映像を生成する技術として、SfS(Shape-From Silhouette)法を用いる例について説明する。ただし、画像処理装置100は、SfS法に限られず、PMVS(Patch-based Multi-view Stereo)法等を用いて自由視点映像を生成してもよい。
まず、前提として、制御部140は、それぞれの撮像装置C11〜C18について、撮像装置C11〜C18の視点位置(撮像空間E1を撮像する方向)と撮像空間E1とを対応付ける射影変換行列P11〜P18を保持する。また、制御部140は、実際に存在する撮像装置C11〜C18の視点位置だけでなく、ユーザによって指定され得る仮想視点位置(図4に示した仮想撮像装置VC11の視点位置等)と撮像空間E1とを対応付ける射影変換行列についても保持する。このような射影変換行列は予め計算されており、制御部140に与えられているものとする。
図8に示した例において、モデル生成部141は、自由視点映像を構成する所定時刻の自由視点画像を生成する場合に、自由視点映像記憶部121に記憶されている各視点位置に対応する映像データのうち、所定時刻に対応するフレームを取得する。例えば、自由視点映像記憶部121が図5に例示した映像データを記憶しているものとする。かかる場合に、モデル生成部141は、視点位置C11に対応する所定時刻tのフレームf11を取得する。同様に、モデル生成部141は、視点位置C12〜C18に対応する所定時刻tのフレームf12〜f18を取得する。
続いて、モデル生成部141は、セグメンテーションを行うことにより、フレームf11〜f18の各々について、被写体Pが存在する被写体領域を抽出する。図8に示した例の場合、モデル生成部141は、フレームf11から被写体領域S11を抽出し、フレームf12から被写体領域S12を抽出し、フレームf18から被写体領域S18を抽出している。
続いて、モデル生成部141は、撮像空間E1が複数のボクセルによって形成されているものとして、撮像装置C11〜C18に対応する射影変換行列P11〜P18のそれぞれと、撮像空間E1における各ボクセルの3次元座標とを乗算する。これにより、モデル生成部141は、各ボクセルが射影されるフレームf11〜f18上の2次元座標を得る。
そして、モデル生成部141は、各ボクセルが射影されるフレームf11〜f18上の2次元座標が上記の被写体領域内である否かを判定する。モデル生成部141は、このような判定処理を撮像装置C11〜C18について行う。そして、モデル生成部141は、所定数以上のフレームにおいて被写体領域内に位置するボクセルを被写体領域のボクセルとして抽出する。一方、モデル生成部141は、所定数以上のフレームにおいて被写体領域内に位置しないボクセルについては、被写体領域のボクセルとして抽出しない。
一例を挙げて説明する。ここでは、撮像空間E1が125個のボクセルV1〜V125によって形成されているものとする。かかる場合に、モデル生成部141は、撮像装置C11に対応する射影変換行列P11と、ボクセルV1の撮像空間E1における3次元座標とを乗算する。これにより、モデル生成部141は、ボクセルV1が射影されるフレームf11上の2次元座標位置を取得し、かかる2次元座標位置がフレームf11の被写体領域S11内であるか否かを判定する。
さらに、モデル生成部141は、射影変換行列P12とボクセルV1の3次元座標とを乗算することにより、ボクセルV1が射影されるフレームf12上の2次元座標位置が被写体領域S12内であるか否かを判定する。同様にして、モデル生成部141は、射影変換行列P13〜P18を用いて、ボクセルV1が射影されるフレームf13〜f18上の2次元座標位置が被写体領域S13〜S18内であるか否かを判定する。
そして、モデル生成部141は、上記の判定処理の結果、被写体領域S11〜S18内であると判定したフレーム数が所定数以上(例えば、全フレームである「8個」以上)である場合に、ボクセルV1を被写体領域内のボクセルとして抽出する。一方、モデル生成部141は、被写体領域S11〜S18内であると判定されたフレーム数が所定数以上でない場合に、ボクセルV1を被写体領域内のボクセルとして抽出しない。このようにして、モデル生成部141は、ボクセルV1〜V125の各々について被写体領域S11〜S18内であるか否かを判定することにより、ボクセルV1〜V125から被写体領域内のボクセルを抽出する。
そして、モデル生成部141は、上記のように抽出した被写体領域のボクセル群について、マーチンキューブ法等を用いてポリゴンモデル化する。図8に示した例では、モデル生成部141は、ポリゴンモデルPMを生成する。このようなポリゴンモデルPMは、多角形(例えば、三角形や四角形)のポリゴンの組み合わせによって表現される。図8の例では、ポリゴンモデルPMは、三角形のポリゴンの組み合わせによって表現されているものとする。このようなポリゴンモデルPMは、各ポリゴンにおける3個の頂点の3次元座標の集合Vによって表される。
図8の例では、ポリゴンモデルPMが三角形のポリゴンPG〜PGの組み合わせによって表現されているものとする。すなわち、ポリゴンモデルPMは、ポリゴンPGにおける3個の頂点の3次元座標(X11,Y11,Z11)、(X12,Y12,Z12)及び(X13,Y13,Z13)と、ポリゴンPGにおける3個の頂点の3次元座標(X21,Y21,Z21)、(X22,Y22,Z22)及び(X23,Y23,Z23)と、・・・、ポリゴンPGにおける3個の頂点の3次元座標(XS1,YS1,ZS1)、(XS2,YS2,ZS2)及び(XS3,YS3,ZS3)とを含む集合Vによって表される。
続いて、テクスチャリング部142は、ポリゴンモデルPMに対してテクスチャリングを行う。具体的には、テクスチャリング部142は、ポリゴンモデルPMを形成する各ポリゴンに色や質感を与えるために、各ポリゴンに対応するテクスチャをフレームf11〜f18から取得する。すなわち、テクスチャリング部142は、フレームf11〜f18からテクスチャ(表示情報の一例に相当)を取得する取得部として動作する。
より具体的に説明すると、テクスチャリング部142は、まず、後述するレンダリング部143によってポリゴンモデルPMがレンダリングされる際の視点位置に基づいて、テクスチャを取得するフレームf11〜f18を決定する。このような視点位置は、管理者装置10のユーザによって指定される。例えば、テクスチャリング部142は、視点位置C11が指定されている場合には、テクスチャの取得先をフレームf11に決定し、視点位置C12が指定されている場合には、テクスチャの取得先をフレームf12に決定する。また、例えば、テクスチャリング部142は、仮想視点位置VC11が指定されている場合には、テクスチャの取得先をフレームf11及びf18に決定する。
そして、テクスチャリング部142は、このようにして決定した視点位置に対応する射影変換行列を用いて、ポリゴンモデルPMを構成するポリゴン毎に、かかるポリゴンが射影されるフレーム上の2次元座標を特定する。そして、テクスチャリング部142は、特定した2次元座標をテクスチャ座標として、かかるテクスチャ座標におけるフレームの画素値などを各ポリゴンにマッピングする。
例えば、ポリゴンモデルPMが視点位置C11によりレンダリングされ、テクスチャリング部142が、テクスチャの取得先をフレームf11に決定したものとする。かかる場合に、テクスチャリング部142は、視点位置C11に対応する射影変換行列P11と、ポリゴンPGにおける各頂点の3次元座標とを乗算することにより、ポリゴンPGが射影されるフレームf11の領域を特定する。そして、テクスチャリング部142は、特定したフレームf11の領域における画素値をポリゴンPGにマッピングすることによりテクスチャリングを行う。テクスチャリング部142は、ポリゴンPG〜PGについても同様の処理を行うことによりテクスチャリングを行う。
また、例えば、ポリゴンモデルPMが仮想視点位置VC11によりレンダリングされ、テクスチャリング部142が、テクスチャの取得先をフレームf11及びf18に決定したものとする。かかる場合に、テクスチャリング部142は、1個のポリゴンについて、フレームf11及びf18から画素値を取得することになる。この場合、テクスチャリング部142は、フレームf11及びf18から取得した双方の画素値が同一である場合には、取得した画素値をポリゴンにマッピングする。一方、テクスチャリング部142は、フレームf11及びf18から取得した画素値が異なる場合には、一方の画素値をポリゴンにマッピングしてもよいし、仮想視点位置VC11と視点位置が近いフレームから取得した画素値をポリゴンにマッピングしてもよいし、重要度などから重み付けを行って画素値を合成した上で(アルファブレンド)、合成後の画素値をポリゴンにマッピングしてもよい。
レンダリング部143は、ユーザによって指定された視点位置に対応する射影変換行列を用いて、テクスチャリング部142によってテクスチャリングされたポリゴンモデルPMをレンダリングすることにより自由視点画像を生成する。図8に示した例では、ユーザによって視点位置C11が指定されたものとする。かかる場合に、レンダリング部143は、視点位置C11に対応する射影変換行列P11を用いて、ポリゴンモデルPMをレンダリングすることにより、ポリゴンモデルPMが射影された2次元の自由視点画像G11を生成する。レンダリング部143は、このように生成した自由視点画像G11を自由視点画像記憶部122に格納する。このように、レンダリング部143は、自由視点画像を生成する画像生成部として動作する。
表示制御部144は、自由視点画像記憶部122に記憶されている自由視点画像G11を管理者装置10に表示させる。具体的には、表示制御部144は、自由視点画像G11を管理者装置10に配信する。これにより、管理者装置10は、ブラウザ等を介して、自由視点画像G11をディスプレイ等の表示部に表示する。
受付部145は、自由視点画像G11に対して、アノテーション内容及びアノテーション属性とともに、かかるアノテーション内容等を設定する自由視点画像G11上のアノテーション設定座標を指定する操作を管理者装置10から受け付ける。具体的には、管理者装置10は、表示部に表示されている自由視点画像G11に対してアノテーションを設定する操作が行われた場合に、アノテーション設定座標、アノテーション内容及びアノテーション属性を画像処理装置100に送信する。
図8に示した例では、自由視点画像G11に描出されているメガネの領域R1にアノテーションを設定する操作が行われたものとする。すなわち、受付部145は、自由視点画像G11のうちメガネが描出されている座標群をアノテーション設定座標として受け付ける。
付与部146は、受付部145によって受け付けられたアノテーション内容及びアノテーション属性を説明情報記憶部130に格納する。具体的には、付与部146は、受付部145によってアノテーション内容等が受け付けられた場合に、新たなアノテーションIDを払い出す。続いて、付与部146は、受付部145によって受け付けられた自由視点画像G11上のアノテーション設定座標に対応するフレームf11〜f18の座標を特定し、特定した座標に対応するアノテーションバッファ131に新たなアノテーションIDを格納する。そして、付与部146は、かかる新たなアノテーションIDに対応付けて、受付部145によって受け付けられたアノテーション内容及びアノテーション属性をアノテーション記憶部132に格納する。
ここで、図9及び図10を用いて、付与部146による処理について説明する。図9及び図10は、実施形態に係る付与部146による付与処理の一例を説明するための図である。
まず、付与部146は、ポリゴンモデルPMを形成するポリゴンPG〜PGのうち、自由視点画像G11上のアノテーション設定座標に対応するポリゴンを抽出する。具体的には、付与部146は、レンダリング部143によって自由視点画像G11の生成時に用いられた射影変換行列の逆行列とアノテーション設定座標とを乗算することにより、かかるアノテーション設定座標を通過する直線を得る。
例えば、図9に示した例において、付与部146は、射影変換行列P11の逆行列P11 −1と、自由視点画像G11上のアノテーション設定座標Q1とを乗算することにより、アノテーション設定座標Q1を通過する直線L1を得る。そして、付与部146は、かかる直線L1が通過するポリゴンのうち、視点位置C11に最も近いポリゴンをアノテーションが付与されたポリゴンとして抽出する。付与部146は、全てのアノテーション設定座標について同様の処理を行うことにより、アノテーションが付与されたポリゴン群PAを抽出する。
なお、視点位置C11に最も近いポリゴンを抽出する理由は、ユーザが自由視点画像G11に対してアノテーションを指定する位置は、ユーザが閲覧可能なポリゴンに該当するからである。すなわち、付与部146は、視点位置C11に最も近いポリゴンを抽出することにより、ユーザが閲覧したポリゴンを抽出することとなり、結果として、ユーザがアノテーションを設定したポリゴンを抽出することができる。
続いて、付与部146は、ポリゴン群PAに含まれるポリゴン毎に、かかるポリゴンをテクスチャリングする際に用いられる可能性のあるフレームf11〜f18を特定する。そして、付与部146は、特定したフレームに対応する射影変換行列を用いて、かかるポリゴンが射影されるフレーム上の2次元座標を求める。そして、付与部146は、特定したフレームに対応するアノテーションバッファ131のうち、かかる2次元座標に対応する位置にアノテーションIDを格納する。
例えば、図8に示した例のように、メガネの領域にアノテーションが設定されたものとする。そして、かかるメガネが見える視点位置が視点位置C11〜C14及びC15〜C18であるものとする。この場合、付与部146は、メガネのポリゴンにテクスチャリングを行う際に、フレームf11〜f14及びf15〜f18からテクスチャを取得する可能性があるので、これらのフレームf11〜f14及びf15〜f18を特定する。
そして、付与部146は、ポリゴン群PAの各ポリゴンについて、射影変換行列P11を用いて、かかるポリゴンがフレームf11に射影される2次元座標を取得する。そして、付与部146は、フレームf11に対応するアノテーションバッファ131のうち、取得した2次元座標が示す位置にアノテーションIDを格納する。付与部146は、このような処理を、上記において特定したフレームf11〜f14及びf15〜f18について行う。
この点について、図10に示した例を用いて説明する。図10に示した例では、ポリゴン群PAに含まれるポリゴンPAにアノテーションID「a11」が払い出され、ポリゴン群PAに含まれるポリゴンPAにアノテーションID「a12」が払い出されたものとする。また、ポリゴンPAは、フレームf11の画素p131t及びp141tに射影されるものとする。また、ポリゴンPAは、フレームf11の画素p61t及びp71tに射影されるものとする。かかる場合に、付与部146は、フレームf11に対応するアノテーションバッファA11のうち、画素p131t及びp141tに対応する位置にアノテーションID「a11」を格納し、画素p61t及びp71tに対応する位置にアノテーションID「a12」を格納する。
また、フレームf12の画素p62t、p72t及びp82tにポリゴンPAが射影され、フレームf18の画素p58t、p68t及びp78tにポリゴンPAが射影されるものとする。かかる場合に、付与部146は、フレームf12に対応するアノテーションバッファA12のうち、画素p62t、p72t及びp82tに対応する位置にアノテーションID「a12」を格納し、フレームf18に対応するアノテーションバッファA18のうち、画素p58t、p68t及びp78tに対応する位置にアノテーションID「a12」を格納する。また、図10では図示することを省略したが、付与部146は、フレームf13及びf15〜f17に対応するアノテーションバッファ131についても、同様にしてアノテーションIDを格納する。
続いて、付与部146は、時刻tに対応するフレームf11〜f14及びf15〜f18だけでなく、時刻t以外の他の時刻におけるフレームにもアノテーションIDを付与する。具体的には、付与部146は、各視点位置に対応する映像データ毎に、アノテーションIDを付与したフレームの領域を初期トラッキング対象(追跡対象)として、他の時刻におけるフレームのうち初期トラッキング対象に対応する領域をトラッキングし、トラッキングした領域にアノテーションIDを付与する。付与部146は、かかるトラッキングをアノテーションID毎に行う。なお、付与部146は、トラッキング手法として、例えば、パーティクルフィルターやTLD(Tracking Learning Detection)等を用いる。
この点について、図11を用いて説明する。図11は、実施形態に係る付与部146による付与処理の一例を説明するための図である。図11では、図10に示したフレームf11を例に挙げて説明する。
図11に示した例において、付与部146は、アノテーションID「a11」に対応する画素p131t及びp141tを初期トラッキング対象として、トラッキングを行う。このとき、フレームf11の次のフレームf11t+1において、トラッキング対象が画素p141t+1及びp151t+1に移動したものとする。かかる場合に、付与部146は、フレームf11t+1に対応するアノテーションバッファA11t+1のうち、画素p141t+1及びp151t+1に対応する位置にアノテーションID「a11」を格納する。
さらに、図11に示した例において、付与部146は、アノテーションID「a12」に対応する画素p61t及びp71tを初期トラッキング対象として、トラッキングを行う。このとき、フレームf11t+1において、トラッキング対象が画素p71t+1及びp81t+1に移動したものとする。かかる場合に、付与部146は、フレームf11t+1に対応するアノテーションバッファA11t+1のうち、画素p71t+1及びp81t+1に対応する位置にアノテーションID「a12」を格納する。
また、図11では図示することを省略したが、付与部146は、フレームf11t+1以降のフレーム(f11t+2など)についても、トラッキングを行うことによりアノテーションIDを付与する。また、付与部146は、フレームf11以降のフレームだけでなく、フレームf11よりも時間的に前のフレーム(フレームf11t−1など)についても、トラッキングを行うことによりアノテーションIDを付与してもよい。
このようにして、実施形態に係る画像処理装置100は、自由視点映像を構成する自由視点画像に対してアノテーションを設定する操作を受け付け、受け付けたアノテーションを自由視点画像の生成元となったフレームに付与する。
なお、上述してきたモデル生成部141、テクスチャリング部142、レンダリング部143及び表示制御部144は、時刻が経過するたびに、かかる時刻に対応する各フレームを用いて、上述した処理を繰り返し行う。これにより、管理者装置10は、時間経過とともに異なる自由視点画像を順次表示することにより、自由視点映像を表示することができる。
また、画像処理装置100は、管理者装置10から再生時刻を受け付けた場合に、かかる再生時刻以降の自由視点画像を生成して、生成した自由視点画像を管理者装置10に順次配信する。また、画像処理装置100は、自由視点映像を巻き戻し操作や、自由視点映像を早送り操作等を管理者装置10から受け付けた場合には、かかる操作に対応する自由視点画像を管理者装置10に順次配信する。また、画像処理装置100は、ユーザによって視点位置が変更された場合には、かかる視点位置からレンダリング処理を行うことで、ユーザに指定された視点位置から見たような自由視点画像を管理者装置10に順次配信する。
また、管理者装置10は、画像処理装置100から受信済みの自由視点画像を順次表示するだけでなく、停止操作や巻き戻し操作や早送り操作等に対応する表示処理を行うこともできる。すなわち、管理者装置10のユーザは、自由視点映像を停止させた状態で、アノテーションを付与することができる。
(2)アノテーション表示処理
次に、画像処理装置100によるアノテーション表示処理について説明する。以下では、画像処理装置100が端末装置20に自由視点映像を配信する例について説明する。
まず、モデル生成部141は、上述した処理と同様に、ポリゴンモデルを生成する。続いて、テクスチャリング部142は、上述した処理と同様に、ポリゴンモデルに対してテクスチャリングを行う。ここで、テクスチャリング部142は、ポリゴンモデルPMを形成する各ポリゴンに対応するテクスチャをフレームから取得する際に、アノテーションIDについてもアノテーションバッファ131から取得する。そして、テクスチャリング部142は、テクスチャをポリゴンにマッピングする際に、かかるポリゴンにアノテーションIDを対応付ける。
例えば、テクスチャリング部142が、図10に示したフレームf11からテクスチャを取得するものとする。このとき、テクスチャリング部142は、フレームf11の画素p61t及びp71tを取得する場合に、アノテーションバッファA11から画素p61t及びp71tに対応するアノテーションID「a12」を取得する。そして、テクスチャリング部142は、画素p61t及びp71tをポリゴンにマッピングする場合に、かかるポリゴンにアノテーションID「a12」を対応付けておく。
続いて、レンダリング部143は、ポリゴンモデルをレンダリングすることにより自由視点画像を生成する。このとき、レンダリング部143は、アノテーションIDが対応付けられているポリゴンに対応する自由視点画像の座標(以下、アノテーション表示座標と表記する)を特定する。
続いて、表示制御部144は、ポリゴンに対応付けられているアノテーションIDをキーにして、アノテーション記憶部132からアノテーション内容及びアノテーション属性を取得する。そして、表示制御部144は、レンダリング部143によって生成された自由視点映像に、アノテーション記憶部132から取得したアノテーション内容(及びアノテーション属性)を重畳する。
このとき、表示制御部144は、アノテーション表示座標毎にアノテーション内容等を重畳させるのではなく、アノテーション表示座標の領域毎にアノテーション内容等を重畳させる。例えば、表示制御部144は、自由視点画像のうち、アノテーションIDが同一であり、かつ、アノテーション表示座標が隣り合う座標群をアノテーション領域として特定する。そして、表示制御部144は、アノテーション領域毎に、かかるアノテーションIDに対応するアノテーション内容等を重畳させる。
また、表示制御部144は、図2に示した例のように、アノテーション表示座標を指し示す吹き出しにアノテーション内容(及びアノテーション属性)を表示させてもよい。例えば、表示制御部144は、ポリゴンモデルの重心(例えば、全ポリゴン座標の平均)からアノテーション領域の重心を通る線分を延長した先に、アノテーション領域の重心を指し示し、かつ、アノテーション内容(及びアノテーション属性)が描出された吹き出しを重畳させる。
そして、表示制御部144は、アノテーションが重畳された自由視点画像を端末装置20に配信する。表示制御部144は、時刻が経過するたびに、かかる時刻に対応する自由視点画像を順次配信する。これにより、端末装置20は、アノテーションが重畳された自由視点映像を表示することができる。
なお、端末装置20のユーザは、画像処理装置100から配信される自由視点映像の視点位置を変更することができる。このとき、表示制御部144は、上述したアノテーション内容等が記述された吹き出しの表示位置を固定にしてもよいし、視点位置の変更に伴って吹き出しの表示位置を変更させてもよい。
例えば、表示制御部144は、被写体が回転された場合には、被写体と同様にアノテーション内容等が記述された吹き出しを回転させてもよい。また、例えば、表示制御部144は、いわゆるビルボーディングのように、視点位置に対して正対するように吹き出しを表示させてもよい。この場合、表示制御部144は、端末装置20の表示画面に常に正対するように、アノテーション内容等が記述された吹き出しを表示する。また、例えば、表示制御部144は、アノテーション内容等が記述された吹き出しについては、直交3軸のうち1軸のみを固定にして表示させてもよい。また、表示制御部144は、被写体とは別に、ユーザが吹き出しの向きを変更できるようにしてもよい。
〔4.アノテーション付与処理手順〕
次に、図12を用いて、実施形態に係る画像処理装置100によるアノテーション付与処理の手順について説明する。図12は、実施形態に係る画像処理装置100によるアノテーション付与処理手順を示すフローチャートである。なお、図12では、画像処理装置100によって、管理者装置10に対して自由視点映像が配信されているものとする。
図12に示すように、画像処理装置100の受付部145は、管理者装置10から、自由視点画像に対するアノテーションの設定操作を受け付けたか否かを判定する(ステップS101)。このとき、受付部145は、アノテーションの設定操作を受け付けた場合には(ステップS101;Yes)、アノテーション設定座標、アノテーション内容及びアノテーション属性を管理者装置10から受信する。
続いて、付与部146は、受付部145によって受け付けられたアノテーションに対して、アノテーションIDを払い出す(ステップS102)。続いて、付与部146は、図9を用いて説明したように、自由視点画像の生成時にレンダリング部143によって用いられた射影変換行列を用いて、アノテーション設定座標に対応するポリゴン群PAを抽出する(ステップS103)。
続いて、付与部146は、ポリゴン群PAのテクスチャリング時に用いられる可能性のあるフレームを特定する(ステップS104)。続いて、特定したフレーム毎に、付与部146は、ポリゴン群PAが射影されるフレーム上の2次元座標を求める(ステップS105)。続いて、付与部146は、かかるフレームに対応するアノテーションバッファ131のうち、ステップS104で求めた2次元座標に対応する位置にアノテーションIDを格納する(ステップS106)。
そして、付与部146は、アノテーションIDに対応付けて、受付部145によって受け付けられたアノテーション内容及びアノテーション属性をアノテーション記憶部132に格納する(ステップS107)。
〔5.アノテーション表示処理手順〕
次に、図13を用いて、実施形態に係る画像処理装置100によるアノテーション表示処理の手順について説明する。図13は、実施形態に係る画像処理装置100によるアノテーション表示処理手順を示すフローチャートである。
図13に示すように、画像処理装置100の制御部140は、端末装置20から自由視点映像の取得要求を受け付けたか否かを判定する(ステップS201)。このとき、自由視点映像の取得要求を受け付けた場合に(ステップS201;Yes)、モデル生成部141は、図8を用いて説明したように、自由視点映像記憶部121に記憶されている各視点位置に対応するフレームに基づいて、ポリゴンモデルを生成する(ステップS202)。
続いて、テクスチャリング部142は、モデル生成部141によって生成されたポリゴンモデルに含まれるポリゴン毎に、かかるポリゴンに対応するテクスチャを各フレームから取得してテクスチャリングを行う(ステップS203)。このとき、テクスチャリング部142は、テクスチャを取得したフレームに対応するアノテーションバッファ131から、アノテーションIDを取得する(ステップS204)。そして、テクスチャリング部142は、テクスチャリングを行ったポリゴンに対してアノテーションIDを対応付ける。
続いて、レンダリング部143は、ポリゴンモデルをレンダリングすることにより自由視点画像を生成する(ステップS205)。このとき、レンダリング部143は、アノテーションIDが対応付けられているポリゴンが射影される自由視点画像上のアノテーション表示座標を特定する。
続いて、表示制御部144は、自由視点画像上のアノテーション表示座標に、アノテーション内容(及びアノテーション属性)を重畳する(ステップS206)。そして、表示制御部144は、アノテーションが重畳された自由視点画像を端末装置20に配信する(ステップS207)。
続いて、制御部140は、ステップS201において要求された自由視点映像を構成する全ての自由視点画像を配信したか否かを判定する(ステップS208)。そして、制御部140は、全ての自由視点画像を配信していない場合には(ステップS208;No)、ステップS202に戻り、自由視点映像を構成する次の自由視点画像(フレーム)を配信する処理を行う。一方、制御部140は、全ての自由視点画像を配信している場合には(ステップS208;Yes)、処理を終了する。
〔6.実施形態の効果〕
上述してきたように、実施形態に係る画像処理装置100は、レンダリング部143(画像生成部の一例に相当)と、表示制御部144と、受付部145と、付与部146とを有する。レンダリング部143は、視点位置が異なる複数のフレーム(画像データの一例に相当)に基づいて、任意の視点位置に対応する自由視点画像を生成する。受付部145は、レンダリング部143によって生成された自由視点画像に対して、アノテーション(説明情報の一例に相当)を設定する操作、及び、アノテーションを設定する設定座標を指定する操作を受け付ける。付与部146は、受付部145によって受け付けられた自由視点画像の設定座標に対応する複数のフレームの座標にアノテーションを付与する。表示制御部144は、レンダリング部143によって生成された新たな自由視点画像とともに、アノテーションが付与されている複数のフレームの座標に対応する新たな自由視点画像の領域にアノテーションを表示制御する。
これにより、実施形態に係る画像処理装置100は、ボックス型のマーカーによりアノテーションの位置を受け付ける場合と比較して、自由視点映像の詳細な位置にアノテーションを付与することを可能にする。また、画像処理装置100は、自由視点画像の生成元となった視点位置の異なるフレームf〜fにアノテーションを付与するので、新たな自由視点画像を生成する場合にも正確な位置にアノテーションを表示させることができる。
また、実施形態に係る画像処理装置100は、モデル生成部141と、テクスチャリング部142(取得部の一例に相当)とを有する。モデル生成部141は、複数のフレームに基づいてポリゴンモデル(3次元モデルの一例に相当)を生成する。テクスチャリング部142は、モデル生成部141によって生成されたポリゴンモデルにおける所定の領域毎に、かかる所定の領域に対応するテクスチャ(表示情報の一例に相当)と、かかる所定の領域に対応するアノテーションとを複数のフレームから取得する。また、レンダリング部143は、テクスチャリング部142によって取得されたテクスチャが適用されたポリゴンモデルから自由視点画像を生成する。また、表示制御部144は、テクスチャリング部142によって取得されたアノテーションを新たな自由視点画像に表示制御する。
これにより、実施形態に係る画像処理装置100は、テクスチャリングを行うとともに、アノテーションを取得することができるので、効率的に自由視点映像を生成することができる。
また、実施形態に係る画像処理装置100において、レンダリング部143は、複数のフレームとして、視点位置が異なる複数の映像データに含まれる所定時刻に対応する複数のフレームに基づいて自由視点画像を生成する。また、付与部146は、視点位置毎に、アノテーションを付与した画像データの説明領域を初期トラッキング対象(追跡対象の一例に相当)として、他の時刻の画像データについて説明領域に対応する領域をトラッキングし、トラッキングした領域にアノテーションを付与する。
これにより、実施形態に係る画像処理装置100は、自由視点映像を構成する所定の自由視点画像(フレーム)にアノテーションを設定する操作がされた場合に、他の時刻に対応する自由視点画像の生成元となるフレーム群にもアノテーションを付与することができる。
また、実施形態に係る画像処理装置100において、表示制御部144は、自由視点映像の視点位置と正対するようにアノテーションを表示する。または、表示制御部144は、自由視点映像における視点位置の変更とともにアノテーションの表示方向を変更する。
これにより、実施形態に係る画像処理装置100は、ユーザに閲覧しやすい態様によってアノテーションを表示することができるので、ユーザビリティの向上を図ることができる。
〔7.変形例〕
上述してきた実施形態に係る画像処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下に、上記の画像処理装置100の他の実施形態について説明する。
〔7−1.複数のアノテーションID〕
上述した(2)アノテーション表示処理において、テクスチャリング部142は、複数のフレームからテクスチャを取得する場合がある。例えば、レンダリング部143によってレンダリングされる際の視点位置が図4に示した仮想視点位置VC11である場合には、テクスチャリング部142は、フレームf11及びf18からテクスチャを取得する。この場合、テクスチャリング部142は、同一のポリゴンについて、アノテーションバッファA11及びA18から異なるアノテーションIDを取得する可能性がある。
このような場合には、テクスチャリング部142は、仮想視点位置VC11と視点位置が近いフレームに対応するアノテーションバッファからアノテーションIDを取得してもよい。例えば、仮想視点位置VC11が、視点位置C11よりも視点位置C18に近い場合には、テクスチャリング部142は、フレームf18に対応するアノテーションバッファA18から異なるアノテーションIDを取得してもよい。
また、上記例において、テクスチャリング部142は、アノテーションバッファA11及びA18のそれぞれからアノテーションIDを取得してもよい。この場合、テクスチャリング部142は、テクスチャをポリゴンにマッピングする際に、かかるポリゴンに双方のアノテーションIDを対応付ける。そして、表示制御部144は、同一のアノテーション領域に全てのアノテーション内容等を表示させる。
また、上記例において、テクスチャリング部142は、アノテーションバッファA11及びA18に格納されているアノテーションIDがトラッキングにより付与されている場合には、ユーザがアノテーションを指定したフレームから近いフレームに対応するアノテーションバッファからアノテーションIDを取得してもよい。
一例を挙げて説明すると、例えば、ユーザが自由視点画像G11t−1にアノテーションを設定し、かかる自由視点画像G11t−1の生成元となったフレームf11t−1にアノテーションが付与されたものとする。そして、付与部146が、トラッキングを行うことにより、フレームf11t−1の次のフレームf11に対応するアノテーションバッファA11にアノテーションIDを格納したものとする。また、ユーザが自由視点画像G18t−10にアノテーションを設定し、かかる自由視点画像G18t−10に対応するフレームf18t−10に対してアノテーションが付与されたものとする。そして、付与部146が、トラッキングを行うことにより、フレームf18t−10の10個先のフレームf18に対応するアノテーションバッファA18にアノテーションIDを格納したものとする。この例では、ユーザが実際にアノテーションを設定したフレームから近いフレームに対応するアノテーションバッファは、アノテーションバッファA11である。このため、テクスチャリング部142は、アノテーションバッファA11及びA18のうち、アノテーションバッファA11からアノテーションIDを取得する。
このようにアノテーションIDを取得する理由は、多数のフレームを跨ぐほどトラッキングの精度が落ちる可能性があるからである。すなわち、上記例において、付与部146は、フレームf11t−1を初期トラッキング対象とした場合に、次のフレームf11を高精度にトラッキングする可能性が高い。しかし、付与部146は、フレームf18t−10を初期トラッキング対象とした場合には、フレームf18t−9、フレームf18t−8、・・・、フレームf18と順にトラッキングを行うので、いずれかのフレーム間においてトラッキング精度が劣化する可能性がある。このようなことから、テクスチャリング部142は、トラッキング精度が高いと想定されるフレームf11に対応するアノテーションバッファA11からアノテーションIDを取得することにより、正しいアノテーションIDを取得する可能性を高めることができる。
また、上記例において、付与部146は、トラッキング処理を行う場合に、トラッキング精度(尤度)を保持しておいてもよい。そして、テクスチャリング部142は、かかるトラッキング精度(尤度)に基づいて、アノテーションIDを取得するアノテーションバッファを決定してもよい。
例えば、上記例において、付与部146が、フレームf11t−1を初期トラッキング対象として次のフレームf11をトラッキングした場合に、かかるトラッキング精度(尤度)として「0.5」を算出したものとする。また、付与部146が、フレームf18t−10を初期トラッキング対象としてフレームf18t−9〜f18を順にトラッキングした場合に、それぞれのトラッキング精度(尤度)として「0.95」を算出したものとする。この例の場合、フレームf11t−1とフレームf11との間におけるトラッキング精度(尤度)よりも、フレームf18t−10とフレームf18との間におけるトラッキング精度(尤度)の方が高い。かかる場合には、テクスチャリング部142は、フレームf18に対応するアノテーションバッファA18からアノテーションIDを取得する。これにより、テクスチャリング部142は、正しいアノテーションIDを取得する可能性を高めることができる。
〔7−2.アノテーションIDの保持〕
また、上記例では、図6や図10等に示したように、フレーム内の画素毎に1個のアノテーションIDを付与する例を示した。しかし、フレーム内の画素毎に複数のアノテーションIDを付与できてもよい。例えば、アノテーションバッファ131は、所定の区切り文字(「;」や「、」など)を用いて、1画素に対して、複数のアノテーションIDを保持してよい。図6に示した例では、アノテーションバッファA11は、画素p1に対応するアノテーションID「a11;a12」を保持してもよい。
また、アノテーションバッファ131は、フレーム毎、かつ、アノテーションID毎に、かかるフレームと同サイズのバッファ領域を有してもよい。この点について図14を用いて説明する。図14は、変形例に係るアノテーションバッファ131の一例を示す図である。
図14に示した例では、フレームf11に対応するアノテーションバッファ131として、アノテーションバッファA1111、A1112、A1113が用意されている。アノテーションバッファA1111は、アノテーションID「a11」用のバッファであり、アノテーションバッファA1112は、アノテーションID「a12」用のバッファであり、アノテーションバッファA1113は、アノテーションID「a13」用のバッファである。
図14に示した例では、アノテーションバッファに「1」が格納されている場合には、対応する画素にアノテーションIDが設定されていることを示し、アノテーションバッファに「0」が格納されている場合には、対応する画素にアノテーションIDが設定されていないことを示す。例えば、フレームf11の画素p1には、アノテーションID「a11」及び「a12」が設定されており、アノテーションID「a13」が設定されていないことを示す。また、例えば、フレームf11の画素p15には、アノテーションID「a11」及び「a13」が設定されており、アノテーションID「a12」が設定されていないことを示す。このように、アノテーションバッファ131は、アノテーションID毎にフレームと同サイズのバッファ領域を有することにより、同一画素に対して複数のアノテーションIDを保持することができる。
〔7−3.アノテーションの追加設定〕
また、上記実施形態では、(1)アノテーション付与処理において説明したように、画像処理装置100が、管理者装置10のユーザから、自由視点画像に対するアノテーションの設定操作を受け付ける例を示した。ここで、画像処理装置100は、管理者装置10のユーザによってアノテーションが付与された場合、端末装置20に配信する自由視点画像と同様に、アノテーション付きの自由視点画像を管理者装置10に配信してもよい。これにより、管理者装置10のユーザは、自由視点映像を確認することで所望の位置に所望のアノテーションが設定されているか確認することができる。また、管理者装置10のユーザは、所望の位置に所望のアノテーションが設定されていない場合には、アノテーションを追加で設定したり、設定済みのアノテーションを削除したりすることができる。
また、画像処理装置100は、管理者装置10に対しては、自由視点画像ではなく、自由視点画像の生成元となる複数のフレームを配信してもよい。例えば、図8に示した例において、画像処理装置100は、自由視点画像G11ではなく、フレームf11〜f18の全て又は一部を管理者装置10に配信してもよい。そして、画像処理装置100は、フレームf11〜f18の全て又は一部に対してアノテーションの設定を受け付けてもよい。
ここで、フレームf11に対してアノテーションの設定を受け付けた場合について、画像処理装置100による処理について説明する。付与部146は、フレームf11の所定座標(以下、アノテーション座標と表記する)にアノテーションが設定された場合に、アノテーションバッファA11のうちアノテーション座標に対応する位置にアノテーションIDを格納する。さらに、付与部146は、フレームf11に対応する射影変換行列の逆行列とアノテーション座標を乗算することにより、かかるアノテーション座標を通過する直線を得る。そして、付与部146は、かかる直線が通過するポリゴンのうち、フレームf11の視点位置C11に最も近いポリゴンをアノテーションが付与されたポリゴンとして抽出する。付与部146は、全てのアノテーション座標について同様の処理を行うことにより、アノテーションが付与されたポリゴン群PAを抽出する。以降、付与部146は、上記(1)アノテーション付与処理において説明した処理と同様にして、ポリゴン群PAをテクスチャリングする際に用いられる可能性のあるフレームに対応するアノテーションバッファにアノテーションIDを格納する。
〔7−4.広告表示〕
また、上記実施形態では、自由視点映像にアノテーションを表示する例を示したが、かかる自由視点映像は、例えば、ウェブページの一部分に表示される場合がある。ここで、画像処理装置100は、自由視点映像に表示されているアノテーションに対応する広告コンテンツをウェブページの広告枠に表示してもよい。例えば、自由視点映像にメガネのアノテーションが表示されている場合に、画像処理装置100は、ウェブページの広告枠にメガネの広告コンテンツを表示させてもよい。
〔7−5.自由視点画像の生成手法〕
また、上記実施形態では、ポリゴンモデルを生成するSfS法やPMVS法を例に挙げて説明したが、上述してきた画像処理装置100は、ポリゴンモデルを生成しないIBVH(Image-Based Visual Hull)法等を用いる場合にも適用することができる。ここで、IBVH法を用いる場合における画像処理装置100による処理ついて簡単に説明する。なお、以下では、画像処理装置100が、モデル生成部141、テクスチャリング部142及びレンダリング部143の代わりに「取得部」及び「画像生成部」を有するものとして説明する。
まず、画像処理装置100の取得部は、自由視点画像を生成する場合に、自由視点画像における座標位置毎に、かかる画素にマッピングするための画素値(表示情報の一例に相当)を自由視点映像記憶部121に記憶されている各フレームから取得する。かかる取得処理は、上述したテクスチャリング部142によるテクスチャリングと類似しており、射影変換行列を用いることで実現できる。そして、画像生成部は、取得部によって取得された画素値を前述の座標位置にマッピングすることにより、自由視点画像を生成する。そして、画像処理装置100の付与部146は、自由視点画像に対するアノテーションの設定操作が行われた場合に、かかる自由視点画像の生成元となったフレームにアノテーションを付与する。かかる付与処理についても、上述した付与部146による処理と類似しており、射影変換行列を用いることで実現できる。そして、画像処理装置100の取得部は、端末装置20等に自由視点画像を配信する場合には、自由視点画像にマッピングするための画素値を各フレームから取得する際に、かかるフレームに対応するアノテーションバッファからアノテーションIDについても取得する。そして、画像生成部は、自由視点画像に、かかるアノテーションIDに対応するアノテーション内容等を重畳させる。このように、画像処理装置100は、モデル生成部141やテクスチャリング部142やレンダリング部143を有さずに、ポリゴンモデルを生成しない場合であっても、アノテーション付与処理やアノテーション表示処理を実行することができる。
〔7−6.システム構成〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
例えば、図2、図5〜図7、図10、図11、図14等に示した各種情報は、図示した情報に限られない。また、例えば、図2、図4、図8、図9等に示した各種画像に描出されている被写体や、ポリゴンモデルは、模式的に示した例であって、図示したものに限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
例えば、上記実施形態では、画像処理装置100がサーバ装置である例を示したが、画像処理装置100は、スタンドアロンで動作する情報処理装置であってもよい。かかる場合には、画像処理装置100は、ユーザから各種操作を受け付ける入力部や、各種情報を表示するための表示部を有する。
〔7−7.その他〕
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上述した画像処理装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティングなどで呼び出して実現するなど、構成は柔軟に変更できる。
また、特許請求の範囲に記載した「手段」は、「部(section、module、unit)」や「回路」などに読み替えることができる。例えば、画像生成手段は、画像生成部や画像生成回路に読み替えることができる。
1 画像配信システム
100 画像処理装置
120 映像記憶部
121 自由視点映像記憶部
122 自由視点画像記憶部
130 説明情報記憶部
131 アノテーションバッファ
132 アノテーション記憶部
140 制御部
141 モデル生成部
142 テクスチャリング部
143 レンダリング部
144 表示制御部
145 受付部
146 付与部

Claims (11)

  1. 視点位置が異なる複数の画像データに基づいて、任意の視点位置に対応する自由視点画像を生成する画像生成手段と、
    前記画像生成手段によって生成された自由視点画像に対して、説明情報を設定する操作、及び、当該説明情報を設定する設定座標を指定する操作を受け付ける受付手段と、
    前記受付手段によって受け付けられた前記自由視点画像の設定座標に対応する前記複数の画像データの座標に前記説明情報を付与する付与手段と、
    前記画像生成手段によって生成された新たな自由視点画像とともに、前記説明情報が付与されている前記複数の画像データの座標に対応する当該新たな自由視点画像の領域に前記説明情報を表示制御する表示制御手段と、
    を備えたことを特徴とする画像処理装置。
  2. 前記複数の画像データに基づいて3次元モデルを生成するモデル生成手段と、
    前記モデル生成手段によって生成された3次元モデルにおける所定の領域毎に、当該所定の領域に対応する表示情報と、当該所定の領域に対応する説明情報とを前記複数の画像データから取得する取得手段と、をさらに備え、
    前記画像生成手段は、
    前記取得手段によって取得された表示情報が適用された3次元モデルから自由視点画像を生成し、
    前記表示制御手段は、
    前記取得手段によって取得された説明情報を前記新たな自由視点画像に表示制御する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記新たな自由視点画像の所定位置毎に、当該所定位置に対応する表示情報と、当該所定位置に対応する説明情報とを前記複数の画像データから取得する取得手段、をさらに備え、
    前記画像生成手段は、
    前記取得手段によって取得された表示情報を前記所定位置に配置することにより前記新たな自由視点画像を生成し、
    前記表示制御手段は、
    前記取得手段によって取得された説明情報を前記新たな自由視点画像に表示制御する
    ことを特徴とする請求項1に記載の画像処理装置。
  4. 前記画像生成手段は、
    前記複数の画像データとして、視点位置が異なる複数の映像データに含まれる所定時刻に対応する複数の画像データに基づいて自由視点画像を生成し、
    前記付与手段は、
    前記視点位置毎に、前記説明情報を付与した画像データの説明領域を追跡対象として、前記所定時刻と異なる時刻の画像データについて前記説明領域に対応する領域を追跡し、追跡した領域に当該説明情報を付与する
    ことを特徴とする請求項1〜3のいずれか一つに記載の画像処理装置。
  5. 前記付与手段は、
    前記視点位置毎に、前記説明領域を追跡する処理の精度を示す追跡精度を算出し、
    前記表示制御手段は、
    前記新たな自由視点画像の同一座標に対応する複数の説明情報が異なる画像データに付与されている場合に、当該異なる画像データのうち前記追跡精度の高い画像データに付与されている説明情報を表示制御する
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記表示制御手段は、
    前記新たな自由視点画像の同一座標に対応する複数の説明情報が異なる画像データに付与されている場合に、当該異なる画像データのうち、当該新たな自由視点画像の視点位置に最も近い視点位置の画像データに付与されている説明情報を表示制御する
    ことを特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。
  7. 前記受付手段は、
    前記複数の画像データのうち、所定の視点位置に対応する画像データに対して、前記説明情報とともに当該説明情報を設定する座標を指定する操作を受け付け、
    前記付与手段は、
    前記受付手段によって受け付けられた前記画像データの座標に前記説明情報を付与する ことを特徴とする請求項1〜6のいずれか一つに記載の画像処理装置。
  8. 前記表示制御手段は、
    前記自由視点画像の視点位置が変更された場合に、変更後の視点位置と正対するように前記説明情報を表示制御する
    ことを特徴とする請求項1〜7のいずれか一つに記載の画像処理装置。
  9. 前記表示制御手段は、
    前記自由視点画像の視点位置が変更された場合に、当該自由視点画像とともに前記説明情報の表示方向を変更する
    ことを特徴とする請求項1〜8のいずれか一つに記載の画像処理装置。
  10. 画像処理装置が実行する画像処理方法であって、
    視点位置が異なる複数の画像データに基づいて、任意の視点位置に対応する自由視点画像を生成する画像生成工程と、
    前記画像生成工程によって生成された自由視点画像に対して、説明情報を設定する操作、及び、当該説明情報を設定する設定座標を指定する操作を受け付ける受付工程と、
    前記受付工程によって受け付けられた前記自由視点画像の設定座標に対応する前記複数の画像データの座標に前記説明情報を付与する付与工程と、
    前記画像生成工程によって生成された新たな自由視点画像とともに、前記説明情報が付与されている前記複数の画像データの座標に対応する当該新たな自由視点画像の領域に前記説明情報を表示制御する表示制御工程と、
    を含んだことを特徴とする画像処理方法。
  11. 視点位置が異なる複数の画像データに基づいて、任意の視点位置に対応する自由視点画像を生成する画像生成手順と、
    前記画像生成手順によって生成された自由視点画像に対して、説明情報を設定する操作、及び、当該説明情報を設定する設定座標を指定する操作を受け付ける受付手順と、
    前記受付手順によって受け付けられた前記自由視点画像の設定座標に対応する前記複数の画像データの座標に前記説明情報を付与する付与手順と、
    前記画像生成手順によって生成された新たな自由視点画像とともに、前記説明情報が付与されている前記複数の画像データの座標に対応する当該新たな自由視点画像の領域に前記説明情報を表示制御する表示制御手順と、
    をコンピュータに実行させることを特徴とする画像処理プログラム。
JP2012170989A 2012-08-01 2012-08-01 画像処理装置、画像処理方法及び画像処理プログラム Active JP5295416B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012170989A JP5295416B1 (ja) 2012-08-01 2012-08-01 画像処理装置、画像処理方法及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012170989A JP5295416B1 (ja) 2012-08-01 2012-08-01 画像処理装置、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP5295416B1 JP5295416B1 (ja) 2013-09-18
JP2014032443A true JP2014032443A (ja) 2014-02-20

Family

ID=49396761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012170989A Active JP5295416B1 (ja) 2012-08-01 2012-08-01 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP5295416B1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015141214A1 (ja) * 2014-03-17 2017-04-06 パナソニックIpマネジメント株式会社 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法
JP6293386B2 (ja) * 2016-03-24 2018-03-14 三菱電機株式会社 データ処理装置、データ処理方法及びデータ処理プログラム
WO2018051747A1 (ja) * 2016-09-14 2018-03-22 キヤノン株式会社 画像処理装置、画像生成方法及びプログラム
JP2018049591A (ja) * 2016-09-14 2018-03-29 キヤノン株式会社 画像処理装置、画像生成方法及びプログラム
WO2018066382A1 (ja) * 2016-10-06 2018-04-12 ソニー株式会社 再生装置および再生方法、記録装置および記録方法、再生記録装置および再生記録方法、並びにプログラム
JP2019041340A (ja) * 2017-08-28 2019-03-14 株式会社Dapリアライズ 多重映像配信システム
JP2019061684A (ja) * 2018-10-22 2019-04-18 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
US10701332B2 (en) 2017-09-22 2020-06-30 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing system, and storage medium
JP7406528B2 (ja) 2021-07-28 2023-12-27 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6407225B2 (ja) 2016-09-30 2018-10-17 キヤノン株式会社 画像処理装置及び画像処理方法及び画像処理システム及びプログラム
CN110223382B (zh) * 2019-06-13 2021-02-12 电子科技大学 基于深度学习的单帧图像自由视点三维模型重建方法
JP7387545B2 (ja) * 2020-07-01 2023-11-28 エヌ・ティ・ティ・コミュニケーションズ株式会社 情報設定制御装置、方法およびプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002213984A (ja) * 2001-01-12 2002-07-31 Oojisu Soken:Kk パノラマ画像による案内システム、中央装置及び端末装置、並びにコンピュータプログラム及び記録媒体
JP4395082B2 (ja) * 2005-01-31 2010-01-06 株式会社国際電気通信基礎技術研究所 映像生成装置、及びプログラム
US8072448B2 (en) * 2008-01-15 2011-12-06 Google Inc. Three-dimensional annotations for street view data

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015141214A1 (ja) * 2014-03-17 2017-04-06 パナソニックIpマネジメント株式会社 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法
JPWO2017163384A1 (ja) * 2016-03-24 2018-04-05 三菱電機株式会社 データ処理装置、データ処理方法及びデータ処理プログラム
JP6293386B2 (ja) * 2016-03-24 2018-03-14 三菱電機株式会社 データ処理装置、データ処理方法及びデータ処理プログラム
JP2019067427A (ja) * 2016-09-14 2019-04-25 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2018051747A1 (ja) * 2016-09-14 2018-03-22 キヤノン株式会社 画像処理装置、画像生成方法及びプログラム
EP3514764A4 (en) * 2016-09-14 2020-03-18 C/o Canon Kabushiki Kaisha IMAGE PROCESSING DEVICE, IMAGE GENERATION METHOD AND PROGRAM
JP2020095729A (ja) * 2016-09-14 2020-06-18 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2018049591A (ja) * 2016-09-14 2018-03-29 キヤノン株式会社 画像処理装置、画像生成方法及びプログラム
US11089284B2 (en) 2016-09-14 2021-08-10 Canon Kabushiki Kaisha Image processing apparatus, image generating method, and storage medium
US11398077B2 (en) 2016-10-06 2022-07-26 Sony Corporation Reproducing device, reproducing method, recording device, recording method, reproducing/recording device, and reproducing/recording method for display of a 3D model arranged in a space recreated by a free visual point moving image stream
WO2018066382A1 (ja) * 2016-10-06 2018-04-12 ソニー株式会社 再生装置および再生方法、記録装置および記録方法、再生記録装置および再生記録方法、並びにプログラム
CN109791707B (zh) * 2016-10-06 2023-05-26 索尼公司 再现装置和方法、记录装置和方法、再现/记录装置和方法、记录介质
CN109791707A (zh) * 2016-10-06 2019-05-21 索尼公司 再现装置、再现方法、记录装置、记录方法、再现/记录装置、再现/记录方法以及程序
JPWO2018066382A1 (ja) * 2016-10-06 2019-07-18 ソニー株式会社 再生装置および再生方法、記録装置および記録方法、再生記録装置および再生記録方法、並びにプログラム
JP2019041340A (ja) * 2017-08-28 2019-03-14 株式会社Dapリアライズ 多重映像配信システム
US10701332B2 (en) 2017-09-22 2020-06-30 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing system, and storage medium
JP2019061684A (ja) * 2018-10-22 2019-04-18 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP7406528B2 (ja) 2021-07-28 2023-12-27 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
JP5295416B1 (ja) 2013-09-18

Similar Documents

Publication Publication Date Title
JP5295416B1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
WO2017092303A1 (zh) 虚拟现实场景模型建立方法及装置
CN109829981B (zh) 三维场景呈现方法、装置、设备及存储介质
US10600169B2 (en) Image processing system and image processing method
USRE43545E1 (en) Virtual skywriting
US11605204B2 (en) Image processing for augmented reality
CN112243583B (zh) 多端点混合现实会议
KR101732839B1 (ko) 컨텐츠 전달의 세그먼테이션
US9589385B1 (en) Method of annotation across different locations
Cosco et al. Augmented touch without visual obtrusion
Mori et al. Efficient use of textured 3D model for pre-observation-based diminished reality
CN109906600B (zh) 模拟景深
CN110378947B (zh) 3d模型重建方法、装置及电子设备
US10147240B2 (en) Product image processing method, and apparatus and system thereof
US20230073750A1 (en) Augmented reality (ar) imprinting methods and systems
CN112529097B (zh) 样本图像生成方法、装置以及电子设备
US11562545B2 (en) Method and device for providing augmented reality, and computer program
US20230037750A1 (en) Systems and methods for generating stabilized images of a real environment in artificial reality
WO2017113729A1 (zh) 360度图像加载方法、加载模块及移动终端
KR20110088995A (ko) 3차원 모델 안에서 감시 카메라 영상을 시각화하기 위한 방법 및 시스템, 및 기록 매체
CN109949396A (zh) 一种渲染方法、装置、设备和介质
Shetty et al. Performance evaluation of augmented reality based 3D modelling furniture application
CN114913277A (zh) 一种物体立体交互展示方法、装置、设备及介质
US10290146B2 (en) Displaying depth effects in digital artwork based on movement of a display
Kolivand et al. Livephantom: Retrieving virtual world light data to real environments

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130611

R150 Certificate of patent or registration of utility model

Ref document number: 5295416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250