JP6405539B2 - 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法 - Google Patents

多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法 Download PDF

Info

Publication number
JP6405539B2
JP6405539B2 JP2016508534A JP2016508534A JP6405539B2 JP 6405539 B2 JP6405539 B2 JP 6405539B2 JP 2016508534 A JP2016508534 A JP 2016508534A JP 2016508534 A JP2016508534 A JP 2016508534A JP 6405539 B2 JP6405539 B2 JP 6405539B2
Authority
JP
Japan
Prior art keywords
image
images
target portion
image signal
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016508534A
Other languages
English (en)
Other versions
JPWO2015141214A1 (ja
Inventor
康伸 小倉
康伸 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2015141214A1 publication Critical patent/JPWO2015141214A1/ja
Application granted granted Critical
Publication of JP6405539B2 publication Critical patent/JP6405539B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Description

本技術は、撮影対象を複数の視点から撮影することにより得られる多視点画像において、注目部分にラベル情報を付与するラベル情報の処理装置に関する。
特許文献1は、単一のカメラのみを用いて、多視点画像を容易に取得できる立体映像処理装置を開示している。
特開2009−212728号公報
本技術は、特定の撮影対象を複数の多視点から撮影した複数の画像信号において、各画像信号による画像に共通に映し出される注目部分を含む多視点画像の処理装置である。
処理装置は、撮影対象を複数の視点から撮影することにより得られた複数の画像のうち、特定の画像を表示する表示部と、特定の画像について注目部分の指定を受け付ける受付部と、撮影対象を3次元空間で表現する際に利用する座標空間における注目部分の3次元座標を取得し、注目部分の3次元座標に基づいて、複数の画像それぞれにおいて、注目部分を視認できるか否かを判断し、複数の画像から、特定の画像と異なる視点の画像であり、注目部分が視認できる1以上の画像を抽出し、抽出した1以上の画像を表示するよう表示部を制御する制御部と、を備え、制御部は、特定の画像もしくは抽出した1以上の画像である、注目部分を視認できる画像を表示する際、注目部分を視認できる画像に隣接する視点の画像において注目部分が視認できるか否かを判断し、注目部分を視認できる画像に隣接する視点の画像において注目部分が視認できない場合、表示部を制御し、注目部分を視認できる画像を、注目部分を含む一定の領域を拡大した後で表示するものである。
本技術によれば、複数の視点から1つの撮影対象を撮影して得られる画像に対して注目部分を指定する場合、注目部分に関する3次元空間上の位置を容易に確認することができる。
図1は、本技術の実施の形態による多視点画像に対するラベル情報の処理装置の構成を説明するためのブロック図である。 図2は、本実施の形態におけるラベル情報処理装置の全体動作を説明するためのフローチャートである。 図3は、表示部に表示される画像の一例を示す説明図である。 図4は、複数枚の画像信号に基づく画像を表示部に表示する際の一例を示す説明図である。 図5は、制御部におけるラベル情報の3次元空間上の座標を算出する機能を説明するためのフローチャートである。 図6は、制御部において画像信号を少なくとも1つ以上選択する際の動作を説明するためのフローチャートである。 図7は、制御部において、可視情報マップを生成する動作を説明するためのフローチャートである。 図8は、制御部が生成する可視情報マップの一例を示す説明図である。
以下、本技術の実施の形態による多視点画像に対するラベル情報の処理方法及びラベル情報の処理装置について、図面を参照しながら説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、発明者は、当業者が本技術を十分に理解するために添付図面及び以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
図1は、本技術の実施の形態による多視点画像に対するラベル情報の処理装置の構成を説明するためのブロック図である。
図1に示すように、ラベル情報処理装置10は、制御部11と、入力部12と、表示部13と、モデルデータを保持するためのモデルデータの保持部14、キャリブレーションデータを保持するためのキャリブレーションデータの保持部15と、多視点画像信号を保持するための多視点画像信号の保持部16を備える。
制御部11は、ソフトウェア、またはファームウェアで記載されたコンピュータプログラムにしたがって、ラベル情報処理装置10全体を制御する。この制御部11は、入力部12から入力される制御信号に基づき所定の動作を実行する。また、制御部11は、モデルデータの保持部14、及びキャリブレーションデータの保持部15から、必要に応じて情報を読み出し処理する。さらに、制御部11は、多視点画像信号の保持部16から読みだした多視点画像を表示部13に表示させる。
また、制御部11は、次の(1)から(4)のコントロール機能を有する。
(1)ラベル情報の3次元空間上の座標を取得する第1の機能
(2)多視点画像信号の保持部16に蓄積される複数の画像信号から特定の画像信号を少なくとも1つ以上選択する第2の機能
(3)ラベル情報の3次元空間上の座標に基づいて、(2)において選択された画像信号の平面上の座標を算出する第3の機能
(4)選択された画像信号上におけるラベル情報の座標位置にラベル情報を重畳させた画像信号を生成して表示部13に出力する第4の機能
次に、制御部11が実現するそれぞれの機能について説明する。
上記(1)の機能は、入力部12からラベル情報を付与する場所を示す制御信号が入力された場合、その場所について、ラベル情報の3次元空間上の座標を算出して取得する。ここで、ラベル情報とは、多視点画像信号の保持部16に格納される複数の画像信号の注目部分に対して付与される付加的な情報である。つまり、使用者は、入力部12を介して画像信号に対してラベル情報を付与することにより、注目部分と、ラベル情報を表示部13上で同時に視認することができる。これにより、使用者に対して注目部分に対する理解を促すことができる。
注目部分とは、画像信号に写し出される特定の被写体の部分を示すものであり、例えば人物の手、足等となる。注目部分が人物の手である場合、ラベル情報は、この人物の手を紹介する文字等の情報となる。視聴者はラベル情報を読むことにより、画像信号に映し出される人物の手の特性等を理解することができる。
また、ラベル情報における3次元空間上の座標は、多視点画像信号の保持部16に蓄積された画像信号から所定の被写体を3次元空間に投射させた際に利用する座標軸の座標となる。つまり、ラベル情報の3次元空間上の座標を指定することにより、多視点画像信号の保持部16が有する画像信号上の位置が特定される。なお、ラベル情報の3次元空間上の座標を算出する動作については後述する。
上記(2)の機能について、制御部11は、多視点画像信号の保持部16に蓄積される画像信号のうち、表示部13において表示した際、使用者がラベル情報を付与する注目部分を視認できる画像信号を選択する。この画像信号の選択動作については後述する。
上記(3)の機能について、制御部11は、上記(1)の機能において、既に算出したラベル情報の3次元空間上の座標を、表示部13に出力する画像信号の平面上に投射した際に得られる座標を算出する。制御部11は、算出した座標を表示部13に出力する。このように構成することにより、制御部11が多視点画像信号の保持部16から視点の異なる画像信号を選択した場合であっても、ラベル情報の3次元空間上における座標から選択に係る画像信号上の座標を計算することができるため、選択した画像信号上にラベル情報を重畳して表示することができる。
上記(4)の機能について、制御部11は、上記(3)の機能において算出されたラベル情報の座標に基づいて、上記(2)の機能において選択された画像信号に対してラベル情報を重畳させ、新たな画像信号を生成する。制御部11は、生成した新たな画像信号を表示部13に出力する。
次に、入力部12は、使用者からラベル情報処理装置10に対する操作指示を受けつけるデバイスである。入力部12は、例えばマウスなどのポインティングデバイスによって構成される。なお、タッチパネルのようなデバイスやキーボードを用いてもよい。つまり、使用者から操作指示を受け付けるデバイスであればどのようなものを利用しても構わない。
入力部12は、使用者から操作指示を受け付けた場合、当該操作指示に基づく制御信号を生成して制御部11に出力する。
表示部13は、制御部11から出力される画像信号を表示するデバイスである。このとき、表示部13は、制御部11から画像信号を取得し、取得した画像信号を表示する。
モデルデータの保持部14は、多視点画像信号の保持部16に蓄積される複数の画像信号に共通して映し出される被写体の3次元空間上における位置を示すモデルデータを蓄積する。ここで、モデルデータは、少なくとも被写体の表面に任意に設定される離散点で、3次元空間上における位置座標の集合体で構成される。制御部11は、モデルデータの保持部14に蓄積されるモデルデータを参照することにより、ラベル情報の3次元空間上における座標及び画像信号の平面に投影した際の座標を算出することができる。
なお、モデルデータの保持部14に蓄積されるモデルデータは、上記のような点の集合体に点の連結情報を付加したポリゴンデータとしてもよい。また、モデルデータの保持部14に蓄積されるモデルデータは、多視点画像信号の保持部16に蓄積される複数の画像信号からストラクチャー フロム モーション(Structure From Motion)アルゴリズムによって推定される3次元点群であっても構わない。また、キャリブレーション済みのカメラで撮影された画像対のステレオマッチングによって算出された奥行き画像を元に3次元点群を生成してもよい。また、一般に市販されている3Dモデリングソフトを用いて、撮影した被写体の形状を近似したポリゴンデータを生成してもよい。
キャリブレーションデータの保持部15は、多視点画像信号の保持部16に蓄積される画像信号それぞれを撮影した際に利用されたカメラパラメータを蓄積する。このカメラパラメータには、少なくとも3次元カメラ位置座標、カメラ姿勢(回転行列/平行移動ベクトル)、焦点距離及び画素中心の情報が含まれる。さらにキャリブレーションデータの保持部15は、多視点画像信号の保持部16に含まれる視点位置情報を蓄積する。
なお、カメラパラメータとして、多視点画像信号の保持部16に蓄積される複数の画像信号からStructure From Motionアルゴリズムによって推定されるカメラパラメータを用いてもよい。なお、撮影時のカメラ内部パラメータ(焦点距離・画素中心)とターンテーブル・ロボットアームの制御パラメータからカメラ位置・カメラ姿勢を算出し、算出結果をカメラパラメータとして用いてもよい。
ここで、モデルデータの保持部14及びキャリブレーションデータの保持部15には、3次元空間上における座標に関する情報が含まれる。つまり、モデルデータの保持部14は、3次元空間上における座標に関する情報として、被写体の表面に任意に設定される離散点の位置座標を蓄積する。また、キャリブレーションデータの保持部15は、多視点画像信号の保持部16に蓄積される画像信号の撮影に利用したカメラの位置情報をカメラパラメータとして蓄積する。このように、3次元空間上で表現される情報が複数存在するため、両者の座標系を一致させておくのが好ましい。
多視点画像信号の保持部16は、少なくとも複数の画像信号、この画像信号のファイルパス名及び撮影時の視点位置情報を蓄積する。
ここで、多視点画像信号の保持部16に蓄積される複数の画像信号は次のように撮影されたものである。被写体をターンテーブル上に置き、カメラをロボットアームに設置する。撮影位置はターンテーブルの回転中心点を原点とする半径Rの半球体表面上を緯度・経度で離散的に分割した位置となるようとなるようロボットアームとターンテーブルを制御する。またカメラ姿勢は、ロボットアームを制御してカメラ光軸が半球体の原点を通る姿勢にする。
なお、上記における視点位置情報は少なくとも、緯度、経度を含む。また、撮影はカメラ位置を三次元空間内のある平面上の位置で撮影してもよい。この場合、視点位置情報は少なくとも基点からの2次元座標を含む。
次に、ラベル情報処理装置10の動作について図面を参照しながら説明する。
図2は、本実施の形態におけるラベル情報処理装置10の全体動作を説明するためのフローチャートである。
以下、説明の便宜上、表示部13には、多視点画像信号の保持部16に蓄積される画像信号のうち、所定の画像信号が表示されている状態から動作を開始するものとする。
まず、使用者は、入力部12を操作することにより、所望のラベル情報を付与したい注目部分が明確に表示されるように、表示部13に表示される画像信号を変更する。ここで、多視点画像信号の保持部16は、1つの被写体を様々な視点から撮影して得られる複数の画像信号を蓄積している。そのため、使用者が行う画像信号の変更は、1つの被写体を撮影している視点を変更する動作となる。
図3は、表示部13に表示される画像の一例を示す説明図である。図3において、画像信号を変更した結果、図3に示すような画像30が表示される。この画像30は、注目部分31が明確に映し出された画像となる。座標32は、注目部分31の位置を示すものである。
図2のステップS101において、表示部13に注目部分31が明確に表示された画像30が表示された場合、使用者は入力部12を介してラベル情報を付与する位置を指示する。このとき、使用者は、表示部13に表示される画像30の注目部分31を示す座標データを入力部12から指定する。この場合、入力部12は、使用者による指示を受け付けた場合、その指示に対応する制御信号を制御部11に出力する。入力部12を介して注目部分31を指定する場合、表示部13に表示された画像の左上にその指定した位置における座標32を表示するようにしてもよい。
次に、制御部11は、入力部12から出力される制御信号を取得する。制御部11は、取得した制御信号、及び表示部13に現在表示される画像信号に対するカメラパラメータに基づいて、撮影対象を3次元空間上で表現した際に利用する座標空間における座標であって、座標空間におけるラベル情報の絶対座標を取得する。すなわち、ステップS101において、ラベル情報を付与した注目部分である、使用者が指定した位置の3次元空間上における座標を算出する。なお。制御部11は、カメラパラメータをキャリブレーションデータの保持部15から必要に応じて適宜取得する(ステップS102)。
次に、制御部11は、使用者が指定した位置に関する3次元空間上の座標、及びモデルデータの保持部14に蓄積されるモデルデータに基づいて、表示部13に現在表示されている画像信号とは異なる画像信号を抽出する。新たに抽出される画像信号は、特定の画像信号における画像の視点とは異なる視点の画像の画像信号であって、特定の画像信号に映し出された注目部分と同じ注目部分が映し出される少なくとも1以上の画像信号である。この画像信号は、多視点画像信号の保持部16から抽出し、表示部13に表示する(ステップS103)。
次に、制御部11は、モデルデータの保持部14及びキャリブレーションデータの保持部15に蓄積される情報を利用することにより、ステップS102で算出した3次元上の座標を、ステップS103で選択された画像信号のそれぞれの平面に投影変化する。すなわち、制御部11は、ステップS101、S102において取得したラベル情報の絶対座標を基に、ステップS103で選択された異なる視点の画像の画像信号それぞれについて、平面上におけるラベル情報を付与する座標を算出する(ステップS104)。
最後に、制御部11は、ステップS104で算出した視点の異なる画像信号の所定の座標位置に、ラベル情報を付与した画像信号を表示部13に出力する。表示部13は、制御部11から出力される複数枚の画像信号を表示する(ステップS105)。
図4は、複数枚の画像信号に基づく画像を表示部に表示する際の一例を示す説明図である。図4に示すように、当初、表示部13に表示される画像信号による画像30に加えて、注目部分31が表示される他の画像信号による複数枚の画像30A、30B、30C、30D、30E、30F、30G、30Hが表示される。
これにより使用者に対して様々な視点から見た際のラベル情報の位置を表示することができる。このため、使用者は画像を確認しただけで、ラベル情報を付与する空間的な位置が適切か否かを判断することができる。
次に、制御部11が有する上記(1)及び(2)の機能について、それぞれ具体的に説明する。
(1)ラベル情報の3次元空間上の座標を算出する機能
図5は、制御部11におけるラベル情報の3次元空間上の座標を算出する機能を説明するためのフローチャートである。
図5において、まず制御部11は、現在表示部13に表示される画像信号の視点位置情報(緯度・経度)を取得する(ステップS501)。
そして、制御部11は、ステップS101において表示部13に注目部分31が明確に視認できる画像信号を表示させた状態で、注目部分31を指定する制御信号が入力された場合、制御信号が示す2次元平面上の位置座標を取得する(ステップS502)。ここで、上記の2次元平面は、表示部13に表示される画像信号の平面上に形成されるものとなる。
次に、制御部11は、ステップS501で取得した視点位置情報に対応するキャリブレーションデータをキャリブレーションデータの保持部15から取得する。さらに制御部11はモデルデータの保持部14からモデルデータを取得する(ステップS503)。
そして、制御部11はステップS503で取得した情報に基づいて、モデルデータに規定される被写体の3次元空間上の座標それぞれを、表示部13に現在表示している画像信号の2次元平面上の座標それぞれに射影変換する(ステップS504)。
制御部11は、数式(1)及び数式(2)により射影変換する。
Figure 0006405539
ここで、wvは視点vにおける定数(0ではない定数)を示す。また、(XImn、YImn)は、現在表示部13に表示されている画像信号における2次元平面上の座標を示す。さらに、(XMn、YMn、ZMn)は、モデルデータにおいて3次元空間上で表現され被写体の離散点それぞれの座標を示す。
さらに、Pvは次式で表現される変換行列となる。
Figure 0006405539
ここで、fvは、現在表示部13に表示される画像信号を撮影した際の焦点距離を示す。また、Uvo及びVvoは、表示部13に現在表示されている画像信号の画素中心を示す値である。さらに、Rvは現在表示されている画像信号における回転行列を示す。最後に、tvは、現在表示されている画像信号における並行移動ベクトルを示す。制御部11は、上記の情報それぞれについてキャリブレーションデータから取得する。
次に制御部11は、ステップS504で生成される被写体の座標であって、現在表示部13に表示している画像信号の2次元平面上で表現される座標から、所定の条件を満たす複数の座標を抽出する(ステップS505)。
具体的には、制御部11は、ステップS502で取得した座標と、現在表示部13に表示している画像信号の2次元平面上で表現される座標それぞれとの距離を算出し、算出して得られる距離が所定の距離以下となる座標を抽出する。そして、制御部11は、ステップS505で取得した座標に対応する3次元空間上における座標を抽出する。制御部11は抽出した座標と表示部13に現在表示される画像信号を撮影した際のカメラ位置との距離を算出する(ステップS506)。
最後に、制御部11は、算出した距離が最も近い座標を、ラベル情報を付与する3次元空間上の座標として取得する(ステップS507)。
なお、3Dモデルデータの保持部は、3次元点群の場合である。ポリゴンデータの場合は、点群の連結で構成される面との交点を用いても良い。
上記の様に構成することにより、使用者が画像信号を視認しながら指定した2次元平面上の座標から、指定位置に対する3次元空間上の座標を算出することができる。
(2)多視点画像信号の保持部16に蓄積される複数の画像信号から特定の画像信号を少なくとも1つ以上選択する機能
図6は、制御部11において画像信号を少なくとも1つ以上選択する際の動作を説明するためのフローチャートである。
制御部11は、多視点画像信号の保持部16に蓄積される画像信号それぞれに対し、この画像信号に基づく画像を表示部13に表示した際に注目部分31が視認できるか否かを示す可視情報マップを生成する(ステップS601)。
そして、制御部11はステップS601で生成した可視情報マップに記載された情報のうち、注目部分31が視認できると判断された特定の視点の画像信号を選択する(ステップS602)。
図7は、制御部11において、可視情報マップを生成する動作を説明するためのフローチャートである。
まず、図7に示すように、制御部11は、図5のステップS507で取得したラベル情報の3次元空間上における座標を、処理対象である画像信号の2次元平面上の座標に射影変換する(ステップS701)。
次に制御部11は、モデルデータの保持部14に蓄積されるモデルデータを利用して、被写体の3次元空間上の座標それぞれを、処理対象である画像信号の2次元平面上の座標に射影変換する(ステップS702)。
次に制御部11は、ステップS701において射影変換して得られるラベル情報の2次元平面上における座標と、ステップS702において射影変換して得られる被写体の2次元平面上における座標それぞれとの距離を算出する。そして制御部11は、算出した距離が一定値以下となる被写体の2次元平面上の所定の座標を抽出する(ステップS703)。
次に制御部11は、ステップS703で抽出した座標を、再度3次元空間上の座標に再変換する(ステップS704)。
次に制御部11は、ステップS704において再変換して得られる被写体の3次元空間上における座標、及びラベル情報の3次元空間上の座標それぞれに対して、処理対象である画像信号を撮影した際のカメラの撮影位置との距離を算出する(ステップS705)。
そして制御部11は、処理対象の画像信号において注目部分31が視認できるか否かを判断する。すなわち、ステップS705で算出した距離のうち、ラベル情報の座標に基づいて算出された距離が最も近い場合、処理対象の画像信号において注目部分31が視認できると判断する(ステップS706)。
これらの処理が終了した場合、制御部11は、処理対象である画像信号を変更させ、ステップS701からステップS706までを繰り返して処理する(ステップS707)。この処理をすべての画像信号に対して実施し、全視点において完了した時点で処理を終了する。
図8は、制御部が生成する可視情報マップの一例を示す説明図である。図8は、横軸は緯度を示し、縦軸は経度を示している。図8に示すように、網かけで表示される領域に属する画像信号は、選択に係る注目部分が視認できないと判断されたものとなる。一方、何も塗りつぶされていない領域については、選択に係る注目部分が視認できると判断されたものとなる。
制御部11は、生成した可視情報マップに基づいて、表示部13に現在表示されている画像信号とは異なる複数枚の画像信号を選択する。この場合、制御部11は、撮影時におけるカメラの位置の情報、及び可視情報マップに基づいて、可視情報マップ上において注目部分が視認できる画像信号であって、当該カメラ位置が等間隔に離れている画像信号を複数枚選択する。要するに、選択した複数枚の画像信号それぞれにおける撮影時のカメラ位置は、互いに所定以上の距離が離れることになる。また、制御部11は、複数枚の画像信号を選択する場合。選択した画像信号それぞれにおける撮影時の撮影位置は、互いに一定の距離離れるように選択しても構わない。
なお、制御部11は、可視情報マップにおいて、注目部分を視認できる領域と視認できない領域に隣接する画像信号を表示部13で表示する際、少なくとも注目部分を含む領域を拡大して表示する構成にしても構わない。この条件に該当する画像信号は、注目部分が視認できるが、見づらい可能性が高い。そこで、拡大して表示することにより、より使用者に対する視認性を向上させることができる。
以上のように本技術の実施の形態によるラベル情報の処理装置は、特定の撮影対象を複数の多視点から撮影した複数の画像信号において、各画像信号による画像に共通に映し出される注目部分に付与するラベル情報の処理装置であって、複数の画像信号のうち、注目部分が映し出される特定の画像信号による画像を表示する表示部13と、表示部に表示された特定の画像信号による画像の注目部分に対してラベル情報を付与する制御部11とを有する。
制御部11は、撮影対象を3次元空間上で表現した際に利用する座標空間における座標であって、座標空間におけるラベル情報の3次元空間上の座標を取得する第1の機能と、特定の画像信号による画像の視点とは異なる視点の画像の画像信号であって、特定の画像信号により映し出される注目部分と同じ注目部分が映し出される別の画像信号による画像を表示部13に表示する第2の機能と、第1の機能で取得したラベル情報の座標を、第2の機能で表示部に表示される異なる視点の画像の画像信号それぞれについて、平面上におけるラベル情報を付与する座標に変換する第3の機能と、視点の異なる画像信号それぞれに対し、第3の機能により得られる所定の座標位置に、ラベル情報を付与する第4の機能を有するものである。
さらに、本技術の実施の形態によるラベル情報の処理方法は、特定の撮影対象を複数の多視点から撮影した複数の画像信号において、各画像信号による画像に共通に映し出される注目部分に付与する多視点画像に対するラベル情報の処理方法である。
複数の画像信号のうち、注目部分が映し出される特定の画像信号を設定して特定の画像信号に基づく画像を表示部に表示するとともに、表示部に表示された画像の注目部分に対してラベル情報を付与するステップと、撮影対象を3次元空間上で表現した際に利用する座標空間における座標であって、座標空間におけるラベル情報の座標を取得するステップと、特定の画像信号における画像の視点とは異なる視点の画像の画像信号であって、特定の画像信号に映し出された注目部分と同じ注目部分が映し出される画像信号による画像を表示部に表示するステップと、異なる視点の画像の画像信号それぞれについて、平面上におけるラベル情報を付与する座標を算出した後、視点の異なる画像信号の所定の座標位置に、ラベル情報を付与した画像信号による画像を表示するステップとを有する。
また、本実施の形態において、特定の画像信号に映し出された注目部分と同じ注目部分が映し出される画像信号の撮影時の撮影位置は、互いに所定以上の距離が離れている。
また、本実施の形態において、特定の画像信号のうち、隣接する視点における画像信号に注目部分が映し出されていない条件を満たす画像信号については、注目部分を含む一定の領域を拡大した後で表示するように制御される。
以上のように、本技術における技術の例示として、実施の形態を説明した。そのために、添付図面及び詳細な説明を提供した。したがって、添付図面及び詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。また、上述の実施の形態は、本技術における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本技術は、複数の視点から1つの被写体を撮影して得られる複数の画像信号に対してラベル情報を付与するラベル情報処理装置に適用可能である。具体的には、電子書籍などに適用可能である。
10 ラベル情報処理装置
11 制御部
12 入力部
13 表示部
14 モデルデータの保持部
15 キャリブレーションデータの保持部
16 多視点画像信号の保持部
30,30A,30B,30C,30D,30E,30F,30G,30H 画像
31 注目部分
32 座標

Claims (7)

  1. 撮影対象を複数の視点から撮影することにより得られた複数の画像のうち、特定の画像を表示する表示部と、
    前記特定の画像について注目部分の指定を受け付ける受付部と、
    前記撮影対象を3次元空間で表現する際に利用する座標空間における前記注目部分の3次元座標を取得し、
    前記注目部分の3次元座標に基づいて、前記複数の画像それぞれにおいて、前記注目部分を視認できるか否かを判断し、
    前記複数の画像から、前記特定の画像と異なる視点の画像であり、前記注目部分が視認できる1以上の画像を抽出し、
    抽出した1以上の画像を表示するよう前記表示部を制御する制御部と、を備え
    前記制御部は、前記特定の画像もしくは前記抽出した1以上の画像である、注目部分を視認できる画像を表示する際、
    前記注目部分を視認できる画像に隣接する視点の画像において前記注目部分が視認できるか否かを判断し、
    前記注目部分を視認できる画像に隣接する視点の画像において前記注目部分が視認できない場合、前記表示部を制御し、前記注目部分を視認できる画像を、前記注目部分を含む一定の領域を拡大した後で表示する処理装置。
  2. 前記注目部分を視認できる画像は前記特定の画像である、請求項1に記載の処理装置。
  3. 前記制御部は、更に、
    前記特定の画像における前記注目部分に対してラベル情報を付与し、
    前記抽出した1以上の画像、前記注目部分の3次元座標を前記画像それぞれにおける平面上の座標に変換し、
    前記抽出した1以上の画像について、前記注目部分の前記平面上の座標に対応する位置に前記注目部分に付与されたラベル情報を付与する、
    請求項1に記載の処理装置。
  4. 前記制御部は、前記表示部を制御し、前記抽出した1以上の画像を表示する際、前記抽出した1以上の画像それぞれの前記平面上の座標に対応する位置に前記ラベル情報を重畳して表示する、請求項3に記載の処理装置。
  5. 前記複数の画像の撮影時の撮影位置は、互いに所定以上の距離が離れている請求項1に記載の処理装置。
  6. 前記所定の距離は一定の距離である請求項5に記載の処理装置。
  7. 撮影対象を複数の視点から撮影することにより得られた複数の画像のうち、特定の画像を表示するステップと、
    前記特定の画像について注目部分の指定を受け付けるステップと、
    前記撮影対象を3次元空間で表現する際に利用する座標空間における前記注目部分の3次元座標を取得するステップと、
    前記注目部分の3次元座標に基づいて、前記複数の画像それぞれにおいて、前記注目部分を視認できるか否かを判断するステップと、
    前記複数の画像から、前記特定の画像と異なる視点の画像であり、前記注目部分が視認できる1以上の画像を抽出するステップと、
    抽出した1以上の画像を表示するステップと、
    前記特定の画像もしくは前記抽出した1以上の画像である、注目部分を視認できる画像を表示する際、
    前記注目部分を視認できる画像に隣接する視点の画像において前記注目部分が視認できるか否かを判断し、
    前記注目部分を視認できる画像に隣接する視点の画像において前記注目部分が視認できない場合、前記表示部を制御し、前記注目部分を視認できる画像を、前記注目部分を含む一定の領域を拡大した後で表示するステップと、を有する処理方法。
JP2016508534A 2014-03-17 2015-03-17 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法 Active JP6405539B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014053056 2014-03-17
JP2014053056 2014-03-17
PCT/JP2015/001464 WO2015141214A1 (ja) 2014-03-17 2015-03-17 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法

Publications (2)

Publication Number Publication Date
JPWO2015141214A1 JPWO2015141214A1 (ja) 2017-04-06
JP6405539B2 true JP6405539B2 (ja) 2018-10-17

Family

ID=54144197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016508534A Active JP6405539B2 (ja) 2014-03-17 2015-03-17 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法

Country Status (5)

Country Link
US (1) US9811943B2 (ja)
EP (1) EP3121792B1 (ja)
JP (1) JP6405539B2 (ja)
CN (1) CN105723422B (ja)
WO (1) WO2015141214A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102112768B1 (ko) * 2018-08-06 2020-06-04 네이버웹툰 주식회사 이미지 매칭을 이용한 표식 검출 방법, 장치 및 프로그램
US11877021B2 (en) * 2019-12-27 2024-01-16 Nippon Hoso Kyokai Transmitting device and receiving device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163678A (ja) * 2000-09-13 2002-06-07 Monolith Co Ltd 擬似三次元画像生成方法および装置
US8244025B2 (en) * 2006-03-20 2012-08-14 Siemens Energy, Inc. Method of coalescing information about inspected objects
JP4819834B2 (ja) 2008-03-03 2011-11-24 株式会社エヌ・ティ・ティ・ドコモ 立体映像処理装置及び立体映像処理方法
CN101729916A (zh) * 2008-10-10 2010-06-09 富士胶片株式会社 图像处理装置、图像记录装置、方法及程序
WO2011029209A2 (en) * 2009-09-10 2011-03-17 Liberovision Ag Method and apparatus for generating and processing depth-enhanced images
US8823732B2 (en) * 2010-12-17 2014-09-02 Pictometry International Corp. Systems and methods for processing images with edge detection and snap-to feature
JP5799521B2 (ja) * 2011-02-15 2015-10-28 ソニー株式会社 情報処理装置、オーサリング方法及びプログラム
US9363504B2 (en) * 2011-06-23 2016-06-07 Lg Electronics Inc. Apparatus and method for displaying 3-dimensional image
JP5295416B1 (ja) * 2012-08-01 2013-09-18 ヤフー株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Also Published As

Publication number Publication date
EP3121792A4 (en) 2017-03-15
EP3121792B1 (en) 2019-07-03
US9811943B2 (en) 2017-11-07
US20160217605A1 (en) 2016-07-28
CN105723422B (zh) 2019-05-28
WO2015141214A1 (ja) 2015-09-24
JPWO2015141214A1 (ja) 2017-04-06
EP3121792A1 (en) 2017-01-25
CN105723422A (zh) 2016-06-29

Similar Documents

Publication Publication Date Title
JP6167703B2 (ja) 表示制御装置、プログラム及び記録媒体
JP4508049B2 (ja) 360°画像撮影装置
US9361731B2 (en) Method and apparatus for displaying video on 3D map
KR102049456B1 (ko) 광 필드 영상을 생성하는 방법 및 장치
JP2012068861A (ja) Ar処理装置、ar処理方法及びプログラム
CN111242908A (zh) 一种平面检测方法及装置、平面跟踪方法及装置
JP2009278456A (ja) 映像表示装置
TW201738847A (zh) 組裝指示系統及組裝指示方法
WO2019093457A1 (ja) 情報処理装置、情報処理方法及びプログラム
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
US20180020203A1 (en) Information processing apparatus, method for panoramic image display, and non-transitory computer-readable storage medium
KR20190027079A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
JP2013008257A (ja) 画像合成プログラム
JP6405539B2 (ja) 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法
JP6152888B2 (ja) 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム
EP3177005B1 (en) Display control system, display control device, display control method, and program
JP6168597B2 (ja) 情報端末装置
EP3599539B1 (en) Rendering objects in virtual views
JP2013092888A (ja) データ処理装置
JP6564259B2 (ja) 画像処理装置、画像処理方法
JP6371547B2 (ja) 画像処理装置、方法、および、プログラム
JP6443505B2 (ja) プログラム、表示制御装置及び表示制御方法
JP2020088571A (ja) 管理システム、情報処理システム、情報処理方法およびプログラム
JP2015121892A (ja) 画像処理装置、画像処理方法
JP2012248206A (ja) Ar処理装置、ar処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180820

R151 Written notification of patent or utility model registration

Ref document number: 6405539

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151