JPWO2013027628A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JPWO2013027628A1 JPWO2013027628A1 JP2013529976A JP2013529976A JPWO2013027628A1 JP WO2013027628 A1 JPWO2013027628 A1 JP WO2013027628A1 JP 2013529976 A JP2013529976 A JP 2013529976A JP 2013529976 A JP2013529976 A JP 2013529976A JP WO2013027628 A1 JPWO2013027628 A1 JP WO2013027628A1
- Authority
- JP
- Japan
- Prior art keywords
- plane
- information processing
- unit
- processing apparatus
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3647—Guidance involving output of stored or live camera images or video streams
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Abstract
Description
1.装置の概要
2.第1の実施形態の詳細
2−1.ハードウェア構成
2−2.機能構成
2−3.処理の流れ
2−4.第1の実施形態のまとめ
3.第2の実施形態の詳細
3−1.機能構成
3−2.処理の流れ
3−3.第2の実施形態のまとめ
4.スケールの調整
4−1.第1の手法
4−2.第2の手法
4−3.第3の手法
5.総括
まず、図1及び図2を用いて、本開示に係る情報処理装置の概要を説明する。
[2−1.ハードウェア構成]
図3は、第1の実施形態に係る情報処理装置100のハードウェア構成の一例を示すブロック図である。図3を参照すると、情報処理装置100は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112、バス116及び制御部118を備える。
撮像部102は、画像を撮像するカメラモジュールである。撮像部102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、撮像画像を生成する。撮像部102により生成される撮像画像は、制御部118による画像処理の入力画像となる。なお、撮像部102は、必ずしも情報処理装置100の一部でなくてもよい。例えば、情報処理装置100と有線又は無線で接続される撮像装置が撮像部102として扱われてもよい。
センサ部104は、情報処理装置100による平面の姿勢の決定を支援するために利用される様々なセンサを含み得る。例えば、センサ部104は、撮像部102に加わる重力加速度を測定する3軸加速度センサを含む。3軸加速度センサは、撮像部102に加わる重力加速度を測定し、重力加速度の大きさ及び方向を3次元的に表すセンサデータ(加速度データ)を生成する。追加的に、センサ部104は、地磁気の方向を測定する地磁気センサを含んでもよい。地磁気センサは、撮像部102の座標系における地磁気の方向を表すセンサデータ(地磁気データ)を生成する。さらに、センサ部104は、情報処理装置100の位置を測定する測位センサ(例えば、GPS(Global Positioning System)センサ)を含んでもよい。測位センサは、実空間における情報処理装置100の緯度及び経度を表すセンサデータ(測位データ)を生成する。なお、センサ部104もまた、必ずしも情報処理装置100の一部でなくてもよい。
入力部106は、ユーザが情報処理装置100を操作し又は情報処理装置100へ情報を入力するために使用される入力デバイスである。入力部106は、例えば、表示部110の画面上へのユーザによるタッチを検出するタッチセンサを含んでもよい。その代わりに(又はそれに加えて)、入力部106は、マウス若しくはタッチパッドなどのポインティングデバイスを含んでもよい。さらに、入力部106は、キーボード、キーパッド、ボタン又はスイッチなどのその他の種類の入力デバイスを含んでもよい。
記憶部108は、半導体メモリ又はハードディスクなどの記憶媒体により構成され、情報処理装置100による処理のためのプログラム及びデータを記憶する。記憶部108により記憶されるデータは、例えば、撮像画像データ、センサデータ及び後に説明する様々なデータベース(DB)内のデータを含み得る。なお、本明細書で説明するプログラム及びデータの一部は、記憶部108により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
表示部110は、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などのディスプレイを含む表示モジュールである。表示部110は、例えば、情報処理装置100により生成されるARアプリケーションの画像を表示するために使用される。なお、表示部110もまた、必ずしも情報処理装置100の一部でなくてもよい。例えば、情報処理装置100と有線又は無線で接続される表示装置が表示部110として扱われてもよい。
通信部112は、情報処理装置100による他の装置との間の通信を仲介する通信インタフェースである。通信部112は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
バス116は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112及び制御部118を相互に接続する。
制御部118は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。制御部118は、記憶部108又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する情報処理装置100の様々な機能を動作させる。
図4は、図3に示した情報処理装置100の記憶部108及び制御部118により実現される論理的機能の構成の一例を示すブロック図である。図4を参照すると、情報処理装置100は、画像取得部120、データ取得部125、決定部130、3次元(3D)構造DB135、変換部140、SLAM演算部145、物体DB150、画像認識部156、アノテーションDB160、表示制御部165及びユーザインタフェース部170を含む。
画像取得部120は、撮像部102により生成される撮像画像を入力画像として取得する。画像取得部120により取得される入力画像は、実空間を映した画像である。当該入力画像は、静止画であってもよく、動画を構成する各フレームであってもよい。画像取得部120は、取得した入力画像を、SLAM演算部145、画像認識部156及び表示制御部165へ出力する。
データ取得部125は、決定部130による平面決定処理のために使用されるデータを取得する。例えば、データ取得部125は、センサ部104により生成される、加速度データ、地磁気データ及び測位データの少なくとも1つを含み得るセンサデータを取得する。また、データ取得部125は、測位データにより示される位置の周辺地域についてのマップデータを、情報処理装置100により予め記憶されるデータベース又は外部のデータサーバから取得してもよい。そして、データ取得部125は、取得したデータを決定部130へ出力する。
決定部130は、データ取得部125により取得されるセンサデータに基づいて、入力画像の撮像面に対する実空間の平面の相対的な姿勢を決定する。ここでは、まず水平面の姿勢を決定するための手法について詳細に説明し、次に鉛直面及びその他の平面の姿勢の決定について説明する。
図5は、撮像面、水平面及び重力方向の間の関係について説明するための説明図である。図5を参照すると、入力画像の撮像面IP及び実空間の水平面HPが示されている。水平面HPは、実在する地面、床面又は天井などの平面であってもよく、又は架空の平面であってもよい。水平面HPは、重力方向と直交する。撮像面IPに対する水平面HPの姿勢(あるいは水平面HPに対する撮像面IPの姿勢)は、撮像部102の姿勢に依存して変化し得る。そこで、決定部130は、上述したセンサデータにより示される重力方向ベクトルVGから、撮像面IPに対する水平面HPの相対的な姿勢を決定する。なお、決定部130は、センサデータの(3軸加速度センサの)3次元座標系と撮像面(及びその奥行き)の3次元座標系とが一致しない場合には、重力方向ベクトルVGについて、座標系の差が吸収されるように回転変換及びスケール変換を行ってよい。
上述したように、水平面の姿勢は、重力の方向を示す加速度データのみを用いて決定され得る。これに対し、何らかの制約、追加的なセンサデータ又はユーザ入力を用いることで、鉛直面の姿勢を決定することもできる。一般的に、実空間の平面の姿勢は、仰俯角成分及び方位角成分からなる。仰俯角(Elevation)は、水平面を基準とした上下方向の角度であり、通常−90°〜90°の範囲内の値をとる(図8のベクトルV0の角度θ)。方位角(Azimuth)は、何らかの鉛直面を基準とした東西南北方向の角度であり、通常0°〜360°の範囲内の値をとる(図8のベクトルV0の角度φ)。このうち、仰俯角成分は、水平面の姿勢の決定と同様の手法で決定され得る。残りの方位角成分を決定するために、いくつかの手法が存在し得る。
水平面でも鉛直面でもない平面(以下、任意平面という)の姿勢は、重力の方向及びその他のセンサデータから直接的には決定されない。但し、上述した手法に従って決定される水平面又は鉛直面の姿勢を基準として、任意平面の姿勢をユーザに指定させるためのユーザインタフェースをAR空間内に配置することが可能である。
3D構造DB135は、撮像部102により撮像される実空間の3D構造を記憶するデータベースである。3D構造DB135は、例えば、決定部130により決定される平面の平面方程式を構成する定数項及び係数、即ち位置及び姿勢を記憶する。また、3D構造DB135は、SLAM演算部145により追加的に認識される、時間を追って変化し得る撮像部102の位置及び姿勢を記憶してもよい。さらに、3D構造DB135は、画像認識部156により認識され得る実物体の位置及び姿勢を記憶してもよい。後述する表示制御部165は、3D構造DB135により記憶される平面の位置及び姿勢、又は実物体の位置及び姿勢に応じて、AR空間内のアノテーションの配置を決定する。
変換部140は、平面上の所与の点の3次元位置と当該3次元位置に対応する画像内の(即ち、撮像面上の)2次元位置との間の変換を、決定部130により決定される平面の姿勢を用いて行う。変換部140による3次元位置と2次元位置との間の変換のための計算処理は、公知のピンホールカメラモデルに従って行われてよい。ピンホールカメラモデルに従って行われる変換部140による計算処理について、再び図6を参照しながら、水平面を例にとって説明する。
SLAM演算部145は、SLAM法に従った演算を行うことにより、単眼カメラからの入力画像に映る実空間の3D構造と撮像部102の位置及び姿勢とを動的に認識する。
SLAM演算部145により使用される状態変数は、図15に例示する初期化処理を通じて初期化される。図15を参照すると、まず、決定部130により平面決定処理が行われる(ステップS11)。その結果、撮像面に対する実空間の平面の相対的な位置及び姿勢が決定される。次に、SLAM演算部145は、入力画像から複数の特徴点を選択する(ステップS12)。ここで選択される特徴点は、例えば、テクスチャのエッジ又はコーナーなどに該当する特徴的な画素位置の点であってよい。次に、変換部140は、上述した式(6)に従って、SLAM演算部145により選択された各特徴点に対応する平面上の3次元位置を計算する(ステップS13)。次に、SLAM演算部145は、選択された各特徴点のパッチデータを入力画像から抽出する(ステップS14)。ここで抽出されたパッチデータを用いて、図14のステップS30における特徴点の追跡が行われ得る。
特徴点の追跡は、実空間内に存在し得る物体(実物体)の外観に現れる1つ以上の特徴点についてのパッチデータを用いて行われる。図16には、実物体の2つの例として、タンス(図中左)及びカレンダー(図中右)が示されている。各実物体上には、1つ以上の特徴点(FP:Feature Point)が設定されている。例えば、特徴点FP1はタンスに設定された特徴点であり、特徴点FP1と関連付けてパッチPth1が定義されている。また、特徴点FP2はカレンダーに設定された特徴点であり、特徴点FP2と関連付けてパッチPth2が定義されている。
本実施形態において、SLAM演算部145は、拡張カルマンフィルタを適用すべき状態変数として、次式に示す状態変数Xを用いる。
そして、SLAM演算部145は、観測方程式を用いて、例えば状態変数の予測値から予測される観測情報と、特徴点の追跡結果として得られる実際の観測情報との誤差を評価する。なお、式(14)におけるνがその誤差である。
物体DB150は、実物体の特徴を表す特徴データを予め記憶しているデータベースである。物体DB150により記憶される特徴データは、後述する画像認識部156による画像認識処理において使用される。図19は、特徴データの構成の一例について説明するための説明図である。
画像認識部156は、物体DB150により記憶されている上述した特徴データを用いて、入力画像にどの実物体が映っているかを認識する。より具体的には、例えば、画像認識部156は、画像取得部120により取得される入力画像に含まれる部分画像と、特徴データに含まれる各特徴点のパッチとを照合し、入力画像に含まれる特徴点を検出する。画像認識部156は、SLAM演算部145による特徴点の追跡結果を再利用してもよい。次に、画像認識部156は、画像内のある領域に1つの実物体に属する特徴点が高い密度で検出された場合には、当該領域にその実物体が映っていると認識し得る。画像認識部156は、検出された特徴点の間の位置関係と図19に例示した3次元形状データとに基づいて、認識された実物体の位置及び姿勢をさらに認識し得る。画像認識部156により認識される実物体の位置及び姿勢と、SLAM演算部145により認識される撮像部102の位置及び姿勢とに基づいて、SLAM法の初期化後の実物体の位置及び姿勢の追跡が実現される。追跡される実物体の位置及び姿勢は、3D構造DB135により記憶される。
アノテーションDB160は、ARアプリケーションにおいて入力画像に重畳されるアノテーションに関するアノテーションデータを予め記憶しているデータベースである。アノテーションデータとは、例えば、図1及び図2に例示したアノテーションA11、A12及びA2を含む様々なアノテーションについての識別子、形状データ、動きデータ並びに関連する実物体の物体IDなどを含んでよい。
表示制御部165は、表示部110を用いたARアプリケーションの表示を制御する。例えば、表示制御部165は、ARアプリケーションの目的に応じてアノテーションDB160から選択されるアノテーションを、入力画像に映る実空間に対応するAR空間内に配置する。アノテーションの配置は、例えば、決定部130により決定された平面の位置及び姿勢に応じて決定されてよい。変換部140は、AR空間内に配置されたアノテーションを構成する特徴点(又はポリゴンの頂点など)に対応する撮像面上の2次元位置を、アノテーションを配置すべき平面の位置及び姿勢を用いて計算する。表示制御部165は、このような変換部140による計算結果に応じて、選択されたアノテーションを入力画像に重畳する。アノテーションが重畳された画像は、表示部110のディスプレイを用いて表示される。
ユーザインタフェース部170は、図3に示した入力部106及び表示部110を用いて、情報処理装置100のユーザにユーザインタフェースを提供する。例えば、ユーザインタフェース部170は、ARアプリケーションをユーザに操作させるための操作画面を表示部110に表示させ、当該操作画面を通じてユーザ入力を検出する。例えば、アノテーションの選択、変更又は移動などがユーザインタフェース部170を介して行われてもよい。また、ユーザインタフェース部170は、図10を用いて説明したような、入力画像に映る鉛直面をマップ上でユーザに指定させるためのユーザインタフェースを入力画像に重畳してもよい。また、ユーザインタフェース部170は、図12Aを用いて説明したような、任意平面の姿勢をユーザに指定させるためのユーザインタフェースを、当該任意平面が映る入力画像に重畳してもよい。
図20は、本実施形態に係る情報処理装置100による全体的な処理の流れの一例を示すフローチャートである。図20を参照すると、まず、表示制御部165により(又はユーザインタフェース部170を介してユーザにより)表示すべきアノテーションが選択される(ステップS110)。次に、表示制御部165は、SLAM演算に基づいて認識される実空間の3D構造(例えば、選択されたアノテーションと関連付けられている実物体又は平面の位置及び姿勢)を、3D構造DB135から取得する(ステップS120)。次に、表示制御部165は、選択されたアノテーションを実空間の3D構造に応じてAR空間内に配置する(ステップS130)。次に、変換部140は、AR空間内に配置されたアノテーションの表示位置を、上述したピンホールカメラモデルに従って計算する(ステップS140)。そして、表示制御部165は、変換部140による計算結果に応じて、選択されたアノテーションを入力画像に重畳する(ステップS150)。このような表示制御処理の結果、図1及び図2に例示したようなARアプリケーションの表示が実現され得る。
本実施形態によれば、撮像装置に加わる重力の方向を示すセンサデータに基づいて実空間の水平面の法線ベクトルが認識され、認識された法線ベクトルを用いて、水平面又は鉛直面などの平面の撮像面に対する相対的な姿勢が決定される。そして、決定された平面の姿勢を用いた座標変換により、SLAM法の状態変数が初期化される。一般的に、画像認識に基づく水平面の認識よりも、3軸加速度センサによる鉛直方向の認識の方が高い認識精度が得られる。従って、画像認識に基づく手法を用いて状態変数が初期化される場合と比較して、より高い精度で状態変数を初期化することができる。特に、SLAM法の初期化の際の認識精度は、その後の実空間の3D構造の追跡の精度を左右する。そのため、状態変数をより高い精度で初期化することで、その後の実空間の3D構造の追跡をも正確に行うことが可能となる。
本開示に係る技術の採用は、SLAM法を利用しないARアプリケーションにとっても有益である。そこで、第2の実施形態として、SLAM法を利用しないARアプリケーションを実装する情報処理装置200について説明する。なお、本実施形態に係る情報処理装置200は、第1の実施形態に係る情報処理装置100と同様、図1に例示したような端末装置であってもよく、図2に例示したようなサーバ装置であってもよい。情報処理装置200が端末装置である場合には、情報処理装置200は、図3に例示したようなハードウェア構成を有し得る。
図21は、第2の実施形態に係る情報処理装置200の論理的機能の構成の一例を示すブロック図である。図21を参照すると、情報処理装置200は、画像取得部120、データ取得部125、決定部130、3D構造DB135、変換部140、物体DB150、画像認識部156、アノテーションDB160、ユーザインタフェース部170及び表示制御部265を含む。
図22は、本実施形態に係る情報処理装置100による全体的な処理の流れの一例を示すフローチャートである。図22を参照すると、まず、決定部130により平面決定処理が行われる(ステップS200)。次に、表示制御部265により表示すべきアノテーションが選択される(ステップS210)。次に、表示制御部265は、選択されたアノテーションをAR空間内に配置する(ステップS230)。一例として、アノテーションは、平面上に載置されるように配置され得る。次に、変換部140は、AR空間内に配置されたアノテーションの表示位置を、上述したピンホールカメラモデルに従って計算する(ステップS240)。そして、表示制御部265は、変換部140による計算結果に応じて、選択されたアノテーションを入力画像に重畳する(ステップS250)。このような表示制御処理の結果、図1及び図2に例示したようなARアプリケーションの表示が実現され得る。
本実施形態によれば、撮像装置に加わる重力の方向を示すセンサデータに基づいて、実空間の水平面の法線ベクトルが認識され、認識された法線ベクトルを用いて、水平面又は鉛直面などの平面の撮像面に対する相対的な姿勢が決定される。そして、決定された平面と関連付けて配置されるアノテーションの表示位置が、当該平面の姿勢を用いて簡易に計算される。上述したように、一般的に、画像認識に基づく水平面の認識よりも、3軸加速度センサによる鉛直方向の認識の方が高い認識精度が得られる。従って、画像認識に基づく手法を用いて認識される平面と関連付けてアノテーションが配置される場合と比較して、ARアプリケーションにおいてより自然なアノテーションの表示を実現することができる。
第1及び第2の実施形態では、決定部130により決定される平面は、仮想的なスケールを有する。即ち、当該平面の平面方程式の定数項Dの値は、仮の値である。決定部130は、かかる定数項Dの値を調整し、平面の位置を地面、床面、天井面又は実物体の表面(例えば、建物の壁面)などに一致させてもよい。また、決定部130は、ARアプリケーションの要件に応じて定数項Dの値を調整してもよい。本節では、水平面を例にとって、平面のスケールを調整するための3つの手法を説明する。
第1の手法では、入力画像に映る実物体の既知のサイズが利用される。例えば、物体DB150により記憶される特徴データに含まれる3次元形状データ(図19参照)における1つの実物体に属する2つの特徴点の位置の差を、実物体の既知のサイズとして扱うことができる。
第2の手法では、入力画像に映る平面と撮像装置との間の距離に関連するデータが利用される。例えば、入力画像に映る平面が地面又は床面などの水平面である場合には、撮像装置のこれら水平面からの高さに関連するデータが利用され得る。また、例えば、入力画像に映る平面が建物の壁面などの鉛直面である場合には、マップデータから計算される当該壁面と撮像装置との間の距離が利用され得る。
第3の手法では、入力画像に重畳して表示されるアノテーションについての表示サイズが利用される。例えば、アノテーションDB160において、3次元のAR空間内でのアノテーションのサイズが定義されているものとする。この場合、平面上に配置されるアノテーションの撮像面上でのサイズ、即ち表示サイズがさらに特定されれば、これら2つのサイズから平面のスケールを決定することができる。
ここまで、図1〜図26を用いて、本開示に係る技術の2つの実施形態について詳細に説明した。これら実施形態によれば、画像認識に基づく手法が利用される場合と比較して、実空間の平面の姿勢をより正確に認識して当該平面の姿勢をAR技術のために利用することができる。
(1)
実空間を映す画像を撮像する撮像装置に加わる重力の方向を示すセンサデータを取得するデータ取得部と、
前記センサデータに基づいて、前記画像に対する前記実空間の平面の相対的な姿勢を決定する決定部と、
前記平面上の所与の点の3次元位置と対応する前記画像内の2次元位置との間の変換を、前記決定部により決定される前記姿勢を用いて行う変換部と、
を備える情報処理装置。
(2)
前記平面上の前記所与の点は、SLAM(Simultaneous Localization And Mapping)法の初期化の際に選択される特徴点である、前記(1)に記載の情報処理装置。
(3)
前記平面上の前記所与の点は、拡張現実のためのアノテーションを構成する点である、前記(1)に記載の情報処理装置。
(4)
前記決定部は、前記センサデータに基づいて決定される前記姿勢と仮の位置とを有する仮想的な平面を決定し、
前記情報処理装置は、前記アノテーションを前記画像に重畳する表示制御部、をさらに備え、
前記アノテーションは、前記仮想的な平面上の3次元位置から前記変換部により変換される前記画像内の2次元位置に重畳される、
前記(3)に記載の情報処理装置。
(5)
前記情報処理装置は、前記画像に映る物体を認識する認識部、をさらに備え、
前記決定部は、前記認識部により認識される物体の実サイズについての既知のデータを用いて、前記画像に映る前記平面の位置をさらに決定する、
前記(2)又は前記(3)に記載の情報処理装置。
(6)
前記決定部は、前記画像に映る前記平面と前記撮像装置との間の距離に関連するデータを用いて、前記平面の位置をさらに決定する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(7)
前記決定部は、表示される前記アノテーションについての表示サイズを用いて、前記アノテーションが配置される前記平面の位置をさらに決定する、前記(3)に記載の情報処理装置。
(8)
前記情報処理装置は、前記表示サイズをユーザに指定させるユーザインタフェース部、をさらに備える、前記(7)に記載の情報処理装置。
(9)
前記平面は、水平面であり、
前記決定部は、前記撮像装置が上方及び下方のいずれを向いているかを前記センサデータに基づいて判定し、当該判定の結果に応じて前記水平面の前記姿勢を決定する、
前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記平面は、鉛直面であり、
前記決定部は、重力の方向を示す前記センサデータと予め定義される方向の制約とに基づいて、前記鉛直面の姿勢を決定する、
前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(11)
前記平面は、鉛直面であり、
前記決定部は、重力の方向を示す前記センサデータと前記撮像装置及び前記鉛直面の位置関係を示すマップデータとに基づいて、前記鉛直面の姿勢を決定する、
前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(12)
前記決定部は、前記マップデータに含まれる1つ以上の鉛直面の候補から、地磁気の方向を示すセンサデータを用いて前記画像に映る鉛直面を推定し、推定した前記鉛直面の姿勢を、前記マップデータと重力の方向とに基づいて決定する、前記(11)に記載の情報処理装置。
(13)
前記決定部は、前記マップデータに含まれる1つ以上の鉛直面の候補からユーザにより指定される鉛直面の姿勢を、前記マップデータと重力の方向とに基づいて決定する、前記(11)に記載の情報処理装置。
(14)
前記情報処理装置は、
前記センサデータに基づいて決定される水平面又は鉛直面の姿勢を基準として、前記平面の姿勢をユーザに指定させるためのユーザインタフェースを拡張現実空間内に配置するユーザインタフェース部、
をさらに備える、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(15)
前記ユーザインタフェースの配置は、複数のフレームにわたって前記拡張現実空間内で維持される、前記(14)に記載の情報処理装置。
(16)
前記ユーザインタフェースは、3次元的に回転操作可能な操作面を有し、
前記決定部は、前記平面と平行となるようにユーザにより操作された前記操作面の姿勢を用いて、前記平面の姿勢を決定する、
前記(15)に記載の情報処理装置。
(17)
前記情報処理装置は、前記撮像装置と前記センサデータを出力するセンサとをさらに備える端末装置である、前記(1)〜(16)のいずれか1項に記載の情報処理装置。
(18)
前記データ取得部、前記決定部及び前記変換部のうち少なくとも1つが前記情報処理装置の代わりにクラウドコンピューティング環境内に存在する装置上に実装される、前記(1)〜(17)のいずれか1項に記載の情報処理装置。
(19)
情報処理装置を制御するコンピュータにおいて、
実空間を映す画像を撮像する撮像装置に加わる重力の方向を示すセンサデータを取得することと、
前記センサデータに基づいて、前記画像に対する前記実空間の平面の相対的な姿勢を決定することと、
前記平面上の所与の点の3次元位置と対応する前記画像内の2次元位置との間の変換を、決定された前記姿勢を用いて行うことと、
を含む情報処理方法。
(20)
情報処理装置を制御するコンピュータを、
実空間を映す画像を撮像する撮像装置に加わる重力の方向を示すセンサデータを取得するデータ取得部と、
前記センサデータに基づいて、前記画像に対する前記実空間の平面の相対的な姿勢を決定する決定部と、
前記平面上の所与の点の3次元位置と対応する前記画像内の2次元位置との間の変換を、前記決定部により決定される前記姿勢を用いて行う変換部と、
として機能させるためのプログラム。
102 撮像部
104 センサ部
125 データ取得部
130 決定部
140 変換部
156 認識部
165,265 表示制御部
170 ユーザインタフェース部
HP 水平面
IP 撮像面
Claims (20)
- 実空間を映す画像を撮像する撮像装置に加わる重力の方向を示すセンサデータを取得するデータ取得部と、
前記センサデータに基づいて、前記画像に対する前記実空間の平面の相対的な姿勢を決定する決定部と、
前記平面上の所与の点の3次元位置と対応する前記画像内の2次元位置との間の変換を、前記決定部により決定される前記姿勢を用いて行う変換部と、
を備える情報処理装置。 - 前記平面上の前記所与の点は、SLAM(Simultaneous Localization And Mapping)法の初期化の際に選択される特徴点である、請求項1に記載の情報処理装置。
- 前記平面上の前記所与の点は、拡張現実のためのアノテーションを構成する点である、請求項1に記載の情報処理装置。
- 前記決定部は、前記センサデータに基づいて決定される前記姿勢と仮の位置とを有する仮想的な平面を決定し、
前記情報処理装置は、前記アノテーションを前記画像に重畳する表示制御部、をさらに備え、
前記アノテーションは、前記仮想的な平面上の3次元位置から前記変換部により変換される前記画像内の2次元位置に重畳される、
請求項3に記載の情報処理装置。 - 前記情報処理装置は、前記画像に映る物体を認識する認識部、をさらに備え、
前記決定部は、前記認識部により認識される物体の実サイズについての既知のデータを用いて、前記画像に映る前記平面の位置をさらに決定する、
請求項2に記載の情報処理装置。 - 前記決定部は、前記画像に映る前記平面と前記撮像装置との間の距離に関連するデータを用いて、前記平面の位置をさらに決定する、請求項1に記載の情報処理装置。
- 前記決定部は、表示される前記アノテーションについての表示サイズを用いて、前記アノテーションが配置される前記平面の位置をさらに決定する、請求項3に記載の情報処理装置。
- 前記情報処理装置は、前記表示サイズをユーザに指定させるユーザインタフェース部、をさらに備える、請求項7に記載の情報処理装置。
- 前記平面は、水平面であり、
前記決定部は、前記撮像装置が上方及び下方のいずれを向いているかを前記センサデータに基づいて判定し、当該判定の結果に応じて前記水平面の前記姿勢を決定する、
請求項1に記載の情報処理装置。 - 前記平面は、鉛直面であり、
前記決定部は、重力の方向を示す前記センサデータと予め定義される方向の制約とに基づいて、前記鉛直面の姿勢を決定する、
請求項1に記載の情報処理装置。 - 前記平面は、鉛直面であり、
前記決定部は、重力の方向を示す前記センサデータと前記撮像装置及び前記鉛直面の位置関係を示すマップデータとに基づいて、前記鉛直面の姿勢を決定する、
請求項1に記載の情報処理装置。 - 前記決定部は、前記マップデータに含まれる1つ以上の鉛直面の候補から、地磁気の方向を示すセンサデータを用いて前記画像に映る鉛直面を推定し、推定した前記鉛直面の姿勢を、前記マップデータと重力の方向とに基づいて決定する、請求項11に記載の情報処理装置。
- 前記決定部は、前記マップデータに含まれる1つ以上の鉛直面の候補からユーザにより指定される鉛直面の姿勢を、前記マップデータと重力の方向とに基づいて決定する、請求項11に記載の情報処理装置。
- 前記情報処理装置は、
前記センサデータに基づいて決定される水平面又は鉛直面の姿勢を基準として、前記平面の姿勢をユーザに指定させるためのユーザインタフェースを拡張現実空間内に配置するユーザインタフェース部、
をさらに備える、請求項1に記載の情報処理装置。 - 前記ユーザインタフェースの配置は、複数のフレームにわたって前記拡張現実空間内で維持される、請求項14に記載の情報処理装置。
- 前記ユーザインタフェースは、3次元的に回転操作可能な操作面を有し、
前記決定部は、前記平面と平行となるようにユーザにより操作された前記操作面の姿勢を用いて、前記平面の姿勢を決定する、
請求項15に記載の情報処理装置。 - 前記情報処理装置は、前記撮像装置と前記センサデータを出力するセンサとをさらに備える端末装置である、請求項1に記載の情報処理装置。
- 前記データ取得部、前記決定部及び前記変換部のうち少なくとも1つが前記情報処理装置の代わりにクラウドコンピューティング環境内に存在する装置上に実装される、請求項1に記載の情報処理装置。
- 情報処理装置を制御するコンピュータにおいて、
実空間を映す画像を撮像する撮像装置に加わる重力の方向を示すセンサデータを取得することと、
前記センサデータに基づいて、前記画像に対する前記実空間の平面の相対的な姿勢を決定することと、
前記平面上の所与の点の3次元位置と対応する前記画像内の2次元位置との間の変換を、決定された前記姿勢を用いて行うことと、
を含む情報処理方法。 - 情報処理装置を制御するコンピュータを、
実空間を映す画像を撮像する撮像装置に加わる重力の方向を示すセンサデータを取得するデータ取得部と、
前記センサデータに基づいて、前記画像に対する前記実空間の平面の相対的な姿勢を決定する決定部と、
前記平面上の所与の点の3次元位置と対応する前記画像内の2次元位置との間の変換を、前記決定部により決定される前記姿勢を用いて行う変換部と、
として機能させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011182693 | 2011-08-24 | ||
JP2011182693 | 2011-08-24 | ||
PCT/JP2012/070677 WO2013027628A1 (ja) | 2011-08-24 | 2012-08-14 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2013027628A1 true JPWO2013027628A1 (ja) | 2015-03-19 |
JP5920352B2 JP5920352B2 (ja) | 2016-05-18 |
Family
ID=47746375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013529976A Active JP5920352B2 (ja) | 2011-08-24 | 2012-08-14 | 情報処理装置、情報処理方法及びプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US9355451B2 (ja) |
EP (2) | EP2750110B1 (ja) |
JP (1) | JP5920352B2 (ja) |
CN (1) | CN103733229A (ja) |
RU (1) | RU2014105775A (ja) |
WO (1) | WO2013027628A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6099833B1 (ja) * | 2015-09-15 | 2017-03-22 | 三菱電機株式会社 | 画像処理装置、画像処理システム及び画像処理方法 |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2506338A (en) | 2012-07-30 | 2014-04-02 | Sony Comp Entertainment Europe | A method of localisation and mapping |
US9495389B2 (en) * | 2013-03-15 | 2016-11-15 | Qualcomm Incorporated | Client-server based dynamic search |
EP3550527B1 (en) * | 2013-04-04 | 2021-07-07 | Sony Corporation | Information processing device, information processing method and program |
US10452892B2 (en) | 2013-12-17 | 2019-10-22 | Sony Corporation | Controlling image processing device to display data based on state of object in real space |
US20150269436A1 (en) * | 2014-03-18 | 2015-09-24 | Qualcomm Incorporated | Line segment tracking in computer vision applications |
JP6683127B2 (ja) * | 2014-08-01 | 2020-04-15 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
US10462406B2 (en) | 2014-08-01 | 2019-10-29 | Sony Corporation | Information processing apparatus and information processing method |
JP6525010B2 (ja) * | 2014-08-05 | 2019-06-05 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びに画像表示システム |
JP6451139B2 (ja) * | 2014-08-11 | 2019-01-16 | 株式会社大林組 | 配置計画支援システム、配置計画支援方法及び配置計画支援プログラム |
JP6476657B2 (ja) * | 2014-08-27 | 2019-03-06 | 株式会社リコー | 画像処理装置、画像処理方法、およびプログラム |
JP6459706B2 (ja) * | 2015-03-27 | 2019-01-30 | セイコーエプソン株式会社 | インタラクティブプロジェクター及びインタラクティブプロジェクションシステム |
US10360718B2 (en) * | 2015-08-14 | 2019-07-23 | Samsung Electronics Co., Ltd. | Method and apparatus for constructing three dimensional model of object |
CN107025662B (zh) * | 2016-01-29 | 2020-06-09 | 成都理想境界科技有限公司 | 一种实现增强现实的方法、服务器、终端及系统 |
CN107025661B (zh) * | 2016-01-29 | 2020-08-04 | 成都理想境界科技有限公司 | 一种实现增强现实的方法、服务器、终端及系统 |
CN110313021B (zh) * | 2017-03-06 | 2023-07-25 | 连株式会社 | 增强现实提供方法、装置以及计算机可读记录介质 |
CN108629248A (zh) * | 2017-03-24 | 2018-10-09 | 成都理想境界科技有限公司 | 一种实现增强现实的方法及设备 |
WO2018211782A1 (ja) * | 2017-05-18 | 2018-11-22 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム |
CN109584295B (zh) * | 2017-09-29 | 2022-08-26 | 阿里巴巴集团控股有限公司 | 对图像内目标物体进行自动标注的方法、装置及系统 |
DE102017217923A1 (de) * | 2017-10-09 | 2019-04-11 | Audi Ag | Verfahren zum Betrieb einer Anzeigeeinrichtung in einem Kraftfahrzeug |
CN107704106B (zh) * | 2017-10-17 | 2021-04-09 | 宁波视睿迪光电有限公司 | 姿态定位方法、装置及电子设备 |
JP6770208B2 (ja) * | 2018-01-30 | 2020-10-14 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
US20210102820A1 (en) * | 2018-02-23 | 2021-04-08 | Google Llc | Transitioning between map view and augmented reality view |
CH714968A1 (de) * | 2018-05-07 | 2019-11-15 | Brugg Rohr Ag Holding | Verfahren und Vorrichtung zur Herstellung eines wärmegedämmten Leitungsrohrs. |
US10482674B1 (en) * | 2018-06-27 | 2019-11-19 | Beijing Jingdong Shangke Information Technology Co., Ltd. | System and method for mobile augmented reality |
US10628964B2 (en) * | 2018-09-19 | 2020-04-21 | Seiko Epson Corporation | Methods and devices for extended reality device training data creation |
CN109579745A (zh) * | 2018-11-26 | 2019-04-05 | 江苏科技大学 | 基于增强现实和手机软件的新型房屋面积测算方法 |
CN111256683A (zh) * | 2018-12-03 | 2020-06-09 | 北京科加触控技术有限公司 | 一种定位方法及装置 |
JP7211047B2 (ja) * | 2018-12-04 | 2023-01-24 | 株式会社アイシン | 路面検出装置および路面検出プログラム |
JP2020089947A (ja) * | 2018-12-06 | 2020-06-11 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7341736B2 (ja) * | 2019-06-06 | 2023-09-11 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US11430151B2 (en) | 2019-11-06 | 2022-08-30 | Seiko Epson Corporation | Online learning for 3D pose estimation using simplified constellations |
EP4080314A4 (en) * | 2019-12-17 | 2023-01-04 | Sony Group Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD AND PROGRAM |
CN112348889A (zh) * | 2020-10-23 | 2021-02-09 | 浙江商汤科技开发有限公司 | 视觉定位方法及相关装置、设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005107248A (ja) * | 2003-09-30 | 2005-04-21 | Canon Inc | データ変換方法及び装置並びに姿勢計測装置 |
JP2006292417A (ja) * | 2005-04-06 | 2006-10-26 | Canon Inc | 位置姿勢計測方法及び装置 |
JP2007271563A (ja) * | 2006-03-31 | 2007-10-18 | Canon Inc | 位置姿勢計測方法及び装置 |
JP2009237845A (ja) * | 2008-03-27 | 2009-10-15 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101609506B (zh) * | 2008-06-20 | 2012-05-23 | 索尼株式会社 | 用于识别图像中的模型对象的装置及方法 |
US8350871B2 (en) * | 2009-02-04 | 2013-01-08 | Motorola Mobility Llc | Method and apparatus for creating virtual graffiti in a mobile virtual and augmented reality system |
KR101633359B1 (ko) * | 2009-10-20 | 2016-06-27 | 삼성전자 주식회사 | 투사 불변량을 이용한 무표식 증강 현실 구현 시스템 및 그 방법 |
KR101667033B1 (ko) * | 2010-01-04 | 2016-10-17 | 삼성전자 주식회사 | 위치 기반 정보를 이용한 증강 현실 서비스 장치 및 그 방법 |
US8797353B2 (en) * | 2010-02-12 | 2014-08-05 | Samsung Electronics Co., Ltd. | Augmented media message |
-
2012
- 2012-08-14 EP EP12825620.3A patent/EP2750110B1/en active Active
- 2012-08-14 RU RU2014105775/08A patent/RU2014105775A/ru not_active Application Discontinuation
- 2012-08-14 CN CN201280040105.9A patent/CN103733229A/zh active Pending
- 2012-08-14 US US14/238,978 patent/US9355451B2/en active Active
- 2012-08-14 WO PCT/JP2012/070677 patent/WO2013027628A1/ja active Application Filing
- 2012-08-14 JP JP2013529976A patent/JP5920352B2/ja active Active
- 2012-08-14 EP EP20156603.1A patent/EP3680863B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005107248A (ja) * | 2003-09-30 | 2005-04-21 | Canon Inc | データ変換方法及び装置並びに姿勢計測装置 |
JP2006292417A (ja) * | 2005-04-06 | 2006-10-26 | Canon Inc | 位置姿勢計測方法及び装置 |
JP2007271563A (ja) * | 2006-03-31 | 2007-10-18 | Canon Inc | 位置姿勢計測方法及び装置 |
JP2009237845A (ja) * | 2008-03-27 | 2009-10-15 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6099833B1 (ja) * | 2015-09-15 | 2017-03-22 | 三菱電機株式会社 | 画像処理装置、画像処理システム及び画像処理方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3680863A1 (en) | 2020-07-15 |
US9355451B2 (en) | 2016-05-31 |
EP2750110A4 (en) | 2015-08-26 |
WO2013027628A1 (ja) | 2013-02-28 |
CN103733229A (zh) | 2014-04-16 |
EP2750110B1 (en) | 2020-03-18 |
RU2014105775A (ru) | 2015-08-27 |
EP2750110A1 (en) | 2014-07-02 |
JP5920352B2 (ja) | 2016-05-18 |
EP3680863B1 (en) | 2024-01-10 |
US20140168268A1 (en) | 2014-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5920352B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US9996982B2 (en) | Information processing device, authoring method, and program | |
JP5471626B2 (ja) | 情報処理装置、マップ更新方法、プログラム及び情報処理システム | |
EP2812770B1 (en) | Image processing device, and computer program product | |
TWI505709B (zh) | 擴增實境場景中決定個體化深度資訊的系統和方法 | |
EP3176757A1 (en) | Information processing device, information processing method, and program | |
Bostanci et al. | User tracking methods for augmented reality | |
JP2013225245A (ja) | 画像処理装置、画像処理方法及びプログラム | |
US20140009384A1 (en) | Methods and systems for determining location of handheld device within 3d environment | |
JP2011095797A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2011203823A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6609640B2 (ja) | 電子デバイス上における環境マッピング用のフィーチャ・データの管理 | |
JP2016507793A (ja) | 基準座標系の決定 | |
Marto et al. | DinofelisAR demo augmented reality based on natural features | |
JP2011203824A (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN116349222A (zh) | 利用集成图像帧渲染基于深度的三维模型 | |
Alam et al. | Pose estimation algorithm for mobile augmented reality based on inertial sensor fusion. | |
TWI722738B (zh) | 擴增實境裝置與定位方法 | |
Araujo et al. | Life cycle of a slam system: Implementation, evaluation and port to the project tango device | |
WO2023226593A1 (zh) | 画面显示方法、系统、装置、设备及存储介质 | |
Bostanci et al. | Tracking methods for augmented reality | |
EP4261783A1 (en) | Using cloud computing to improve accuracy of pose tracking | |
Li | A new efficient pose estimation and tracking method for personal devices: application to interaction in smart spaces | |
Mahfoud et al. | Mixed-Reality Platform for Coordination and Situation Awareness in Smart Buildings | |
Gu et al. | Research on the Key Techniques of Augmented Reality Navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150130 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151027 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160328 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5920352 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |