JP6304305B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP6304305B2 JP6304305B2 JP2016103857A JP2016103857A JP6304305B2 JP 6304305 B2 JP6304305 B2 JP 6304305B2 JP 2016103857 A JP2016103857 A JP 2016103857A JP 2016103857 A JP2016103857 A JP 2016103857A JP 6304305 B2 JP6304305 B2 JP 6304305B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- user
- matrix
- terminal
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
1.基本的な原理
1−1.概要
1−2.基本的なパラメータ
1−3.パラメータの記憶
1−4.仮想オブジェクトの表示
2.第1の実施形態
2−1.ハードウェア構成
2−2.機能構成
2−3.操作シナリオ
2−4.処理の流れ
2−5.表示のバリエーション
2−6.応用例
3.第2の実施形態
3−1.システムの概要
3−2.サーバの構成
3−3.端末の構成
3−4.処理の流れ
4.まとめ
まず、図1〜図8を用いて、本開示に係る技術の基本的な原理について説明する。
図1は、本開示に係る技術が適用され得る環境の一例を示す説明図である。図1を参照すると、環境1、及び環境1を映す画像を撮像する画像処理装置100が示されている。図1の例において、環境1には、テーブル11、本12及びコーヒーカップ13が存在している。画像処理装置100は、典型的には、撮像部(図示せず)及び表示部110を備える。画像処理装置100の撮像部は、環境1を映す映像を構成する一連の画像を撮像する。そして、画像処理装置100は、撮像画像を入力画像として画像処理を行い、3次元空間に仮想オブジェクトを配置する。画像処理装置100の表示部110は、仮想オブジェクトが重畳された出力画像を表示する。
本開示に係る技術において、基準環境内に配置される仮想オブジェクトの位置及び姿勢は、いくつかのパラメータを用いた計算を通じて決定される。最も基本的なパラメータは、環境認識行列である。
環境認識行列は、入力画像を撮像した端末の基準環境内の位置及び姿勢を基準として、基準環境の位置及び姿勢を表現する行列である。環境認識行列は、典型的には、3次元空間内の並行移動、回転及びスケーリング(拡大/縮小)を表す座標変換行列(例えば、4行4列の同次変換行列)であってよい。
上述した前提の下で、環境認識行列Mrecogの逆行列Mrecog −1は、基準座標系CS1の位置及び姿勢を基準とした画像処理装置100の位置及び姿勢を表現する行列となる。本開示に係る技術において、仮想オブジェクトは、このような環境認識行列の逆行列Mrecog −1に基づく位置及び姿勢で基準環境内に配置される。図3は、環境認識行列の逆行列Mrecog −1が表現する座標変換を概念的に示している。
図4は、オフセット行列の一例としての前方オフセット行列Toffsetを算入して決定されるオブジェクト配置行列Marrangeを概念的に示している。前方オフセット行列Toffsetは、画像処理装置100の位置から入力画像の撮像方向(奥行き方向)への所定の距離の並行移動を表現する座標変換行列である。前方オフセット行列Toffsetが算入される場合、オブジェクト配置行列Marrangeは、次式のように計算され得る。
上述した原理に従って仮想オブジェクトの配置が確定すると、オブジェクト配置行列Marrangeが基準環境と関連付けて記憶される。
仮想オブジェクトが配置された後、端末と基準環境との間の位置関係が変わった状況を想定する。端末が移動し若しくは基準環境が移動し、又はその双方のケースで、この状況は想定され得る。なお、本明細書において、特に「並行」移動と明示されない場合には、「移動」との用語は並行移動及び回転の双方を含み得るものとする。上述した状況において、画像処理装置100の画面上での仮想オブジェクトの表示は、記憶されているオブジェクト配置行列Marrangeと最新の時点で認識される環境認識行列Mrecogとにより表現される位置及び姿勢で行われる。例えば、図6Bに示した時刻t2における画像処理装置100からの仮想オブジェクトV01の見え方は、オブジェクト配置行列Marrange(t1)と時刻t2における環境認識行列Mrecog(t2)との積に相当する次のような座標変換として表現され得る。
第1の実施形態では、図1に例示した画像処理装置100により仮想オブジェクトが配置される。配置された仮想オブジェクトは、画像処理装置100の画面に表示される。
図9は、第1の実施形態に係る画像処理装置100のハードウェア構成の一例を示すブロック図である。図9を参照すると、画像処理装置100は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112、バス116及び制御部118を備える。
撮像部102は、画像を撮像するカメラモジュールである。撮像部102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、撮像画像を生成する。撮像部102により生成される一連の撮像画像は、映像を構成する。なお、撮像部102は、必ずしも画像処理装置100の一部でなくてもよい。例えば、画像処理装置100と有線又は無線で接続される撮像装置が撮像部102として扱われてもよい。また、撮像部102は、撮像部102と被写体との間の距離を画素ごとに測定する深度(depth)センサを含んでいてもよい。深度センサから出力される深度データは、環境の認識のために利用され得る。
センサ部104は、測位センサ、加速度センサ及びジャイロセンサなどの様々なセンサを含み得る。センサ部104において得られる測定結果は、環境の認識の支援、地理的な位置に特化したデータの取得、又はユーザ入力の検出などの様々な用途のために利用されてよい。なお、センサ部104は、画像処理装置100の構成から省略されてもよい。
入力部106は、ユーザが画像処理装置100を操作し又は画像処理装置100へ情報を入力するために使用される入力デバイスである。入力部106は、例えば、表示部110の画面上へのユーザによるタッチを検出するタッチセンサを含んでもよい。その代わりに(又はそれに加えて)、入力部106は、マウス若しくはタッチパッドなどのポインティングデバイスを含んでもよい。さらに、入力部106は、キーボード、キーパッド、ボタン又はスイッチなどのその他の種類の入力デバイスを含んでもよい。
記憶部108は、半導体メモリ又はハードディスクなどの記憶媒体により構成され、画像処理装置100による処理のためのプログラム及びデータを記憶する。記憶部108により記憶されるデータは、例えば、撮像画像データ、センサデータ及び後に説明するデータベース(DB)内のデータを含み得る。なお、本明細書で説明するプログラム及びデータの一部は、記憶部108により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
表示部110は、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などのディスプレイを含む表示モジュールである。表示部110は、例えば、画像処理装置100により生成される出力画像を表示するために使用される。なお、表示部110もまた、必ずしも画像処理装置100の一部でなくてもよい。例えば、画像処理装置100と有線又は無線で接続される表示装置が表示部110として扱われてもよい。
通信部112は、画像処理装置100による他の装置との間の通信を仲介する通信インタフェースである。通信部112は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
バス116は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112及び制御部118を相互に接続する。
制御部118は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。制御部118は、記憶部108又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する画像処理装置100の様々な機能を動作させる。
図10は、図9に示した画像処理装置100の記憶部108及び制御部118により実現される論理的機能の構成の一例を示すブロック図である。図10を参照すると、画像処理装置100は、画像取得部120、認識部130、計算部140、オブジェクト配置部150、オブジェクトDB160、操作制御部180及び表示制御部190を備える。
画像取得部120は、撮像部102により生成される撮像画像を入力画像として取得する。画像取得部120により取得される入力画像は、実空間を映す映像を構成する個々のフレームであってよい。画像取得部120は、取得した入力画像を、認識部130及び表示制御部190へ出力する。
認識部130は、画像取得部120から入力される入力画像を用いて、基準環境の位置及び姿勢を表現する上述した環境認識行列を認識する。認識部130は、環境認識行列を認識するために、SfM法又はSLAM法などの公知の画像認識技術を活用し得る。その代わりに又はそれに加えて、認識部130は、撮像部102に設けられ得る深度センサからの深度データに基づいて、環境認識行列を認識してもよい。また、認識部130は、赤外線測距システム又はモーションキャプチャシステムなどの環境認識システムからの出力データに基づいて、環境認識行列を認識してもよい。
計算部140は、認識部130から入力される環境認識行列の逆行列Mrecog −1を計算する。例えば、環境認識行列Mrecogは、4行4列の同次変換行列である。従って、環境認識行列の逆行列Mrecog −1もまた4行4列の同次変換行列であり、Mrecog・Mrecog −1=M0(単位行列)を満たす。環境認識行列の逆行列Mrecog −1は、基準座標系の位置及び姿勢から端末の位置及び姿勢への座標変換を表現する。計算部140は、計算した環境認識行列の逆行列Mrecog −1をオブジェクト配置部150へ出力する。
オブジェクト配置部150は、環境認識行列の逆行列Mrecog −1に基づく位置及び姿勢を有する仮想オブジェクトを、基準環境内に配置する。配置される仮想オブジェクトの位置及び姿勢は、上述したオブジェクト配置行列Marrangeにより表現される。添付図面では、仮想オブジェクトの位置及び姿勢を簡明に示すために、矩形の仮想オブジェクトが主に描かれる。しかしながら、オブジェクト配置部150により配置される仮想オブジェクトは、いかなる形状を有していてもよい。また、当該仮想オブジェクトは、いかなる種類の情報を呈示するオブジェクトであってもよい。
オブジェクトDB160は、オブジェクト配置部150により配置される仮想オブジェクトのオブジェクト配置行列を記憶するデータベースである。オブジェクトDB160は、図7に例示したような構成を有するオブジェクト配置データを記憶し得る。オブジェクトDB160において、オブジェクト配置行列は、いずれかの基準環境と関連付けられる。そして、オブジェクト配置データは、表示制御部190により仮想オブジェクトの表示処理が実行される際に、オブジェクトDB160から読み出される。
操作制御部180は、画像処理装置100において実行されるARアプリケーションをユーザに操作させるためのユーザインタフェースを提供する。例えば、操作制御部180は、表示制御部190を介して、ARアプリケーションの操作を促す標識を画面に表示させる。そして、操作制御部180は、入力部106を介する様々なユーザ入力を検出する。
表示制御部190は、オブジェクト配置部150による配置に従って、仮想オブジェクトを入力画像に重畳することにより、出力画像を生成する。そして、表示制御部190は、生成した出力画像を表示部110の画面に表示させる。仮想オブジェクトは、図8を用いて説明したように、当該仮想オブジェクトのオブジェクト配置行列と表示の時点で認識される環境認識行列とにより表現される位置及び姿勢で、入力画像に重畳される。例えば、表示制御部190による仮想オブジェクトの表示のトリガは、上述した第1のユーザ入力の検出であってもよい。その代わりに、表示制御部190による仮想オブジェクトの表示のトリガは、他の装置からのオブジェクト配置データの受信又は入力画像内の何らかのパターンの認識などであってもよい。
次に、図11〜図13を用いて、仮想オブジェクトの操作に関する2つの操作シナリオを説明する。第1の操作シナリオでは、新たな仮想オブジェクトが、基準環境内に配置される。第2の操作シナリオでは、配置済みの仮想オブジェクトがユーザによる操作を通じて移動される。
図11は、第1の操作シナリオに沿って、新たな仮想オブジェクトが基準環境内に配置される様子を示している。
上述したように、第1の操作シナリオによれば、ユーザによる操作が継続されている間、仮想オブジェクトの配置は、端末の位置及び姿勢に追随する。こうした追随動作は、配置済みの仮想オブジェクトについては、次のような仕組みによって実現され得る。
上述した相対配置行列Mrelを用いることにより、仮想オブジェクトが関連付けられている基準環境を、異なる環境へ乗り換えることも可能となる。
図14は、第1の実施形態に係る画像処理装置100による画像処理の流れの一例を示すフローチャートである。
本開示に係る技術において、仮想オブジェクトは、様々な形態で表示され得る。本項では、仮想オブジェクトの様々な表示のバリエーションについて説明する。
例えば、仮想オブジェクトは、予め定義される基準面を有してもよい。仮想オブジェクトがカード状の平面的な形状を有する場合には、一方の面が基準面、他方の面が非基準面として定義され得る。仮想オブジェクトが立体的な形状を有する場合には、当該仮想オブジェクトの基準面は、基準面から外へ向かう法線ベクトルによって識別され得る。このように仮想オブジェクトが基準面を有する場合、表示制御部190は、画像処理装置100の画面に当該仮想オブジェクトの基準面が映るか否かに応じて、当該仮想オブジェクトの表示を変化させてよい。
表示制御部190は、画像処理装置100と仮想オブジェクトとの間の距離に応じて、当該仮想オブジェクトの表示を変化させてもよい。
表示制御部190は、所定の条件が満たされる場合に、表示すべき複数の仮想オブジェクトが所定の間隔を空けて整列するように、当該複数の仮想オブジェクトを再配置してもよい。
本開示に係る技術は、ここまでに説明したようなARアプリケーションに限定されず、様々な用途に応用され得る。本項では、2つの応用例について説明する。
例えば、オブジェクト配置部150は、記憶開始を指示するユーザ入力が検出された場合に、複数の画像にわたって、仮想オブジェクトのオブジェクト配置行列を基準環境と関連付けて連続的にオブジェクトDB160に記憶させる。それにより、移動する画像処理装置100の軌跡に沿った仮想オブジェクトの軌跡又は移動する仮想オブジェクトのアニメーションを簡易に生成することが可能となる。
本開示に係る技術が撮像装置に搭載される場合には、撮像の履歴を被写体の環境と関連付けて記録することが可能となる。例えば、画像処理装置100がデジタルカメラ又は撮像機能を有する何らかの端末であるものと仮定する。その場合、入力画像は、何らかの被写体を映す写真である。オブジェクト配置部150は、写真が撮像された際の撮像位置及び撮像姿勢を記録するために、上述したオブジェクト配置行列をデータベースに登録する。その後、同じ環境において、登録されたオブジェクト配置行列に従って仮想オブジェクトが端末の画面に表示されると、ユーザは、どのような撮像位置及び撮像姿勢で写真が撮像されたかを事後的に知ることができる。オブジェクト配置行列の登録のトリガは、例えば、撮像指示に対応するユーザ入力(例えば、シャッターボタンの押下)であってよい。かかる構成によれば、撮像指示が検出された場合に自動的にオブジェクト配置行列がデータベースに登録されるため、写真を撮像するユーザに追加的な負担を課すことなく、撮像位置及び撮像姿勢を記録することが可能となる。
第2の実施形態では、上述した画像処理装置100と同等の構成をそれぞれ含む複数の端末装置300が、AR空間に配置される仮想オブジェクトを共有する。
図20を参照すると、第2の実施形態に係る画像処理システムを構成する管理サーバ200、端末装置300a及び端末装置300bが示されている。なお、本明細書において、端末装置300a及び端末装置300bを互いに区別する必要がない場合には、これらを端末装置300と総称する。
図22は、管理サーバ200の構成の一例を示すブロック図である。図22を参照すると、管理サーバ200は、通信部210、制御部220及び記憶部250を備える。
端末装置300のハードウェア構成は、図9に例示した画像処理装置100のハードウェア構成と同様であってよい。図25は、端末装置300の論理的機能の構成の一例を示すブロック図である。図25を参照すると、端末装置300は、画像取得部120、データ取得部325、認識部130、計算部140、オブジェクト配置部350、登録部355、オブジェクトDB360、操作制御部380及び表示制御部390を備える。
データ取得部325は、定期的に又はユーザからの指示に応じて、データ配信要求を管理サーバ200へ送信する。そして、データ取得部325は、他の端末との間で共有される仮想オブジェクトのオブジェクト配置データ及びオブジェクトデータを取得する。
オブジェクト配置部350は、画像処理装置100のオブジェクト配置部150と同様、認識部130により認識される環境認識行列の逆行列に基づく位置及び姿勢を有する仮想オブジェクトを、基準環境内に配置する。配置される仮想オブジェクトの位置及び姿勢は、オブジェクト配置行列により表現される。
登録部355は、オブジェクト配置部350からオブジェクト配置行列が入力されると、通信部112を介してデータ登録要求を管理サーバ200へ送信する。データ登録要求には、オブジェクト配置行列と共に、仮想オブジェクトの表示属性を定義する表示属性データ及び上述した様々な関連情報が含まれてよい。
オブジェクトDB360は、画像処理装置100のオブジェクトDB160と同様、オブジェクト配置部350により配置される仮想オブジェクトのオブジェクト配置行列を記憶するデータベースである。さらに、オブジェクトDB360は、データ取得部325により管理サーバ200から受信されるオブジェクト配置データ及びオブジェクトデータを記憶する。オブジェクトDB360により記憶されるこれらデータは、表示制御部390により仮想オブジェクトの表示処理が実行される際に読み出される。
操作制御部380は、画像処理装置100の操作制御部180と同様、端末装置300において実行されるARアプリケーションをユーザに操作させるためのユーザインタフェースを提供する。例えば、操作制御部380は、タッチ又はドラッグの開始から終了までの一連の操作を通じて、ユーザに仮想オブジェクトの配置を所望の位置及び姿勢に自在に調整させる。操作制御部380は、ユーザ入力を検出すると、検出したユーザ入力の種類及び入力位置を示す入力情報を、オブジェクト配置部350へ出力する。
表示制御部390は、オブジェクトDB360により記憶されるオブジェクト配置データに従って、仮想オブジェクトを入力画像に重畳することにより、出力画像を生成する。そして、表示制御部390は、生成した出力画像を表示部110の画面に表示させる。
図29は、第2の実施形態に係る装置間の処理の流れの一例を示すシーケンス図である。
ここまで、図1〜図29を用いて、本開示に係る技術の2つの実施形態について詳細に説明した。これら実施形態によれば、基準環境内の端末の位置及び姿勢を基準として基準環境の位置及び姿勢を表現する環境認識行列が認識され、認識された環境認識行列の逆行列に基づく位置及び姿勢で、仮想オブジェクトが基準環境内に配置される。従って、ユーザは、端末を3次元空間内で動かすことにより、AR空間に仮想オブジェクトを簡易かつ自在に配置することができる。また、仮想オブジェクトの配置が基準環境と関連付けられるため、共通する環境を認識可能な端末の間で、AR空間に配置された仮想オブジェクトを容易に共有することができる。
(1)
画像を撮像した端末の位置及び姿勢を基準として前記画像に映る環境の位置及び姿勢を表現する環境認識行列を認識する認識部と、
前記環境認識行列の逆行列を計算する計算部と、
前記環境認識行列の前記逆行列に基づく位置及び姿勢を有する仮想オブジェクトを前記環境内に配置するオブジェクト配置部と、
を備える画像処理装置。
(2)
前記オブジェクト配置部は、配置される前記仮想オブジェクトの位置及び姿勢を表現するオブジェクト配置行列を前記環境と関連付けて記憶媒体に記憶させる、前記(1)に記載の画像処理装置。
(3)
前記オブジェクト配置部は、前記環境認識行列の前記逆行列により表現される位置から前記画像の撮像方向にオフセットされた位置に前記仮想オブジェクトを配置する、前記(2)に記載の画像処理装置。
(4)
前記画像処理装置は、
第1の時点で前記オブジェクト配置行列が記憶され、後続する第2の時点で新たに前記環境認識行列が認識された場合に、前記オブジェクト配置行列と新たに認識された前記環境認識行列とにより表現される位置及び姿勢で前記仮想オブジェクトを前記端末の画面に表示させる表示制御部、
をさらに備える、前記(2)又は前記(3)に記載の画像処理装置。
(5)
前記オブジェクト配置部は、前記端末の画面上でのユーザ入力位置に応じて当該画面に沿った方向にオフセットされた位置に前記仮想オブジェクトを配置する、前記(2)〜(4)のいずれか1項に記載の画像処理装置。
(6)
前記表示制御部は、第1のユーザ入力が検出された場合に、前記仮想オブジェクトを前記端末の画面に表示させ、
前記オブジェクト配置部は、第1のユーザ入力に後続する第2のユーザ入力が検出された場合に、前記表示制御部により表示されている前記仮想オブジェクトの前記オブジェクト配置行列を前記環境と関連付けて記憶媒体に記憶させる、
前記(4)に記載の画像処理装置。
(7)
前記第1のユーザ入力及び前記第2のユーザ入力は、一連の操作の開始及び終了にそれぞれ対応する、前記(6)に記載の画像処理装置。
(8)
前記表示制御部は、前記第1のユーザ入力の検出から前記第2のユーザ入力の検出までの間、前記第1のユーザ入力の検出の時点の前記端末に対する前記仮想オブジェクトの相対的な位置及び姿勢が維持されるように、前記仮想オブジェクトの表示を制御する、前記(6)又は前記(7)に記載の画像処理装置。
(9)
前記オブジェクト配置部は、前記第2のユーザ入力が検出された時点の画像から新たな環境が認識された場合に、表示されている前記仮想オブジェクトの位置及び姿勢を表現する新たな前記オブジェクト配置行列を前記新たな環境と関連付けて記憶媒体に記憶させる、前記(8)に記載の画像処理装置。
(10)
前記オブジェクト配置部は、第3のユーザ入力が検出された場合に、複数の画像にわたって前記オブジェクト配置行列を前記環境と関連付けて連続的に記憶媒体に記憶させる、前記(4)に記載の画像処理装置。
(11)
前記表示制御部は、連続的に記憶された前記オブジェクト配置行列を用いて、前記仮想オブジェクトの軌跡を前記環境内に表示させる、前記(10)に記載の画像処理装置。
(12)
前記表示制御部は、連続的に記憶された前記オブジェクト配置行列を用いて、前記仮想オブジェクトが前記環境内で動くアニメーションを表示させる、前記(10)に記載の画像処理装置。
(13)
前記表示制御部は、異なる時点で記憶された前記オブジェクト配置行列から、当該異なる時点の間の前記仮想オブジェクトの位置及び姿勢を補間する、前記(11)又は前記(12)に記載の画像処理装置。
(14)
前記端末は、撮像装置であり、
前記仮想オブジェクトは、前記画像の撮像位置及び撮像姿勢を記録するために前記環境内に配置される、
前記(2)〜(4)のいずれか1項に記載の画像処理装置。
(15)
前記オブジェクト配置部は、撮像指示に対応する第4のユーザ入力が検出された場合に、前記オブジェクト配置行列を記憶媒体に記憶させる、前記(14)に記載の画像処理装置。
(16)
前記仮想オブジェクトは、予め定義される基準面を有し、
前記表示制御部は、前記端末の画面に前記仮想オブジェクトの前記基準面が映るか否かに応じて、前記仮想オブジェクトの表示を変化させる、
前記(4)に記載の画像処理装置。
(17)
前記表示制御部は、前記端末と前記仮想オブジェクトとの間の距離に応じて、前記仮想オブジェクトの表示を変化させる、前記(4)に記載の画像処理装置。
(18)
前記表示制御部は、それぞれ前記オブジェクト配置行列を有する複数の前記仮想オブジェクトが存在する場合において、所定の条件が満たされるときに、複数の前記仮想オブジェクトを所定の間隔を空けて整列するように再配置する、前記(4)に記載の画像処理装置。
(19)
前記認識部、前記計算部及び前記オブジェクト配置部のうち少なくとも1つが前記画像処理装置の代わりにクラウドコンピューティング環境上に存在する装置により実現される、前記(1)〜(18)のいずれか1項に記載の画像処理装置。
(20)
画像を撮像した端末の位置及び姿勢を基準として前記画像に映る環境の位置及び姿勢を表現する環境認識行列を認識することと、
前記環境認識行列の逆行列を計算することと、
前記環境認識行列の前記逆行列に基づく位置及び姿勢を有する仮想オブジェクトを前記環境内に配置することと、
を含む画像処理方法。
(21)
コンピュータを、
画像を撮像した端末の位置及び姿勢を基準として前記画像に映る環境の位置及び姿勢を表現する環境認識行列を認識する認識部と、
前記環境認識行列の逆行列を計算する計算部と、
前記環境認識行列の前記逆行列に基づく位置及び姿勢を有する仮想オブジェクトを前記環境内に配置するオブジェクト配置部と、
として機能させるためのプログラム。
120 画像取得部
325 データ取得部
130 認識部
140 計算部
150,350 オブジェクト配置部
355 登録部
180,380 操作制御部
190,390 表示制御部
Claims (10)
- 端末において撮像された画像に映る環境に配置された仮想オブジェクトを取得するデータ取得部と、
前記データ取得部において取得された前記仮想オブジェクトを、前記画像を撮像した端末の位置及び姿勢を基準として、前記画像に映る環境に配置するオブジェクト配置部と、
を備え、
前記オブジェクト配置部は、
前記端末の位置及び姿勢を基準として前記画像に映る環境の位置及び姿勢を表現する第1の環境認識行列を認識し、
前記データ取得部において取得された前記仮想オブジェクトの位置及び姿勢を表現するオブジェクト配置行列と、認識された前記第1の環境認識行列とにより表現される位置及び姿勢で、前記仮想オブジェクトを前記端末の画面に表示し、
前記仮想オブジェクトは、前記端末を有する第1のユーザとは異なる第2のユーザによって過去に配置され、且つ、前記第2のユーザに関する付加情報が付加されており、
前記第2のユーザが前記仮想オブジェクトの近傍に存在していない際に、前記第2のユーザによって配置された前記仮想オブジェクトへの、前記第1のユーザの入力の検出されたことを通じて、前記付加情報が前記第1のユーザの有する前記端末に送信され、
前記仮想オブジェクトは、予め定義される基準面を有し、
前記仮想オブジェクトの表示は、前記端末の画面に前記仮想オブジェクトの前記基準面が映るか否かに応じて変化し、
前記オブジェクト配置行列は、前記第2のユーザの端末の位置及び姿勢を基準として、前記第2のユーザの端末が撮像した画像に映る環境の位置及び姿勢を表現する第2の環境認識行列の逆行列に基づいて決定されている、
画像処理装置。 - 前記仮想オブジェクトは、前記オブジェクト配置部によって、少なくとも共通の特徴点群を有する環境が映る撮像画像に配置される、請求項1に記載の画像処理装置。
- 前記付加情報は、少なくとも、ユーザID、ステータス及び顔写真の1つを含む、請求項1又は2に記載の画像処理装置。
- 前記第2のユーザによって配置された前記仮想オブジェクトへの、前記第1のユーザの入力の検出を通じて、前記第1のユーザと前記第2のユーザとの間の通信が開始される、請求項1〜3のいずれか1項に記載の画像処理装置。
- 前記通信は、当該通信を開始するアプリケーションを起動することで開始される、請求項4に記載の画像処理装置。
- 前記第1のユーザの入力は、所定のキーもしくはボタンの押下、タッチジェスチャ、表情、音声コマンド、視線のいずれかである、請求項1〜5のいずれか1項に記載の画像処理装置。
- 前記オブジェクト配置部は、配置される前記仮想オブジェクトの位置及び姿勢を表現するパラメータを記憶媒体に記憶させる、請求項1〜6のいずれか1項に記載の画像処理装置。
- 前記端末の位置及び姿勢の変化に応じて、前記仮想オブジェクトの配置を変化させる、請求項1〜7のいずれか1項に記載の画像処理装置。
- 端末において撮像された画像に映る環境に配置された仮想オブジェクトを取得することと、
取得された前記仮想オブジェクトを、前記画像を撮像した端末の位置及び姿勢を基準として、前記画像に映る環境に配置することと、
を含み、
を備え、
前記仮想オブジェクトを配置することは、
前記端末の位置及び姿勢を基準として前記画像に映る環境の位置及び姿勢を表現する第1の環境認識行列を認識し、
取得された前記仮想オブジェクトの位置及び姿勢を表現するオブジェクト配置行列と、認識された前記第1の環境認識行列とにより表現される位置及び姿勢で、前記仮想オブジェクトを前記端末の画面に表示することと、
を含み、
前記仮想オブジェクトは、前記端末を有する第1のユーザとは異なる第2のユーザによって過去に配置され、且つ、前記第2のユーザに関する付加情報が付加されており、
前記第2のユーザが前記仮想オブジェクトの近傍に存在していない際に、前記第2のユーザによって配置された前記仮想オブジェクトへの、前記第1のユーザの入力の検出されたことを通じて、前記付加情報が前記第1のユーザの有する前記端末に送信され、
前記仮想オブジェクトは、予め定義される基準面を有し、
前記仮想オブジェクトの表示は、前記端末の画面に前記仮想オブジェクトの前記基準面が映るか否かに応じて変化し、
前記オブジェクト配置行列は、前記第2のユーザの端末の位置及び姿勢を基準として、前記第2のユーザの端末が撮像した画像に映る環境の位置及び姿勢を表現する第2の環境認識行列の逆行列に基づいて決定されている、
画像処理方法。 - コンピュータを、
端末において撮像された画像に映る環境に配置された仮想オブジェクトを取得するデータ取得部と、
前記データ取得部において取得された前記仮想オブジェクトを、前記画像を撮像した端末の位置及び姿勢を基準として、前記画像に映る環境に配置するオブジェクト配置部と、
して機能させるプログラムであって、
前記オブジェクト配置部は、
前記端末の位置及び姿勢を基準として前記画像に映る環境の位置及び姿勢を表現する第1の環境認識行列を認識し、
前記データ取得部において取得された前記仮想オブジェクトの位置及び姿勢を表現するオブジェクト配置行列と、認識された前記第1の環境認識行列とにより表現される位置及び姿勢で、前記仮想オブジェクトを前記端末の画面に表示し、
前記仮想オブジェクトは、前記端末を有する第1のユーザとは異なる第2のユーザによって過去に配置され、且つ、前記第2のユーザに関する付加情報が付加されており、
前記第2のユーザが前記仮想オブジェクトの近傍に存在していない際に、前記第2のユーザによって配置された前記仮想オブジェクトへの、前記第1のユーザの入力の検出されたことを通じて、前記付加情報が前記第1のユーザの有する前記端末に送信され、
前記仮想オブジェクトは、予め定義される基準面を有し、
前記仮想オブジェクトの表示は、前記端末の画面に前記仮想オブジェクトの前記基準面が映るか否かに応じて変化し、
前記オブジェクト配置行列は、前記第2のユーザの端末の位置及び姿勢を基準として、前記第2のユーザの端末が撮像した画像に映る環境の位置及び姿勢を表現する第2の環境認識行列の逆行列に基づいて決定されている、
プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016103857A JP6304305B2 (ja) | 2016-05-25 | 2016-05-25 | 画像処理装置、画像処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016103857A JP6304305B2 (ja) | 2016-05-25 | 2016-05-25 | 画像処理装置、画像処理方法及びプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012026872A Division JP5942456B2 (ja) | 2012-02-10 | 2012-02-10 | 画像処理装置、画像処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016177834A JP2016177834A (ja) | 2016-10-06 |
JP6304305B2 true JP6304305B2 (ja) | 2018-04-04 |
Family
ID=57071281
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016103857A Expired - Fee Related JP6304305B2 (ja) | 2016-05-25 | 2016-05-25 | 画像処理装置、画像処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6304305B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230021345A1 (en) * | 2019-12-26 | 2023-01-26 | Nec Corporation | Information processing device, control method, and storage medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5499762B2 (ja) * | 2010-02-24 | 2014-05-21 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム及び画像処理システム |
JP5573238B2 (ja) * | 2010-03-04 | 2014-08-20 | ソニー株式会社 | 情報処理装置、情報処理法方法およびプログラム |
US20110310227A1 (en) * | 2010-06-17 | 2011-12-22 | Qualcomm Incorporated | Mobile device based content mapping for augmented reality environment |
JP4993637B2 (ja) * | 2010-07-21 | 2012-08-08 | 株式会社ブリリアントサービス | エアタグ表示システム |
-
2016
- 2016-05-25 JP JP2016103857A patent/JP6304305B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2016177834A (ja) | 2016-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5942456B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5807686B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US11145083B2 (en) | Image-based localization | |
US9256986B2 (en) | Automated guidance when taking a photograph, using virtual objects overlaid on an image | |
EP3566113B1 (en) | Surface aware lens | |
JP2013164697A (ja) | 画像処理装置、画像処理方法、プログラム及び画像処理システム | |
US20190213792A1 (en) | Providing Body-Anchored Mixed-Reality Experiences | |
TWI446175B (zh) | 通信控制裝置、通信控制方法及相關之電腦可讀媒體 | |
JP2013200793A (ja) | 情報処理装置、情報処理方法およびプログラム | |
US10416783B2 (en) | Causing specific location of an object provided to a device | |
US10074216B2 (en) | Information processing to display information based on position of the real object in the image | |
US20210347053A1 (en) | Virtual presence for telerobotics in a dynamic scene | |
JP6304305B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP7506091B2 (ja) | 画像ベースの位置特定 | |
CN116228514A (zh) | 渲染数据处理方法、装置、计算机设备、介质和程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170407 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170522 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171225 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20180111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180219 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6304305 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |