JP2016162079A - 表示制御方法、表示制御プログラム、及び情報処理装置 - Google Patents

表示制御方法、表示制御プログラム、及び情報処理装置 Download PDF

Info

Publication number
JP2016162079A
JP2016162079A JP2015038655A JP2015038655A JP2016162079A JP 2016162079 A JP2016162079 A JP 2016162079A JP 2015038655 A JP2015038655 A JP 2015038655A JP 2015038655 A JP2015038655 A JP 2015038655A JP 2016162079 A JP2016162079 A JP 2016162079A
Authority
JP
Japan
Prior art keywords
image data
information
imaging device
positional relationship
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015038655A
Other languages
English (en)
Other versions
JP6524706B2 (ja
Inventor
伊織 村上
Iori Murakami
伊織 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015038655A priority Critical patent/JP6524706B2/ja
Publication of JP2016162079A publication Critical patent/JP2016162079A/ja
Application granted granted Critical
Publication of JP6524706B2 publication Critical patent/JP6524706B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

【課題】オブジェクトデータの重畳表示の表示精度を向上させる。
【解決手段】表示制御方法において、撮像装置が生成した画像データに物体が含まれる場合、該物体と前記撮像装置との位置関係を示す情報を生成し、前記情報と、記憶部に記憶された前記物体と前記撮像装置との位置関係を示す情報とに基づき、前記撮像装置が生成した画像データを、前記記憶部に記憶された前記位置関係で撮影された画像データへ変換し、前記変換された画像データに対し、前記物体の識別情報に対応するオブジェクトデータを、前記変換された画像データに含まれる前記物体の位置に応じて重畳表示する、処理をコンピュータが実行する。
【選択図】図6

Description

本発明は、表示制御方法、表示制御プログラム、及び情報処理装置に関する。
カメラ等の撮像装置により撮像された画像の一部にオブジェクトデータを重畳して表示させる拡張現実(Augmented Reality:AR)技術が知られている。AR技術では、撮像画像から認識されたARマーカ等の基準物(画像データ)に対する位置情報や識別情報(マーカID)に基づき、拡張空間に重畳して表示されるオブジェクトデータを配置する処理(以下、必要に応じて「オーサリング処理」という)がある。
上述したオーサリング処理後のAR表示では、撮像装置により撮像された画像からARマーカの画像が写っているかを認識し、認識したARマーカの画像からマーカIDを読み取る。また、上述したオーサリング処理によりマーカIDに対応付けられたオブジェクトデータと配置位置情報とを含むARコンテンツを取得し、マーカ領域の大きさや形状(歪み)から、マーカとカメラとの位置関係を推定する。また、推定した位置関係を用いて、オブジェクトデータの配置(位置、向き等)を決定し、決定した配置でオブジェクトデータを撮影画像に重畳表示する。
ここで、従来のオーサリング処理では、撮影画像に含まれるARマーカに対応させてオブジェクトデータの配置位置を指定する際、1つの視点から奥行き方向の位置指定を行うことが難しい。奥行き方向の位置指定の精度が悪いと、実際のAR表示のときに、見る角度によっては、オブジェクトデータが変な位置に重畳表示されてしまう。そのため、オーサリング処理時には、複数の視点からみて配置位置を微調整しながら、オブジェクトデータの最終的な配置位置を決定する必要が生じ、オーサリング処理の実施するユーザ(管理者)等の作業負担が大きくなる。
なお、AR表示時において、オーサリング処理時におけるカメラの視線方向と同一の視線方向でARマーカを撮影した場合には、奥行き方向の精度が低くても、オブジェクトデータが変な位置に表示されることはない。これは、オーサリング処理時とAR表示時で、同じ画角の画像が撮影されるからであり、オーサリング処理時に参照した画像上での指定位置(X,Y)さえ正しく指定できれば、AR表示時も(X,Y)平面に関しては同じ位置に表示されるため、奥行き方向(Z)の影響がでない状態になるためである。
上述の内容を踏まえると、単純にオーサリング処理時のカメラの方向を目印として、床にテープを張り、AR表示時には、そのテープが張られた位置からARマーカを撮影するように、ユーザに周知することで、Z方向の指定精度に依存せず、変な位置にオブジェクトデータが表示されることを防ぐことができる。
特開2013−196630号公報
しかしながら、ユーザにオーサリング処理時と同じ位置からの撮影を行わせるのは、ユーザの利便性に欠ける。また、物理的にオーサリング処理時のカメラ方向と異なる方向でしか、その後、ARマーカ等の基準物を撮影できないような場合もある。そのため、撮影位置がオーサリング処理時と異なる視点から撮影された画像であってもオブジェクトデータの重畳表示の表示精度を向上させる必要がある。
一つの側面では、本発明は、オブジェクトデータの重畳表示の表示精度を向上させることを目的とする。
一つの態様では、表示制御方法は、撮像装置が生成した画像データに物体が含まれる場合、該物体と前記撮像装置との位置関係を示す情報を生成し、前記情報と、記憶部に記憶された前記物体と前記撮像装置との位置関係を示す情報とに基づき、前記撮像装置が生成した画像データを、前記記憶部に記憶された前記位置関係で撮影された画像データへ変換し、前記変換された画像データに対し、前記物体の識別情報に対応するオブジェクトデータを、前記変換された画像データに含まれる前記物体の位置に応じて重畳表示する、処理をコンピュータが実行する。
一つの側面として、オブジェクトデータの重畳表示の表示精度を向上させることができる。
表示制御システムの概略構成の一例を示す図である。 表示装置の機能構成の一例を示す図である。 表示装置のハードウェア構成の一例を示す図である。 オーサリング処理における表示制御処理の一例を示すフローチャートである。 本実施形態で用いられるデータ例を示す図である。 AR表示における表示制御処理の一例を示すフローチャートである。 カメラ視線変換処理の一例を示すフローチャートである。 オブジェクトデータの表示例を示す図である。 カメラ視線が異なる場合の表示制御処理の一例を示す図である。 本実施形態の利用シーンを説明するための図である。
以下、図面に基づいて実施形態を説明する。
<表示制御システムの概略構成例>
図1は、表示制御システムの概略構成の一例を示す図である。図1に示す表示制御システム10は、サーバ11と、1又は複数の表示装置12−1〜12−n(以下、必要に応じて「表示装置12」と総称する)とを有する。サーバ11及び表示装置12は、情報処理装置の一例である。サーバ11及び表示装置12は、例えば通信ネットワーク13によりデータの送受信が可能な状態で接続されている。
サーバ11は、基準物の一例としてのARマーカ、及びARマーカに対応付けて登録された1又は複数のARコンテンツが管理されている。ここで、ARマーカとは、例えばARコンテンツ等の各種コンテンツ情報の内容や表示する位置等を指定するための標識となるものである。ARマーカは、例えば二次元コード等のように、所定の領域内に所定の模様や文字パターン等が形成された画像中に含まれる物体等であるが、これに限定されるものではない。
基準物の一例としては、ARマーカに限定されるものではなく、例えば壁掛け時計や絵画、壁紙、置物等の所定の物体であってもよい。基準物の認識は、例えば物体の形状や色、模様等に対応する特徴情報と、予め設定された基準物毎の特徴情報とを比較(パターンマッチング)して、物体を特定することで、その実物体に対応する識別情報(ID)を上述したマーカIDとして用いることができる。
ARコンテンツとは、例えば現実空間に対応する三次元の仮想空間上に配置された物体のモデルデータ等であり、例えば表示装置12で撮影された画像に重畳して表示される重畳用の画像データ等のオブジェクトデータと、その配置位置情報とを有する。オブジェクトデータは、例えば撮影画像中に含まれるARマーカの大きさや形状(歪み)等から推定されるARマーカとカメラ等の撮像装置との位置関係(配置位置)を用いて、ARマーカを基準とした相対座標(マーカ座標系)で設定された位置に表示される。また、オブジェクトデータは、上述した位置関係を用いて、ARマーカの撮影方向に対応する向き(回転角度)で表示される。位置関係とは、ARマーカと撮影位置との距離及び撮影方向のうち少なくとも1つを含むが、これに限定されるものでない。マーカ座標系は、例えば三次元空間座標系(X,Y,Z)である。
本実施形態のオブジェクトデータは、マーカID等に対応付けられており、例えばテキスト、アイコン、アニメーション、マーク、模様、画像、映像等の様々な形態が含まれる。また、オブジェクトデータは、表示出力されるものに限定されず、例えば音声等の情報であってもよい。
サーバ11は、例えば表示装置12におけるARコンテンツ(オブジェクトデータ、配置位置情報等)の設定処理(オーサリング処理)により、表示装置12から得られるARマーカに関する情報(例えば、マーカID、ARマーカの位置情報等)と、ARマーカの位置を基準とする相対位置に設定されたARコンテンツとを登録する。また、サーバ11は、表示装置12から、ARコンテンツの取得要求等を受信した場合には、表示装置12から送信されたマーカIDに対応させて、予め登録されたARコンテンツに関する情報を抽出し、抽出した情報を表示装置12に送信する。
サーバ11は、例えばPersonal Computer(PC)等でもよいが、これに限定されるものではなく、例えば一以上の情報処理装置を有するクラウドコンピューティングを用いたクラウドサーバ等であってもよい。
表示装置12は、オーサリング処理において、カメラ等の撮像装置(第1の撮像装置)が生成した撮影画像(第1の画像データ)を取得し、取得した撮影画像に、ARマーカ等の所定の物体(基準物)が含まれる場合、そのARマーカと、第1の撮像装置との位置関係(第1の位置関係)を示す情報(第1の情報)を生成する。また、表示装置12は、ARマーカ等の所定の物体を識別する識別情報(例えば、マーカID等)を認識し、認識したマーカIDに対応付けてオブジェクトデータや上述した第1の情報等を含むARコンテンツの登録を行う。この登録情報は、サーバ11に送信され、サーバ11内の記憶部で管理されてもよく、表示装置12内の記憶部で管理されていてもよい。
また、表示装置12は、AR表示において、カメラ等の撮像装置(第2の撮像装置)が生成した撮影画像(第2の画像データ)を取得し、取得した撮影画像に、ARマーカ等の所定の物体(基準物)が含まれる場合、そのARマーカと、第2の撮像装置との位置関係(第2の位置関係)を示す情報(第2の情報)を生成する。また、表示装置12は、上述した第1の情報及び第2の情報に基づき、撮影画像(第2の画像データ)を、第1の位置関係で撮影された画像に対応する画像データ(第3の画像データ)に変換する。また、表示装置12は、変換した画像データ(第3の画像データ)に対して、ARマーカ等の所定の物体の識別情報に対応するオブジェクトデータを、識別情報が示す物体相当で予め指定された配置位置に重畳表示する。
また、表示装置12は、AR表示時に上述した第1の情報やオブジェクトデータ等の情報が記憶部に存在しない場合、通信ネットワーク13を介してサーバ11に取得要求を行い、対象のデータを取得してもよい。また、表示装置12は、オーサリング処理時と、AR表示時とで同一の装置を用いてもよく、異なる装置を用いてもよい。例えば、同一の装置を用いる場合には、上述した第1の情報やオブジェクトデータ等の情報は、表示装置12の記憶部等に格納されているため、サーバ11にアクセスしなくてもよい。
また、上述した第1の撮像装置と第2の撮像装置とは、同一でも異なってもよい。また、上述した第1の画像データと第2の画像データは、内容が同じこともあり得るが、異なることが多い。上述した処理によりARコンテンツ(オブジェクトデータ+配置位置情報)を作成するユーザが配置位置に関して奥行き方向の位置指定を精度よく行わなくとも、その後のAR表示において、オブジェクトデータが誤った位置に重畳表示されることがなくなる。したがって、オブジェクトデータの重畳表示の表示精度を向上させることができる。
表示装置12は、例えばタブレット端末やスマートフォン、Personal Digital Assistants(PDA)、ノート型PC等であるが、これに限定されるものではなく、例えばゲーム機器、携帯電話等の通信端末であってもよい。
通信ネットワーク13は、例えばインターネットやLocal Area Network(LAN)等であるが、これに限定されるものではない。また、通信ネットワーク13は、有線でも無線でもよく、これらの組み合わせでもよい。
図1に示す表示制御システム10において、サーバ11と表示装置12とは1対nの構成となっているが、これに限定されるものではなく、例えば複数のサーバを有していてもよい。
<表示装置12の機能構成の一例>
次に、上述した表示装置12の機能構成の一例について、図を用いて具体的に説明する。図2は、表示装置の機能構成の一例を示す図である。図2に示す表示装置12は、入力部21と、表示部22と、記憶部23と、画像取得部24と、認識部25と、位置関係生成部26と、変換部27と、コンテンツ生成部28と、通信部29と、制御部30とを有する。
入力部21は、表示装置12を操作する上で必要となる入力情報や本実施形態における表示制御処理を実行するための各種指示等を受け付ける。表示部22は、例えば入力部21で入力された情報に基づいて対応する情報を出力する。例えば、表示部22がタッチパネル等である場合には、表示部22から入力される情報を入力部21が受け付けることになる。
記憶部23は、本実施形態において必要となる情報を記憶する。記憶する情報としては、例えば画像取得部24により取得した撮像装置31からの撮影画像や、認識部25により算出された内容、位置関係生成部26により生成された情報、変換部27により変換された情報、コンテンツ生成部28により生成された情報等であるが、これに限定されるものではない。例えば、記憶部23は、オーサリング時に必要な1又は複数のオブジェクトデータや、表示制御処理を実行したときのログ情報(履歴情報)、エラー情報、外部装置とのアクセス情報、表示装置12を利用可能なユーザ情報等を記憶してもよい。
画像取得部24は、ARコンテンツのオブジェクトデータを表示する対象となる画像データ(例えば、複数のフレーム画像を含む映像データでもよい)を取得する。例えば、画像取得部24は、撮像装置31により生成した画像データ(例えば、オーサリング時には上述した第1の画像データ、AR表示時には上述した第2の画像データ)等を取得する。画像取得部24は、画像データを表示装置12の外部にある撮像装置31から取得してもよく、通信部29から取得してもよい。
ここで、撮像装置31は、例えば予め設定された画角内の実空間の画像を撮影する。画像は、動画像(映像)でもよく、静止画像でもよい。映像の場合には、複数の画像フレームを有する。撮像装置31は、例えばカメラ等であるが、これに限定されるものではない。撮像装置31は、図2に示すように別体に構成されていてもよく、表示装置12に内蔵されていてもよい。
認識部25は、例えば、撮像装置31により生成した画像データ(例えば、オーサリング時には上述した第1の画像データ、AR表示時には上述した第2の画像データ)にARマーカ等の基準物(所定の物体)を示す画像データが含まれるか否かの認識を行う。例えば、認識部25は、予め設定されたARマーカ等の所定の物体の形状や模様等とのパターンマッチングを行うことで、画像データ中にARマーカ等の所定の物体を含むか否かを判断してもよいが、これに限定されるものではない。
例えば、認識部25は、撮像装置31により生成した画像データに含まれる1又は複数のARマーカ等を認識する。また、認識部25は、各ARマーカにに対応する識別情報(例えば、マーカID等)を認識する。
位置関係生成部26は、認識部25において、画像データ中にARマーカ等の所定の物体を示す画像データが含まれる場合、それぞれ撮影した撮像装置31と、上述した所定の物体との位置関係(例えば、オーサリング時には上述した第1の位置関係、AR表示時には上述した第2の位置関係)を示す情報(例えば、オーサリング時には上述した第1の情報、AR表示時には上述した第2の情報)を生成する。なお、生成された情報は、記憶部23等に記憶されてもよく、通信ネットワーク13を介してサーバ11に記憶させてもよい。
変換部27は、複数の画像データのカメラ視線を変換する。変換部27は、記憶部23を参照し、上述した第1の情報及び第2の情報に基づき、上述した第2の画像データを、その第1の位置関係で撮影された画像に対応する画像データ(第3の画像データ)へ変換する。
また、変換部27は、画像データに複数のARマーカ(所定の物体)等が含まれている場合には、複数のARマーカからそれぞれ得られる位置関係(例えば、位置情報、回転角度等)の平均値に対して画像変換を実施する。これにより、各ARマーカに対して万遍なく見えやすくなる。
また、変換部27は、画像データに複数のARマーカ(所定の物体)等が含まれている場合には、カメラ視線を変更するために着目するARマーカをユーザ操作等のより入力部21から受け付けて、受け付けたARマーカに対応する位置関係に基づいて、画像変換を実施してもよい。
コンテンツ生成部28は、オーサリング処理時には、ARマーカ等の所定の物体を識別する識別情報(例えば、マーカID)に対応付けて、オブジェクトデータと、そのオブジェクトデータの配置位置情報等とを有するARコンテンツを生成する。
例えば、コンテンツ生成部28は、オブジェクトデータ等を画像データに重畳させた画面を表示部22に表示させてもよい。ユーザは、表示部22に表示された内容を見ながら予め設定された1又は複数のオブジェクトデータから所定のオブジェクトデータを選択したり、選択したオブジェクトデータの配置位置を決定する。また、コンテンツ生成部28は、生成したARコンテンツの情報等を記憶部23に記憶したり、通信部29から通信ネットワーク13を介してサーバ11に送信して登録させる。
また、コンテンツ生成部28は、AR表示時には、認識部25により認識された所定の物体を識別する識別情報(例えば、マーカID)に対応するオブジェクトデータを取得し、撮影画像に重畳表示する。このとき、コンテンツ生成部28は、変換部27により変換された画像データ(例えば、上述した第3の画像データ)に対して、ARマーカ等の所定の物体相当で予め指定された位置に、対応するオブジェクトデータを重畳表示する。
なお、コンテンツ生成部28は、上述した第2の画像データにオブジェクトデータを重畳表示してもよく、第2の画像データから変換部27により変換された第3の画像データにオブジェクトデータを重畳表示してもよい。どちらの画像データに重畳表示するかについては、例えば表示部22の画面上に予め画像選択ボタン等を表示しておき、ユーザ操作により選択された画像を用いて重畳表示を行ってもよく、ボタンが押下された場合に、変換された第3の画像データに対して重畳表示を行ってもよい。
通信部29は、通信ネットワーク13を介してサーバ11や、他の表示装置12とデータの送受信を行う。通信部29は、例えばオーサリング処理時に取得したマーカIDや、マーカIDに対応する位置関係やARコンテンツ(第1の情報、第2の情報)を通信ネットワーク13を介してサーバ11に登録したり、AR表示時にサーバ11からマーカIDに対応する第1の情報、第2の情報等を取得する。
制御部30は、表示装置12の各機能全体を制御する。制御部30は、例えば入力部21による入力情報の受け付け、表示部22による表示、画像取得部24による画像の取得、認識部25によるARマーカの認識、位置関係生成部26による位置関係の生成、変換部27によるカメラ視線変換等の制御を行う。また、制御部30は、コンテンツ生成部28によるコンテンツ生成、通信部29による通信等の制御を行う。なお、制御部30による制御内容は、これに限定されるものではなく、例えば本実施形態における表示制御処理(プログラム)の開始・終了、撮像装置31の撮影開始・終了、エラー処理等を制御してもよい。
<表示装置12のハードウェア構成例>
次に、表示装置12として機能するコンピュータのハードウェア構成例について、図を用いて説明する。図3は、表示装置のハードウェア構成の一例を示す図である。図3の例において、表示装置12は、マイクロフォン(以下、「マイク」という)41と、スピーカ42と、カメラ43と、表示部44と、操作部45と、センサ部46と、電力部47と、無線部48と、近距離通信部49と、補助記憶装置50と、主記憶装置51と、CPU52と、ドライブ装置53とを有し、これらはシステムバスBで相互に接続されている。
マイク41は、ユーザが発した音声や、その他の音を入力する。スピーカ42は、通話相手先の音声を出力したり、着信音等の音を出力する。マイク41及びスピーカ42は、例えば、通話機能等により通話相手と会話するとき等に用いることができるが、これに限定されるものではなく、音声による情報の入出力に用いることができる。
カメラ43は、例えば予め設定された画角内の実空間の画像(動画像、静止画像)を撮影する。カメラ43は、上述した撮像装置31の一例である。図3の例では、カメラ43を表示装置12に内蔵しているが、これに限定されるものではなく、例えば図2に示すように外付けされていてもよい。
表示部44は、ユーザに対してOperating System(OS)や各種アプリケーションで設定された画面(例えば、実空間にオブジェクトデータが重畳された画像等)を表示する。表示部44は、上述した表示部22の一例である。また、表示部44は、タッチパネルディスプレイ等でもよく、その場合には表示部44は、入出力部としての機能を有する。表示部44は、例えばLiquid Crystal Display(LCD)や有機Electro Luminescence(EL)等のディスプレイである。
操作部45は、表示部44の画面に表示された操作ボタンや表示装置12の外部に設けられた操作ボタン等である。操作ボタンは、例えば電源ボタンや音量調整ボタンでもよく、所定の順番で配列された文字入力用の操作キー等でもよい。ユーザは、例えば表示部44の画面上で所定の操作を行ったり、上述した操作ボタンを押すことで、表示部44により画面上のタッチ位置が検出される。また、表示部44は、画面上にアプリ実行結果やコンテンツやアイコン、カーソル等を表示することができる。表示部44及び操作部45は、上述した入力部21の一例である。
センサ部46は、表示装置12のある時点又は継続的な動作を検出する。例えば、センサ部46は、表示装置12の傾き角度、加速度、方向、位置等を検出するが、これに限定されるものではない。なお、センサ部46としては、例えば傾きセンサや加速度センサ、ジャイロセンサ、Global Positioning System(GPS、全地球測位網)等であるが、これに限定されるものではない。
電力部47は、表示装置12の各構成に対して電力を供給する。電力部47は、例えばバッテリ等の内部電源であるが、これに限定されるものではない。電力部47は、電力量を常時又は所定の時間間隔で検出し、電力量の残量等を監視することもできる。
無線部48は、例えばアンテナ等を用いて基地局からの無線信号(通信データ)を受信したり、アンテナを介して無線信号を基地局に送信する通信データの送受信部である。
近距離通信部49は、例えば赤外線通信やWi−Fi(登録商標)、Bluetooth(登録商標)等の通信手法を用いて、他の表示装置12等のコンピュータと近距離通信を行うことができる。上述した無線部48及び近距離通信部49は、他のコンピュータとのデータの送受信を可能とする通信インタフェースである。
補助記憶装置50は、例えばHard Disk Drive(HDD)やSolid State Drive(SSD)等のストレージ手段である。補助記憶装置50は、CPU52からの制御信号に基づき、本実施形態における実行プログラム(表示制御プログラム)や、コンピュータに設けられた制御プログラム等を記憶し、必要に応じて入出力を行う。補助記憶装置50は、CPU52からの制御信号等に基づいて、記憶された各情報から必要な情報を読み出したり、書き込むことができる。
主記憶装置51は、CPU52からの指示により補助記憶装置50から読み出された実行プログラム等を格納したり、プログラム実行中に得られる各種情報等を記憶する。主記憶装置51は、例えばRead Only Memory(ROM)やRandom Access Memory(RAM)等である。
CPU52は、OS等の制御プログラム、及び主記憶装置51に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御することで、出力制御における各処理を実現する。
具体的には、CPU52は、例えば操作部45等から得られるプログラムの実行指示等に基づき、補助記憶装置50にインストールされたプログラムを実行させることにより、主記憶装置51上でプログラムに対応する処理を行う。例えば、CPU52は、表示制御プログラムを実行させることで、上述した画像取得部24による撮影画像の取得、認識部25によるARマーカの認識、位置関係生成部26による位置関係の生成、変換部27によるカメラ視線変換等の処理を行う。また、CPU52は、表示制御プログラムを実行させることで、コンテンツ生成部28によるコンテンツ生成、通信部29による通信等の処理を行う。CPU52における処理内容は、上述した内容に限定されるものではない。CPU52により実行された内容は、必要に応じて補助記憶装置50等に記憶される。
ドライブ装置53は、例えば記録媒体54等を着脱自在にセットすることができ、セットした記録媒体54に記録された各種情報を読み込んだり、所定の情報を記録媒体54に書き込むことができる。ドライブ装置53は、例えば媒体装填スロット等であるが、これに限定されるものではない。
記録媒体54は、上述したように実行プログラム等を格納するコンピュータで読み取り可能な記録媒体である。記録媒体54は、例えばフラッシュメモリ等の半導体メモリであってもよい。また、記録媒体54は、USBメモリ等の可搬型記録媒体であってもよいが、これに限定されるものではない。
本実施形態では、上述したコンピュータ本体のハードウェア構成に実行プログラム(例えば、表示制御プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における表示制御処理等を実現することができる。また、上述した表示制御処理に対応する表示制御プログラムは、例えば装置上で常駐している状態であってもよく、起動指示により起動させてもよい。
<表示制御処理の一例>
次に、本実施形態における表示制御処理の一例についてフローチャートを用いて説明する。
<オーサング処理>
図4は、オーサリング処理における表示制御処理の一例を示すフローチャートである。図4の例において、オーサリング処理を行う表示制御プログラム(アプリケーション)を起動すると、画像取得部24は、例えば撮像装置(第1の撮像装置)31等が生成した画像(第1の画像データ)を取得する(S01)。S01の処理では、映像(所定間隔で取得されるフレーム画像)を取得してもよい。
次に、認識部25は、S01の処理で取得した画像からARマーカを認識したか否かを判断する(S02)。S02の処理では、例えば認識部25は、予め設定された複数のARマーカとのパターンマッチング等により、画像中にARマーカを示す画像が含まれており、そのARマーカ識別情報(例えば、マーカID)を読み取れた場合に、ARマーカが認識できたと判断することができるが、これに限定されるものではない。
S02の処理において、ARマーカを認識した場合(S02において、YES)、位置関係生成部26は、ARマーカと撮像装置31との位置関係(例えば、回転角情報)を第1の情報として生成する(S03)。ここでの位置関係(第1の位置関係)は、例えば画像中に含まれるARマーカの大きさ(位置)、形状の歪み(角度)等に基づいて、その回転角情報や距離等を生成することができるが、これに限定されるものではない。
次に、コンテンツ生成部28は、ユーザが操作したARマーカに対応するオブジェクトデータの選択を受け付け(S04)、オブジェクトデータの配置位置を受け付ける(S05)。なお、S04、S05の処理では、上述した入力部21等を用いたユーザ操作により各種情報を受け付けることができるが、これに限定されるものではない。また、コンテンツ生成部28は、オブジェクトデータや撮影画像等の情報を表示部22に表示させてもよい。
コンテンツ生成部28は、ARのマーカIDに対応する位置関係(第1の情報)、オブジェクトデータ、配置位置(三次元座標)等のARコンテンツを記憶部23等に記憶(格納)する(S06)。S06の処理では、設定したオブジェクトデータが他の表示装置12でも表示できるように、通信ネットワーク13を介してサーバ11に登録してもよい。
ここで、コンテンツ生成部28は、他に認識しているARマーカがあるか(ARコンテンツを設定していない他のARマーカが存在するか)否かを判断する(S07)。他に認識しているARマーカがある場合(S07において、YES)、S03の処理に戻り、他のARマーカに対して上述と同様の処理を行う。また、S07において、他に認識しているARマーカがない場合(S07において、YES)、又は、S02の処理において、ARマーカを認識していない場合(S02において、NO)、処理を終了するか否かを判断する(S08)、処理を終了しない場合(S08において、NO)、S01の処理に戻る。また、処理を終了する場合(S08において、YES)、オーサリング処理を終了する。
<データ例>
図5は、本実施形態で用いられるデータ例を示す図である。図5では、上述したオーサリング処理により、記憶部23やサーバ11に記憶されるデータ例である。データの項目としては、例えば「マーカID」、「オブジェクトデータ」、「座標(配置位置情報)」、「回転角(回転角情報)」等であるが、これに限定されるものではない。
「マーカID」は、ARマーカ等の物体を検出したときのARマーカを識別するための情報である。「オブジェクトデータ」は、マーカIDに対応させて、ARマーカの位置を基準にした相対位置に表示されるオブジェクトデータを識別するための情報である。オブジェクトデータは、マーカID毎に1又は複数設定することができる。オブジェクトデータには、識別情報の他に、例えば操作手順や注意情報等に対応させてユーザが指定した文字情報を含んでいてもよい。
「座標」は、ARマーカを基準(0,0,0)にしたときのオブジェクトデータの相対位置座標(オブジェクトの表示位置座標)であり、例えば(translation−x,translation−y,translation−z)等の三次元座標であるが、これに限定されるものではない。「回転角」は、ARマーカを正対した時の中心等を基準にしたときのARマーカの回転角情報であり、例えば(rotate−x、rotate−y、rotate−z)等の三次元の情報であるが、これに限定されるものではない。上述した「座標」又は「回転角」は、画像を撮影した撮像装置(上述した第1の撮像装置)との位置関係を示す第1の情報の一例である。
<AR表示>
図6は、AR表示における表示制御処理の一例を示すフローチャートである。AR表示処理は、例えばオーサリング処理後の運用時における処理を示す。図6の例において、表示装置12は、前処理として、AR表示に対応する表示制御プログラムの起動や撮像装置31の起動等を行う(S11)。次に、画像取得部24は、例えば撮像装置(第2の撮像装置)31等が生成した画像(第2の画像データ)を取得する(S12)。S12の処理では、映像(所定間隔で取得されるフレーム画像)を取得してもよい。
次に、認識部25は、S12の処理で取得した画像からARマーカを認識したか否かを判断する(S13)。S13の処理では、例えば認識部25は、予め設定された複数のARマーカとのパターンマッチング等により、画像中にARマーカを示す画像が含まれており、そのARマーカ識別情報(例えば、マーカID)を読み取れた場合に、ARマーカが認識できたと判断することができるが、これに限定されるものではない。
S13の処理において、ARマーカを認識した場合(S13において、YES)、位置関係生成部26は、ARマーカと撮像装置31との位置関係(例えば、回転角情報)を第2の情報として生成する(S14)。ここでの位置関係(第2の位置関係)は、例えば画像中に含まれるARマーカの大きさ(位置)、形状の歪み(角度)等に基づいて、その回転角情報や距離等を生成することができるが、これに限定されるものではない。
次に、変換部27は、カメラ視線変換処理を行う(S15)。なお、S15の処理は、ユーザからの指示があった場合のみに行ってもよい。S15の処理内容については、後述する。次に、コンテンツ生成部28は、変換部27によるカメラ視線変換処理の結果により得られた画像(第3の画像データ)を入力画像として設定し(S16)、ARマーカを再認識する(S17)。次に、コンテンツ生成部28は、変換行列を生成する(S07)。変換行列とは、入力画像に対するARマーカの角度、大きさ、距離等のマーカ相対位置を実空間上の座標に変換するための行列である。例えば、図5に示す「座標」の情報を実空間上の座標に変換する。変換行列を用いて、入力画像にARマーカがどのように写っているかによって、オブジェクトデータの大きさ、向きを変更する。
次に、コンテンツ生成部28は、マーカIDに対応するオブジェクトデータを取得し(S19)、取得したオブジェクトデータに対する画像変換(例えば、モデル・ビュー変換、透視変換等)をした後(S20)、入力画像に重畳表示する(S21)。モデル・ビュー変換とは、オブジェクトデータの情報から実際のオブジェクト(矢印、マーク、文字情報)等の表示データに変換する処理である。また、透視変換とは、例えば三次元形状のオブジェクトの場合に、物体の傾きや透過率、陰影等に付加した表示データに変換する処理である。なお、画像変換の種類については、これに限定されるものではない。
ここで、S21の処理後、又は、S13の処理において、ARマーカを認識していない場合(S13において、NO)、処理を終了するか否かを判断する(S22)、処理を終了しない場合(S22において、NO)、S12の処理に戻る。また、処理を終了する場合(S13において、YES)、AR表示処理を終了する。
<カメラ視線変換処理;S15>
次に、上述したS15のカメラ視線変換処理について、フローチャートを用いて説明する。図7は、カメラ視線変換処理の一例を示すフローチャートである。図7の例において、変換部27は、AR表示処理において、認識したARマーカの回転角(上述した第2の位置関係)を取得する(S31)。図7の例では、S31の処理で取得した回転角を(xΘn,yΘn,zΘn)とする。
次に、変換部27は、ARマーカのマーカIDに対応するオーサリング処理時の回転角(上述した第1の位置関係)を記憶部等から取得する(S32)。図7の例では、S32の処理で取得した回転角を(axΘn,ayΘn,azΘn)とする。
次に、変換部27は、画像から他に認識しているARマーカがあるか否かを判断し(S33)、他のARマーカがある場合(S33において、YES)、S31の処理に戻り、他のARマーカに対して上述と同様の処理を行う。また、他に認識しているARマーカがない場合(S33において、NO)、変換部27は、S31の処理で取得した1又は複数の回転角の平均値を取得する(S34)。図7の例では、S34の処理で取得した平均値を(xΘavr,yΘavr,zΘavr)とする。
また、変換部27は、S32の処理で取得したARマーカに対応するオーサリング処理時の1又は複数の回転角のの平均値を取得する(S35)。図7の例では、S35の処理で取得した平均値を(axΘavr,ayΘavr,azΘavr)とする。
次に、変換部27は、S34とS35の処理で得られたオーサリング処理時と現在のARマーカとの回転角の差分(回転差分ConvertΘ(cxΘ,cyΘ,czΘ))を算出する(S36)。なお、ConvertΘ(cxΘ,cyΘ,czΘ)は、例えば(axΘavr,ayΘavr,azΘavr)−(xΘavr,yΘavr,zΘavr)で算出することができるが、これに限定されるものではない。
次に、変換部27は、取得した画像データ(第2の画像データ)をS36の処理で得られたConvertΘ分回転させて(S37)、回転した画像データ(第3の画像データ)を生成して(S38)、カメラ視線変換処理を終了する。なお、上述の例では、位置関係の一例として回転角のみを基準にカメラ視線変換を行っているが、これに限定されるものではなく、例えばARマーカまでの距離やARマーカの大きさ等の情報を用いて変換を行ってもよい。ARマーカの大きさや距離等の情報は、例えばマーカ認識時等に取得することができる。
また、上述したカメラ視線変換処理では、S31及びS32の処理において得られたARマーカの数が1つの場合、S34,S35の処理結果は、S31,S32の処理結果と同一の値となる。そのため、S31,S32の処理で得られる回転角情報の数が1つの場合には、S34,S35の処理を行わなくてもよい。
また、上述したカメラ視線変換処理では、取得した第2の画像データに含まれるARマーカが複数ある場合に、その中から上述したカメラ視線変換を行う基準となるARマーカをユーザが指定し、指定されたARマーカにおける回転角を取得して、取得した回転角による画像変換を行ってもよい。ARマーカの指定は、例えば表示部22の画面に表示されているARマーカから視線変換の対象となるARマーカの領域をユーザがタップし、そのタップした位置(座情)を受け付け、受け付けた位置に基づいてARマーカを特定することができる。これにより、ユーザが所望するARマーカに対するオブジェクトデータの表示精度を向上させることができる。
<実施例について>
次に、上述した表示制御処理の実施例について図を用いて説明する。図8は、オブジェクトデータの表示例を示す図である。例えば、オーサリング処理において、ユーザは、図8(A)のようにARマーカ60と正対した向きで、オブジェクトデータ70−1〜70−4等及び配置位置(ARマーカ60に対する相対位置)を設定したとする。
オーサリング処理は、画面上の1地点(1つの視点)で実行されるものであるため、いい加減なオーサリングユーザ(オーサリング処理を実施するユーザ)の場合には、Z軸方向の設定が適切に行われない場合がある。したがって、1地点で見る分には問題にならないが、他の地点から見る場合は、マーカーの回転角度(例えば、正対時の場合には、Z軸の値)が影響して、重畳表示される位置がずれる場合がある。
例えば、図8(B)に示すように、角度をかえて、ARマーカ60を横から撮影したり、斜めから撮影した場合には、Z軸方向や他の方向のずれ等が生じ、各オブジェクトデータ70−1〜70−4が意図していない位置に重畳表示されてしまう。
このような現象は、角度の異なる他の位置から見ないと検出できないため、オーサリングユーザは気づきにくい。また、実際の運用では、オーサリング処理時における撮影位置に物が置いてある場合や、工事中等で立ち入り禁止である場合等、何かしらの理由でオーサリング位置に行けない場合もある。
したがって、本実施形態では、オーサリング処理時とAR表示処理において、カメラ視線の角度が異なる場合であっても上述した視線変換により、AR表示処理における撮影画像を、オーサリング時の画像の向き(回転角)に変換し、変換した画像に対してARマーカを再度認識し、認識したARマーカに対するオブジェクトデータを変換した画像を重畳表示する。
例えば、AR表示時において、図8(B)に示すような画像(オブジェクトデータ70が表示されていない状態)が得られた場合、ARマーカ60を認識してARマーカ60の回転角度(xΘ,yΘ,zΘ)を取得する。次に、ARマーカ60に対してオーサリング時の同一ARマーカ60に対する回転角度(例えば、図8(A)では、正対(0°,0°,0°))がベストポジションであると仮定し、回転角度の差分を算出し、その回転角度に基づいて図8(B)に示す画像を変換する。また、本実施形態では、変換した画像を元に、再度ARマーカ60を認識し、認識したARマーカ60の位置に基づいてARマーカのマーカIDに対応するARコンテンツ(オブジェクトデータ、配置位置情報)を取得し、所定の位置に表示する。
これにより、オーサリングユーザは、オブジェクトデータの配置位置に関して奥行き方向の位置指定を精度よく行わなくとも、その後のAR表示処理で、オブジェクトデータが異なるような位置に重畳表示されることがなくなる。したがって、オブジェクトデータの重畳表示の表示精度を向上させることができる。
図9は、カメラ視線が異なる場合の表示制御処理の一例を示す図である。図9の例では、2つのARマーカ60−1,60−2が、配管a〜c等を有する実物体90−1,90−2にそれぞれ取り付けられており、そこにARマーカ60−1,60−2のそれぞれ対応付けられたオブジェクトデータ80−1,80−2を表示させる例を示している。
上述したように、本実施形態における画像変換では、オーサリング処理におけるARマーカの回転角度等の位置関係を記憶部等に記憶(格納)しておくことで、オーサリング時と同じ角度で物体を参照することが可能となる。
また、図9に示すように複数のARマーカ60−1,60−2を認識した場合には、複数のARマーカ60−1,60−2の回転角度の平均値に対して画像変換を実施することで、それぞれのARマーカ60−1,60−2に対応するオブジェクトデータの表示位置の誤差を平均化し、全体として大きな誤差なく各オブジェクトデータを見ることができる。
また、図9に示すような例において、カメラ視線を変更するために、着目するARマーカをユーザのタッチアクションにより指定してもよい。図9の例では、着目するARマーカ(例えば、ARマーカ60−1)の表示領域ををタップすることで、そのARマーカ60−1が正対したときの画像に変換することができる。
図10は、本実施形態の利用シーンを説明するための図である。例えば、工場内のコンベア等を用いた組み立て設備(例えば、プレス機器装置の組み立て)等の場合には、図10(A)に示すように人間(管理者)が目視で部品等を確認すると、読み間違い等の影響により、間違いが発生する場合がある。
ここで、従来では、図10(B)に示すように、天井や壁等に設置されたネットワークカメラ(撮像装置31)等を用いて稼働状況を撮影し、撮影された画像を用いて、遠隔地から現場作業員の状況を支援したり、ライン生産を監視したり、導線を監視したりすることができる。そこで、本実施形態では、ネットワークカメラから撮影された画像に対してAR技術を適用する。例えば、ネットワークカメラから撮影された画像に含まれるARマーカ60−1〜60−4等を用いてオブジェクトデータを重畳表示し、その情報を管理者が監視することで、部品等の間違いを防止する。つまり、AR技術を用いてARマーカ60−1〜60−4のマーカ位置を認識し、その位置関係を確認することで、間違いを防止することができる。
このような場合、オーサリング時に管理者が所持する表示装置12を用いて撮影された画像と、天井や壁等に設置されたネットワークカメラ等から撮影された画像とでは撮影位置が異なるため、オブジェクトデータの表示位置もずれる可能性がある。そこで、本実施形態に示すような視線変換を行うことで、図10(B)の画面100に示すようにオブジェクトデータの重畳表示の表示精度を向上させることができ、重畳表示された情報に基づき、適切な監視を行うことができる。なお、図10(B)の例では、プレスの上側と下側の組み合わせにおいて、プレス上側[A]−プレス下側[B]がOKの判定であり、プレス上側[X]−プレス下側[Y']がNGの判定となる(プレス下側が[Y]でないため)。
上述したように、本実施形態によれば、オブジェクトデータの重畳表示の表示精度を向上させることができる。例えばオーサリングユーザは、配置位置に関して奥行き方向の位置指定を精度よく行わなくとも、その後のAR表示で、オブジェクトデータが所定の物体と異なるような位置に重畳表示されることがなくなる。
以上、実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、上述した各実施例の一部又は全部を組み合わせることも可能である。
なお、以上の実施例に関し、更に以下の付記を開示する。
(付記1)
撮像装置が生成した画像データに物体が含まれる場合、該物体と前記撮像装置との位置関係を示す情報を生成し、
前記情報と、記憶部に記憶された前記物体と前記撮像装置との位置関係を示す情報とに基づき、前記撮像装置が生成した画像データを、前記記憶部に記憶された前記位置関係で撮影された画像データへ変換し、
前記変換された画像データに対し、前記物体の識別情報に対応するオブジェクトデータを、前記変換された画像データに含まれる前記物体の位置に応じて重畳表示する、
処理をコンピュータが実行することを特徴とする表示制御方法。
(付記2)
撮像装置が生成した第1の画像データを取得し、
前記第1の画像データに所定の物体が含まれる場合、該物体と前記撮像装置との第1の位置関係を示す第1の情報を生成し、
撮像装置が生成した第2の画像データに前記物体が含まれる場合、該物体と前記撮像装置との第2の位置関係を示す第2の情報を生成し、
前記第1の情報及び前記第2の情報に基づき、前記第2の画像データを、前記第1の位置関係で撮影された画像に対応する第3の画像データへ変換し、
前記第3の画像データに前記物体が含まれる場合、前記第3の画像データに対し、前記物体の識別情報に対応するオブジェクトデータを、前記第3の画像データに含まれる前記物体の位置に応じて重畳表示する、
処理をコンピュータが実行することを特徴とする表示制御方法。
(付記3)
前記第1の情報に含まれる前記物体の回転角情報と、前記第2の情報に含まれる前記物体の回転角情報との差分を算出し、
算出した前記差分に基づいて、前記第2の画像データを、前記第3の画像データへ変換することを特徴とする付記2に記載の表示制御方法。
(付記4)
前記第1の画像データに前記物体が複数存在する場合、又は前記第2の画像データに前記物体が複数存在する場合に、それぞれの画像データから得られる前記第1の情報又は前記第2の情報の平均値を用いて、前記第2の画像データを、前記第3の画像データへ変換することを特徴とする付記2又は3に記載の表示制御方法。
(付記5)
前記第2の画像データに前記物体が複数存在する場合に、ユーザから選択された前記物体に対応する前記第2の情報を用いて、前記第2の画像データを、前記第3の画像データへ変換することを特徴とする付記2又は3に記載の表示制御方法。
(付記6)
撮像装置が生成した画像データに物体が含まれる場合、該物体と前記撮像装置との位置関係を示す情報を生成し、
前記情報と、記憶部に記憶された前記物体と前記撮像装置との位置関係を示す情報とに基づき、前記撮像装置が生成した画像データを、前記記憶部に記憶された前記位置関係で撮影された画像データへ変換し、
前記変換された画像データに対し、前記物体の識別情報に対応するオブジェクトデータを、前記変換された画像データに含まれる前記物体の位置に応じて重畳表示する、
処理をコンピュータに実行させるための表示制御プログラム。
(付記7)
撮像装置が生成した第1の画像データを取得し、
前記第1の画像データに所定の物体が含まれる場合、該物体と前記撮像装置との第1の位置関係を示す第1の情報を生成し、
撮像装置が生成した第2の画像データに前記物体が含まれる場合、該物体と前記撮像装置との第2の位置関係を示す第2の情報を生成し、
前記第1の情報及び前記第2の情報に基づき、前記第2の画像データを、前記第1の位置関係で撮影された画像に対応する第3の画像データへ変換し、
前記第3の画像データに前記物体が含まれる場合、前記第3の画像データに対し、前記物体の識別情報に対応するオブジェクトデータを、前記第3の画像データに含まれる前記物体の位置に応じて重畳表示する、
処理をコンピュータに実行させるための表示制御プログラム。
(付記8)
撮像装置が生成した画像データに物体が含まれる場合、該物体と前記撮像装置との位置関係を示す情報を生成する位置関係生成部と、
前記情報と、記憶部に記憶された前記物体と前記撮像装置との位置関係を示す情報とに基づき、前記撮像装置が生成した画像データを、前記記憶部に記憶された前記位置関係で撮影された画像データへ変換する変換部と、
前記変換部により変換された画像データに対し、前記物体の識別情報に対応するオブジェクトデータを、前記変換された画像データに含まれる前記物体の位置に応じて重畳表示するコンテンツ生成部と、
を有することを特徴とする情報処理装置。
(付記9)
撮像装置が生成した第1の画像データを取得する画像取得部と、
前記画像取得部で取得した第1の画像データに所定の物体が含まれる場合、該物体と前記撮像装置との第1の位置関係を示す第1の情報を生成する位置関係生成部と、
前記位置関係生成部により、撮像装置が生成した第2の画像データに前記物体が含まれる場合、該物体と前記撮像装置との第2の位置関係を示す第2の情報を生成し、前記第1の情報及び前記第2の情報に基づき、前記第2の画像データを、前記第1の位置関係で撮影された画像に対応する第3の画像データへ変換する変換部と、
前記第3の画像データに前記物体が含まれる場合、前記第3の画像データに対し、前記物体の識別情報に対応するオブジェクトデータを、前記第3の画像データに含まれる前記物体の位置に応じて重畳表示するコンテンツ生成部とを有することを特徴とする情報処理装置。
10 表示制御システム
11 サーバ
12 表示装置
13 通信ネットワーク
21 入力部
22,44 表示部
23 記憶部
24 画像取得部
25 認識部
26 位置関係生成部
27 変換部
28 コンテンツ生成部
29 通信部
30 制御部
31 撮像装置
41 マイクロフォン
42 スピーカ
43 カメラ
45 操作部
46 センサ部
47 電力部
48 無線部
49 近距離通信部
50 補助記憶装置
51 主記憶装置
52 CPU
53 ドライブ装置
54 記録媒体
60 ARマーカ
70,80 オブジェクトデータ
90 実物体
100 画面

Claims (7)

  1. 撮像装置が生成した画像データに物体が含まれる場合、該物体と前記撮像装置との位置関係を示す情報を生成し、
    前記情報と、記憶部に記憶された前記物体と前記撮像装置との位置関係を示す情報とに基づき、前記撮像装置が生成した画像データを、前記記憶部に記憶された前記位置関係で撮影された画像データへ変換し、
    前記変換された画像データに対し、前記物体の識別情報に対応するオブジェクトデータを、前記変換された画像データに含まれる前記物体の位置に応じて重畳表示する、
    処理をコンピュータが実行することを特徴とする表示制御方法。
  2. 撮像装置が生成した第1の画像データを取得し、
    前記第1の画像データに所定の物体が含まれる場合、該物体と前記撮像装置との第1の位置関係を示す第1の情報を生成し、
    撮像装置が生成した第2の画像データに前記物体が含まれる場合、該物体と前記撮像装置との第2の位置関係を示す第2の情報を生成し、
    前記第1の情報及び前記第2の情報に基づき、前記第2の画像データを、前記第1の位置関係で撮影された画像に対応する第3の画像データへ変換し、
    前記第3の画像データに前記物体が含まれる場合、前記第3の画像データに対し、前記物体の識別情報に対応するオブジェクトデータを、前記第3の画像データに含まれる前記物体の位置に応じて重畳表示する、
    処理をコンピュータが実行することを特徴とする表示制御方法。
  3. 前記第1の情報に含まれる前記物体の回転角情報と、前記第2の情報に含まれる前記物体の回転角情報との差分を算出し、
    算出した前記差分に基づいて、前記第2の画像データを、前記第3の画像データへ変換することを特徴とする請求項2に記載の表示制御方法。
  4. 前記第1の画像データに前記物体が複数存在する場合、又は前記第2の画像データに前記物体が複数存在する場合に、それぞれの画像データから得られる前記第1の情報又は前記第2の情報の平均値を用いて、前記第2の画像データを、前記第3の画像データへ変換することを特徴とする請求項2又は3に記載の表示制御方法。
  5. 前記第2の画像データに前記物体が複数存在する場合に、ユーザから選択された前記物体に対応する前記第2の情報を用いて、前記第2の画像データを、前記第3の画像データへ変換することを特徴とする請求項2又は3に記載の表示制御方法。
  6. 撮像装置が生成した画像データに物体が含まれる場合、該物体と前記撮像装置との位置関係を示す情報を生成し、
    前記情報と、記憶部に記憶された前記物体と前記撮像装置との位置関係を示す情報とに基づき、前記撮像装置が生成した画像データを、前記記憶部に記憶された前記位置関係で撮影された画像データへ変換し、
    前記変換された画像データに対し、前記物体の識別情報に対応するオブジェクトデータを、前記変換された画像データに含まれる前記物体の位置に応じて重畳表示する、
    処理をコンピュータに実行させるための表示制御プログラム。
  7. 撮像装置が生成した画像データに物体が含まれる場合、該物体と前記撮像装置との位置関係を示す情報を生成する位置関係生成部と、
    前記情報と、記憶部に記憶された前記物体と前記撮像装置との位置関係を示す情報とに基づき、前記撮像装置が生成した画像データを、前記記憶部に記憶された前記位置関係で撮影された画像データへ変換する変換部と、
    前記変換部により変換された画像データに対し、前記物体の識別情報に対応するオブジェクトデータを、前記変換された画像データに含まれる前記物体の位置に応じて重畳表示するコンテンツ生成部と、
    を有することを特徴とする情報処理装置。
JP2015038655A 2015-02-27 2015-02-27 表示制御方法、表示制御プログラム、及び情報処理装置 Expired - Fee Related JP6524706B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015038655A JP6524706B2 (ja) 2015-02-27 2015-02-27 表示制御方法、表示制御プログラム、及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015038655A JP6524706B2 (ja) 2015-02-27 2015-02-27 表示制御方法、表示制御プログラム、及び情報処理装置

Publications (2)

Publication Number Publication Date
JP2016162079A true JP2016162079A (ja) 2016-09-05
JP6524706B2 JP6524706B2 (ja) 2019-06-05

Family

ID=56845001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015038655A Expired - Fee Related JP6524706B2 (ja) 2015-02-27 2015-02-27 表示制御方法、表示制御プログラム、及び情報処理装置

Country Status (1)

Country Link
JP (1) JP6524706B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019012342A (ja) * 2017-06-29 2019-01-24 ファナック株式会社 仮想オブジェクト表示システム
JP2020166741A (ja) * 2019-03-29 2020-10-08 スターティアラボ株式会社 Ar用の画像処理装置、画像処理システム及びプログラム
US11199828B2 (en) 2018-06-05 2021-12-14 Fanuc Corporation Virtual object display system
JP6982659B1 (ja) * 2020-06-26 2021-12-17 株式会社ドワンゴ サーバ、端末、配信システム、配信方法、および情報処理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011148595A1 (ja) * 2010-05-26 2011-12-01 日本電気株式会社 画像処理装置、画像処理方法および画像処理用プログラム
JP2015022737A (ja) * 2013-07-24 2015-02-02 富士通株式会社 情報処理装置、情報提供方法および情報提供プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011148595A1 (ja) * 2010-05-26 2011-12-01 日本電気株式会社 画像処理装置、画像処理方法および画像処理用プログラム
JP2015022737A (ja) * 2013-07-24 2015-02-02 富士通株式会社 情報処理装置、情報提供方法および情報提供プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019012342A (ja) * 2017-06-29 2019-01-24 ファナック株式会社 仮想オブジェクト表示システム
US11199828B2 (en) 2018-06-05 2021-12-14 Fanuc Corporation Virtual object display system
JP2020166741A (ja) * 2019-03-29 2020-10-08 スターティアラボ株式会社 Ar用の画像処理装置、画像処理システム及びプログラム
JP6982659B1 (ja) * 2020-06-26 2021-12-17 株式会社ドワンゴ サーバ、端末、配信システム、配信方法、および情報処理方法
JP2022020079A (ja) * 2020-06-26 2022-02-01 株式会社ドワンゴ サーバ、端末、配信システム、配信方法、および情報処理方法

Also Published As

Publication number Publication date
JP6524706B2 (ja) 2019-06-05

Similar Documents

Publication Publication Date Title
AU2017203098B2 (en) Information processing system and display control method
US10163266B2 (en) Terminal control method, image generating method, and terminal
JP6344029B2 (ja) 表示方法、表示プログラム、及び表示装置
JP6424601B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
JP6421670B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
JP6217437B2 (ja) 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
JP6077068B1 (ja) 拡張現実システム、および拡張現実方法
WO2019205851A1 (zh) 位姿确定方法、装置、智能设备及存储介质
JP6244954B2 (ja) 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
US20160012612A1 (en) Display control method and system
US11609345B2 (en) System and method to determine positioning in a virtual coordinate system
JP2021520540A (ja) カメラの位置決め方法および装置、端末並びにコンピュータプログラム
JP6524706B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
CN110784370B (zh) 设备测试的方法、装置、电子设备及介质
JP6543924B2 (ja) 情報処理方法、情報処理プログラム、及び情報処理装置
US20160284130A1 (en) Display control method and information processing apparatus
WO2022199102A1 (zh) 图像处理方法及装置
JP6413521B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
CN110213205B (zh) 验证方法、装置及设备
JP6308842B2 (ja) 表示システム及びプログラム
JP6374203B2 (ja) 表示システム及びプログラム
JP6447251B2 (ja) 情報処理装置、表示制御方法、及び表示制御プログラム
JP2016051449A (ja) 携帯端末装置および表示システム
CN114856527A (zh) 丛式井中井口间距的确定方法、装置及计算机存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190422

R150 Certificate of patent or registration of utility model

Ref document number: 6524706

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees