JP2017016466A - 端末制御方法、画像生成方法、端末制御プログラム、及び端末 - Google Patents

端末制御方法、画像生成方法、端末制御プログラム、及び端末 Download PDF

Info

Publication number
JP2017016466A
JP2017016466A JP2015133643A JP2015133643A JP2017016466A JP 2017016466 A JP2017016466 A JP 2017016466A JP 2015133643 A JP2015133643 A JP 2015133643A JP 2015133643 A JP2015133643 A JP 2015133643A JP 2017016466 A JP2017016466 A JP 2017016466A
Authority
JP
Japan
Prior art keywords
content
information
image
terminal
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015133643A
Other languages
English (en)
Inventor
優太 井上
Yuta Inoue
優太 井上
一寿 川嶋
Kazuhisa Kawashima
一寿 川嶋
俊幸 伊藤
Toshiyuki Ito
俊幸 伊藤
奨 古賀
Sho Koga
奨 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015133643A priority Critical patent/JP2017016466A/ja
Priority to US15/195,435 priority patent/US10163266B2/en
Publication of JP2017016466A publication Critical patent/JP2017016466A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】端末の処理負荷を軽減する。
【解決手段】端末制御方法において、撮像画像中に基準物の画像が含まれることを検出すると、前記基準物の識別情報又は前記基準物に対応付けて記憶されたコンテンツの識別情報と、前記撮像画像内における、前記基準物又は前記コンテンツの位置情報と、前記撮像画像とを、前記識別情報に対応付けて記憶されたコンテンツを前記位置情報に基づいて前記撮像画像に合成する情報処理装置に送信する、処理をコンピュータが実行する。
【選択図】図9

Description

本発明は、端末制御方法、画像生成方法、端末制御プログラム、及び端末に関する。
カメラ等の撮像部により撮像された画像の一部に画像等のコンテンツを重ね合わせて重畳表示させる拡張現実(Augmented Reality:AR)技術が知られている。AR技術では、撮像画像から認識されたARマーカ(基準物)に対する位置情報や識別情報(マーカID)に基づき、拡張空間に重畳して表示される画像データ(以下、必要に応じて「ARコンテンツ」という)等を配置する。
例えば、従来のAR表示では、端末で撮影された画像中に含まれるARマーカの画像を検出した場合に、検出したARマーカに対応するマーカIDを取得し、取得したマーカIDに対応付けられたARコンテンツを取得する。次に、ARマーカのマーカ領域の大きさや形状(歪み)から、ARマーカとカメラとの位置関係を推定し、推定した位置関係を用いて、ARコンテンツの配置(位置、向き等)を決定し、決定した配置でARコンテンツを画像に重畳表示する。
例えば、AR技術を利用して、現場にいる作業員等が端末で撮像した画像にARコンテンツを合成し、通信ネットワークを介して遠隔支援者が使用するサーバに送信し、画像を共有しながら遠隔支援者からの指示を受け付けて作業を行う遠隔支援システムがある。
また、上述したようなAR技術は、ヘッドマウントディスプレイ(以下、「HMD」という)や眼鏡型ディスプレイ等のようなウェアラブルコンピュータにも適用されている。HMD等では、ユーザの目の位置に対応して装着された透過型の画面にARコンテンツを表示させることで、ユーザの視野内にある実物体等に対応したARコンテンツを表示させることができる。
特開2012−215989号公報
しかしながら、上述したような遠隔支援システム等の場合は、端末が撮像画像とARコンテンツとを合成し、その合成画像を外部の遠隔支援者側へ送信する処理を行うため、端末に処理負荷がかかってしまう。したがって、遠隔支援者等に対する滑らかな画面共有が実現できない。
一つの側面では、本発明は、端末の処理負荷を軽減することを目的とする。
一つの態様では、端末制御方法は、撮像画像中に基準物の画像が含まれることを検出すると、前記基準物の識別情報又は前記基準物に対応付けて記憶されたコンテンツの識別情報と、前記撮像画像内における、前記基準物又は前記コンテンツの位置情報と、前記撮像画像とを、前記識別情報に対応付けて記憶されたコンテンツを前記位置情報に基づいて前記撮像画像に合成する情報処理装置に送信する、処理をコンピュータが実行する。
一つの側面として、端末の処理負荷を軽減することができる。
情報処理システムの概略構成の一例を示す図である。 端末の機能構成の一例を示す図である。 端末のハードウェア構成の一例を示す図である。 サーバの機能構成の一例を示す図である。 サーバのハードウェア構成の一例を示す図である。 ARマーカDBの一例を示す図である。 ARコンテンツDBの一例を示す図である。 本実施形態における処理概要を説明するための図である。 第1実施例における端末側の端末制御処理の一例を示すフローチャートである。 第1実施例におけるサーバ側の画面生成処理の一例を示すフローチャートである。 第2実施例における端末側の端末制御処理の一例を示すフローチャートである。 第2実施例におけるサーバ側の画面生成処理の一例を示すフローチャートである。 第3実施例における端末側の端末制御処理の一例を示すフローチャートである。 第3実施例におけるサーバ側の画面生成処理の一例を示すフローチャートである。 ARコンテンツの停止状態及び停止解除状態を説明するための図である。 第4実施例における端末側の端末制御処理の一例を示すフローチャートである。 第4実施例におけるサーバ側の画面制御処理の一例を示すフローチャートである。
以下、図面に基づいて実施形態を説明する。
<情報処理システムの概略構成例>
図1は、情報処理システムの概略構成の一例を示す図である。図1に示す情報処理システム10は、1又は複数の端末11−1〜11−n(以下、必要に応じて「端末11」と総称する)と、情報処理装置の一例としてのサーバ12とを有する。端末11及びサーバ12は、例えば通信ネットワーク13によりデータの送受信が可能な状態で接続されている。
端末11は、例えば遠隔支援システム等における作業者等が使用する端末である。端末11は、内蔵されたカメラ等の撮像部により画像を撮像し、その撮像画像(カメラ画像)中に基準物の一例としてのARマーカの画像が含まれることを検出すると、そのARマーカに対応するARコンテンツ(コンテンツ)の登録(オーサリング処理)を行う。オーサリング処理とは、ARマーカに対応付けられた識別情報(例えば、マーカID)に一又は複数のARコンテンツと、そのARコンテンツのマーカ位置に基づく相対的な位置情報とを登録する処理であるが、これに限定されるものではない。
ここで、ARマーカとは、例えばARコンテンツ等の各種コンテンツ情報の内容や表示する位置等を指定するための標識となるものである。ARマーカは、例えば二次元コード等のように、所定の領域内に所定の模様や文字パターン等が形成された画像等であるが、これに限定されるものではない。
また、基準物としては、例えばARマーカに限定されるものではなく、例えば周辺画素との差から得られるエッジ抽出等により所定の特徴量が抽出可能な特定の物体であればよい。特定の物体としては、例えば時計や機械、窓、絵画、置物、Personal Computer(PC)、柱や配管等でもよい。例えば、各物体に対する特徴量データ(例えば、物体認識用辞書等)を予め蓄積しておき、画像データから得られる物体毎の特徴量を用いてマッチングを行うことで、その物体に対応する識別情報を取得したり、識別情報に対応付けてARコンテンツを設定することができる。
ARコンテンツとは、例えば現実空間に対応する三次元の仮想空間上に配置された三次元物体のモデルデータ等であり、例えば端末11で撮影された画像に重畳されて表示される重畳情報、又はサーバ12で撮像画像と合成される情報である。また、ARコンテンツは、例えば撮像画像中に含まれるARマーカからの相対座標で設定された位置に表示される。本実施形態のARコンテンツは、例えばARマーカ等に対応付けられており、例えばテキスト、アイコン、アニメーション、マーク、模様、画像、映像等の様々な形態が含まれる。また、ARコンテンツは、表示出力されるものに限定されず、例えば音声等の情報であってもよい。
また、端末11は、撮像画像中に基準物(ARマーカ)画像が含まれることを検出すると、基準物の識別情報と、撮像画像内における基準物の位置情報とを、識別情報に対応付けて記憶(登録)されたARコンテンツを、位置情報に基づいて撮像画像に合成するサーバ12に送信する。また、端末11は、ARマーカに対応付けられたARコンテンツを取得し、取得したARコンテンツを画面に表示する。
また、端末11は、撮像画像中に基準物(ARマーカ)の画像が含まれることを検出すると、基準物に対応付けて記憶されたARコンテンツの識別情報を検出し、検出したARコンテンツの識別情報と、ARコンテンツの画像上の位置情報とを、サーバ12に送信する。
また、端末11は、ユーザから撮像画像を表示する表示画面におけるコンテンツを表示する位置を固定(停止)させる操作を受け付けた場合、操作を受け付けた旨を示す情報をサーバ12に送信する。また、端末11は、遠隔支援者からの指示を受信し、受信した情報を画面に表示したり、音声出力することができる。
端末11は、例えばタブレット端末やスマートフォン、Personal Digital Assistants(PDA)、ノート型PC等であるが、これに限定されるものではなく、例えばゲーム機器、携帯電話等の通信端末であってもよい。
また、端末11の一例として、例えばHMDや眼鏡型ディスプレイ等のような透過型の表示装置を用いてもよい。ヘッドマウントディスプレイや眼鏡型ディスプレイは、ユーザの目に対応した位置(視野上)に透過型の画面(表示部)を有する装着型デバイスである。端末11は、透過型の画面(表示部)上に、上述したARコンテンツを透過させて表示することで、ユーザが実際に見ている視野範囲内に上述したARコンテンツを表示させることができる。なお、ARコンテンツは、透過性のある表示物として表示することができ、表示制御部等により表示制御させる。
また、ヘッドマウントディスプレイや眼鏡型ディスプレイ等の場合には、端末11における各構成のうち、表示部等に関する構成と、その他の構成とが別体に設けられていてもよく、それらを接続することで上述した端末11と同様の構成を実現してもよい。
サーバ12は、例えば遠隔支援システムにおける遠隔支援者が使用する端末であるが、これに限定されるものではなく、例えば遠隔支援者が他の端末から通信ネットワーク13を介してアクセスする端末であってもよい。
サーバ12は、端末11から送信された撮像画像と、ARマーカの識別情報及び位置情報とに基づき、ARマーカに対応付けられたARコンテンツを取得し、撮像画像とARコンテンツとを合成して表示する。また、サーバ12は、端末11から撮像画像とARコンテンツの識別情報及び位置情報を取得した場合には、そのARコンテンツの識別情報に対応するARコンテンツを取得し、位置情報に基づく撮像画像の所定の位置に出力する。
また、サーバ12は、例えばARマーカの識別情報及び位置情報が端末11から送られなかった場合、又は識別情報及び位置情報は送られたが、ARコンテンツがカメラ画像上の位置にない場合には、合成処理をしないようにすることができる。
また、サーバ12は、端末11側でARコンテンツを画面上で固定(停止)させる停止操作が行われた場合、停止操作前のARコンテンツを、停止操作後に取得した撮像画像に合成する。
また、サーバ12は、遠隔支援者からの指示情報等を、通信ネットワーク13を介して端末11に送信してもよい。サーバ12は、例えばPC等でもよいが、これに限定されるものではなく、例えば一以上の情報処理装置を有するクラウドコンピューティングにより構成されるクラウドサーバ等であってもよい。
通信ネットワーク13は、例えばインターネットやLocal Area Network(LAN)等であるが、これに限定されるものではない。また、通信ネットワーク13は、有線でも無線でもよく、これらの組み合わせでもよい。
図1に示す情報処理システム10は、端末11とサーバ12との関係がn対1の構成となっているがこれに限定されるものではなく、例えば複数のサーバを有していてもよい。
<端末11の機能構成例>
次に、上述した端末11の機能構成例について、図を用いて説明する。図2は、端末の機能構成の一例を示す図である。端末11は、通信部21と、撮像部(画像取得部)22と、記憶部23と、表示部24と、検出部25と、取得部26と、画面生成部27と、表示制御部28と、制御部29とを有する。
通信部21は、通信ネットワーク13を介してサーバ12や他のコンピュータ等とデータの送受信を行う。例えば、通信部21は、例えばオーサリング処理として、ARマーカと対応付けたARコンテンツやARマーカに対応する相対的な位置情報等をサーバ12等に送信して登録(記憶)させる。また、通信部21は、撮像部22により撮像された画像中にARマーカが含まれている場合に、そのARマーカに対応する基準物の識別情報と、撮像画像内におけるARマーカの位置情報(例えば、ARマーカの中心座標)、撮像画像をサーバ12に送信する。また、通信部21は、サーバ12から得られる遠隔支援者の指示情報等を受信する。
撮像部22は、一定のフレーム間隔で撮像を行い、画像データを生成する。撮像部22は、例えばデジタルカメラ等であるが、これに限定されるものではない。また、撮像部22は、端末11に内蔵されていてもよく、接続可能な外部装置であってもよい。撮像部22を装着する場合には、傾きや方向等の向き情報が端末11と一体に動作されるものが好ましいが、これに限定されるものではない。また、撮像部22は、外部の撮像装置等で撮像された画像データを取得してもよい。この場合には、撮像装置の位置情報や向き情報を有することが好ましいが、これに限定されるものではない。撮像部22は、予め設定されたフレーム間隔で画像を撮像する。撮像部22は、撮像画像(カメラ画像)を制御部29へ出力したり、記憶部23により記憶する。
記憶部23は、本実施形態において必要な各種情報を記憶する。記憶部23には、例えばARコンテンツ情報等を管理するARマーカデータベース(以下、データベースを「DB」という)、ARコンテンツDB、その他の各種設定情報等が記憶されるが、記憶される内容については、これに限定されるものではない。また、記憶部23は、画面上で固定(停止)するARマーカIDを、停止しARマーカID一覧として記憶して管理してもよい。
また、上述した各情報は、サーバ12等から取得した情報でもよく、ユーザが端末11で設定した情報であってもよい。また、記憶部23は、例えば制御部29等の制御により、情報を書き込んだり、読み出したりすることができる。
表示部24は、撮像部22から取得した撮像画像を表示したり、撮像画像にARコンテンツを重ね合わせた重畳画像を表示する。また、表示部24は、本実施形態における端末制御処理を行うために予め設定されたメニュー画面や設定画面、端末11を操作するための操作画面等を表示する。また、表示部24は、タッチパネル等のように、画面上から情報の入力を行ってもよい。
検出部25は、取得画像中にARマーカの画像が含まれるか否かを検出する。例えば、検出部25は、撮像部22により得られる撮像画像に対して画像認識を行い、予め記憶部23に記憶されているARマーカDBのARマーカパターンとのマッチングにより一致又は類似度が高いARマーカを検出してその識別情報(ARマーカID)を検出する。
本実施形態では、例えば撮像画像中に含まれる現実空間上の物体(対象物)に対してARマーカを付与しておくことで、ARマーカの識別情報に対応付けられたARコンテンツとして、その物体の使用方法や作業手順、注意事項等を撮像画像に重畳して表示させることができる。
なお、本実施形態における基準物は、ARマーカに限定されるものではなく、例えば上述したように、予め登録された物体を基準物としてもよい。この場合、検出部25は、撮像画像から登録された物体を認識し、認識した物体に対応する識別情報を取得できる。例えば、検出部25は、ARマーカではなく、現実空間上の物体(対象物)等を基準物として、マッチングを行いARマーカに対する識別情報(例えば、マーカID)を取得する。また、検出部25は、ARマーカを識別できた画像中の位置座標(x,y)を取得する。
また、検出部25は、検出したARマーカ情報(ARマーカIDと、その画像中の位置情報(座標)を、撮像部22により撮像された撮像画像と同期させて、通信部21からサーバ12に送信する。
取得部26は、検出部25で検出されたARマーカIDに対応するARコンテンツを取得する。例えば、取得部26は、記憶部23に記憶されたARコンテンツDBを参照し、ARマーカIDに対応するARコンテンツ及びARマーカ位置からの相対座標(x,y,z)を取得する。相対座標とは、例えば「座標値」、「回転角度」、「拡縮率」等のうち、少なくとも1つである。「座標値」は、ARコンテンツを表示する二次元又は三次元位置情報である。「座標値」は、例えば端末11の位置情報や向き情報等に基づいて設定するこができる。
「回転角度」は、対応するARコンテンツに対して予め設定された基本角度から三次元方向にどの程度傾いているかを示す情報である。「拡縮率」は、対応するARコンテンツに対して予め設定された大きさを基準に三次元方向にどの程度拡大又は縮小しているかを示す情報である。本実施形態では、「座標値」、「回転角度」、「拡縮率」の少なくとも1つをARコンテンツの位置情報としてもよい。
また、本実施形態では、検出部25からARマーカIDを送信する代わりに、取得部26がARコンテンツDBを参照して、ARマーカIDに対応するARコンテンツを参照し、得られたARコンテンツの識別情報(ARコンテンツID)をしてもよい。また、取得部26は、取得したARコンテンツ情報(ARコンテンツID、ARコンテンツの画像中の位置情報(座標))を、撮像画像と同期させて、通信部21からサーバ12に送信してもよい。
画面生成部27は、ARコンテンツを撮像画像中のARマーカの位置(例えば、ARマーカの中心座標)を基準にした相対座標に対応させた位置に重ね合わせて重畳画像を生成する。画面生成部27は、生成した画像を表示部24の画面に表示させる。画面生成部27は、例えばARマーカからの相対位置でARコンテンツを画面に表示することができるが、これに限定されるものではない。
また、画面生成部27は、例えばARコンテンツの表示位置が撮像画像(カメラ画像)からはみ出しているか否かを判断し、はみ出している場合には、重畳表示を行わずに撮像画像のみが表示部24から表示される。また、画面生成部27は、表示画面中にあるARコンテンツの現在の表示位置を固定したままにする固定(停止)するボタンや固定を解除するボタン等を生成して表示させてもよい。
また、画面生成部27は、本実施形態における端末制御処理を行うための設定画面を表示したり、ARコンテンツの登録等のオーサリング処理を行うための画面等を生成してもよい。
表示制御部28は、表示部24に撮像画像と共に表示されている一又は複数のARコンテンツのうち、少なくとも1つを固定(表示)表示にするか否かの制御を行う。また、表示制御部28は、固定表示されているARコンテンツに対する固定解除等を行う。表示制御部28により制御される情報は、画面生成部27に出力され、画面生成部27により対応する画像が生成される。
制御部29は、端末11が有する各構成における処理全体を制御する。制御部29は、撮像部22による画像撮影、検出部25による撮像画像(取得画像)中に含まれるARマーカの検出、取得部26によるARマーカIDに対応するARコンテンツの取得、画面生成部27による重畳表示画面の生成生成、表示制御部28によるARコンテンツの表示制御等の処理を行う。なお、制御部29における処理内容については、これに限定されるものではなく、例えば本実施形態における端末制御処理の開始や終了、エラー発生時の処理等を行ってもよい。
<端末11のハードウェア構成例>
次に、端末11のハードウェア構成例について図を用いて説明する。図3は、端末のハードウェア構成の一例を示す図である。図3の例において、端末11は、マイクロフォン(以下、「マイク」という)31と、スピーカ32と、表示部33と、操作部34と、センサ部35と、電力部36と、無線部37と、近距離通信部38と、補助記憶装置39と、主記憶装置40と、Central Processing Unit(CPU)41と、ドライブ装置42とを有し、これらはシステムバスBで相互に接続されている。
マイク31は、ユーザが発した音声や、その他の音を入力する。スピーカ32は、通話相手先の音声を出力したり、着信音等の音を出力する。マイク31及びスピーカ32は、例えば、通話機能等により通話相手と会話するとき等に用いることができるが、これに限定されるものではなく、音声による情報の入出力に用いることができる。
表示部33は、ユーザに対してOSや各種アプリケーションで設定された画面を表示する。また、表示部33は、タッチパネルディスプレイ等でもよく、その場合には表示部33は、入出力部としての機能を有する。
表示部33は、例えばLiquid Crystal Display(LCD)や有機Electro Luminescence(EL)等のディスプレイである。
操作部34は、表示部33の画面に表示された操作ボタンや端末11の外部に設けられた操作ボタン等である。操作ボタンは、例えば電源ボタンや音量調整ボタンでもよく、所定の順番で配列された文字入力用の操作キー等でもよい。
ユーザは、例えば表示部33の画面上で所定の操作を行ったり、上述した操作ボタンを押すことで、表示部33により画面上のタッチ位置が検出される。また、表示部33は、画面上にアプリ実行結果やコンテンツやアイコン、カーソル等を表示することができる。
センサ部35は、端末11のある時点又は継続的な動作を検出する。例えば、センサ部35は、端末11の傾き角度、加速度、方向、位置等を検出するが、これに限定されるものではない。なお、センサ部35としては、例えば傾きセンサや加速度センサ、ジャイロセンサ、Global Positioning System(GPS)等であるが、これに限定されるものではない。
電力部36は、端末11の各構成に対して電力を供給する。電力部36は、例えばバッテリ等の内部電源であるが、これに限定されるものではない。電力部36は、電力量を常時又は所定の時間間隔で検出し、電力量の残量等を監視することもできる。
無線部37は、例えばアンテナ等を用いて基地局からの無線信号(通信データ)を受信したり、アンテナを介して無線信号を基地局に送信する通信データの送受信部である。
近距離通信部38は、例えば赤外線通信やWi−Fi(登録商標)、Bluetooth(登録商標)等の通信手法を用いて、他の端末11等のコンピュータと近距離通信を行うことができる。上述した無線部37及び近距離通信部38は、他のコンピュータとのデータの送受信を可能とする通信インタフェースである。
補助記憶装置39は、例えばHDDやSSD等のストレージ手段である。補助記憶装置39は、各種のプログラム等を記憶し、必要に応じてデータの入出力を行う。
主記憶装置40は、CPU41からの指示により補助記憶装置39から読み出された実行プログラム等を格納したり、プログラム実行中に得られる各種情報等を記憶する。主記憶装置40は、例えばROMやRAM等であるが、これに限定されるものではない。
CPU41は、OS等の制御プログラム、及び主記憶装置40に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御することで、出力制御における各処理を実現する。
具体的には、CPU41は、例えば操作部34等から得られるプログラムの実行指示等に基づき、補助記憶装置39にインストールされたプログラムを実行させることにより、主記憶装置40上でプログラムに対応する処理を行う。例えば、CPU41は、端末制御プログラムを実行させることで、撮像部22による画像撮影、検出部25による撮像画像(取得画像)中に含まれるARマーカの検出、取得部26によるARマーカIDに対応するARコンテンツの取得、画面生成部27による重畳表示画面の生成生成、表示制御部28によるARコンテンツの表示制御の処理を行う。CPU41における処理内容は、これに限定されるものではない。CPU41により実行された内容は、必要に応じて補助記憶装置39等に記憶される。
ドライブ装置42は、例えば記録媒体43等を着脱自在にセットすることができ、セットした記録媒体43に記録された各種情報を読み込んだり、所定の情報を記録媒体43に書き込むことができる。ドライブ装置42は、例えば媒体装填スロット等であるが、これに限定されるものではない。
記録媒体43は、上述したように実行プログラム等を格納するコンピュータで読み取り可能な記録媒体である。記録媒体43は、例えばフラッシュメモリ等の半導体メモリであってもよい。また、記録媒体43は、USBメモリ等の可搬型記録媒体であってもよいが、これに限定されるものではない。
本実施形態では、上述したコンピュータ本体のハードウェア構成に実行プログラム(例えば、端末制御プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における端末制御処理等を実現することができる。
また、上述した端末制御処理に対応する端末制御プログラムは、例えば装置上で常駐している状態であってもよく、起動指示により起動させてもよい。
<サーバ12の機能構成例>
次に、上述したサーバ12の機能構成例について図を用いて説明する。図2は、サーバの機能構成の一例を示す図である。サーバ12は、通信部51と、記憶部52と、表示部53と、取得部54と、合成部55と、画面生成部56と、制御部57とを有する。
通信部51は、通信ネットワーク13を介して端末11や他のコンピュータ等との間でデータの送受信を行う。通信部51は、例えば端末11からのオーサリング処理に対応したARコンテンツ等の登録(記憶)要求、及びARマーカに対応付けて登録するARコンテンツ等を受信する。受信した情報は、記憶部52に記憶される。通信部51は、記憶部52に記憶された情報に対する端末11からの取得要求に応じてこれらの情報を送信してもよい。
また、通信部51は、端末11から送信された撮像画像及びARマーカID、ARマーカIDの画像中の位置情報等を取得する。また、通信部51は、ARマーカIDの代わりにARコンテンツIDと、その位置情報とを取得してもよい。
記憶部52は、本実施形態のサーバ12における画面生成処理に必要な各種情報(例えば、ARマーカDB、ARコンテンツDB等)を記憶する。なお、上述した各種情報は、端末11に対する識別情報(例えば、端末ID)やユーザに対する識別情報(例えば、ユーザID)毎に管理されていてもよい。
また、記憶部52等は、ARコンテンツの固定表示等を行う場合に、表示されているARコンテンツをキャッシュとして一時的に記憶しておいてもよい。記憶部52により記憶される情報は、上述した内容に限定されるものではない。また、記憶部52は、制御部57等の制御により、情報を書き込んだり、読み出したりすることができる。
表示部53は、例えば通信部21により端末から受信した撮像画像を画面に表示する。また、表示部53は、合成部55により撮像画像とARコンテンツとが合成された合成画像を画面に表示する。
取得部54は、端末11から得られるARマーカIDに対応するARコンテンツを取得したり、ARコンテンツIDに対応するARコンテンツを取得する。また、取得部54は、端末11から表示中の一又は複数のARコンテンツに対する固定(停止)指示や、固定(停止)されたARコンテンツの解除の指示情報を取得し、取得した情報に基づいて、合成部55における合成処理に関する制御等を行う。
合成部55は、端末11から送信された撮像画像とARマーカやARコンテンツの識別情報と、そのARマーカやARコンテンツの画像中の位置情報とに基づき、撮像画像とARコンテンツとを合成する。例えば、合成部55は、取得部54により取得したARコンテンツと、ARコンテンツのARマーカ位置からの相対座標とに基づいて、撮像画像の所定位置にARコンテンツを合成して1つの画像にする。また、合成部55は、端末11側で固定(停止)操作が行われた場合、固定操作前のコンテンツを、固定操作後に取得した撮像画像と合成する。
なお、サーバ12において、端末11のように撮像画像にARコンテンツを重ね合わせて表示せずに、合成画像を生成する理由は、サーバ12側で端末11から取得した撮像画像にARコンテンツを重ね合わせて表示するためには、そのための特別な処理(プログラム等)が必要になるからである。合成画像を生成しておくことで、例えばサーバ12側でブラウザ等の汎用的なソフトウェアを用いて画像(映像)を表示することができる。
また、合成部55は、端末11からARコンテンツが固定である旨の指示を受け付けた場合には、そのARコンテンツに対する合成処理を行わなくてもよい。また、合成部55は、ARマーカ又はARコンテンツの識別情報及び位置情報が端末11から送られない場合には、合成処理を行わなくてもよい。また、合成部55は、ARマーカ又はARコンテンツの識別情報及び位置情報は送られたが、ARコンテンツが撮像画像上の位置にない場合には、合成処理を行わなくてもよい。
画面生成部56は、合成部55により合成した画像を表示部に表示する画面を生成する。また、画面生成部56は、生成した画像を表示部53の画面に表示する。また、画面生成部56は、生成された画面に対して遠隔支援者等が指示した内容を受け付けるとその内容を通信部51を介して端末11に送信してもよい。
制御部57は、サーバ12内の各構成全体を制御する。制御部57は、例えば通信部51による各種情報の送受信、表示部53による合成画像の表示、取得部54による取得、合成部55による画像合成、画面生成部56による画面生成等の処理を行う。制御部57が行う制御内容については、これに限定されるものではなく、サーバ12における画面生成処理の開始や終了、エラー発生時における処理等を行ってもよい。
<サーバ12のハードウェア構成例>
次に、サーバ12のハードウェア構成例について、図を用いて説明する。図5は、サーバのハードウェア構成の一例を示す図である。図5の例において、サーバ12は、入力装置61と、出力装置62と、ドライブ装置63と、補助記憶装置64と、主記憶装置65と、CPU66と、ネットワーク接続装置67とを有し、これらはシステムバスBで相互に接続されている。
入力装置61は、ユーザ等が操作するキーボード及びマウス等のポインティングデバイスや、マイクロフォン等の音声入力デバイスを有しており、ユーザ等からのプログラムの実行指示、各種操作情報、ソフトウェア等を起動するための情報等の入力を受け付ける。
出力装置62は、本実施形態における処理を行うためのコンピュータ本体(サーバ12)を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイ等を有する。出力装置62は、CPU66が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。
ここで、本実施形態において、例えばコンピュータ本体にインストールされる実行プログラムは、記録媒体68等により提供される。記録媒体68は、ドライブ装置63にセット可能である。CPU66からの制御信号に基づき、記録媒体68に格納された実行プログラムが、記録媒体68からドライブ装置63を介して補助記憶装置64にインストールされる。
補助記憶装置64は、例えばHard Disk Drive(HDD)やSolid State Drive(SSD)等のストレージ手段等である。補助記憶装置64は、CPU66からの制御信号に基づき、本実施形態における実行プログラム(画面生成プログラム)や、コンピュータに設けられた制御プログラム等を記憶し、必要に応じて入出力を行う。補助記憶装置64は、CPU66からの制御信号等に基づいて、記憶された各情報から必要な情報を読み出したり、書き込むことができる。
主記憶装置65は、CPU66により補助記憶装置64から読み出された実行プログラム等を格納する。主記憶装置65は、Read Only Memory(ROM)やRandom Access Memory(RAM)等である。
CPU66は、Operating System(OS)等の制御プログラム、及び主記憶装置65に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現する。プログラムの実行中に必要な各種情報等は、補助記憶装置64から取得することができ、また実行結果等を格納することもできる。
具体的には、CPU66は、例えば入力装置61から得られるプログラムの実行指示等に基づき、補助記憶装置64にインストールされたプログラムを実行させることにより、主記憶装置65上でプログラムに対応する処理を行う。例えば、CPU66は、画面生成プログラムを実行させることで、通信部51による各種情報の送受信、表示部53による合成画像の表示、取得部54による取得、合成部55による画像合成、画面生成部56による画面生成等の処理を行う。CPU66における処理内容は、これに限定されるものではない。CPU66により実行された内容は、必要に応じて補助記憶装置64等に記憶される。
ネットワーク接続装置67は、上述した通信ネットワーク13を介して、端末11や他の外部装置との通信を行う。ネットワーク接続装置67は、CPU66からの制御信号に基づき、通信ネットワーク13等と接続することにより、実行プログラムやソフトウェア、設定情報等を外部装置等から取得する。また、ネットワーク接続装置67は、プログラムを実行することで得られた実行結果を端末11等に提供したり、本実施形態における実行プログラム自体を外部装置等に提供してもよい。
記録媒体68は、上述したように実行プログラム等が格納されたコンピュータで読み取り可能な記録媒体である。記録媒体68は、例えばフラッシュメモリ等の半導体メモリやCD−ROM、DVD等の可搬型の記録媒体であるが、これに限定されるものではない。
図4に示すハードウェア構成に実行プログラム(例えば、画面生成プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における画面生成処理等を実現することができる。
<データ例>
次に、本実施形態における端末制御処理又は画像生成処理で使用されるデータ例について、図を用いて説明する。図6は、ARマーカDBの一例を示す図である。図6に示すARマーカDBの項目としては、例えば「ARマーカID」、「ARマーカパターン」等があるが、これに限定されるものではない。ARマーカIDは、ARマーカを識別するための識別情報である。ARマーカパターンは、撮像部22で撮影された画像中にARマーカが存在するか否かを認識する処理において、基準となるマーカパターン(模様や形状)等が記憶される。マーカパターンは、ID毎に異なるパターンであってよく、また1つのIDに対して複数のマーカパターンが存在してもよい。
図6の例では、正面から見た予め設定された基準サイズのマーカパターンが記憶されており、この画像との撮影されたARマーカとの比較により、歪みの検知等を行う。例えば、制御部29は、必要に応じて向きや角度、大きさ等の制御(補正)を行ってもよい。
また、本実施形態におけるARマーカDBは、ARマーカに限定されるものではなく、例えば実物体等の他の基準物に対し、その特徴情報に対応した識別情報(ID)が管理されていてもよい。
図7は、ARコンテンツDBの一例を示す図である。図7に示すARコンテンツDBの項目としては、例えば「ARコンテンツID」、「ARコンテンツ」、「ARマーカID」、「ARマーカからの相対座標」等があるが、これに限定されるものではない。
「ARコンテンツID」は、画面に重畳表示するARコンテンツを識別するための識別情報である。「ARコンテンツ」は、ARコンテンツの画像(動画像、静止画像)、テキスト情報等が記憶される。なお、ARコンテンツは、実体データでもよく、テクスチャパスでもよい。テクスチャパスとは、ARコンテンツIDに対応するARコンテンツの格納先情報である。例えば、「http://xxx.png」のように、サーバ12やサーバ12以外の装置等のアドレス情報でもよく、フォルダ等の格納先でもよいが、これに限定されるものではない。また、テクスチャパスには、ARコンテンツに対応する画像データや映像データ、テキストデータ等の情報(ファイル名)が直接格納されていてもよい。
「ARマーカID」は、ARマーカDBのARマーカIDに関連付けられている。「ARマーカID」は、ARコンテンツに対応したARマーカの識別情報である。本実施形態では、ARコンテンツIDと、ARマーカIDとが1対1で設定されていてもよく、1対n、n対1の関係で設定されていてもよい。図7の例では、マーカID「ARID1」に対して、複数のARコンテンツID「OBJID1」、「OBJID2」が設定されている。
「ARマーカからの相対座標」は、ARコンテンツを表示する際に、ARマーカの位置を基準に、どの方向にどのくらい離れた位置に表示するか示す情報が記憶される。「ARマーカからの相対座標Mは、例えば上述した「座標値」、「回転角度」、「拡縮率」等のうち、少なくとも1つである。「座標値」は、ARコンテンツを表示する二次元又は三次元位置情報である。「座標値」は、例えば端末11の位置情報や向き情報等に基づいて設定するこができる。
また、本実施形態における端末制御処理又は画像生成処理で使用されるデータ例については、上述した例に限定されるものではなく、例えば画面上で固定しているARマーカID一覧やARコンテンツID一覧等のデータを使用してもよい。また、上述したデータ例は、端末11が有していてもよく、サーバ12が有していてもよい。端末11は、サーバ12が管理するデータをダウンロードすることもでき、サーバ12へアップロードすることもできる。
<本実施形態における処理概要>
次に、本実施形態における処理概要について、図を用いて説明する。図8は、本実施形態における処理概要を説明するための図である。本実施形態では、例えばHMD等の処理性能(スペック)があまり高くない端末11等の場合に、画像合成をした上で画像を遠隔支援者のサーバ12へ送信すると、撮像部22の一例であるカメラのフレームレート(fps;frames per second)が低くなってしまい滑らかな画面共有が実現できない。その原因としては、端末11での画像合成処理に時間がかかると共に、サーバ12に通信するデータ量が回線速度に比べて大きい等がある。
そこで、本実施形態では、図8の例に示すように、端末11で画像合成を行わずにサーバ12側で画像合成する。具体的には、端末11からサーバ12に対して送信するデータ70は、カメラ画像(撮像画像)71と端末11でカメラ画像71から検出したARマーカ情報(ARマーカIDとカメラ画像上での位置)72とする。また、本実施形態では、サーバ12側でARマーカ情報からARコンテンツ73を取得し、カメラ画像と合成した合成画像74を生成して、画面に表示する。このように、サーバ12側で画像合成することで処理時間を短縮し、かつ、データ送信量を削減することで、遠隔支援者への滑らかな画面共有を実現することができる。また、画像合成した後にサーバ12に通信した場合の通信時の画像劣化が発生しない。
また、本実施形態では、ARコンテンツが表示されている状態でARコンテンツのみをカメラ画像上の固定位置に停止する場合の遠隔支援時の処理について、停止(固定)時にサーバ12でARコンテンツをキャッシュしておく。停止状態の場合は、サーバ12側での合成処理時に、サーバ側で保持しておいた停止前の直前のARコンテンツをカメラ画像と合成して表示する。サーバ12側で保存しておいた停止前の直前のARコンテンツをカメラ画像と合成ことで、ARマーカ情報からARコンテンツを取得する処理を省略することができ、合成画像を生成して表示するまでの処理時間を短縮することができる。
これにより、例えばHMD等の低スペックの端末11との連携も可能となり、遠隔支援者は、現場のカメラ画像だけでなく、ARコンテンツとの共有も可能となる。したが現場の作業員又は遠隔支援者の何れもがて、ARコンテンツを利用でき、端末11側では、可能な限り既存の処理以外の追加処理を実施しないようにすることができる。
<端末制御処理及び画像生成処理の一例>
次に、本実施形態における端末11の端末制御処理及びサーバ12の画像生成処理の一例について、フローチャート等を用いて説明する。なお、以下に示す各実施例では、端末11側での処理と、端末11側の処理に対応するサーバ12側での処理とをそれぞれ説明する。
<第1実施例>
図9は、第1実施例における端末側の端末制御処理の一例を示すフローチャートである。図9の例において、端末11は、カメラ(撮像部22)で対象の領域を撮像し(S01)、撮像したカメラ画像(撮像画像)を表示部24の画面に表示する(S02)。
次に、端末11の検出部25は、表示部24に表示しているカメラ画像から一又は複数のARマーカ(カメラ画像に含まれるARマーカの画像)を検出しているか否かを判断する(S03)。検出部25は、ARマーカを検出している場合(S03において、YES)、検出したARマーカIDに停止(固定)状態でないものが存在するか否かを判断する(S04)。停止状態とは、後述するように、ユーザによる端末11への操作等により、画面表示中のARコンテンツの表示を停止する指示がなされているか(解除されていないか)を判断するものである。
停止状態でないものが存在する場合(S04において、YES)、停止していないARマーカ情報(例えば、ARマーカID及び位置情報等)とカメラ画像をサーバ12に送る(S05)。なお、S05の処理では、ARマーカ情報ではなく、ARマーカIDに対応付けられた一又は複数のARコンテンツIDを取得し、取得したARコンテンツID及び位置情報をサーバ12に送信してもよい。この場合、位置情報は、ARコンテンツの画面上の位置座標でもよく、ARマーカの位置情報でもよく、ARマーカの位置情報を基準にした相対位置座標等でもよい。
次に、取得部26は、ARマーカ情報から一又は複数のARコンテンツを取得する(S06)。次に、取得したARコンテンツの表示位置がカメラ画像からはみ出しているか否かを判断し(S07)、はみ出していない場合(S07において、NO)、ARコンテンツをカメラ画像に重畳表示する(S08)。
また、S03の処理において、ARマーカを検出していない場合(S03において、NO)、S04の処理において、検出したARマーカIDに停止状態でないものが存在しない場合(S04において、NO)、カメラ画像をサーバ12に送信する(S09)。なお、S04の処理において、検出したARマーカIDに停止状態でないものが存在しない場合とは、全てのARマーカIDに対応するARコンテンツが停止状態であり、全てのARコンテンツがすでにカメラ画像に対して固定で重畳表示されている状態を示している。
また、S07の処理において、取得したARコンテンツの表示位置がカメラ画像からはみ出している場合(S07において、YES)、すなわちARコンテンツの表示位置がカメラ画像上の位置にない場合、S08の処理後、又はS09の処理後、処理を終了する。
図10は、第1実施例におけるサーバ側の画面生成処理の一例を示すフローチャートである。図10の例において、サーバ12の通信部51は、端末11から送信された情報を取得し(S11)、端末11から送信された情報が、カメラ画像のみか否かを判断する(S12)。カメラ画像のみでない場合(S12において、NO)、取得部54は、停止していないARマーカ情報から一又は複数のARコンテンツを取得する(S13)。なお、S13の処理では、例えば端末11からARコンテンツIDを受信した場合には、ARコンテンツIDに対応付けられた一又は複数のARコンテンツを取得してもよい。
また、合成部55は、取得したARコンテンツの表示位置がカメラ画像からはみ出しているか否かを判断する(S14)。はみ出していない場合(S14において、YES)、合成部55は、ARコンテンツとカメラ画像とを合成する(S15)。
また、S12の処理において、端末11から送信された情報がカメラ画像のみである場合(S12において、YES)、S14の処理において、取得したARコンテンツの表示位置が、カメラ画像からはみ出している場合(S14において、YES)、又はS15の処理後、記憶部52等にキャッシュしたARコンテンツが存在するか否かを判断する(S16)。記憶部52等にキャッシュしたARコンテンツが存在する場合(S16において、YES)、合成部55は、キャッシュしたARコンテンツとカメラ画像とを合成する(S17)。また、S16の処理において、キャッシュしたARコンテンツが存在しない場合(S16において、NO)、又はS17の処理後、画像を表示部53等に表示して(S18)、処理を終了する。
<第2実施例>
次に、第2実施例についてフローチャートを用いて説明する。第2実施例では、第1実施例の状態から画面上のARコンテンツを停止(固定)する(新たに停止する)例について、図を用いて説明する。
図11は、第2実施例における端末側の端末制御処理の一例を示すフローチャートである。図11の例において、S21〜S24は、上述した第1実施例におけるS01〜S04と同様の処理を行うため、ここでの具体的な説明は省略する。S24の処理において、検出したARマーカIDに停止状態でないものが存在する場合(S24において、YES)、表示制御部28は、ARコンテンツを指定して停止ボタンが押されたことを受け付ける(S25)。次に、表示制御部28は、停止するARマーカIDを停止したARマーカID一覧(例えば、リスト情報等)として記憶部23等に記録する(S26)。
次に、停止するARマーカ情報と停止していないARマーカ情報とカメラ画像とをサーバ12に送る(S27)。なお、S27の処理については、ARマーカ情報ではなく、ARマーカ情報から取得したARコンテンツID等でもよい。次に、取得部26は、ARマーカ情報からARコンテンツを取得する(S28)。
次に、取得したARコンテンツの表示位置がカメラ画像からはみ出しているか否かを判断し(S29)、はみ出していない場合(S29において、NO)、ARコンテンツをカメラ画像に重畳表示する(S30)。また、S23の処理において、ARマーカを検出していない場合(S23において、NO)、S24の処理において、検出したARマーカIDに停止状態でないものが存在する場合(S24において、NO)、カメラ画像をサーバ12に送信する(S31)。なお、S24の処理において、検出したARマーカIDに停止状態でないものが存在しない場合とは、全てのARマーカIDに対応するARコンテンツが停止状態であり、全てのARコンテンツがすでにカメラ画像に対して固定で重畳表示されている状態を示している。
また、S29の処理において、取得したARコンテンツの表示位置がカメラ画像からはみ出している場合(S29において、YES)、すなわちARコンテンツの表示位置がカメラ画像上の位置にない場合、S30の処理後、又はS31の処理後、処理を終了する。
図12は、第2実施例におけるサーバ側の画面生成処理の一例を示すフローチャートである。図12の例において、S41〜S42は、上述した第1実施例におけるS11〜S12と同様の処理を行うため、ここでの具体的な説明は省略する。S42の処理において、カメラ画像のみの場合(S42において、NO)、取得部54は、ARマーカ情報から一又は複数のARコンテンツを取得し(S43)、停止するARコンテンツをキャッシュする(S44)。なお、S43の処理では、ARマーカ情報ではなく、ARコンテンツID等からARコンテンツを取得してもよい。また、S44の処理では、ARコンテンツの位置情報もキャッシュされる。
また、図12の例において、S45〜S49は、上述した第1実施例におけるS14〜S18と同様の処理を行うため、ここでの具体的な説明は省略する。
<第3実施例>
次に、第3実施例についてフローチャートを用いて説明する。第3実施例では、第2実施例において設定したARコンテンツの停止を解除する(新たに解除する)例を示す。
図13は、第3実施例における端末側の端末制御処理の一例を示すフローチャートである。図13の例において、S51〜S54は、上述した第1実施例におけるS01〜S04と同様の処理を行うため、ここでの具体的な説明は省略する。S54の処理において、検出したARマーカIDに停止状態でないものが存在する場合(S54において、YES)、ARコンテンツを指定して停止解除ボタンが押されたことを受け付ける(S55)。次に、検出部25は、記憶部23から、停止を解除するARマーカIDを停止したARマーカID一覧から削除する(S56)。また、停止を解除するARマーカ情報と停止していないARマーカ情報とカメラ画像とをサーバ12に送る(S57)。
次に、取得部26は、ARマーカ情報から一又は複数のARコンテンツを取得する(S58)。次に、取得したARコンテンツの表示位置がカメラ画像からはみ出しているか否かを判断し(S59)、はみ出していない場合(S59において、NO)、ARコンテンツをカメラ画像に重畳表示する(S60)。
また、S53の処理において、ARマーカを検出していない場合(S53において、NO)、S54の処理において、検出したARマーカIDに停止状態でないものが存在する場合(S54において、NO)、ARコンテンツを指定して停止解除ボタンが押されたことを受け付ける(S61)。なお、S54の処理において、検出したARマーカIDに停止状態でないものが存在しない場合とは、全てのARマーカIDに対応するARコンテンツが停止状態であり、全てのARコンテンツがすでにカメラ画像に対して固定で重畳表示されている状態を示している。
次に、検出部25は、記憶部23から、停止を解除するARマーカIDを停止したARマーカID一覧から削除する(S62)。また、停止を解除するARマーカ情報とカメラ画像とをサーバ12に送る(S63)。
また、S59の処理において、取得したARコンテンツの表示位置がカメラ画像からはみ出している場合(S59において、YES)、すなわちARコンテンツの表示位置がカメラ画像上の位置にない場合、S60の処理後、又はS63の処理後、処理を終了する。
図14は、第3実施例におけるサーバ側の画面生成処理の一例を示すフローチャートである。図14の例において、サーバ12の通信部51は、端末11から送信された情報を取得し(S71)、停止を解除するARコンテンツのキャッシュを削除する(S72)。次に、端末11から送信された情報に、停止を解除した又は停止していないARマーカ情報を含むか否かを判断し(S73)、停止を解除した又は停止していないARマーカ情報を含む場合(S73において、YES)、ARマーカ情報から一又は複数のARコンテンツを取得する(S74)。次に、合成部55は、取得したARコンテンツの表示位置がカメラ画像からはみ出しているか否かを判断する(S75)。はみ出していない場合(S75において、NO)、合成部55は、ARコンテンツとカメラ画像とを合成する(S76)。
次に、キャッシュしたARコンテンツが存在するか否かを判断し(S77)、キャッシュしたARコンテンツが存在する場合(S78において、YES)、合成部55は、キャッシュしたARコンテンツとカメラ画像とを合成する(S78)。
次に、S78の処理後、S73の処理において、端末11から送信された情報に、停止を解除した又は停止していないARマーカ情報を含まない場合(S73において、NO)、S75の処理において、ARコンテンツの表示位置がカメラ画像からはみ出している場合(S75において、YES)、S77の処理において、キャッシュしたARコンテンツが存在しない場合(S77において、NO)、画像を表示部53に表示して(S79)、処理を終了する。
ここで、図15は、ARコンテンツの停止状態及び停止解除状態を説明するための図である。上述した第2実施例では、例えば図15(A)に示すように、ユーザ80が操作する端末11の画面81−1に表示されている撮像画像中には、現実空間上の物体82−1(物体A),物体82−2(物体B)が表示されている。また、撮像画像には、ARマーカ83の画像が含まれており、ARマーカ83に対応するARコンテンツ84が表示されている。ARコンテンツ84は、マニュアルに関するARコンテンツであるが、これに限定されるものではない。また、画面生成部27は、画面81−1上に停止ボタン85を生成している。なお、停止ボタン85の位置や大きさ等については、図15(A)の例に限定されるものではない。
ここで、本実施形態では、ARマーカ83を認識してARコンテンツ84を表示した後に、そのARコンテンツ84を参照しながらARマーカ83が画面に映らない(撮像画像から検出されない)位置に移動する際、表示制御部28等によるARコンテンツ84の固定(提示)表示制御を行う。
例えば、図15(A)の状態からユーザ80が、物体82−2(物体B)の位置に移動してARコンテンツ84のマニュアルを見ながら作業したいと思った場合、画面81−1上の画面生成部27が生成した停止ボタン85を押下する。
このとき、ARコンテンツ84が複数表示されている場合に、停止するARコンテンツの表示領域をタッチすることで、対象のARコンテンツ84を選択してもよい。また、ARマーカ83が複数表示されている場合に、停止するARマーカ83の表示領域をタッチすることで、タッチしたARマーカ83に対応付けられたARコンテンツ84を選択してもよい。
これにより、図15(B)に示すように、ARコンテンツ84を停止(固定)することで、ARマーカ83が検出できない場所へ端末11を移動させても、物体82−2(物体B)の近くまで移動してマニュアル(ARコンテンツ84)を見ながら作業ができる。もし、他のARマーカ等が移動中の撮影が画像から検出されれば、対象のARコンテンツが表示されるが、そのARコンテンツは、停止されずに表示される。
また、ユーザ80は、固定表示されたARコンテンツ84に対して、図15(B)に示すように、画面81−2に設けられた停止解除ボタン86を選択することで、ARコンテンツ84の停止(固定)表示は解除される。なお、停止解除ボタン86の位置や大きさ等については、図15(B)の例に限定されるものではない。解除された状態において、画面81−2に表示されている撮像画像には、ARマーカ83が表示されていないため、ARコンテンツ84は、表示されなくなる。
上述したARコンテンツの停止状態及び停止解除状態を、端末11では重畳表示により画面に表示し、サーバ12では合成画像により画面に表示する。なお、上述した停止ボタン85は、画面81−1上の停止していない全てのARコンテンツ又はARマーカに対して一括で停止させる停止ボタンを設けていてもよく、そのボタンが押下された場合には、全てのARコンテンツを容易に停止させることができる。
<第4実施例>
次に、第4実施例についてフローチャートを用いて説明する。第4実施例では、ARコンテンツを一括で停止する例を示す。図16は、第4実施例における端末側の端末制御処理の一例を示すフローチャートである。図16の例において、端末11は、カメラ(撮像部22)で対象の領域を撮像し(S81)、撮像したカメラ画像を表示部24の画面に表示する(S82)。
次に、ユーザ操作等により画面から全てを停止するボタンが押されたことを受け付けると(S83)、端末11の検出部25は、表示部24に表示しているカメラ画像からARマーカ(カメラ画像に含まれるARマーカの画像)を検出しているか否かを判断する(S84)。検出部25は、ARマーカを検出している場合(S84において、YES)、S83の処理で全てを停止するボタンが押される前の段階で、検出したARマーカIDに停止状態でないものが存在するか否かを判断する(S85)。
停止状態でないものが存在する場合(S85において、YES)、取得部26は、停止していないARマーカ情報に対して全てを停止する旨とカメラ画像とをサーバ12に送る(S86)。
また、S84の処理において、ARマーカを検出していない場合(S84において、NO)、S85の処理において、検出したARマーカIDに停止状態でないものが存在する場合(S85において、NO)、検出部25は、カメラ画像をサーバ12に送る(S87)。なお、S85の処理において、検出したARマーカIDに停止状態でないものが存在しない場合とは、全てのARマーカIDに対応するARコンテンツが停止状態であり、全てのARコンテンツがすでにカメラ画像に対して固定で重畳表示されている状態を示している。また、S86の処理においても、全てのARマーカIDに対応するARコンテンツが停止状態となるため、全てのARコンテンツがすでにカメラ画像に対して固定で重畳表示されている状態を示している。
図17は、第4実施例におけるサーバ側の画面生成処理の一例を示すフローチャートである。図17の例において、S91〜S93は、上述した第1実施例におけるS11〜S13と同様の処理を行うため、ここでの具体的な説明は省略する。S93の処理において、停止していないARマーカ情報からARコンテンツを取得した後、全停止であるため、全てのARコンテンツをキャッシュする(S94)。S94の処理では、ARコンテンツの位置情報もキャッシュされる。
次に、合成部55は、取得したARコンテンツの表示位置がカメラ画像からはみ出しているか否かを判断する(S95)。はみ出していない場合(S95において、YES)、合成部55は、ARコンテンツとカメラ画像とを合成する(S96)。
また、S92の処理において、端末11から送信された情報が、カメラ画像のみである場合(S92において、YES)、S95の処理において、ARコンテンツの表示位置が、カメラ画像からはみ出している場合(S95において、YES)、又はS96の処理後、記憶部52等にキャッシュしたARコンテンツが存在するか否かを判断する(S97)。記憶部52等にキャッシュしたARコンテンツが存在する場合(S97において、YES)、合成部55は、キャッシュしたARコンテンツとカメラ画像とを合成する(S98)。また、S97の処理において、キャッシュしたARコンテンツが存在しない場合(S97において、NO)、又はS98の処理後、画像を表示部53に表示して(S99)、処理を終了する。
なお、第4実施例では、全てのARコンテンツを停止したが、これに限定されるものではなく、画像そのものを固定してもよい。また、固定を解除する場合には、第3実施例に示すように、解除用のボタン等を選択することで、固定表示を解除することができる。
上述したように、本実施形態によれば、端末の処理負荷を軽減することができる。例えば、AR動画を遠隔支援者と共有する場合に、ARコンテンツを表示する端末の性能(スペック)があまり高くなくても滑らかな画面を共有することができる。
例えば、本実施形態では、端末でARコンテンツとカメラ画像とを合成するのではなく、端末からARマーカ情報とカメラ画像を送信し、サーバ側でARコンテンツをカメラ画像とを合成することで処理を高速化することができる。また、ARマーカが検出されていない場合やARコンテンツが画像外にある場合には、ARコンテンツとカメラ画像との合成処理を実施しないようにすることができる。また、ARマーカやカメラ画像の停止時は、サーバ12でキャッシュしておいた画像を使用することもできる。
以上、実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、上述した実施例の一部又は全部を組み合わせることも可能である。
なお、以上の実施例に関し、更に以下の付記を開示する。
(付記1)
撮像画像中に基準物の画像が含まれることを検出すると、前記基準物の識別情報又は前記基準物に対応付けて記憶されたコンテンツの識別情報と、前記撮像画像内における、前記基準物又は前記コンテンツの位置情報と、前記撮像画像とを、前記識別情報に対応付けて記憶されたコンテンツを前記位置情報に基づいて前記撮像画像に合成する情報処理装置に送信する、
処理をコンピュータが実行することを特徴とする端末制御方法。
(付記2)
前記撮像画像を表示する画面において、前記コンテンツを表示する位置を固定させる操作を受け付けた場合、前記操作を受け付けたことに対応する情報を前記情報処理装置に送信する、ことを特徴とする付記1に記載の端末制御方法。
(付記3)
前記コンテンツを表示する位置を固定させる操作は、前記表示画面に表示された一又は複数の基準物又はコンテンツに対して設定できることを特徴とする付記2に記載の端末制御方法。
(付記4)
前記撮像画像を表示する表示画面における、前記コンテンツを表示する位置の固定を解除する操作を受け付けた場合、前記操作を受け付けたことに対応する情報を前記情報処理装置に送信する、ことを特徴とする請求項2に記載の端末制御方法。
(付記5)
端末から送信された撮像画像と、基準物に対応する識別情報と、該基準物の位置情報とを受信し、
受信した前記識別情報に対応するコンテンツを取得し、
取得した前記コンテンツを前記撮像画像と合成した画像を生成する、
ことを特徴とする画像生成方法。
(付記6)
前記識別情報及び前記位置情報が前記端末から送られない場合、又は、前記識別情報に対応する前記コンテンツが撮像画像上の位置にない場合は、前記合成した画像を生成しないことを特徴とする付記5に記載の画像生成方法。
(付記7)
前記端末でコンテンツを表示する位置を固定する操作が行われた場合、固定前に画面に生成されている前記コンテンツを、前記固定する操作後に取得した撮像画像と合成することを特徴とする付記5又は6に記載の画像生成方法。
(付記8)
撮像画像中に基準物の画像が含まれることを検出すると、前記基準物の識別情報又は前記基準物に対応付けて記憶されたコンテンツの識別情報と、前記撮像画像内における、前記基準物又は前記コンテンツの位置情報と、前記撮像画像とを、前記識別情報に対応付けて記憶されたコンテンツを前記位置情報に基づいて前記撮像画像に合成する情報処理装置に送信する、
処理をコンピュータに実行させるための端末制御プログラム。
(付記9)
撮像画像中に基準物の画像が含まれることを検出する検出部と、
前記検出部により検出された前記基準物の識別情報又は前記基準物に対応付けて記憶されたコンテンツの識別情報と、前記撮像画像内における、前記基準物又は前記コンテンツの位置情報と、前記撮像画像とを、前記識別情報に対応付けて記憶されたコンテンツを前記位置情報に基づいて前記撮像画像に合成する情報処理装置に送信する通信部とを有することを特徴とする端末。
10 情報処理システム
11 端末
12 サーバ(情報処理装置)
13 通信ネットワーク
21 通信部
22 撮像部
23,52 記憶部
24 表示部
25 検出部
26,54 取得部
27,56 画面生成部
28 表示制御部
29,57 制御部
31 マイク
32 スピーカ
33,53 表示部
34 操作部
35 センサ部
36 電力部
37 無線部
38 近距離通信部
39,64 補助記憶装置
40,65 主記憶装置
41,66 CPU
42,63 ドライブ装置
43,68 記録媒体
51 通信部
55 合成部
61 入力装置
62 出力装置
67 ネットワーク接続装置
70 データ
71 カメラ画像(撮像画像)
72 ARマーカ情報
73,84 ARコンテンツ
74 合成画像
80 ユーザ
81 画面
82 物体
83 ARマーカ
85 停止ボタン
86 停止解除ボタン

Claims (8)

  1. 撮像画像中に基準物の画像が含まれることを検出すると、前記基準物の識別情報又は前記基準物に対応付けて記憶されたコンテンツの識別情報と、前記撮像画像内における、前記基準物又は前記コンテンツの位置情報と、前記撮像画像とを、前記識別情報に対応付けて記憶されたコンテンツを前記位置情報に基づいて前記撮像画像に合成する情報処理装置に送信する、
    処理をコンピュータが実行することを特徴とする端末制御方法。
  2. 前記撮像画像を表示する画面において、前記コンテンツを表示する位置を固定させる操作を受け付けた場合、前記操作を受け付けたことに対応する情報を前記情報処理装置に送信する、ことを特徴とする請求項1に記載の端末制御方法。
  3. 前記撮像画像を表示する表示画面における、前記コンテンツを表示する位置の固定を解除する操作を受け付けた場合、前記操作を受け付けたことに対応する情報を前記情報処理装置に送信する、ことを特徴とする請求項2に記載の端末制御方法。
  4. 端末から送信された撮像画像と、基準物に対応する識別情報と、該基準物の位置情報とを受信し、
    受信した前記識別情報に対応するコンテンツを取得し、
    取得した前記コンテンツを前記撮像画像と合成した画像を生成する、
    ことを特徴とする画像生成方法。
  5. 前記識別情報及び前記位置情報が前記端末から送られない場合、又は、前記識別情報に対応する前記コンテンツが撮像画像上の位置にない場合は、前記合成した画像を生成しないことを特徴とする請求項4に記載の画像生成方法。
  6. 前記端末でコンテンツを表示する位置を固定する操作が行われた場合、固定前に画面に生成されている前記コンテンツを、前記固定する操作後に取得した撮像画像と合成することを特徴とする請求項4又は5に記載の画像生成方法。
  7. 撮像画像中に基準物の画像が含まれることを検出すると、前記基準物の識別情報又は前記基準物に対応付けて記憶されたコンテンツの識別情報と、前記撮像画像内における、前記基準物又は前記コンテンツの位置情報と、前記撮像画像とを、前記識別情報に対応付けて記憶されたコンテンツを前記位置情報に基づいて前記撮像画像に合成する情報処理装置に送信する、
    処理をコンピュータに実行させるための端末制御プログラム。
  8. 撮像画像中に基準物の画像が含まれることを検出する検出部と、
    前記検出部により検出された前記基準物の識別情報又は前記基準物に対応付けて記憶されたコンテンツの識別情報と、前記撮像画像内における、前記基準物又は前記コンテンツの位置情報と、前記撮像画像とを、前記識別情報に対応付けて記憶されたコンテンツを前記位置情報に基づいて前記撮像画像に合成する情報処理装置に送信する通信部とを有することを特徴とする端末。
JP2015133643A 2015-07-02 2015-07-02 端末制御方法、画像生成方法、端末制御プログラム、及び端末 Pending JP2017016466A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015133643A JP2017016466A (ja) 2015-07-02 2015-07-02 端末制御方法、画像生成方法、端末制御プログラム、及び端末
US15/195,435 US10163266B2 (en) 2015-07-02 2016-06-28 Terminal control method, image generating method, and terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015133643A JP2017016466A (ja) 2015-07-02 2015-07-02 端末制御方法、画像生成方法、端末制御プログラム、及び端末

Publications (1)

Publication Number Publication Date
JP2017016466A true JP2017016466A (ja) 2017-01-19

Family

ID=57683260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015133643A Pending JP2017016466A (ja) 2015-07-02 2015-07-02 端末制御方法、画像生成方法、端末制御プログラム、及び端末

Country Status (2)

Country Link
US (1) US10163266B2 (ja)
JP (1) JP2017016466A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019114135A (ja) * 2017-12-25 2019-07-11 凸版印刷株式会社 拡張現実(ar)映像の現実感を向上するar情報表示方法及びプログラム
KR200489627Y1 (ko) * 2019-06-11 2019-07-12 황영진 증강현실을 이용한 멀티플레이 교육 시스템
JP2021051498A (ja) * 2019-09-24 2021-04-01 東芝テック株式会社 情報処理システム、情報処理装置及びプログラム
WO2021172137A1 (ja) * 2020-02-28 2021-09-02 株式会社Nttドコモ コンテンツ共有システム及び端末

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9589000B2 (en) * 2012-08-30 2017-03-07 Atheer, Inc. Method and apparatus for content association and history tracking in virtual and augmented reality
US10503977B2 (en) * 2015-09-18 2019-12-10 Hewlett-Packard Development Company, L.P. Displaying augmented images via paired devices
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
US11056022B1 (en) * 2016-11-29 2021-07-06 Sproutel, Inc. System, apparatus, and method for creating an interactive augmented reality experience to simulate medical procedures for pediatric disease education
US10748450B1 (en) * 2016-11-29 2020-08-18 Sproutel, Inc. System, apparatus, and method for creating an interactive augmented reality experience to simulate medical procedures for pediatric disease education
CN107038408A (zh) 2017-01-11 2017-08-11 阿里巴巴集团控股有限公司 基于增强现实的图像识别方法及装置
US20190236844A1 (en) * 2018-02-01 2019-08-01 Isg Central Services Limited Augmented reality system
US10645092B1 (en) * 2019-01-03 2020-05-05 Truly Social Games Llc Control and/or verification of interactions of an augmented reality deployment
US11277574B1 (en) * 2020-04-01 2022-03-15 Sunrise R&D Holdings, Llc Methods and systems for mapping camera location and selecting a desired view in a video management system
US11295135B2 (en) * 2020-05-29 2022-04-05 Corning Research & Development Corporation Asset tracking of communication equipment via mixed reality based labeling
US11374808B2 (en) 2020-05-29 2022-06-28 Corning Research & Development Corporation Automated logging of patching operations via mixed reality based labeling

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1051711A (ja) * 1996-08-05 1998-02-20 Sony Corp 3次元仮想物体表示装置および方法
JP2011010126A (ja) * 2009-06-26 2011-01-13 Canon Inc 画像処理装置、画像処理方法
JP2011107893A (ja) * 2009-11-16 2011-06-02 Sony Corp 情報処理装置、情報処理方法、プログラムおよび情報処理システム
JP2013092964A (ja) * 2011-10-27 2013-05-16 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2014203377A (ja) * 2013-04-09 2014-10-27 ソニー株式会社 画像処理装置および記憶媒体

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5765019B2 (ja) * 2011-03-31 2015-08-19 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
JP2012215989A (ja) 2011-03-31 2012-11-08 Toppan Printing Co Ltd 拡張現実表示方法
JP6323040B2 (ja) * 2014-02-12 2018-05-16 株式会社リコー 画像処理装置、画像処理方法およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1051711A (ja) * 1996-08-05 1998-02-20 Sony Corp 3次元仮想物体表示装置および方法
JP2011010126A (ja) * 2009-06-26 2011-01-13 Canon Inc 画像処理装置、画像処理方法
JP2011107893A (ja) * 2009-11-16 2011-06-02 Sony Corp 情報処理装置、情報処理方法、プログラムおよび情報処理システム
JP2013092964A (ja) * 2011-10-27 2013-05-16 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2014203377A (ja) * 2013-04-09 2014-10-27 ソニー株式会社 画像処理装置および記憶媒体

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019114135A (ja) * 2017-12-25 2019-07-11 凸版印刷株式会社 拡張現実(ar)映像の現実感を向上するar情報表示方法及びプログラム
JP7172034B2 (ja) 2017-12-25 2022-11-16 凸版印刷株式会社 拡張現実(ar)映像の現実感を向上するar情報表示方法及びプログラム
KR200489627Y1 (ko) * 2019-06-11 2019-07-12 황영진 증강현실을 이용한 멀티플레이 교육 시스템
JP2021051498A (ja) * 2019-09-24 2021-04-01 東芝テック株式会社 情報処理システム、情報処理装置及びプログラム
WO2021172137A1 (ja) * 2020-02-28 2021-09-02 株式会社Nttドコモ コンテンツ共有システム及び端末

Also Published As

Publication number Publication date
US20170004382A1 (en) 2017-01-05
US10163266B2 (en) 2018-12-25

Similar Documents

Publication Publication Date Title
JP2017016466A (ja) 端末制御方法、画像生成方法、端末制御プログラム、及び端末
WO2021018008A1 (zh) 一种投屏方法与电子设备
CN107885533B (zh) 管理组件代码的方法及装置
JP6421670B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
JP6573755B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
US10319110B2 (en) Display control method and system
JP6424601B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
JP6244954B2 (ja) 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
JP6582626B2 (ja) 送信制御方法、表示端末および送信制御プログラム
US11954200B2 (en) Control information processing method and apparatus, electronic device, and storage medium
JP6217437B2 (ja) 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
CN109922356B (zh) 视频推荐方法、装置和计算机可读存储介质
JP6524706B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
CN111131531B (zh) 聊天群组中的昵称生成方法、装置及可读存储介质
JP6543924B2 (ja) 情報処理方法、情報処理プログラム、及び情報処理装置
US20160284130A1 (en) Display control method and information processing apparatus
JP2017212510A (ja) 画像管理装置、プログラム、画像管理システム及び情報端末
JP6481456B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
CN113206781A (zh) 客户端控制方法、装置、设备及存储介质
WO2022199102A1 (zh) 图像处理方法及装置
CN109033473B (zh) 图片分享方法、装置和计算机可读存储介质
JP6374203B2 (ja) 表示システム及びプログラム
CN110569064A (zh) 接口标识生成方法、装置、设备及存储介质
JP6308842B2 (ja) 表示システム及びプログラム
CN110134902A (zh) 资料信息生成方法、装置及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190614

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191126