JP6573755B2 - 表示制御方法、情報処理プログラム、及び情報処理装置 - Google Patents

表示制御方法、情報処理プログラム、及び情報処理装置 Download PDF

Info

Publication number
JP6573755B2
JP6573755B2 JP2014142394A JP2014142394A JP6573755B2 JP 6573755 B2 JP6573755 B2 JP 6573755B2 JP 2014142394 A JP2014142394 A JP 2014142394A JP 2014142394 A JP2014142394 A JP 2014142394A JP 6573755 B2 JP6573755 B2 JP 6573755B2
Authority
JP
Japan
Prior art keywords
content
data
marker
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014142394A
Other languages
English (en)
Other versions
JP2016018487A (ja
Inventor
奨 古賀
奨 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014142394A priority Critical patent/JP6573755B2/ja
Priority to US14/716,066 priority patent/US20160012612A1/en
Publication of JP2016018487A publication Critical patent/JP2016018487A/ja
Application granted granted Critical
Publication of JP6573755B2 publication Critical patent/JP6573755B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/395Arrangements specially adapted for transferring the contents of the bit-mapped memory to the screen
    • G09G5/397Arrangements specially adapted for transferring the contents of two or more bit-mapped memories to the screen simultaneously, e.g. for mixing or overlay
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports

Description

本発明は、表示制御方法、情報処理プログラム、及び情報処理装置に関する。
カメラ等の撮像部により撮像された画像の一部に画像等のコンテンツを重畳して表示させる拡張現実(Augmented Reality:AR)技術が知られている。AR技術では、撮像画像から認識されたARマーカ(基準物)に対する位置情報や識別情報(マーカID)に基づき、拡張空間に重畳して表示されるコンテンツ(以下、必要に応じて「ARコンテンツ」という)を配置する。
重畳用データであるARコンテンツを重畳表示する利点の一つは、現実に存在しないARコンテンツを、撮像画像における予め定義された位置に重ね合わせて表示することで、撮像画像内に写っている実物体(実空間に存在する物体)に対応付けられたかのようにARコンテンツを表示できる点である。したがって、実物体に対する注意事項や操作方法等の付加的な情報を閲覧者に与えることができる。
なお、撮像画像に重畳してARコンテンツを表示する場合には、領域上の制限や撮影角度等により、表示されるARコンテンツ同士が重なってしまい、後方に存在するARコンテンツが、前方に存在するARコンテンツにより隠れてしまったり、後方のARコンテンツが選択できなくなる等の問題が生じる。そのため、重なって表示されているARコンテンツを重ならないように再配置して表示する制御が行われている。
特開2012−198668号公報
しかしながら、上述したように、再配置によりARコンテンツ(重畳用データ)の表示位置が変わると、閲覧者は、実物体に対応付けられた付加情報を適切に把握できない。また、ARコンテンツを追加する場合に、他のARコンテンツに重ならないように配置したとしても、ARマーカの位置を基準とした相対位置にARコンテンツが配置されるため、ARマーカの認識位置や角度が異なれば、ARコンテンツが重なってしまう。
一つの側面では、本発明は、実物体と重畳用データとの位置関係を保持した状態で、重畳用データを適切に表示することを目的とする。
一つの態様では、表示部に表示すべき画像データに基準物が含まれている場合、該基準物に対応する重畳用データを前記画像データに重畳して表示する表示制御方法であって、前記表示部に表示される基準物に対応付けられた第1の重畳用データの少なくとも一部が、該基準物に対応付けられた第2の重畳用データにより隠れた状態であり、かつ、前記第1の重畳用データが選択状態でない場合に前記第2の重畳用データに対する第1の操作を受け付けると、前記第1の重畳用データを選択状態に遷移させ、前記第2の重畳用データにより少なくとも一部が隠れた状態である前記第1の重畳用データが選択状態である場合に前記第2の重畳用データに対する第2の操作を受け付けると、前記第1の重畳用データに応じた情報を出力する。
一つの側面として、実物体と重畳用データとの位置関係を保持した状態で、重畳用データを適切に表示することができる。
情報処理システムの概略構成の一例を示す図である。 サーバの機能構成例を示す図である。 端末装置の機能構成の一例を示す図である。 サーバのハードウェア構成の一例を示す図である。 端末装置のハードウェア構成の一例を示す図である。 サーバ側のデータ例を示す図である。 端末装置側のデータ例を示す図である。 オーサリング処理の一例を示すフローチャートである。 表示制御処理の第1実施例を示すフローチャートである。 フォーカス遷移処理の一例を示すフローチャートである。 第1実施例における画面表示例を示す図(その1)である。 第1実施例における画面表示例を示す図(その2)である。 表示制御処理の第2実施例を示すフローチャートである。 第2実施例における表示画面例を示す図である。 表示制御処理の第3実施例を示すフローチャートである。 重なり判定処理の一例を示すフローチャートである。 第3実施形態における表示画面例を示す図である。
以下、図面に基づいて実施形態を説明する。
<情報処理システムの概略構成例>
図1は、情報処理システムの概略構成の一例を示す図である。図1に示す情報処理システム10は、サーバ11と、情報処理装置の一例としての1又は複数の端末装置12−1〜12−n(以下、必要に応じて「端末装置12」と総称する)とを有する。サーバ11及び端末装置12は、例えば通信ネットワーク13によりデータの送受信が可能な状態で接続されている。
サーバ11は、基準物の一例としてのARマーカや、各ARマーカの識別情報(例えば、マーカID)に対応付けて登録された1又は複数のARコンテンツ等を管理する。ARマーカとは、例えばARコンテンツ等の各種コンテンツ情報の内容や表示する位置等を指定するための標識となるものである。ARマーカは、例えば二次元コード等のように、所定の領域内に所定の模様や文字パターン等が形成された画像や物体等であるが、これに限定されるものではない。基準物の一例としては、ARマーカに限定されるものではなく、例えば壁掛け時計や絵画、壁紙、置物、配管、椅子、机等の実物体であってもよい。この場合、基準物の認識は、例えば実物体の形状や色(例えば、輝度情報等)、模様等に対応する特徴情報と、予め設定された基準物毎の特徴情報とを比較して、実物体を特定することで、その実物体に対応する識別情報(ID)を上述したマーカIDとして用いることができる。
ARコンテンツとは、例えば現実空間に対応する三次元の仮想空間上に配置された物体のモデルデータ等であり、例えば端末装置12で撮影された画像に重畳して表示される重畳用データ(オブジェクト情報)である。また、ARコンテンツは、例えば撮影画像中に含まれるARマーカを基準とした相対座標(マーカ座標系)で設定された位置に表示される。マーカ座標系は、例えば三次元空間座標系(X,Y,Z)であるが、これに限定されるものはなく、二次元平面座標系(X,Y)でもよい。
本実施形態のARコンテンツは、マーカID等に対応付けられており、例えばテキスト、アイコン、アニメーション、マーク、模様、画像、映像等の様々な形態が含まれる。また、ARコンテンツは、表示出力されるものに限定されず、例えば音声等の情報であってもよい。
サーバ11は、例えば端末装置12におけるARコンテンツの設定処理(オーサリング処理)により、端末装置12から得られるARマーカに関する情報(例えば、マーカID、ARマーカの位置情報等)と、ARマーカの位置を基準とする相対位置に設定されたARコンテンツとを登録する。また、サーバ11は、端末装置12におけるオーサリング処理により、端末装置12からマーカIDに対応する1又は複数のARコンテンツの設定情報を取得した場合に、そのARコンテンツ情報(例えば、ARコンテンツID、座標値、回転角度、拡縮情報、ARコンテンツ格納先情報等)を登録して管理する。また、サーバ11は、端末装置12から、ARコンテンツの取得要求等を受信した場合には、端末装置12から送信されたマーカIDに対応させて、予め登録されたARコンテンツに関する情報を抽出し、抽出した情報を端末装置12に送信する。
サーバ11は、例えばPersonal Computer(PC)等でもよいが、これに限定されるものではなく、例えば一以上の処理装置を有するクラウドコンピューティングにより構成されるクラウドサーバ等であってもよい。
端末装置12は、取得画像に含まれるARマーカに対応させて、取得画像に重畳表示させるARコンテンツを設定する処理(以下、必要に応じて「オーサリング処理」)というを行う。また、端末装置12は、取得画像に含まれるARマーカを認識し、認識したARマーカに対応して、既に設定されているARコンテンツを取得画像に重畳表示して出力する処理を行う。
例えば、端末装置12は、オーサリング処理では、内蔵カメラ等の撮像部により実空間上の対象物(例えば、配管やサーバラック等の管理(点検)対象物等)付近に設置されたARマーカを撮影して画像を取得する。また、端末装置12は、外部装置により撮影されたARマーカを含む画像を通信ネットワーク13等を介して取得してもよい。
また、端末装置12は、取得した画像や映像等(以下、「取得画像」という)からARマーカを認識する。また、端末装置12は、例えば端末装置12に設けられた表示部に表示された取得画像に対し、マーカ認識により得られるマーカIDに対応させて、ARマーカの撮影位置を基準とした相対的な位置にARコンテンツを配置する。ARコンテンツを配置する際には、配置角度(回転角度)や基本サイズに対する拡縮率等を設定してもよい。端末装置12は、マーカIDに対応付けて設定されたARコンテンツ、配置した位置情報(座標位置)、回転角度、及び各拡縮率等の情報を、サーバ11に登録する。
また、端末装置12は、ARマーカに対応付けて既に登録されたARコンテンツを表示する場合、取得画像に対するマーカ認識により画像内のARマーカに対応するマーカIDを取得し、取得したマーカIDを用いてサーバ11等に対してARコンテンツの取得要求を行う。また、端末装置12は、サーバ11からマーカIDに対応するARコンテンツ情報(例えば、ARコンテンツID、座標値、回転角度、拡縮情報、ARコンテンツ格納先情報等)を取得し、取得した情報を用いて、取得画像にARコンテンツを重畳表示する。
端末装置12は、表示部に表示される特定の画像データの表示位置に基づいて、特定の画像データに対して予め決められた位置に、重畳用データを表示する。また、端末装置12は、重畳用データが、他の重畳用データの背面に存在する場合であって、その他の重畳用データに対する選択が指示された場合、その重畳用データを選択状態とする。
図1に示すような情報処理システム10を用いたARコンテンツの表示制御では、撮像画像に含まれる空間上のうち、予め設定された空間にARコンテンツを配置させる。また、本実施形態では、ARマーカとカメラ(撮像部)との位置関係に応じて、配置対象の空間の撮像部に対する投影領域を調整し、調整された投影領域内に重畳データを配置する。
また、端末装置12は、表示部の画面に表示すべき画像にARマーカ等の特定の画像データが含まれている場合、特定の画像データに対応する重畳用データを重畳して表示する。この場合、端末装置12は、表示部に表示される特定の画像データの表示位置に基づいて、特定の画像データに対して予め決められた位置に、重畳用データを表示し、重畳用データが、他の重畳用データの背面に存在する場合に、その他の重畳用データの透過率を制御して、その他の重畳用データを表示する。なお、透過率の制御とは、例えば透過率を上げて透かし画像の状態を意味するが、これに限定されるものではない。
なお、情報処理システム10では、例えばサーバ11が、端末装置12からマーカIDや端末装置12の位置情報、ARマーカを含む画像等を受信して、サーバ11側でマーカIDに対応するARコンテンツの表示制御を行ってもよい。
その場合、サーバ11は、ARマーカを含む画像に対してARコンテンツを重畳表示した画像を生成し、生成した画像を端末装置12に送信する。端末装置12は、マーカ認識により認識されたARマーカのマーカIDや、撮影した位置情報、撮像画像等の情報をサーバ11に送信し、サーバ11側で処理されたARコンテンツの重畳画像を取得して画面に表示する。
端末装置12は、例えばタブレット端末やスマートフォン、Personal Digital Assistants(PDA)、ノート型PC等であるが、これに限定されるものではなく、例えばゲーム機器、携帯電話等の通信端末であってもよい。
通信ネットワーク13は、例えばインターネットやLocal Area Network(LAN)等であるが、これに限定されるものではない。また、通信ネットワーク13は、有線でも無線でもよく、これらの組み合わせでもよい。
図1に示す情報処理システム10において、サーバ11と端末装置12とは、1対nの構成となっているが、これに限定されるものではなく、例えば複数のサーバを有していてもよい。
<サーバ11の機能構成例>
次に、上述したサーバ11の機能構成例について図を用いて説明する。図2は、サーバの機能構成例を示す図である。サーバ11は、通信部21と、記憶部22と、登録部23と、抽出部24と、制御部25とを有する。
通信部21は、通信ネットワーク13を介して端末装置12や他の装置等との間でデータの送受信を行う。通信部21は、例えば端末装置12からのARコンテンツ等の登録要求や、ARマーカに対応付けて登録するARコンテンツ情報(座標値、回転角度、拡縮率、コンテンツ情報)等を受信する。また、通信部21は、登録されたARマーカの識別情報(例えば、マーカID)等を受信し、対応するARコンテンツ情報を記憶部22等から取得して、端末装置12に送信する。
記憶部22は、本実施形態における表示制御処理等の情報処理に必要な各種情報を記憶する。記憶部22は、例えばマーカID管理テーブル、ARコンテンツ管理テーブル、端末画面管理テーブル、端末操作管理テーブル、重なり判定領域管理テーブル、領域管理テーブル等を記憶する。上述した各情報は、ユーザ識別情報(ユーザID)や各ユーザが属するグループ識別情報(グループID)等により管理されていてもよい。これにより、各ユーザや各グループ単位で異なる同一のマーカIDに対し、異なるARコンテンツを管理することができる。記憶部22に記憶される情報は、これに限定されるものではない。
登録部23は、端末装置12から得られたARコンテンツ等の各種登録情報等を登録する。例えば、登録部23は、ARマーカを識別する識別情報(マーカID)と、ARコンテンツ情報とを対応付けて登録する。登録された情報は、記憶部22に記憶される。なお、記憶される各情報は、端末装置12から得られるユーザIDやグループIDに対応付けて管理されてもよい。また、登録部23は、既に登録されているARコンテンツ情報を端末装置12からの指示により変更や更新、削除することができる。
抽出部24は、端末装置12から得られたARコンテンツの取得要求に対し、識別情報(マーカID)に基づいて記憶部22を参照し、ARコンテンツ情報を抽出する。抽出部24により抽出された判定条件やARコンテンツ等は、通信部21によりマーカIDを送信した端末装置12に送信される。
なお、抽出部24は、端末装置12からマーカIDだけでなく、位置情報や撮影画像等を取得した場合には、マーカIDに対応付けられたARコンテンツを抽出し、抽出したARコンテンツを撮影画像に重畳し、重畳した画像を端末装置12に送信してもよい。
制御部25は、サーバ11内の各構成全体を制御する。制御部25は、例えば通信部21による各種情報の送受信、記憶部22によるデータの記憶、登録部23によるARコンテンツ情報等の登録、抽出部24によるARコンテンツ情報の抽出等の処理を行う。制御部25が行う制御内容については、これに限定されるものではなく、例えばエラー処理等を行ってもよい。
<端末装置12の機能構成の一例>
次に、上述した端末装置12の機能構成例について、図を用いて説明する。図3は、端末装置の機能構成の一例を示す図である。端末装置12は、通信部31と、撮像部32と、記憶部33と、表示部34と、入力部35と、認識部36と、取得部37と、判定部38と、コンテンツ生成部39と、画像生成部40と、制御部41とを有する。
通信部31は、通信ネットワーク13を介してサーバ11や他の装置等との間でデータの送受信を行う。通信部31は、例えばオーサリング処理において、取得画像に含まれるARマーカに対応付けて取得画像の所定の位置に重畳表示するARコンテンツ等の各種設定情報(ARコンテンツ情報)をサーバ11等に送信する。取得画像は、撮像部32により撮影された画像でもよく、通信ネットワーク13を介して外部から取得した画像でもよい。
また、例えば端末装置12を用いて撮影された画像に含まれるARマーカに対応付けて既に登録されているARコンテンツを取得する場合には、認識部36によるマーカ認識により認識されたARマーカの識別情報(マーカID)をサーバ11に送信し、送信したマーカIDに対応するARコンテンツ情報等を受信する。
撮像部32は、静止画又は予め設定されたフレーム間隔で画像(動画像)を撮影する。撮像部32は、撮像した画像を制御部41へ出力したり、記憶部33に記憶させる。
記憶部33は、本実施形態における表示制御に必要な各種情報を記憶する。記憶部33は、例えばマーカID管理テーブル、ARコンテンツ管理テーブル、端末画面管理テーブル、端末操作管理テーブル、重なり判定領域管理テーブル、領域管理テーブル等を記憶する。記憶部22に記憶される情報は、これに限定されるものではない。なお、これらの情報は、端末装置12が設定した情報だけでなく、サーバ11から取得した情報も含まれる。また、設定時の情報は、サーバ11へ送信した後に削除されてもよい。
表示部34は、撮像部32により撮影された画像(撮影画像)や通信ネットワーク13を介して外部より取得した画像(取得画像)等を表示する。表示部34は、表示すべき画像データ(撮影画像や取得画像)にARマーカが含まれている場合、そのARマーカに対応するARコンテンツ(重畳用データ)を所定の位置に重畳(描画)して表示する。
例えば、表示部34は、オーサリング処理において、予め設定された「注意」、「危険」、「チェック」等の文字情報や矢印、記号、標識等のARコンテンツ等のテンプレートを表示する。また、表示部34は、画像生成部40により生成された重畳画像やコンテンツ生成部39により生成されたARコンテンツ等を表示する。表示部34は、ディスプレイやモニタ等であるが、これに限定されるものではない。
入力部35は、ユーザ等からの操作内容を入力する。例えば、表示部34がタッチパネル等である場合には、入力部35は、タッチパネル上のタッチ位置座標を取得する。また、入力部35は、タッチパネルによるマルチタッチインターフェースにより、シングルタップやダブルタップ、ロングタップ、スワイプ、フリック、ピンチイン、ピンチアウトといったユーザ操作を入力する。
端末装置12がキーボードや操作ボタン等を有する場合には、入力部35は、ユーザが選択したキーボードや操作ボタンに対応する情報を入力する。
認識部36は、入力される画像(撮影画像や取得画像)に含まれる基準物(例えば、ARマーカ)等を認識する。例えば、認識部36は、撮像部32により得られる撮影画像に対して画像認識を行い、予め設定された1又は複数のARマーカ画像とのマッチングを行ってARマーカの有無を判断する。また、認識部36は、ARマーカがあった場合に、予め設定されたARマーカに対応する識別情報を取得する。なお、ARマーカの認識手法については、これに限定されるものではなく、例えば既存のマーカ認識エンジンやマーカリーダ等を用いてARマーカの形状や模様等から識別情報を直接読み取ってもよい。また、認識部36は、ARマーカの撮像部32からの位置(座標)を取得したりARマーカの識別情報(マーカID)を取得する。なお、本実施形態では、複数の異なる基準物(ARマーカ)から同じ識別情報が得られる場合もある。
本実施形態では、例えば取得画像(表示部34に表示すべき画像データ)中に含まれる実物体(対象物)に対してARマーカを付与しておくことで、ARマーカの識別情報に対応付けられたARコンテンツとして、その物体の使用方法や作業手順、注意事項等を取得画像の所定の位置に重畳して表示させることができる。
なお、本実施形態における基準物は、ARマーカに限定されるものではなく、例えば取得画像に含まれる実物体を基準物としてもよい。この場合、認識部36は、取得画像から実物体(例えば、壁掛け時計や絵画、配管等)の特徴情報を抽出し、抽出した特徴情報と、予め登録された特徴情報とを比較し、同一又は類似度が所定値以上の特徴情報から物体を特定して、対応する識別情報を取得する。特徴情報とは、物体のエッジ情報や輝度情報等の特徴量に基づいて取得することができ、お互いの特徴情報がどの程度一致しているかに応じて物体を特定することができるが、これに限定されるものではない。
なお、認識部36は、例えば予めARマーカ又は物体の形状を規定したテンプレートを記憶部33に記憶しておき、そのテンプレートとマッチングを行うことでARマーカ又は物体を認識してもよい。
取得部37は、認識部36により読み取られたARマーカ(基準物)に対応するマーカIDをサーバ11に送信し、マーカIDに対応付けられたARコンテンツ情報の有無に関する情報を取得する。また、取得部37は、マーカIDに対応付けられたARコンテンツ情報がある場合には、そのARコンテンツ情報を取得する。
取得部37は、認識部36による認識処理を行った後、すぐに取得処理を行ってもよく、別々のタイミングで処理を行ってもよい。
判定部38は、画像生成部40により取得画像に重畳表示する複数のARコンテンツが、ARコンテンツ同士の重なり合いの有無を判定する。なお、重なり合いの有無は、予め設定された判定条件に基づいて判定することができる。判定条件としては、例えばARコンテンツ同士がどの程度重なっているか(重なり率)等により判定することができるが、これに限定されるものではない。判定部38は、例えばARコンテンツが重なり合っている場合には、その重なり順序や重なり数等を取得することができる。
また、判定部38は、ユーザ操作等によりユーザが重なり合った座標をタップしたことを判定し、その旨を制御部41に出力する。ARコンテンツ同士が重なるか否かについては、例えば、コンテンツ情報に含まれる座標値等を用いて判定することができるが、これに限定されるものではない。
コンテンツ生成部39は、ARコンテンツの位置情報、及びARコンテンツを形成する表示データと、マーカIDとを対応付けてARコンテンツ情報を生成する。ARコンテンツ情報とは、例えばARコンテンツ、座標値、回転角度、拡縮率等であるが、これに限定されるものではない。例えば、コンテンツ生成部39は、ユーザが画面上で指定した点を、ARマーカの位置を基準とした座標系(マーカ座標系)に変換することで、その変換後の座標値をARマーカに基づく相対位置情報とすることができるが、これに限定されるものではない。
画像生成部40は、ARマーカに対応付けて表示されるARコンテンツを生成する。画像生成部40は、例えば設定情報、ARコンテンツを生成する際に使用するテンプレート情報に基づき、重畳(合成)画像を生成する。また、画像生成部40は、重畳画像以外にも、種々の画像を生成する。なお、画像生成部40は、ARマーカからの相対位置を基準にARコンテンツを画像に重畳表示する。画像生成部40は、取得画像に含まれるARマーカの撮像部32からの角度に応じた射影変換を行ったARコンテンツを画面表示する。
画像生成部40は、判定部38による判定結果に基づいて、マーカIDに対応する複数のARコンテンツが重ね合って表示されるような場合には、重なり順序等に応じて所定の透過率で透過させて表示する。また、画像生成部40は、重なり数を画面に表示してもよい。
制御部41は、端末装置12が有する各構成における処理全体を制御する。制御部41は、撮像部32による画像撮影、表示部34による各種情報の画面表示、入力部35による表示制御に関する各種設定を行わせる等の処理を行う。また、制御部41は、認識部36による撮影画像に含まれるARマーカ認識、取得部37によるARコンテンツの取得、判定部38による重なり判定、コンテンツ生成部39によるARコンテンツの生成、画像生成部40による重畳画像の生成等の処理を行う。なお、制御部41における制御内容は、これに限定されるものではなく、例えばエラー処理等を行ってもよい。制御部41は、本実施形態における表示制御処理を実行するためのARアプリケーションを起動させたり、終了させることができる。
<サーバ11のハードウェア構成例>
次に、サーバ11のハードウェア構成例について、図を用いて説明する。図4は、サーバのハードウェア構成の一例を示す図である。図4の例において、サーバ11は、入力装置51と、出力装置52と、ドライブ装置53と、補助記憶装置54と、主記憶装置55と、Central Processing Unit(CPU)56と、ネットワーク接続装置57とを有し、これらはシステムバスBで相互に接続されている。
入力装置51は、ユーザ等が操作するキーボード及びマウス等のポインティングデバイスやマイクロフォン等の音声入力デバイスを有しており、ユーザ等からのプログラムの実行指示、各種操作情報、ソフトウェア等を起動するための情報等の入力を受け付ける。
出力装置52は、本実施形態における処理を行うためのコンピュータ本体(サーバ11)を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイ等を有する。出力装置52は、CPU56が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。
ここで、本実施形態において、例えばコンピュータ本体にインストールされる実行プログラムは、記録媒体58等により提供される。記録媒体58は、ドライブ装置53にセット可能である。CPU56からの制御信号に基づき、記録媒体58に格納された実行プログラムが、記録媒体58からドライブ装置53を介して補助記憶装置54にインストールされる。
補助記憶装置54は、例えばHard Disk Drive(HDD)やSolid State Drive(SSD)等のストレージ手段等である。補助記憶装置54は、CPU56からの制御信号に基づき、本実施形態における実行プログラム(情報処理(表示制御)プログラム)や、コンピュータに設けられた制御プログラム等を記憶し、必要に応じて入出力を行う。補助記憶装置54は、CPU56からの制御信号等に基づいて、記憶された各情報から必要な情報を読み出したり、書き込むことができる。
主記憶装置55は、CPU56により補助記憶装置54から読み出された実行プログラム等を格納する。主記憶装置55は、Read Only Memory(ROM)やRandom Access Memory(RAM)等である。
CPU56は、Operating System(OS)等の制御プログラム、及び主記憶装置55に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現する。プログラムの実行中に必要な各種情報等は、補助記憶装置54から取得することができ、また実行結果等を格納することもできる。
具体的には、CPU56は、例えば入力装置51から得られるプログラムの実行指示等に基づき、補助記憶装置54にインストールされたプログラムを実行させることにより、主記憶装置55上でプログラムに対応する処理を行う。例えば、CPU56は、情報処理プログラムを実行させることで、上述した登録部23によるARコンテンツ情報等の登録、抽出部24によるARコンテンツ情報等の抽出、制御部25による表示制御等の処理を行う。CPU56における処理内容は、上述した内容に限定されるものではない。CPU56により実行された内容は、必要に応じて補助記憶装置54等に記憶される。
ネットワーク接続装置57は、上述した通信ネットワーク13を介して、端末装置12や他の外部装置との通信を行う。ネットワーク接続装置57は、CPU56からの制御信号に基づき、通信ネットワーク13等と接続することにより、実行プログラムやソフトウェア、設定情報等を外部装置等から取得する。また、ネットワーク接続装置57は、プログラムを実行することで得られた実行結果を端末装置12等に提供したり、本実施形態における実行プログラム自体を外部装置等に提供してもよい。
記録媒体58は、上述したように実行プログラム等が格納されたコンピュータで読み取り可能な記録媒体である。記録媒体58は、例えばフラッシュメモリ等の半導体メモリやCD−ROM、DVD等の可搬型の記録媒体であるが、これに限定されるものではない。
図4に示すハードウェア構成に実行プログラム(例えば、情報処理プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における表示制御処理等の情報処理を実現することができる。
<端末装置12のハードウェア構成例>
次に、端末装置12のハードウェア構成例について図を用いて説明する。図5は、端末装置のハードウェア構成の一例を示す図である。図5の例において、端末装置12は、マイクロフォン(以下、「マイク」という)61と、スピーカ62と、表示部63と、操作部64と、センサ部65と、電力部66と、通信部67と、カメラ68と、補助記憶装置69と、主記憶装置70と、CPU71と、ドライブ装置72とを有し、これらはシステムバスBで相互に接続されている。
マイク61は、ユーザが発した音声や、その他の音を入力する。スピーカ62は、音データや着信音等を出力したり、通話時における相手先の音声を出力する。マイク61及びスピーカ62は、例えば、通話機能等により通話相手と会話するとき等に用いることができるが、これに限定されるものではなく、音声による情報の入出力に用いることができる。
表示部63は、ユーザに対してOSや各種アプリケーションで設定された画面を表示する。また、表示部63は、タッチパネルディスプレイ等でもよく、その場合には表示部63は、入出力部としての機能を有する。表示部63は、例えばLiquid Crystal Display(LCD)や有機Electro Luminescence(EL)等のディスプレイである。
操作部64は、表示部63の画面に表示された操作ボタンや端末装置12の外部に設けられた操作ボタン等である。操作ボタンは、例えば電源ボタンや音量調整ボタンでもよく、所定の順番で配列された文字入力用の操作キー等でもよい。
ユーザは、例えば表示部63の画面上で所定の操作を行ったり、上述した操作ボタンを押すことで、表示部63により画面上のタッチ位置が検出される。また、表示部63は、画面上に撮影画像アプリ実行結果やコンテンツやアイコン、カーソル等を表示することができる。
センサ部65は、端末装置12のある時点又は継続的な動作を検出する。例えば、センサ部65は、端末装置12の傾き角度、加速度、方向、位置等を検出するが、これに限定されるものではない。なお、センサ部65としては、例えば傾きセンサや加速度センサ、ジャイロセンサ、Global Positioning System(GPS)等であるが、これに限定されるものではない。
電力部66は、端末装置12の各構成に対して電力を供給する。電力部66は、例えばバッテリ等の内部電源であるが、これに限定されるものではない。電力部66は、電力量を常時又は所定の時間間隔で検出し、電力量の残量等を監視することもできる。
通信部67は、例えばアンテナ等を用いて基地局からの無線信号(通信データ)を受信したり、アンテナを介して無線信号を基地局に送信する通信データの送受信部である。通信部67により、通信ネットワーク13を介して基地局等からサーバ11とデータの送受信を行うことができる。
また、通信部67は、例えば赤外線通信やWi−Fi(登録商標)、Bluetooth(登録商標)等の通信手法を用いて、他の端末装置12等のコンピュータと近距離通信を行うことができる。
カメラ68は、端末装置12に内蔵された撮像部である。また、カメラ68は、端末装置12に取り付け可能な外部装置であってもよい。カメラ68は、予め設定された画角に対応する画像データを取得する。画角は、例えば撮像面の寸法(解像度)、レンズの焦点距離、倍率、レンズの歪みの度合い等のカメラパラメータにより設定される。カメラ68は、静止画像を取得してもよく、また所定のフレームレートで連続的に撮影した動画像(映像)を取得してもよい。
補助記憶装置69は、例えばHDDやSSD等のストレージ手段である。補助記憶装置69は、各種のプログラム等を記憶し、必要に応じてデータの入出力を行う。
主記憶装置70は、CPU71からの指示により補助記憶装置69から読み出された実行プログラム等を格納したり、プログラム実行中に得られる各種情報等を記憶する。主記憶装置70は、例えばROMやRAM等であるが、これに限定されるものではない。
CPU71は、OS等の制御プログラム、及び主記憶装置70に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御することで、表示制御における各処理を実現する。
具体的には、CPU71は、例えば操作部64等から得られるプログラムの実行指示等に基づき、補助記憶装置69にインストールされたプログラムを実行させることにより、主記憶装置70上でプログラムに対応する処理を行う。例えば、CPU71は、情報処理プログラムを実行させることで、上述した入力部35によるARマーカ(マーカID)に対応するARコンテンツ等の設定、認識部36によるARマーカ等の基準物の認識等の処理を行う。また、CPU71は、取得部37による特徴情報の取得、判定部38によるARコンテンツの重なり判定、コンテンツ生成部39によるARコンテンツの生成、画像生成部40による重畳画像の生成等の処理を行う。CPU71における処理内容は、上述した内容に限定されるものではない。CPU71により実行された内容は、必要に応じて補助記憶装置69等に記憶される。
ドライブ装置72は、例えば記録媒体73等を着脱自在にセットすることができ、セットした記録媒体73に記録された各種情報を読み込んだり、所定の情報を記録媒体73に書き込むことができる。ドライブ装置72は、例えば媒体装填スロット等であるが、これに限定されるものではない。
記録媒体73は、上述したように実行プログラム等を格納するコンピュータで読み取り可能な記録媒体である。記録媒体73は、例えばフラッシュメモリ等の半導体メモリであってもよい。また、記録媒体73は、USBメモリ等の可搬型記録媒体であってもよいが、これに限定されるものではない。
本実施形態では、上述したコンピュータ本体のハードウェア構成に実行プログラム(例えば、情報処理プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における表示制御処理等の情報処理を実現することができる。
また、上述した表示制御処理に対応する情報処理プログラムは、ARアプリケーションとして、例えば装置上で常駐している状態であってもよく、起動指示により起動させてもよい。
<データ例>
次に、本実施形態で適用される各種データ例について、図を用いて説明する。図6は、サーバ側のデータ例を示す図である。図6(A)は、マーカ管理テーブルの一例を示す。図6(B)は、ARコンテンツ管理テーブルの一例を示す。
図6(A)のマーカ管理テーブルの項目としては、例えば「マーカID」と、「ARコンテンツID」とを有するが、これに限定されるものではない。マーカ管理テーブルは、マーカIDに対応するARコンテンツIDを設定する。なお、マーカIDには、1又は複数のARコンテンツIDを対応付けることができる。例えばマーカID「3」には、ARコンテンツID「2」,「4」,「5」が対応付けられている。
図6(B)のARコンテンツ管理テーブルの項目としては、例えば「ARコンテンツID」、「座標値」、「回転角度」、「拡縮率」、「テクスチャパス」等を有するがこれに限定されるものではない。座標値は、マーカー座標系(ARマーカの中心を原点とした相対座標系)におけるARコンテンツの位置情報(座標値)を示す情報であるが、座標値の値はこれに限定されるものではない。
回転角度は、各ARコンテンツに対して予め設定された基本角度から三次元方向(x,y,z)にどの程度傾いているかを示す情報である。拡縮率は、各ARコンテンツに対して予め設定された大きさを基準に三次元方向にどの程度拡大又は縮小しているかを示す情報である。回転角度や拡縮率は、オーサリング処理によりユーザが設定してもよく、取得画像におけるARマーカの大きさ(ARマーカとの距離)や角度に応じた値が設定されてもよい。
テクスチャパスは、ARコンテンツに表示させるイメージファイル(画像データ)や映像データ等の格納先(パス)情報である。したがって、例えば、サーバ11以外の装置に格納されていてもよく、必要に応じて格納先からARコンテンツを取得することができる。テクスチャパスには、1又は複数のARコンテンツまた、ARコンテンツのデータフォーマットは、PNGやJPGに限定されるものではなく、例えばGIFやTIFF、AVI、WAV、MPEG等でもよい。また、ARコンテンツは、画像や映像に限定されるものではなく、音声データでもよく、その場合には対応する音声データがテクスチャパスに格納される。
上述した図6(A)に示すマーカ管理テーブル及び図6(B)に示すARコンテンツ管理テーブルは、例えばユーザ(管理者等)によるオーサリング処理において端末装置12から取得する情報であり、端末装置12側にも登録される。また、サーバ11においては、これらの情報をユーザIDやグループIDと対応付けて記憶部22に記憶してもよい。これにより、例えば同一のマーカIDを認識したとしても重畳表示するARコンテンツの内容をユーザIDやグループID等に対応させて変更することができる。
図7は、端末装置側のデータ例を示す図である。図7(A)は、マーカ管理テーブルを示す。図7(B)は、ARコンテンツ管理テーブルを示す。図7(C)は、画面管理テーブルを示す。図7(D)は、操作管理テーブルを示す。図7(E)は、重なり判定領域管理テーブルを示す。図7(F)は、領域管理テーブルを示す。
図7(A)、(B)は、上述した図6(A)、(B)と同様の構成であるため、ここでの説明は省略する。図7(C)に示す画面管理テーブルの項目としては、例えば「描画ARコンテンツID」、「描画座標値」等であるが、これに限定されるものではない。描画ARコンテンツIDは、取得画像に含まれるARマーカのマーカIDに対応させて取得した取得画像に重畳表示させるARコンテンツの識別情報である。描画座標値は、端末装置12の表示部34の画面にARコンテンツを描画した際に取得されるARコンテンツの四隅の座標値である。
四隅の座標値は、ARコンテンツ又はARコンテンツを囲む領域が矩形である場合の各角の座標値を示しているが、描画座標値の情報としてはこれに限定されるものではない。例えば、ARコンテンツが円形である場合には、その円形の中心座標及び半径の情報等が描画座標値の情報として記憶される。
描画座標値は、画像生成部40により生成され、ARマーカの認識位置や撮影角度の変化により随時更新される。例えば、描画座標値は、取得画像中におけるARマーカの撮影角度に対応させたARコンテンツの射影変換表示やARマーカの大きさによる取得画像の拡縮率等によって描画座標値が更新される。したがって、図7(C)に示す画面管理テーブルは、撮影中の映像等に合わせて所定のタイミングで随時更新される。所定のタイミングとは、所定時間間隔でもよく、フレーム数でもよく、端末装置12の移動量が所定値以上の場合でもよいが、これに限定されるものではない。
画像生成部40は、例えば取得した撮影画像に含まれるARマーカの位置や角度に基づいて、描画するARコンテンツを射影変換等により画面上の座標(スクリーン座標系)に変換する。また、画像生成部40は、変換された座標値を描画座標値として設定することができるが、これに限定されるものではなく、例えばマーカ座標系を用いてもよい。
図7(D)の示す操作管理テーブルの項目としては、例えば「操作種別」、「操作方法」等であるが、これに限定されるものではない。例えば操作種別は、本実施形態において予め設定された表示制御の内容を識別する情報である。また、操作方法は、操作種別の操作を行うための入力部35によるユーザ操作を識別するための情報である。なお、操作方法は、端末装置12毎の機能やユーザ設定等に応じて変更することができる。例えばフォーカス遷移するための操作方法として、ロングタップではなく、フリック操作等を行ってもよい。
図7(E)に示す重なり判定領域管理テーブルの項目としては、例えば「描画コンテンツID」、「重なりありのARコンテンツID」、「重なり座標値」、「関連ARコンテンツID」等であるが、これに限定されるものではない。重なりありのARコンテンツIDは、上述した描画コンテンツIDに対応するARコンテンツにおいて、部分的にも重なりのあるARコンテンツIDを識別するための情報である。また重なり座標値は、重なっている領域の四隅の座標値が設定される。図7(E)の例では、描画ARコンテンツID「2」に対してARコンテンツID「1」、「3」の2つのARコンテンツが重なっており、ARコンテンツID「1」における重なり領域の四隅の座標値が(Bo1,Bo2,Bo3,Bo4)であり、ARコンテンツID「1」における重なり領域の四隅の座標値が(Co1,Co2,Co3,Co4)であることを示している。Bo1〜Bo4,Co1〜Co4は、それぞれ二次元座標又は三次元座標を示している。関連ARコンテンツIDは、同時のフォーカス遷移が生じるARコンテンツIDを示している。
関連ARコンテンツIDは、それ自体は他のARコンテンツと重なっていないが、重なりがあるARコンテンツとの関連性があるARコンテンツである。この場合、関連ARコンテンツIDについても他のARコンテンツと重なっている関連性のあるARコンテンツと同様の表示制御を行うことができる。関連ARコンテンツとは、例えば「ひび割れ」や「水漏れ」等の文字情報を示すテキストコンテンツに対し、その「ひび割れ」や「水漏れ」の位置を指し示す矢印コンテンツ等があるが、これに限定されるものではない。関連ARコンテンツは、例えばオーサリング処理時にユーザが設定することができる。
図7(E)に示す重なり判定領域管理テーブルは、例えばARコンテンツ描画時に随時、各ARコンテンツ毎に重なり合うARコンテンツIDと、その重なりの合計値等により、どの位置にどの程度の数のARコンテンツが重なっているかを判定することができる。例えば、判定部38は、重なりがある複数のARコンテンツに対して、画面の前面から背面に向かってどの位置(領域)に、どの順序で、どの程度(数)のARコンテンツが重なっているかを判定することができる。これらの情報は、例えばARコンテンツの表示切り替え制御等で利用される。
図7(F)に示す領域管理テーブルの項目としては、例えば「重なり領域の座標値」、「重なりありのARコンテンツID」等であるが、これに限定されるものではない。重なり領域の座標値は、複数のコンテンツが重なっている領域の四隅の座標値である。四隅の座標値は、重なり領域が矩形である場合の各角の座標であるが、重なり領域の座標値の情報はこれに限定されるものではない。重なりありのARコンテンツIDは、その領域で重なっているARコンテンツの識別情報である。なお、重なり順序については、図7(F)に示す領域管理テーブルに登録される順序等を用いて判断することができる。図7(F)の例では、ARコンテンツID「1」の上にARコンテンツID「2」が重なり、更にARコンテンツID「2」の上にARコンテンツID「3」が重なっていることを示している。なお、順序についてはこれに限定されるものではなく、例えば図7(F)に示す領域管理テーブルに「順序」の項目を設けて、そこに前面からのコンテンツIDの重なり順序情報(例えば、コンテンツID「1」→「2」→「3」等)を設定してもよい。
<端末装置12におけるARコンテンツの設定処理(オーサリング処理)の一例>
次に、端末装置12におけるARコンテンツの設定処理(オーサリング処理)の一例について、フローチャートを用いて説明する。図8は、オーサリング処理の一例を示すフローチャートである。図8の例において、制御部41は、表示制御の一例であるオーサリング処理を行うためのARアプリケーションを起動する(S01)。次に、撮像部32は、撮影画像を取得する(S02)。この撮影画像は、表示部34に表示すべき画像データの一例であるが、これに限定されるものではなく、例えば通信ネットワーク13を介して外部装置で撮影された画像等を取得してもよい。
次に、認識部36は、S02の処理で取得した画像に含まれるマーカ認識を行い、ARマーカを認識したか否かを判断する(S03)。S03の処理において、ARマーカが認識された場合(S03において、YES)、コンテンツ生成部39は、入力部35からの入力情報により、認識したARマーカに対応付けて1又は複数のARコンテンツを設定し、所定の位置に配置する(S04)。
S04の処理では、予め設定された複数のARコンテンツのテンプレートから、ユーザ操作により1又は複数のARコンテンツが選択され、画面上の所定の位置に配置される。また、コンテンツ生成部39は、ユーザ操作によりARコンテンツ毎の回転角度や拡縮率等が設定される。コンテンツ生成部39は、上記のユーザ操作等により得られる各種の設定情報を取得する。
なお、S04の処理では、認識ARマーカに対応するARコンテンツが予め設定されている場合に、そのARコンテンツをサーバ11等から取得して表示部34に表示させてもよい。これにより、新たなARコンテンツを既存のARコンテンツと重ならない位置に配置したり、既存のARコンテンツの内容を変更、更新することができる。
コンテンツ生成部39は、設定した内容(ARコンテンツ情報)を通信ネットワーク13を介してサーバ11に登録する(S05)。このとき、ARコンテンツ情報は、端末装置12の記憶部33に記憶されてもよい。
S05の処理後、又はS03の処理において、ARマーカを認識しなかった場合(S03において、NO)、制御部41は、ARアプリケーションを終了するか否かを判断し(S06)、終了しない場合(S06において、NO)、S02の処理に戻る。また、ユーザ等の指示によりARアプリケーションを終了する場合(S06において、YES)、オーサリング処理を終了する。
<表示制御処理の第1実施例>
次に、本実施形態における表示制御処理の第1実施例についてフローチャートを用いて説明する。図9は、表示制御処理の第1実施例を示すフローチャートである。図9の例において、端末装置12の制御部41は、ARコンテンツを表示制御するARアプリケーションを起動する(S11)。次に、撮像部32は、撮影画像を取得する(S12)。この撮影画像が入力される画像となるが、入力画像は撮像部32からの画像に限定されるものではなく、例えば通信ネットワーク13を介して外部装置で撮影された画像を取得してもよい。
次に、認識部36は、S12の処理で取得した画像に含まれるマーカ認識を行い、ARマーカを認識したか否かを判断する(S13)。S13の処理において、ARマーカが認識された場合(S13において、YES)、取得部37は、マーカ認識により得られたARマーカに対応するマーカIDにARコンテンツが設定されているか否かを判断する(S14)。
S14の処理では、取得部37は、例えばマーカIDを用いてサーバ11に対してARコンテンツの取得要求を行い、マーカIDに対応するARコンテンツが設定されているか否かを判断してもよい。また、取得部37は、マーカIDを用いて記憶部33を参照することで、マーカIDに対応付けられたARコンテンツが設定されているか否かを判断してもよい。なお、第1実施形態では、サーバ11への問い合わせを先にしてもよく、記憶部33への参照を先に行ってもよい。サーバ11への問い合わせを行うことで、マーカIDに対してサーバ11で管理された最新のARコンテンツを取得することができる。また、記憶部33への参照を行うことで、サーバ11と通信できないような環境(通信不可)であっても記憶部33に記憶された情報を重畳表示することができる。
S14の処理において、認識したマーカIDにARコンテンツが設定されている場合(S14において、YES)、取得部37は、ARコンテンツを取得し(S15)、画像生成部40は、取得したARコンテンツをS02の撮影画像に重畳させた重畳画像を生成して表示部34に表示する(S16)。
ここで、画像生成部40は、表示部34に表示されるARコンテンツ同士の描画領域が重なるか否かを判断する(S17)。ARコンテンツ同士の描画領域が重なる場合(S17において、YES)、画像生成部40は、フォーカス遷移処理を行う(S18)。
次に、S18の処理後、S13の処理において撮影画像からARマーカを認識しなかった場合(S13において、NO)、S14の処理において認識したマーカIDにARコンテンツが設定されていない場合(S14において、NO)、又は、S17の処理においてARコンテンツ同士の描画領域が重なっていない場合(S17において、NO)、制御部41は、ARアプリケーションを終了するか否かを判断する(S19)。ARアプリケーションを終了しない場合(S19において、NO)、制御部41は、S12の処理に戻る。また、ユーザ等の指示によりARアプリケーションを終了する場合(S19において、YES)、制御部41は、表示制御処理(第1実施例)を終了する。
<S18;フォーカス遷移処理の一例>
次に、上述したS18のフォーカス遷移処理の一例について、フローチャートを用いて説明する。図10は、フォーカス遷移処理の一例を示すフローチャートである。フォーカス遷移処理では、重なり合っているARコンテンツ(重畳用データ)が、他のARコンテンツの背面に存在する場合であって、上記他のARコンテンツに対する選択が指示された場合に、上記ARコンテンツを選択状態としてフォーカスを変更する。
図10の例において、画像生成部40は、重なっているARコンテンツが選択されたか否かを判断する(S21)。重なっているARコンテンツを選択されたか否かについては、例えば入力部35から得られるユーザによる画面のタッチ位置と、ARコンテンツの表示座標値とを比較することで判断することができる。
画像生成部40は、重なっているARコンテンツが選択された場合(S21において、YES)、フォーカス遷移用のユーザ操作(例えば、ロングタップ)が入力されたか否かを判断する(S22)。フォーカス遷移用のユーザ操作とは、例えば上述した図7(D)に示す操作管理テーブル等に記憶された操作方法である。
フォーカス遷移用のユーザ操作が入力された場合(S22において、YES)、重なっている次のARコンテンツへフォーカス(選択状態)を遷移する(S23)。次のARコンテンツとは、現在フォーカスされているARコンテンツの1つ下に配置されたARコンテンツである。また、フォーカス遷移用のユーザ操作が入力されていない場合(S22において、YES)、通常の選択操作(例えば、シングルタップ)が入力されたとして、通常の選択処理を実施する(S24)。通常の選択処理とは、例えばARコンテンツに紐付けられた詳細情報を表示したり、画像を表示したり、動画を再生したり、音声を出力する等であるが、これに限定されるものではない。
また、S21の処理において、重なっているARコンテンツが選択されていない場合(S21において、NO)、特にユーザ操作が行われていないため、そのままフォーカス遷移処理を終了する。
<第1実施例における画面表示例>
次に、第1実施例における画面表示例について図を用いて説明する。図11、図12は、第1実施例における画面表示例を示す図(その1、その2)である。
図11、図12の例では、撮影画像に含まれる配管等の実物体100にARマーカ101が取り付けられている。基準物の一例としてのARマーカは、例えばバーコード、QRコード(登録商標)等の二次元コードでもよく、カラー等を用いた多次元コードでもよいが、これに限定されるものではない。また、図11、図12に示すARマーカ101ではなく、例えば壁掛け時計や机等の実物体をマーカとして用いてもよい。
また、端末装置12の表示部34には、ARマーカ101に対応付けてARコンテンツ102−1〜102−5が重畳データとして撮影画像上に表示(描画)されている。ARコンテンツ102−4は、ARコンテンツ102−1の関連ARコンテンツであり、ARコンテンツ102−5は、ARコンテンツ102−2の関連ARコンテンツである。
図11の例では、初期状態とフォーカス遷移後の画面例が示されている。図11の例では、ARコンテンツ102−1とARコンテンツ102−2とが一部の領域で重なっている。初期状態では、前面のARコンテンツ102−1にフォーカスが当たっている。ここで、ユーザが画面上のARコンテンツ102−1及びARコンテンツ102−2に対してフォーカス遷移用のユーザ操作(例えば、ロングタップ等)を行うと、背面にあるARコンテンツ102−2にフォーカスが遷移する。ロングタップする位置は、例えば図7(F)に示す領域管理テーブルに示す重なり領域内であることが好ましいがこれに限定されるものではない。例えば、図7(C)に示す画面管理テーブルに含まれるARコンテンツ102−1及びARコンテンツ102−2に対応する描画座標値で囲まれた領域内であってもよい。
図11の例では、ロングタップを繰り返すことで、重なりあったARコンテンツ間でフォーカスが逐次遷移する。したがって、図11の例では、ロングタップを繰り返す毎に2つのARコンテンツ102−1,102−2との選択状態(フォーカス)が交互に切り替わることになる。また、フォーカスされた状態で、シングルタップ(タップアクション)等を行うことで、通常の選択操作として、フォーカスされたARコンテンツの詳細情報表示(例えばWebページ表示)や画像表示、動画再生、音声出力等を行うことができる。
また、図11の例では、ロングタップ動作を繰り返すことで、ARコンテンツのフォーカスが逐次遷移する例を示したが、これに限定されるものではなく、例えば図12の例に示すように、ロングタップ実施中に所定の周期でフォーカスを逐次遷移させてもよい。
図12の例では、ロングタップを実施している間(例えば、表示部34の画面をユーザの指等でタップしてから画面を離すまでの間)、上述したように重なったARコンテンツ間でフォーカスが逐次遷移する。したがって、図12の例では、ロングタップを実施中に2つのARコンテンツ102−1,102−2との選択状態(フォーカス)が交互に切り替わることになる。
なお、所定の周期は、予め設定された固定時間(例えば、1〜3秒等)でもよく、ユーザが設定した時間でもよい。また、ARコンテンツの種別に応じた時間でフォーカスさせてもよい。これにより、例えば文字情報等を含むARコンテンツの場合に、その内容を認識できる程度の時間だけフォーカスさせ、記号やマーク等の見てすぐ認識できるARコンテンツの場合には、短いフォーカス時間に設定することができる。
また、画像生成部40は、ARコンテンツ102−1がフォーカスされている間、関連ARコンテンツであるARコンテンツ102−4もフォーカスさせることができる。また、画像生成部40は、ARコンテンツ102−2がフォーカスされている間、関連ARコンテンツであるARコンテンツ102−5もフォーカスさせることができる。これにより、関連する複数のARコンテンツの画面上で容易に把握することができる。
上述したフォーカス遷移させるユーザ操作は、ロングタップに限定されるものではない。また、第1実施例では、ユーザ操作以外の予め設定された入力情報(例えば、指示コマンド)に基づいてフォーカス遷移させてもよい。
<表示制御処理の第2実施例>
次に、本実施形態における表示制御処理の第2実施例についてフローチャートを用いて説明する。図13は、表示制御処理の第2実施例を示すフローチャートである。第2実施例では、端末装置12は、ARコンテンツ(重畳用データ)が、他のARコンテンツの背面に存在する場合に、上記他のARコンテンツの透過率を表示制御する。例えば、実施例2では、ARコンテンツの透過率を変更して透かし画像を生成することで、背面にARコンテンツがあることをユーザに認識し易くする。
図13の例において、S31〜S37の処理は、上述したS11〜S17の処理と同様であるため、ここでの具体的な説明は省略する。S37の処理において、表示部34に表示されるARコンテンツ同士の描画領域が重なる場合(S37において、YES)、画像生成部40は、重なっているARコンテンツにおいて、手前に描画されているARコンテンツの透過率を変更する(S38)。
S38の処理において、画像生成部40は、例えばARコンテンツが複数重なっている場合に、前面に描画されているARコンテンツから背面に描画されているARコンテンツに対して順番に、所定間隔で段階的に透過率を下げて表示する等の制御を行う。例えば、4つのARコンテンツが重なって表示される場合、最前面のARコンテンツの透過率に所定値(例えば、90%)を設定し、その次(背面)にあるARコンテンツの透過率を70%(−20%)、その次(背面)にあるARコンテンツの透過率を50%(更に−20%)として表示制御を行う。なお、最背面のARコンテンツは、透過させる必要がないため透過率0%(透過させない)となる。なお、透過率は、予め記憶部33等に記憶されていてもよい。また、透過率は、段階的に変更せずに固定値であってもよく、異なる間隔で下げてもよい。
次に、S38の処理後、S33の処理において撮影画像からARマーカを認識しなかった場合(S33において、NO)、S34の処理において認識したマーカIDにARコンテンツが設定されていない場合(S34において、NO)、又は、S37の処理においてARコンテンツ同士の描画領域が重なっていない場合(S37において、NO)、制御部41は、ARアプリケーションを終了するか否かを判断する(S39)。ARアプリケーションを終了しない場合(S39において、NO)、制御部41は、S32の処理に戻る。また、ユーザ等の指示によりARアプリケーションを終了する場合(S39において、YES)、制御部41は、表示制御処理(第2実施例)を終了する。
<第2実施例における表示画面例>
次に、第2実施例における表示画面例について、図を用いて説明する。図14は、第2実施例における表示画面例を示す図である。図14(A)は、透過表示を行っていない場合の画面表示例を示し、図14(B)は、第2実施例における表示画面例を示している。
図14(A)、(B)の例では、表示部34に表示された撮影画像に含まれる実物体100−1,100−2のうち、実物体100−2にARマーカ101が取り付けられている。また、端末装置12の表示部34には、ARマーカ101に対応付けてARコンテンツ102−1〜102−12が重畳データとして撮影画像上に表示(描画)されている。ARコンテンツ102−4は、ARコンテンツ102−1の関連ARコンテンツであり、ARコンテンツ102−5は、ARコンテンツ102−2の関連ARコンテンツである。また、ARコンテンツ102−10は、ARコンテンツ102−6の関連ARコンテンツであり、ARコンテンツ102−11は、ARコンテンツ102−7の関連ARコンテンツであり、ARコンテンツ102−12は、ARコンテンツ102−9の関連ARコンテンツである。
第2実施例では、例えばオーサリング時の撮影位置とARコンテンツを参照(閲覧)時の撮影位置とが異なる場合や配置領域の制限等により、図14(A)に示すようにARコンテンツが重なる場合がある。このような場合に、第2実施例では、図14(B)に示すように、重なりのあるARコンテンツの透過率を制御して表示する。
図14(B)の例では、ARコンテンツ102−1とARコンテンツ102−2とが重なっているため、前面(手前)にあるARコンテンツ102−1が透過表示される。また、図14(B)の例では、ARコンテンツ102−6とARコンテンツ102−7とが重なっているため、前面(手前)にあるARコンテンツ102−6が透過表示される。なお、図14(B)に示すARコンテンツ102−9及びARコンテンツ102−11も重なっているが、テキストコンテンツと矢印コンテンツであるため、透過制御しなくても意味を把握できる。したがって、第2実施例において、画像生成部40は、例えばARコンテンツの種別に応じて重なっているARコンテンツに対する透過制御を行わなくてもよい。
また、第2実施例では、透過制御されるARコンテンツの関連ARコンテンツに対して、同様の透過制御を行ってもよい。
なお、図14(A)に示すように、ARコンテンツが重なっている場合には、所定周期で、そのARコンテンツの表示順序を変更(背面に描画されているARコンテンツが最前面に描画されるように変更)する制御を行ってもよい。
<表示制御処理の第3実施例>
次に、本実施形態における表示制御処理の第3実施例についてフローチャートを用いて説明する。図15は、表示制御処理の第3実施例を示すフローチャートである。第3実施例では、端末装置12は、ARコンテンツ(重畳用データ)が重なっている場合に、その数をカウントし、カウントした数値を示すARコンテンツを画面表示する。これにより、例えば、背面のARコンテンツが前面のARコンテンツにより完全に隠れてしまっている場合にも、ユーザにARコンテンツが重なっていることを把握させることができる。
図15の例において、S41〜S46の処理は、上述したS11〜S16の処理と同様であるため、ここでの具体的な説明は省略する。S46の処理後、画像生成部40は、第3実施例における重なり判定処理を行う(S47)。
S47の処理では、ARコンテンツが重なっているかを判断し、重なっている場合には、その重なり数をカウントする。また、カウントした重なり数を示すARコンテンツを重なっている部分に対応付けた位置、画面に表示する。
次に、S47の処理後、S43の処理において撮影画像からARマーカを認識しなかった場合(S43において、NO)、又はS44の処理において認識したマーカIDにARコンテンツが設定されていない場合(S44において、NO)、制御部41は、ARアプリケーションを終了するか否かを判断する(S48)。ARアプリケーションを終了しない場合(S48において、NO)、制御部41は、S42の処理に戻る。また、ユーザ等の指示によりARアプリケーションを終了する場合(S48において、YES)、制御部41は、表示制御処理(第3実施例)を終了する。
<S47;重なり判定処理の一例>
次に、上述したS47の第3実施例における重なり判定処理の一例について、フローチャートを用いて説明する。図16は、重なり判定処理の一例を示すフローチャートである。図16の例において、画像生成部40は、上述した図7(C)に示す画面管理テーブルを更新し(S51)、図7(E)に示す重なり判定領域管理テーブルを更新し(S52)、図7(F)に示す領域管理テーブルを更新する(S43)。S51〜S53の処理において、画像生成部40は、現在の撮影画像と、その画像中に含まれるARマーカの位置及び角度等に基づいて、描画(重畳)するARコンテンツ毎の描画座標値や、重なりがある場合の重なり座標値、関連ARコンテンツ、重なり領域のコンテンツID等を取得する。
次に、画像生成部40は、S51〜S53の処理により更新されたテーブルを参照して、ARコンテンツ同士の重なりがあるか否かを判断し(S54)、重なりがある場合(S54のおいて、YES)、重なりがあるARコンテンツ数をARコンテンツとして表示部34に表示する(S55)。重なりがあるARコンテンツ数は、例えば図7(E)に示す重なり判定領域管理テーブルの重なりありARコンテンツIDの数をカウントしたり、図7(F)に示す領域管理テーブルから重なりありのARコンテンツIDの数をカウントして取得することができる。また、図7(F)に示す領域管理テーブルから重なり順序を取得することができる。
次に、画像生成部40は、上述した重なりがあるARコンテンツに対する上述した第1実施例におけるフォーカス遷移処理又は第2実施例における透過制御処理等を実施する(S56)。
S56の処理後、又はS54の処理において、ARコンテンツ同士の重なりがない場合(S54において、NO)、重なり判定処理を終了する。
<第3実施例における表示画面例>
次に、第3実施形態における表示画面例について図を用いて説明する。図17は、第3実施形態における表示画面例を示す図である。図17では、一例として第2実施例に対応する透過制御によるARコンテンツの表示を行っている。図17の例では、上述した図14と同様に表示部34に表示された撮影画像に含まれる実物体100−1,100−2のうち、実物体100−2にARマーカ101が取り付けられている。また、端末装置12の表示部34には、ARマーカ101に対応付けてARコンテンツ102−1〜102−12が重畳データとして撮影画像上に表示(描画)されている。
第3実施例において、画像生成部40は、上述した重なり判定処理により得られる重なりがあるARコンテンツ数を、図17に示すような所定アイコンのARコンテンツ103−1,103−2により表示する。また、画像生成部40は、ARコンテンツ103−1,103−2のそれぞれを重なり領域に対応付けて表示する。これにより、多数のARコンテンツが重なっているため、その数が把握できないような場合や前面のARコンテンツにより全部が隠れてしまっているARコンテンツがある場合に、ARコンテンツ数を適切に把握することができる。
なお、図17の例では、第3実施例を第2実施例における透過表示と組み合わせたが、例えば上述した第1実施例のフォーカス遷移処理と組み合わせてもよい。また、例えば第3実施例における重なりのあるARコンテンツ数の表示を、図14(A)に示す撮影画像上に表示して、重なっているARコンテンツを把握させてもよい。
また、図14(A)の例において、第3実施例における重なりのあるARコンテンツ数が表示された場合、重なっている各ARコンテンツを所定周期(例えば、1〜3秒)で順番に前面に表示されるような表示制御を行ってもよい。ARコンテンツ数が表示されてなく、トグル式に各ARコンテンツが順番に表示される場合には、重なっているARコンテンツの数を把握することができない。しかしながら、第3実施例に示すように重なりのあるARコンテンツ数を表示した上で、トグル式に各ARコンテンツを前面表示させることで、より適切にARコンテンツをユーザに把握させることができる。
なお、上述した第1〜第3の実施例における表示制御処理は、端末装置12側で処理を行っているが、これに限定されるものではなく、例えばサーバ11側で表示制御された画像を生成してもよい。その場合、例えばサーバ11側で上述した図7に示すような各種テーブルを管理して、各テーブルの情報や、撮影画像等を取得して上述した第1〜第3実施例に基づく画像生成を行い、生成された画像を端末装置12に出力する。
上述したように、本実施形態によれば、実物体とARコンテンツ(重畳用データ)との位置関係を保持した状態で、ユーザ(例えば、閲覧者)等にARコンテンツを適切に表示することができる。例えば、本実施形態によれば、ARコンテンツ(重畳用データ)同士の重なりがあった場合でも、事前に定義された現実空間に存在する物体とARコンテンツとの位置関係を保持した状態で、その後ろ(背面)に存在するARコンテンツを選択したり、閲覧することができる。
以上、実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、上述した各実施例の一部又は全部を組み合わせることも可能である。
なお、以上の実施例に関し、更に以下の付記を開示する。
(付記1)
表示部に表示すべき画像データに基準物が含まれている場合、該基準物に対応する重畳用データを重畳して表示する表示制御方法であって、
前記表示部に表示される前記基準物の表示位置に基づいて、前記基準物に対して予め設定された位置に、前記重畳用データを表示し、
前記重畳用データが、他の重畳用データの背面に存在する場合には、該他の重畳用データに対する選択指示に応じて、前記重畳用データを選択状態とすることを特徴とする表示制御方法。
(付記2)
前記重畳用データ及び前記他の重畳用データが表示されている画面上の領域に対して、予め設定されたユーザ操作が入力された場合に、前記重畳用データを選択状態とすることを特徴とする付記1に記載の表示制御方法。
(付記3)
前記ユーザ操作が繰り返し実行される毎に、前記重畳用データと前記他の重畳用データとの選択状態を切り替えることを特徴とする付記2に記載の表示制御方法。
(付記4)
前記ユーザ操作が実行されている間、所定周期で前記重畳用データと前記他の重畳用データとの選択状態を切り替えることを特徴とする付記2に記載の表示制御方法。
(付記5)
表示部に表示すべき画像データに基準物が含まれている場合、該基準物に対応する重畳用データを重畳して表示する表示制御方法であって、
前記表示部に表示される前記基準物の表示位置に基づいて、前記基準物に対して予め設定された位置に、前記重畳用データを表示し、
前記重畳用データが、他の重畳用データの背面に存在する場合には、該他の重畳用データの透過率を制御して、前記他の重畳用データを表示することを特徴とする表示制御方法。
(付記6)
複数の前記他の重畳用データが存在する場合、最前面の重畳用データから順番に前記透過率を段階的に変更して表示することを特徴する付記5に記載の表示制御方法。
(付記7)
前記重畳用データが前記他の重畳用データと重なっている場合に、前記表示部に表示することを特徴とする付記1乃至6の何れか1項に記載の表示制御方法。
(付記8)
表示部に表示すべき画像データに含まれている基準物に対応する重畳用データを重畳して表示する場合に、前記表示部に表示される前記基準物の表示位置に基づいて、前記基準物に対して予め設定された位置に、前記重畳用データを表示し、
前記重畳用データが、他の重畳用データの背面に存在する場合には、該他の重畳用データに対する選択指示に応じて、前記重畳用データを選択状態とする、処理をコンピュータに実行させる情報処理プログラム。
(付記9)
表示部に表示すべき画像データに含まれている基準物に対応する重畳用データを重畳して表示する場合に、前記表示部に表示される前記基準物の表示位置に基づいて、前記基準物に対して予め設定された位置に、前記重畳用データを表示し、
前記重畳用データが、他の重畳用データの背面に存在する場合には、該他の重畳用データの透過率を制御して、前記他の重畳用データを表示する、処理をコンピュータに実行させる情報処理プログラム。
(付記10)
表示すべき画像データに基準物が含まれている場合、該基準物に対応する重畳用データを重畳して表示する表示部と、
前記表示部に表示される前記基準物の表示位置に基づいて、前記基準物に対して予め設定された位置に、前記重畳用データを表示し、前記重畳用データが、他の重畳用データの背面に存在する場合には、該他の重畳用データに対する選択指示に応じて、前記重畳用データを選択状態とする画像生成部とを有することを特徴とする情報処理装置。
(付記11)
表示すべき画像データに基準物が含まれている場合、該基準物に対応する重畳用データを重畳して表示する表示部と、
前記表示部に表示される前記基準物の表示位置に基づいて、前記基準物に対して予め設定された位置に、前記重畳用データを表示し、前記重畳用データが、他の重畳用データの背面に存在する場合には、該他の重畳用データの透過率を制御して、前記他の重畳用データを表示する画像生成部とを有することを特徴とする情報処理装置。
10 情報処理システム
11 サーバ
12 端末装置(情報処理装置)
13 通信ネットワーク
21,31 通信部
22,33 記憶部
23 登録部
24 抽出部
25,41 制御部
32 撮像部
34,63 表示部
35 入力部
36 認識部
37 取得部
38 判定部
39 コンテンツ生成部
40 画像生成部
51 入力装置
52 出力装置
53,72 ドライブ装置
54,69 補助記憶装置
55,70 主記憶装置
56,71 CPU
57 ネットワーク接続装置
58,73 記録媒体
61 マイク
62 スピーカ
64 操作部
65 センサ部
66 電力部
67 通信部
68 カメラ
100 実物体
101 ARマーカ(基準物)
102,103 ARコンテンツ(重畳用データ)

Claims (3)

  1. 表示部に表示すべき画像データに基準物が含まれている場合、該基準物に対応する重畳用データを前記画像データに重畳して表示する表示制御方法であって、
    前記表示部に表示される基準物に対応付けられた第1の重畳用データの少なくとも一部が、該基準物に対応付けられた第2の重畳用データにより隠れた状態であり、かつ、前記第1の重畳用データが選択状態でない場合に前記第2の重畳用データに対する第1の操作を受け付けると、前記第1の重畳用データを選択状態に遷移させ、
    前記第2の重畳用データにより少なくとも一部が隠れた状態である前記第1の重畳用データが選択状態である場合に前記第2の重畳用データに対する第2の操作を受け付けると、前記第1の重畳用データに応じた情報を出力することを特徴とする表示制御方法。
  2. 表示部に表示すべき画像データに基準物が含まれている場合、該基準物に対応する重畳用データを前記画像データに重畳して表示し、
    前記表示部に表示される基準物に対応付けられた第1の重畳用データの少なくとも一部が、該基準物に対応付けられた第2の重畳用データにより隠れた状態であり、かつ、前記第1の重畳用データが選択状態でない場合に前記第2の重畳用データに対する第1の操作を受け付けると、前記第1の重畳用データを選択状態に遷移させ、
    前記第2の重畳用データにより少なくとも一部が隠れた状態である前記第1の重畳用データが選択状態である場合に前記第2の重畳用データに対する第2の操作を受け付けると、前記第1の重畳用データに応じた情報を出力する、処理をコンピュータに実行させる情報処理プログラム。
  3. 表示部に表示すべき画像データに基準物が含まれている場合、該基準物に対応する重畳用データを前記画像データに重畳して表示する表示部と、
    前記表示部に表示される基準物に対応付けられた第1の重畳用データの少なくとも一部が、該基準物に対応付けられた第2の重畳用データにより隠れた状態であり、かつ、前記第1の重畳用データが選択状態でない場合に前記第2の重畳用データに対する第1の操作を受け付けると、前記第1の重畳用データを選択状態に遷移させ、
    前記第2の重畳用データにより少なくとも一部が隠れた状態である前記第1の重畳用データが選択状態である場合に前記第2の重畳用データに対する第2の操作を受け付けると、前記第1の重畳用データに応じた情報を出力する画像生成部とを有することを特徴とする情報処理装置。
JP2014142394A 2014-07-10 2014-07-10 表示制御方法、情報処理プログラム、及び情報処理装置 Active JP6573755B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014142394A JP6573755B2 (ja) 2014-07-10 2014-07-10 表示制御方法、情報処理プログラム、及び情報処理装置
US14/716,066 US20160012612A1 (en) 2014-07-10 2015-05-19 Display control method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014142394A JP6573755B2 (ja) 2014-07-10 2014-07-10 表示制御方法、情報処理プログラム、及び情報処理装置

Publications (2)

Publication Number Publication Date
JP2016018487A JP2016018487A (ja) 2016-02-01
JP6573755B2 true JP6573755B2 (ja) 2019-09-11

Family

ID=55067959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014142394A Active JP6573755B2 (ja) 2014-07-10 2014-07-10 表示制御方法、情報処理プログラム、及び情報処理装置

Country Status (2)

Country Link
US (1) US20160012612A1 (ja)
JP (1) JP6573755B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101577986B1 (ko) * 2015-03-24 2015-12-16 (주)해든브릿지 양방향 가상 현실 구현 시스템
JP6256430B2 (ja) * 2015-08-17 2018-01-10 コニカミノルタ株式会社 コンテンツ提供サーバ、コンテンツ提供方法、およびコンピュータプログラム
JP6684559B2 (ja) * 2015-09-16 2020-04-22 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
CN109074785B (zh) 2016-03-04 2022-05-10 奇跃公司 减少用电的显示系统以及用于减少显示系统的用电的方法
JP6801263B2 (ja) * 2016-06-30 2020-12-16 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
JP6895598B2 (ja) * 2016-08-08 2021-06-30 株式会社パスコ 設備点検システム、サーバ、設備点検方法、及び制御プログラム
JP6479881B2 (ja) * 2017-04-11 2019-03-06 古河電気工業株式会社 点検支援装置、点検支援方法、およびプログラム
WO2020012436A1 (en) * 2018-07-12 2020-01-16 Università Degli Studi Di Milano - Bicocca Device for displaying a plurality of graphical representations by a user
FR3089672B1 (fr) * 2018-12-05 2021-12-03 Thales Sa Procédé et système d’affichage et d’interaction embarqué dans une cabine de pilotage
US11374808B2 (en) 2020-05-29 2022-06-28 Corning Research & Development Corporation Automated logging of patching operations via mixed reality based labeling
US11295135B2 (en) * 2020-05-29 2022-04-05 Corning Research & Development Corporation Asset tracking of communication equipment via mixed reality based labeling
JP2022137622A (ja) * 2021-03-09 2022-09-22 キヤノン株式会社 ウェアラブル端末、その制御方法及びプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5892511A (en) * 1996-09-30 1999-04-06 Intel Corporation Method for assisting window selection in a graphical user interface
KR20100050103A (ko) * 2008-11-05 2010-05-13 엘지전자 주식회사 맵 상에서의 3차원 개체 제어방법과 이를 이용한 이동 단말기
US20110181521A1 (en) * 2010-01-26 2011-07-28 Apple Inc. Techniques for controlling z-ordering in a user interface
JP2012058838A (ja) * 2010-09-06 2012-03-22 Sony Corp 画像処理装置、プログラム及び画像処理方法
JP5627973B2 (ja) * 2010-09-24 2014-11-19 任天堂株式会社 ゲーム処理をするためのプログラム、装置、システムおよび方法
US20130293585A1 (en) * 2011-01-18 2013-11-07 Kyocera Corporation Mobile terminal and control method for mobile terminal
JP5697487B2 (ja) * 2011-02-25 2015-04-08 任天堂株式会社 画像処理システム、画像処理方法、画像処理装置、および画像処理用プログラム
JP5684618B2 (ja) * 2011-03-22 2015-03-18 京セラ株式会社 撮影装置および仮想情報表示プログラム
US20130083003A1 (en) * 2011-09-30 2013-04-04 Kathryn Stone Perez Personal audio/visual system
JP2013186827A (ja) * 2012-03-09 2013-09-19 Konica Minolta Inc 操作装置
EP3185116B1 (en) * 2012-05-09 2019-09-11 Apple Inc. Device, method and graphical user interface for providing tactile feedback for operations performed in a user interface
JP5571269B2 (ja) * 2012-07-20 2014-08-13 パナソニック株式会社 コメント付き動画像生成装置およびコメント付き動画像生成方法
US9336629B2 (en) * 2013-01-30 2016-05-10 F3 & Associates, Inc. Coordinate geometry augmented reality process
US9348411B2 (en) * 2013-05-24 2016-05-24 Microsoft Technology Licensing, Llc Object display with visual verisimilitude

Also Published As

Publication number Publication date
JP2016018487A (ja) 2016-02-01
US20160012612A1 (en) 2016-01-14

Similar Documents

Publication Publication Date Title
JP6573755B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
US9852491B2 (en) Objects in screen images
KR102114377B1 (ko) 전자 장치에 의해 촬영된 이미지들을 프리뷰하는 방법 및 이를 위한 전자 장치
US10097792B2 (en) Mobile device and method for messenger-based video call service
JP6424601B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
JP6244954B2 (ja) 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
WO2017096509A1 (zh) 一种显示、处理的方法及相关装置
US20140232743A1 (en) Method of synthesizing images photographed by portable terminal, machine-readable storage medium, and portable terminal
US9430500B2 (en) Method and device for operating image in electronic device
JP6217437B2 (ja) 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
JP2017016466A (ja) 端末制御方法、画像生成方法、端末制御プログラム、及び端末
US20120133650A1 (en) Method and apparatus for providing dictionary function in portable terminal
JP6337907B2 (ja) 表示制御装置、表示制御方法およびプログラム
US20130127907A1 (en) Apparatus and method for providing augmented reality service for mobile terminal
KR20130117303A (ko) 증강 현실 이미지를 디스플레이하기 위한 방법 및 그 전자 장치
JP2014241005A (ja) 表示制御装置、表示制御方法、及び表示制御プログラム
KR20140012757A (ko) 시각 장애 사용자들에 의한 이미지 캡처 및 이미지 검토의 촉진
US20150234461A1 (en) Display control device, display control method and recording medium
JP6543924B2 (ja) 情報処理方法、情報処理プログラム、及び情報処理装置
JP2012217101A (ja) 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
JP6413521B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
US8970483B2 (en) Method and apparatus for determining input
KR20190035373A (ko) 혼합 현실에서의 가상 모바일 단말 구현 시스템 및 이의 제어 방법
JP2015102875A (ja) 表示システム及び表示制御装置
JP6308842B2 (ja) 表示システム及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180316

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180628

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180705

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20180720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190814

R150 Certificate of patent or registration of utility model

Ref document number: 6573755

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150