JP2018195254A - 表示制御プログラム、表示制御装置及び表示制御方法 - Google Patents

表示制御プログラム、表示制御装置及び表示制御方法 Download PDF

Info

Publication number
JP2018195254A
JP2018195254A JP2017100919A JP2017100919A JP2018195254A JP 2018195254 A JP2018195254 A JP 2018195254A JP 2017100919 A JP2017100919 A JP 2017100919A JP 2017100919 A JP2017100919 A JP 2017100919A JP 2018195254 A JP2018195254 A JP 2018195254A
Authority
JP
Japan
Prior art keywords
information
display
acquired
unit
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017100919A
Other languages
English (en)
Inventor
修司 松本
Shuji Matsumoto
修司 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017100919A priority Critical patent/JP2018195254A/ja
Priority to US15/978,411 priority patent/US20180336696A1/en
Publication of JP2018195254A publication Critical patent/JP2018195254A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】表示情報の撮像画像上での位置を把握しやすくする。
【解決手段】表示制御プログラムであって、撮像装置により撮像された撮像画像を取得し、センサにより検出された前記撮像装置の位置及び向きを特定し、表示情報を位置情報に対応付けて記憶する記憶部を参照して、特定した前記撮像装置の位置及び向きに応じたエリア内の位置情報に対応付けられた表示情報と、該表示情報に対応付けられた位置情報とを取得し、取得した前記撮像画像に含まれる被写体のうち、取得した前記表示情報に対応付けられた位置情報に応じた表示位置にある被写体までの距離情報を取得し、取得した前記距離情報と、取得した前記表示情報に対応付けられた位置情報とに基づき、取得した前記表示情報を表示部に表示するか否かを判定する、処理をコンピュータに実行させる。
【選択図】図4

Description

本発明は、表示制御プログラム、表示制御装置及び表示制御方法に関する。
従来より、携帯端末の位置及び向きに応じて特定されるエリア内の位置情報に対応付けて記憶された表示情報を、携帯端末にて撮像された撮像画像上に表示するAR(Augmented Reality)技術が知られている。
AR技術を用いれば、ユーザは携帯端末を所定の方向に向けて撮像するだけで、対応する表示情報(以下、ARコンテンツと称す)を、撮像画像上に自動表示させることができる。このため、ユーザは、様々な場所において、それぞれの場所に応じたARコンテンツを携帯端末を介して視認することができる。
特開2015−138445号公報
しかしながら、従来のAR技術では、ARコンテンツを表示する際に、撮像地点からARコンテンツが位置する地点までの距離感までは考慮されていなかった。このため、例えば、撮像画像に含まれる被写体がARコンテンツより手前側に位置しているにも関わらず、ARコンテンツの方が手前側に表示されたり、ARコンテンツが遠くに位置しているにも関わらず、大きく表示されたりするなど、ARコンテンツの撮像画像上での位置が把握しにくいという問題があった。
一つの側面では、表示情報の撮像画像上での位置を把握しやすくすることを目的としている。
一態様によれば、表示制御プログラムは、
撮像装置により撮像された撮像画像を取得し、センサにより検出された前記撮像装置の位置及び向きを特定し、表示情報を位置情報に対応付けて記憶する記憶部を参照して、特定した前記撮像装置の位置及び向きに応じたエリア内の位置情報に対応付けられた表示情報と、該表示情報に対応付けられた位置情報とを取得し、取得した前記撮像画像に含まれる被写体のうち、取得した前記表示情報に対応付けられた位置情報に応じた表示位置にある被写体までの距離情報を取得し、取得した前記距離情報と、取得した前記表示情報に対応付けられた位置情報とに基づき、取得した前記表示情報を表示部に表示するか否かを判定する、処理をコンピュータに実行させる。
表示情報の撮像画像上での位置を把握しやすくすることができる。
ARコンテンツ表示システムの全体構成の一例を示す図である。 携帯端末により撮像された撮像画像及びARコンテンツの表示例を示す第1の図である。 携帯端末のハードウェア構成の一例を示す図である。 表示制御部の機能構成の一例を示す図である。 ARコンテンツ管理情報の一例を示す図である。 ARコンテンツと被写体との位置関係及び位置関係に基づくARコンテンツの編集方法を示す図である。 表示制御処理の第1のフローチャートである。 携帯端末により撮像された撮像画像及びARコンテンツの表示例を示す第2の図である。 複数のARコンテンツの位置関係を示す図である。 表示制御処理の第2のフローチャートである。 携帯端末により撮像された撮像画像及びARコンテンツの表示例を示す第3の図である。 被写体距離取得部による被写体距離取得範囲の一例を示す図である。 被写体距離取得部による被写体距離算出処理の一例を示す図である。
以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。
[第1の実施形態]
<ARコンテンツ表示システム>
はじめに、表示情報の一例であるARコンテンツを表示する携帯端末と、該携帯端末にARコンテンツを提供するサーバ装置とを含むARコンテンツ表示システムについて説明する。図1は、ARコンテンツ表示システムの全体構成の一例を示す図である。
図1に示すように、ARコンテンツ表示システム100は、携帯端末110とサーバ装置120とを有し、携帯端末110とサーバ装置120とは、ネットワーク130を介して接続されている。
携帯端末110は、表示制御装置の一例である。第1の実施形態において携帯端末110には、表示制御プログラムがインストールされている。携帯端末110は、当該表示制御プログラムを実行することで、例えば、携帯端末110の撮像部の位置及び向きを特定する。そして、携帯端末110は、撮像部の位置及び向きに応じて特定されるエリア内の位置情報に対応付けてサーバ装置120に記憶されたARコンテンツを、サーバ装置120に対して要求する。
また、携帯端末110は、表示制御プログラムを実行することで、サーバ装置120より送信されたARコンテンツを記憶する。そして、携帯端末110は、撮像部により撮像された現実世界の撮像画像上の対応する表示位置にARコンテンツを配置した画像を生成し、表示画面に表示する。
サーバ装置120は、携帯端末110からの要求に応じて携帯端末110に対してARコンテンツを送信する装置である。サーバ装置120には、コンテンツ提供プログラムがインストールされており、当該プログラムが実行されることで、サーバ装置120はコンテンツ提供部121として機能する。
コンテンツ提供部121は、ネットワーク130を介して携帯端末110よりARコンテンツ要求を受信する。ARコンテンツ要求には、携帯端末110の撮像部の位置及び向きに応じて特定されるエリアに関する情報が含まれている。コンテンツ提供部121は、ARコンテンツ要求に含まれるエリアに関する情報に基づいて、ARコンテンツ情報DB122を参照する。これにより、コンテンツ提供部121は、各位置情報(緯度、経度、高度等の世界座標系での位置情報)に対応付けて記憶された複数のARコンテンツの中から、エリア内の位置情報に対応付けて記憶されたARコンテンツを取得する。そして、コンテンツ提供部121は、取得したARコンテンツと、該ARコンテンツに対応付けて記憶された位置情報とを、ARコンテンツ要求の要求元である携帯端末110に送信する。
<ARコンテンツの表示例>
次に、撮像された撮像画像上の対応する表示位置にARコンテンツが配置された画像を表示した、携帯端末110の表示画面の表示例について説明する。図2は、携帯端末により撮像された撮像画像及びARコンテンツの表示例を示す第1の図である。
図2に示すように、携帯端末110の表示画面210に表示される画像220には、撮像された現実世界200の撮像画像(例えば、被写体240が含まれる撮像画像)が含まれる。また、画像220には、ARコンテンツ230が含まれる。なお、ARコンテンツ230は、ARコンテンツ230に対応付けられた位置情報(緯度、経度、高度)に対応する、撮像画像上の表示位置に配置される。
<携帯端末のハードウェア構成>
次に、携帯端末110のハードウェア構成について説明する。図3は、携帯端末のハードウェア構成の一例を示す図である。
図3に示すように、携帯端末110は、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303を有する。CPU301、ROM302、RAM303は、いわゆるコンピュータを形成する。また、携帯端末110は、補助記憶部304、通信部305、操作部306、撮像部307、表示部308、GPS部309、センサ部310、測距部311を有する。なお、携帯端末110の各部は、バス320を介して相互に接続されている。
CPU301は、補助記憶部304にインストールされた各種プログラム(例えば、表示制御プログラム)を実行する。
ROM302は、不揮発性メモリである。ROM302は、補助記憶部304にインストールされた各種プログラムをCPU301が実行するために必要な各種プログラム、データ等を記憶する、主記憶デバイスとして機能する。具体的には、ROM302はBIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラム等を記憶する。
RAM303は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の揮発性メモリである。RAM303は、補助記憶部304にインストールされた各種プログラムがCPU301によって実行される際に展開される作業領域を提供する、主記憶デバイスとして機能する。
補助記憶部304は、携帯端末110にインストールされた各種プログラムや、各種プログラムを実行する際に用いるデータ等を記憶する補助記憶デバイスである。後述するARコンテンツ管理データベース(以下、DBと略す)は、補助記憶部304において実現される。
通信部305は、携帯端末110がネットワーク130を介してサーバ装置120と通信するための通信デバイスである。操作部306は、ユーザが携帯端末110に対して各種指示を入力するための操作デバイスである。
撮像部307は、現実世界を撮像し撮像画像を生成する撮像デバイスである。表示部308は、図2で示した表示画面210を含み、画像220等を表示する。
GPS部309は、GPS(Global Positioning System)と通信することで、携帯端末110の撮像部307の位置(緯度、経度、高度)を検出する。
センサ部310は、地磁気を検知する地磁気センサと、加速度を検知する加速度センサとを含む。センサ部310は、地磁気センサ及び加速度センサの検知結果に基づいて、携帯端末110の撮像部307の向きを検出する。
測距部311は、超音波、赤外線、レーザ等のいずれかの方法により、各被写体までの距離を測定する。あるいは、測距部311は、測距可能な単眼カメラであってもよい。測距可能な単眼カメラとは、例えば、レンズ開口部に所定のカラー開口フィルタを取り付け、各被写体までの距離に応じたボケと色ずれを画像解析することで、各被写体までの距離を示す距離情報を画素ごとに算出するカメラである。
<表示制御部の機能構成>
次に、表示制御プログラムが実行されることで携帯端末110にて実現される表示制御部の機能構成について説明する。図4は、表示制御部の機能構成の一例を示す図である。図4に示すように、表示制御部400は、第1の取得部の一例である撮像画像取得部401と、特定部の一例である位置取得部402及び向き取得部403とを有する。また、表示制御部400は、第2の取得部の一例であるARコンテンツ取得部404と、第3の取得部の一例である被写体距離取得部405と、判定部の一例であるARコンテンツ編集部406と、制御部の一例である画像表示部407とを有する。
撮像画像取得部401は、撮像部307が現実世界を撮像することで生成した撮像画像を取得し、画像表示部407に通知する。
位置取得部402は、GPS部309にて検出されたに基づき、携帯端末110の撮像部307の位置(緯度、経度、高度)を特定し、ARコンテンツ取得部404に位置情報を通知する。
向き取得部403は、センサ部310にて検出された向きに基づき、携帯端末110の撮像部307の向きを特定し、ARコンテンツ取得部404に向き情報を通知する。
ARコンテンツ取得部404は、位置取得部402及び向き取得部403よりそれぞれ通知された、撮像部307の位置情報及び向き情報に応じたエリアを特定する。また、ARコンテンツ取得部404は、特定したエリアに関する情報を含むARコンテンツ要求を、サーバ装置120に送信する。また、ARコンテンツ取得部404は、ARコンテンツ要求を送信したことに応じてサーバ装置120より受信した、ARコンテンツとARコンテンツに対応付けられた位置情報とを取得する。更に、ARコンテンツ取得部404は、取得したARコンテンツとARコンテンツに対応付けられた位置情報とを、ARコンテンツ管理DB411に記憶する。
また、ARコンテンツ取得部404は、特定したエリアに関する情報を被写体距離取得部405に通知するとともに、ARコンテンツ管理DB411を参照し、特定したエリア内の位置情報に対応付けて記憶されたARコンテンツを選択する。また、ARコンテンツ取得部404は、選択したARコンテンツと該ARコンテンツに対応付けて記憶された位置情報とを、ARコンテンツ管理DB411から読み出し、ARコンテンツ編集部406に通知する。
被写体距離取得部405は、エリアに含まれる各被写体までの距離を示す距離情報を、測距部311より取得する。また、被写体距離取得部405は、取得した各被写体までの距離情報を、ARコンテンツ編集部406に通知する。
ARコンテンツ編集部406は、ARコンテンツに対応付けて記憶された位置情報に基づいて、携帯端末110の撮像部307からARコンテンツまでの距離を算出する。また、ARコンテンツ編集部406は、算出したARコンテンツまでの距離情報と、被写体距離取得部405より通知された各被写体までの距離情報とを対比し、両者の位置関係を判定する。
更に、ARコンテンツ編集部406は、対比の結果、撮像部307から見てARコンテンツより手前側に位置する被写体の有無を判定し、ARコンテンツを表示画面に表示するか否かを判定する。ARコンテンツ編集部406は、手前側に位置する被写体があると判定した場合には、ARコンテンツの全部または一部を表示画面210に表示しないと判定する。この場合、ARコンテンツ編集部406は、当該被写体に基づいてARコンテンツを編集し、編集済みのARコンテンツを画像表示部407に通知する。
具体的には、ARコンテンツ編集部406は、当該被写体がARコンテンツの手前側に位置することで、当該被写体に隠れる(当該被写体の背後に重なる)領域を特定し、特定した領域を削除する編集を行ったうえで、編集済みのARコンテンツを画像表示部407に通知する。
画像表示部407は、撮像画像取得部401より通知された撮像画像と、ARコンテンツ編集部406より通知された編集済みのARコンテンツとに基づいて、表示部308の表示画面210に表示される画像を生成する。画像表示部407は、生成した画像を表示部308に送信する。
<ARコンテンツ管理情報>
次に、ARコンテンツ管理DB411に記憶されるARコンテンツ管理情報について説明する。図5は、ARコンテンツ管理情報の一例を示す図である。図5に示すように、ARコンテンツ管理情報500には、情報の項目として、“番号”、“位置情報”、“コンテンツID”、“ARコンテンツ”が含まれる。
“番号”には、ARコンテンツ管理DB411に各ARコンテンツが記憶される際に付された通し番号が記憶される。“位置情報”には、ARコンテンツ取得部404が取得した、ARコンテンツに対応付けられた位置情報(緯度、経度、高度)が記憶される。
“コンテンツID”には、ARコンテンツを識別するための識別子が記憶される。“ARコンテンツ”には、ARコンテンツ取得部404が取得した、ARコンテンツの本体データ及び属性データ(データサイズ等)が記憶される。
<ARコンテンツと被写体との位置関係及び位置関係に基づくARコンテンツの編集方法>
次に、携帯端末110の撮像部307から見た場合のARコンテンツと被写体との位置関係及び位置関係に基づくARコンテンツの編集方法について説明する。
図6は、ARコンテンツと被写体との位置関係及び位置関係に基づくARコンテンツの編集方法を示す図である。図6(a)に示すように、携帯端末110の撮像部307から見たARコンテンツ230までの距離を示す距離情報は、ARコンテンツ230に対応付けられた位置情報(緯度、経度、高度)と、携帯端末110の撮像部307の位置情報(緯度、経度、高度)とに基づいて算出される。
具体的には、ARコンテンツ230に対応付けられた位置情報として、ARコンテンツ取得部404が、緯度=“a”、経度=“b”、高度=“c”を取得したとする。また、携帯端末110の撮像部307の位置を示す位置情報として、位置取得部402が、緯度=“A”、経度=“B”、高度=“C”を取得したとする。この場合、携帯端末110の撮像部307とARコンテンツ230との間の球面上の距離を示す距離情報xは、半径1の球面では、余弦定理を適用することで、下式で表すことができる。
Figure 2018195254
地球の半径をRとし、距離情報xをラジアン変換すると、携帯端末110の撮像部307とARコンテンツ230との間の球面上の距離を示す距離情報Lは、下式で表すことができる。
Figure 2018195254
したがって、携帯端末110の撮像部307から見たARコンテンツ230までの距離を示す距離情報Larは、下式となる。
Figure 2018195254
一方、ARコンテンツ編集部406は、携帯端末110の撮像部307から被写体240までの距離情報Lsubを、被写体距離取得部405より通知を受けることで取得する。
これにより、ARコンテンツ編集部406は、距離情報Larと距離情報Lsubとを対比することができる。この結果、ARコンテンツ編集部406は、携帯端末110の撮像部307から見て、被写体240の方が手前に位置するのか、ARコンテンツ230の方が手前側に位置するのかの位置関係を判定することができる。具体的には、Lar>Lsubの場合、ARコンテンツ編集部406は、被写体240の方が手前側に位置すると判定し、Lar≦Lsubの場合、ARコンテンツ編集部406は、ARコンテンツ230の方が手前側に位置すると判定する。
ARコンテンツと被写体との位置関係を判定すると、ARコンテンツ編集部406は、ARコンテンツを編集する。図6(b)は編集方法を簡易化して示した例である。図6(b)の上段に示すように、被写体距離取得部405は、エリアに基づく被写体距離取得範囲610において、被写体240、611までの距離情報(Lsub1、Lsub2等)を撮像画像630の各画素の位置と対応付けて取得しているものとする。被写体611は、ここでは、背景の道路である。なお、被写体240、611までの距離情報は、被写体距離取得範囲610内を超音波、赤外線、レーザ等のいずれかの方法により測定することで取得してもよいし、測距可能な単眼カメラで測定してもよい。測距可能な単眼カメラを用いる場合、撮像画像630に含まれる各画素に対して、該画素に対応する被写体までの距離情報を容易に対応付けることができる。
また、図6(b)の中段に示すように、ARコンテンツ編集部406は、携帯端末110の撮像部307からの距離を示す距離情報がLarのARコンテンツ230(Lsub1>Lar>Lsub2)を、被写体距離取得範囲610の対応する位置に配置する。これにより、ARコンテンツ編集部406は、ARコンテンツ230に対応付けられた位置情報に応じた表示位置にある被写体240までの距離情報(ARコンテンツの表示位置に対応する画素に対応付けられた距離情報)を取得することができる。この結果、ARコンテンツ編集部406は、ARコンテンツ230のうち、被写体240に隠れる領域を特定することができる。
更に、図6(b)の下段に示すように、ARコンテンツ編集部406は、特定した領域を削除する編集を行うことで、編集済みのARコンテンツ230’を生成する。そして、画像表示部407は、撮像画像630上の対応する位置に、編集済みのARコンテンツ230’を配置することで、画像640を生成する。
このようにして、画像表示部407では、ARコンテンツと被写体との位置関係に基づいて編集されたARコンテンツを含む画像を生成することができる。
<表示制御処理の流れ>
次に、表示制御部400による表示制御処理の流れについて説明する。図7は、表示制御処理の第1のフローチャートである。表示制御部400が起動することで、図7に示す表示制御処理が開始される。
ステップS701において、位置取得部402は、GPS部309にて検出された、携帯端末110の撮像部307の位置(緯度、経度、高度)を特定する。また、向き取得部403は、センサ部310にて検出された、携帯端末110の撮像部307の向きを特定する。
ステップS702において、ARコンテンツ取得部404は、携帯端末110の撮像部307の位置及び向きに応じたエリアを特定し、特定したエリアに関する情報を含むARコンテンツ要求をサーバ装置120に送信する。また、ARコンテンツ取得部404は、サーバ装置120から送信されたARコンテンツとARコンテンツに対応付けられた位置情報とを取得し、ARコンテンツ管理DB411に記憶する。なお、サーバ装置120は、ARコンテンツ要求を受信した際、携帯端末110に既に送信済みのARコンテンツ以外のARコンテンツとARコンテンツに対応付けられた位置情報とを携帯端末110に送信するものとする。
ステップS703において、撮像画像取得部401は、撮像部307により撮像された撮像画像を取得する。
ステップS704において、ARコンテンツ取得部404は、特定したエリア内の位置情報に対応付けて記憶されたARコンテンツを選択して、ARコンテンツ管理DB411から読み出す。また、ARコンテンツ取得部404は、読み出したARコンテンツに対応付けて記憶された位置情報を、ARコンテンツ管理DB411から読み出す。
ステップS705において、ARコンテンツ編集部406は、読み出されたARコンテンツに対応付けられた位置情報に基づいて、携帯端末110の撮像部307から該ARコンテンツまでの距離情報を算出する。
ステップS706において、被写体距離取得部405は、特定されたエリアに基づく被写体距離取得範囲に含まれる各被写体までの距離情報を、測距部311より取得する。
ステップS707において、ARコンテンツ編集部406は、ARコンテンツと被写体との位置関係(ARコンテンツが被写体よりも手前側に位置するのか否か)を判定する。ステップS707において、ARコンテンツが、被写体より手前側に位置すると判定した場合には(ステップS707においてYesの場合には)、ステップS708に進む。
ステップS708において、画像表示部407は、ARコンテンツが最前面となるように撮像画像上の対応する表示位置にARコンテンツを配置することで画像を生成する。また、画像表示部407は、生成した画像を表示部308に表示する。
一方、ステップS707において、ARコンテンツが、被写体よりも手前側に位置していないと判定した場合には(ステップS707においてNoの場合には)、ステップS709に進む。
ステップS709において、ARコンテンツ編集部406は、ARコンテンツに対して、手前側に位置する被写体に隠れる領域を削除する編集を行う。また、画像表示部407は、編集済みのARコンテンツを撮像画像上の対応する表示位置に配置することで画像を生成し、表示部308に表示する。
ステップS710において、表示制御部400は、表示制御処理を終了するか否かを判定する。表示制御部400の機能が継続して利用される場合には(ステップS710においてNoの場合には)、ステップS701に戻る。
一方、表示制御部400の機能が停止された場合には(ステップS710においてYesの場合には)、表示制御処理を終了する。
<ARコンテンツの表示例>
次に、ARコンテンツ編集部406において編集された編集済みのARコンテンツ230’の表示例について説明する。図8は、携帯端末により撮像された撮像画像及びARコンテンツの表示例を示す第2の図である。図8に示すように、編集済みのARコンテンツ230’の場合、被写体240が手前側に位置しているため、被写体240に隠れる領域は、表示画面210には表示されない。
以上の説明から明らかなように、第1の実施形態に係る携帯端末110は、撮像部の位置及び向きに応じたエリアを特定し、特定したエリア内の位置情報に対応付けて記憶されたARコンテンツを、撮像画像上の対応する表示位置に表示する。その際、第1の実施形態に係る携帯端末110は、撮像部から見た場合のARコンテンツまでの距離を示す距離情報と、撮像画像に含まれる被写体までの距離情報とに基づき、ARコンテンツと被写体との位置関係を判定し、判定した位置関係に基づきARコンテンツを編集する。
このように、ARコンテンツまでの距離情報に応じて、撮像画像におけるARコンテンツの表示を制御することで、携帯端末110によれば、ARコンテンツが対応付けられた位置情報に応じた撮像画像上での位置を把握しやすくすることができる。この結果、撮像された被写体がARコンテンツより手前側に位置しているにも関わらず、ARコンテンツの方が手前側に表示されるといった事態を回避することが可能となり、表示態様の違和感を低減させることができる。
[第2の実施形態]
上記第1の実施形態では、撮像部から見た場合のARコンテンツと被写体との位置関係に基づいて、ARコンテンツについて、被写体に隠れている領域を削除する編集を行う場合について説明した。これに対して、第2の実施形態では、撮像部から見た場合のARコンテンツまでの距離を示す距離情報に基づいて、ARコンテンツのサイズを変更する編集を行う場合について説明する。なお、以下では、上記第1の実施形態との相違点を中心に説明を行う。
<複数のARコンテンツの位置関係>
はじめに、携帯端末110の撮像部307から見た場合の複数のARコンテンツの位置関係について説明する。
図9は、複数のARコンテンツの位置関係を示す図である。上述したとおり、携帯端末110の撮像部307から見た場合の各ARコンテンツ910〜930までの距離を示す距離情報は、各ARコンテンツ910〜930に対応付けられた位置情報と、携帯端末110の撮像部307の位置を示す位置情報とに基づいて上式(数1)を用いて算出される。
例えば、図9に示すように、ARコンテンツ編集部406は、携帯端末110の撮像部307からARコンテンツ910までの距離情報として、Lar1を算出する。また、ARコンテンツ編集部406は、携帯端末110の撮像部307からARコンテンツ920までの距離情報として、Lar2を算出する。更に、ARコンテンツ編集部406は、携帯端末110の撮像部307からARコンテンツ930までの距離情報として、Lar3を算出する。なお、図9の例は、ARコンテンツ910〜930が、Lar1<Lar2<Lar3の位置関係を有していることを示している。
<表示制御処理の流れ>
次に、表示制御部400による表示制御処理の流れについて説明する。図10は、表示制御処理の第2のフローチャートである。図7との相違点は、ステップS1001、ステップS1002である。
ステップS1001において、ARコンテンツ編集部406は、撮像部307から各ARコンテンツまでの距離情報(Lar1、Lar2、Lar3)に応じて、各ARコンテンツ910〜930のサイズを変更する編集を行う。
ステップS1002において、画像表示部407は、サイズが変更された編集済みの各ARコンテンツ910〜930を撮像画像上の対応する表示位置に配置することで画像を生成し、生成した画像を表示部308に表示する。
<ARコンテンツの表示例>
次に、ARコンテンツ編集部406において編集された編集済みの各ARコンテンツ910〜930の表示例について説明する。図11は、携帯端末により撮像された撮像画像及びARコンテンツの表示例を示す第3の図である。図11に示すように、ARコンテンツ910は、他のARコンテンツ920、930よりも、撮像部307からの距離が短いため、表示画面210に大きく表示される。一方、ARコンテンツ920、930は、撮像部307からの距離が長いため、表示画面210に表示されるサイズが小さくなる。
以上の説明から明らかなように、第2の実施形態に係る携帯端末110は、撮像部の位置及び向きに応じたエリアを特定し、特定したエリア内の位置情報に対応付けられたARコンテンツを、撮像画像上の対応する表示位置に表示する。その際、第2の実施形態に係る携帯端末110は、撮像部から見た場合の各ARコンテンツまでの距離を示す距離情報に基づき、各ARコンテンツのサイズを変更する編集を行う。
このように、ARコンテンツまでの距離情報に応じて、撮像画像におけるARコンテンツの表示を制御することで、携帯端末110によれば、ARコンテンツが対応付けられた位置情報に応じた撮像画像上での位置を把握しやすくすることができる。この結果、ARコンテンツが遠くに位置しているにも関わらず、大きく表示されるといった事態を回避することが可能となり、表示態様の違和感を低減させることができる。
[第3の実施形態]
上記第1の実施形態において、被写体距離取得部405は、撮像部307の位置及び向きに応じて特定されるエリアに含まれる全ての被写体について撮像部307からの距離を示す距離情報を取得するものとして説明した。これに対して、第3の実施形態では、撮像部307の位置及び向きに応じて特定されるエリア内の位置情報に対応付けて記憶されたARコンテンツの周辺に位置する被写体を対象に、撮像部307からの距離を示す距離情報を取得する。被写体との位置関係に基づいてARコンテンツの編集が必要になるのは、ARコンテンツの周辺に位置する被写体に限られるからである。
図12は、被写体距離取得部による被写体距離取得範囲の一例を示す図である。図12において、領域1200は、エリア内の位置情報に対応付けて記憶されたARコンテンツの周辺の領域を示したものであり、被写体距離取得部405が、撮像部307からの距離を示す距離情報を取得する被写体距離取得範囲を示している。
図12に示すように、撮像部307の位置及び向きに応じて特定されるエリア内の位置情報に対応付けて記憶されたARコンテンツとして、ARコンテンツ取得部404が、ARコンテンツ1210を取得したとする。この場合、被写体距離取得部405は、被写体距離取得範囲を、エリアではなく、ARコンテンツ1210が含まれる領域1200(エリアよりも狭い領域)に基づいて、特定する。具体的には、被写体距離取得部405は、被写体距離取得範囲を、ARコンテンツ1210に対応付けられた位置情報と、撮像部307の位置及び向きとに基づいて領域1200を算出することで、特定する。
このように、被写体距離取得部405は、撮像部307からの距離情報を取得する被写体距離取得範囲を絞り、当該範囲内の被写体までの距離情報を取得することにより、携帯端末110の処理負荷を低減させることが可能になる。
[第4の実施形態]
上記第1乃至第3の実施形態では測距部311を配し、被写体距離取得部405が、測距部311より、各被写体までの距離情報を取得するものとして説明した。しかしながら、被写体距離取得部405は、各被写体までの距離情報を、例えば、撮像部307により撮像された撮像画像より取得してもよい。
具体的には、被写体距離取得部405が、撮像部307の撮像時の高さと、撮像画像内における被写体の表示位置とに基づき、三角法を用いて被写体までの距離を示す距離情報を算出する。
図13は、被写体距離取得部による被写体距離算出処理の一例を示す図である。図13に示すように、撮像部307の高さhを設定し、センサ部310の加速度センサの検知結果から算出される携帯端末110の傾きに基づいて、被写体240の俯角θを算出することで、三角法により距離情報Lsubを算出することができる。
このように、被写体距離取得部405が撮像画像に基づいて被写体までの距離情報を算出することで、第3の実施形態に係る携帯端末110によれば、測距部311を配する必要がなくなる。
[その他の実施形態]
上記第1の実施形態では、撮像部から見た場合のARコンテンツと被写体との位置関係に基づいて、ARコンテンツについて、被写体に隠れている領域を削除する編集を行う場合について説明した。また、第2の実施形態では、撮像部から見た場合のARコンテンツまでの距離を示す距離情報に基づいて、ARコンテンツのサイズを変更する編集を行う場合について説明した。しかしながら、ARコンテンツ編集部406は、これら両方の処理を行うようにしてもよい。あるいは、ARコンテンツ編集部406は、削除やサイズ変更以外の方法で表示態様を変える編集を行うようにしてもよい。
また、上記第1、第3、第4の実施形態では、ARコンテンツが図柄であるとし、図柄の一部が被写体に隠れる場合に、ARコンテンツの一部を表示画面210に表示しないと判定する(隠れる領域を削除する編集を行う)ものとして説明した。しかしながら、ARコンテンツは、図柄に限られず、例えば文字データであってもよい。この場合、文字データの一部が被写体に隠れる状況においては、ARコンテンツの(一部ではなく)全部を表示しないと判定してもよい。文字データの場合、一部が表示されても、ユーザにとっては意味がない場合が多いからである。
また、上記第1の実施形態では、携帯端末110の撮像部307から見てARコンテンツより手前側に位置する被写体があると判定した場合の処理について説明した。しかしながら、被写体がないと判定した場合には、通常どおり、ARコンテンツを撮像画像に重畳する処理を行うことはいうまでもない。また、手前側に位置する被写体があると判定した場合であって、ARコンテンツの全部が被写体に隠れる場合には、ARコンテンツを表示しないことはいうまでもない。つまり、上記第1の実施形態において、ARコンテンツは常に編集されるとは限られず、ARコンテンツに対して編集を行うことなく、表示画面210に表示される画像を生成する場合があることはいうまでもない。
また、上記第1乃至第4の実施形態では、ARコンテンツ取得部404が、撮像部307の位置及び向きに応じて特定されたエリア内の位置情報に対応付けて記憶されたARコンテンツをリアルタイムに取得する場合について説明した。しかしながら、ARコンテンツ取得部404がARコンテンツを取得するタイミングはこれに限定されない。例えば、表示制御部400が起動した際に、携帯端末110の撮像部307の位置を基準とする所定範囲内の位置情報に対応付けて記憶された全てのARコンテンツを取得し、ARコンテンツ管理DB411に記憶するようにしてもよい。なお、ここでいう所定範囲は、携帯端末110の撮像部307の位置及び向きにより特定されるエリアよりも広い範囲を指すものとする。これにより、ARコンテンツ取得部404がサーバ装置120と通信する回数を減らすことができる。
また、上記第1乃至第4の実施形態では、ARコンテンツ表示システム100において、携帯端末を用いる場合について説明したが、ARコンテンツの表示は、例えば、ヘッドマウントディスプレイ等の装着型の携帯端末を用いて行ってもよい。また、ヘッドマウントディスプレイ等の装着型の携帯端末において、表示部は、例えば、透過型であってもよい。なお、透過型の表示部の場合、ARコンテンツは、撮像された撮像画像上の対応する表示位置に配置されることなく、表示部(例えば、眼鏡型のヘッドマウントディスプレイの場合、眼鏡のガラスに相当する部分)の対応する表示位置に直接表示されることになる。
なお、開示の技術では、以下に記載する付記のような形態が考えられる。
(付記1)
撮像装置により撮像された撮像画像を取得し、
センサにより検出された前記撮像装置の位置及び向きを特定し、
表示情報を位置情報に対応付けて記憶する記憶部を参照して、特定した前記撮像装置の位置及び向きに応じたエリア内の位置情報に対応付けられた表示情報と、該表示情報に対応付けられた位置情報とを取得し、
取得した前記撮像画像に含まれる被写体のうち、取得した前記表示情報に対応付けられた位置情報に応じた表示位置にある被写体までの距離情報を取得し、
取得した前記距離情報と、取得した前記表示情報に対応付けられた位置情報とに基づき、取得した前記表示情報を表示部に表示するか否かを判定する、
処理をコンピュータに実行させる表示制御プログラム。
(付記2)
撮像装置により撮像され、複数の画素それぞれの画素値と、前記複数の画素それぞれに対応する被写体までの距離情報とを含む撮像画像を取得し、
センサにより検出された前記撮像装置の位置及び向きを特定し、
表示情報を位置情報に対応付けて記憶する記憶部を参照して、特定した前記撮像装置の位置及び向きに応じたエリア内の位置情報に対応付けられた表示情報と、該表示情報に対応付けられた位置情報とを取得し、
取得した前記撮像画像に含まれる画素のうち、取得した前記表示情報の表示位置に対応する画素に対応付けられた距離情報を取得し、
取得した前記距離情報と、取得した前記表示情報に対応付けられた位置情報とに基づき、取得した前記表示情報を表示部に表示するか否かを判定する、
処理をコンピュータに実行させる表示制御プログラム。
(付記3)
取得した前記表示情報について、取得した前記表示情報に対応付けられた位置情報に応じた表示位置にある被写体の背後に重なる領域を削除する編集を行い、
編集された前記表示情報と、取得した前記撮像画像とを含む画像を、前記表示部に表示する、
処理を前記コンピュータに実行させる付記1に記載の表示制御プログラム。
(付記4)
撮像装置により撮像された撮像画像を取得し、
センサにより検出された前記撮像装置の位置及び向きを特定し、
表示情報を位置情報に対応付けて記憶する記憶部を参照して、特定した前記撮像装置の位置及び向きに応じたエリア内の位置情報に対応付けられた表示情報と、該表示情報に対応付けられた位置情報とを取得し、
特定した前記撮像装置の位置と、取得した前記表示情報に対応付けられた位置情報に応じた位置との間の距離情報を算出し、
取得した前記表示情報を、算出した前記距離情報に応じた態様で表示部に表示する、
処理をコンピュータに実行させる表示制御プログラム。
(付記5)
取得した前記表示情報について、算出した前記距離情報に応じたサイズに変更する編集を行い、
編集された前記表示情報と、取得した前記撮像画像とを含む画像を、前記表示部に表示する、
処理を前記コンピュータに実行させる付記4に記載の表示制御プログラム。
(付記6)
撮像装置により撮像された撮像画像を取得する第1の取得部と、
センサにより検出された前記撮像装置の位置及び向きを特定する特定部と、
表示情報を位置情報に対応付けて記憶する記憶部を参照して、特定した前記撮像装置の位置及び向きに応じたエリア内の位置情報に対応付けられた表示情報と、該表示情報に対応付けられた位置情報とを取得する第2の取得部と、
取得した前記撮像画像に含まれる被写体のうち、取得した前記表示情報に対応付けられた位置情報に応じた表示位置にある被写体までの距離情報を取得する第3の取得部と、
取得した前記距離情報と、取得した前記表示情報に対応付けられた位置情報とに基づき、取得した前記表示情報を表示部に表示するか否かを判定する判定部と
を有することを特徴とする表示制御装置。
(付記7)
撮像装置により撮像され、複数の画素それぞれの画素値と、前記複数の画素それぞれに対応する被写体までの距離情報とを含む撮像画像を取得する第1の取得部と、
センサにより検出された前記撮像装置の位置及び向きを特定する特定部と、
表示情報を位置情報に対応付けて記憶する記憶部を参照して、特定した前記撮像装置の位置及び向きに応じたエリア内の位置情報に対応付けられた表示情報と、該表示情報に対応付けられた位置情報とを取得する第2の取得部と、
取得した前記撮像画像に含まれる画素のうち、取得した前記表示情報の表示位置に対応する画素に対応付けられた距離情報を取得する第3の取得部と、
取得した前記距離情報と、取得した前記表示情報に対応付けられた位置情報とに基づき、取得した前記表示情報を表示部に表示するか否かを判定する判定部と
を有することを特徴とする表示制御装置。
(付記8)
撮像装置により撮像された撮像画像を取得する第1の取得部と、
センサにより検出された前記撮像装置の位置及び向きを特定する特定部と、
表示情報を位置情報に対応付けて記憶する記憶部を参照して、特定した前記撮像装置の位置及び向きに応じたエリア内の位置情報に対応付けられた表示情報と、該表示情報に対応付けられた位置情報とを取得する第2の取得部と、
特定した前記撮像装置の位置と、取得した前記表示情報に対応付けられた位置情報に応じた位置との間の距離情報を算出する第3の取得部と、
取得した前記表示情報を、算出した前記距離情報に応じた態様で表示部に表示する制御部と
を有することを特徴とする表示制御装置。
(付記9)
撮像装置により撮像された撮像画像を取得し、
センサにより検出された前記撮像装置の位置及び向きを特定し、
表示情報を位置情報に対応付けて記憶する記憶部を参照して、特定した前記撮像装置の位置及び向きに応じたエリア内の位置情報に対応付けられた表示情報と、該表示情報に対応付けられた位置情報とを取得し、
取得した前記撮像画像に含まれる被写体のうち、取得した前記表示情報に対応付けられた位置情報に応じた表示位置にある被写体までの距離情報を取得し、
取得した前記距離情報と、取得した前記表示情報に対応付けられた位置情報とに基づき、取得した前記表示情報を表示部に表示するか否かを判定する、
処理をコンピュータが実行する表示制御方法。
(付記10)
撮像装置により撮像され、複数の画素それぞれの画素値と、前記複数の画素それぞれに対応する被写体までの距離情報とを含む撮像画像を取得し、
センサにより検出された前記撮像装置の位置及び向きを特定し、
表示情報を位置情報に対応付けて記憶する記憶部を参照して、特定した前記撮像装置の位置及び向きに応じたエリア内の位置情報に対応付けられた表示情報と、該表示情報に対応付けられた位置情報とを取得し、
取得した前記撮像画像に含まれる画素のうち、取得した前記表示情報の表示位置に対応する画素に対応付けられた距離情報を取得し、
取得した前記距離情報と、取得した前記表示情報に対応付けられた位置情報とに基づき、取得した前記表示情報を表示部に表示するか否かを判定する、
処理をコンピュータが実行する表示制御方法。
(付記11)
撮像装置により撮像された撮像画像を取得し、
センサにより検出された前記撮像装置の位置及び向きを特定し、
表示情報を位置情報に対応付けて記憶する記憶部を参照して、特定した前記撮像装置の位置及び向きに応じたエリア内の位置情報に対応付けられた表示情報と、該表示情報に対応付けられた位置情報とを取得し、
特定した前記撮像装置の位置と、取得した前記表示情報に対応付けられた位置情報に応じた位置との間の距離情報を算出し、
取得した前記表示情報を、算出した前記距離情報に応じた態様で表示部に表示する、
処理をコンピュータが実行する表示制御方法。
なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。
100 :ARコンテンツ表示システム
110 :携帯端末
120 :サーバ装置
121 :コンテンツ提供部
122 :ARコンテンツ情報DB
210 :表示画面
220 :画像
230 :ARコンテンツ
240 :被写体
400 :表示制御部
401 :撮像画像取得部
402 :位置取得部
403 :向き取得部
404 :ARコンテンツ取得部
405 :被写体距離取得部
406 :ARコンテンツ編集部
407 :画像表示部
411 :ARコンテンツ管理DB
500 :ARコンテンツ管理情報
910〜930 :ARコンテンツ
1210 :ARコンテンツ

Claims (11)

  1. 撮像装置により撮像された撮像画像を取得し、
    センサにより検出された前記撮像装置の位置及び向きを特定し、
    表示情報を位置情報に対応付けて記憶する記憶部を参照して、特定した前記撮像装置の位置及び向きに応じたエリア内の位置情報に対応付けられた表示情報と、該表示情報に対応付けられた位置情報とを取得し、
    取得した前記撮像画像に含まれる被写体のうち、取得した前記表示情報に対応付けられた位置情報に応じた表示位置にある被写体までの距離情報を取得し、
    取得した前記距離情報と、取得した前記表示情報に対応付けられた位置情報とに基づき、取得した前記表示情報を表示部に表示するか否かを判定する、
    処理をコンピュータに実行させる表示制御プログラム。
  2. 撮像装置により撮像され、複数の画素それぞれの画素値と、前記複数の画素それぞれに対応する被写体までの距離情報とを含む撮像画像を取得し、
    センサにより検出された前記撮像装置の位置及び向きを特定し、
    表示情報を位置情報に対応付けて記憶する記憶部を参照して、特定した前記撮像装置の位置及び向きに応じたエリア内の位置情報に対応付けられた表示情報と、該表示情報に対応付けられた位置情報とを取得し、
    取得した前記撮像画像に含まれる画素のうち、取得した前記表示情報の表示位置に対応する画素に対応付けられた距離情報を取得し、
    取得した前記距離情報と、取得した前記表示情報に対応付けられた位置情報とに基づき、取得した前記表示情報を表示部に表示するか否かを判定する、
    処理をコンピュータに実行させる表示制御プログラム。
  3. 取得した前記表示情報について、取得した前記表示情報に対応付けられた位置情報に応じた表示位置にある被写体の背後に重なる領域を削除する編集を行い、
    編集された前記表示情報と、取得した前記撮像画像とを含む画像を、前記表示部に表示する、
    処理を前記コンピュータに実行させる請求項1に記載の表示制御プログラム。
  4. 撮像装置により撮像された撮像画像を取得し、
    センサにより検出された前記撮像装置の位置及び向きを特定し、
    表示情報を位置情報に対応付けて記憶する記憶部を参照して、特定した前記撮像装置の位置及び向きに応じたエリア内の位置情報に対応付けられた表示情報と、該表示情報に対応付けられた位置情報とを取得し、
    特定した前記撮像装置の位置と、取得した前記表示情報に対応付けられた位置情報に応じた位置との間の距離情報を算出し、
    取得した前記表示情報を、算出した前記距離情報に応じた態様で表示部に表示する、
    処理をコンピュータに実行させる表示制御プログラム。
  5. 取得した前記表示情報について、算出した前記距離情報に応じたサイズに変更する編集を行い、
    編集された前記表示情報と、取得した前記撮像画像とを含む画像を、前記表示部に表示する、
    処理を前記コンピュータに実行させる請求項4に記載の表示制御プログラム。
  6. 撮像装置により撮像された撮像画像を取得する第1の取得部と、
    センサにより検出された前記撮像装置の位置及び向きを特定する特定部と、
    表示情報を位置情報に対応付けて記憶する記憶部を参照して、特定した前記撮像装置の位置及び向きに応じたエリア内の位置情報に対応付けられた表示情報と、該表示情報に対応付けられた位置情報とを取得する第2の取得部と、
    取得した前記撮像画像に含まれる被写体のうち、取得した前記表示情報に対応付けられた位置情報に応じた表示位置にある被写体までの距離情報を取得する第3の取得部と、
    取得した前記距離情報と、取得した前記表示情報に対応付けられた位置情報とに基づき、取得した前記表示情報を表示部に表示するか否かを判定する判定部と
    を有することを特徴とする表示制御装置。
  7. 撮像装置により撮像され、複数の画素それぞれの画素値と、前記複数の画素それぞれに対応する被写体までの距離情報とを含む撮像画像を取得する第1の取得部と、
    センサにより検出された前記撮像装置の位置及び向きを特定する特定部と、
    表示情報を位置情報に対応付けて記憶する記憶部を参照して、特定した前記撮像装置の位置及び向きに応じたエリア内の位置情報に対応付けられた表示情報と、該表示情報に対応付けられた位置情報とを取得する第2の取得部と、
    取得した前記撮像画像に含まれる画素のうち、取得した前記表示情報の表示位置に対応する画素に対応付けられた距離情報を取得する第3の取得部と、
    取得した前記距離情報と、取得した前記表示情報に対応付けられた位置情報とに基づき、取得した前記表示情報を表示部に表示するか否かを判定する判定部と
    を有することを特徴とする表示制御装置。
  8. 撮像装置により撮像された撮像画像を取得する第1の取得部と、
    センサにより検出された前記撮像装置の位置及び向きを特定する特定部と、
    表示情報を位置情報に対応付けて記憶する記憶部を参照して、特定した前記撮像装置の位置及び向きに応じたエリア内の位置情報に対応付けられた表示情報と、該表示情報に対応付けられた位置情報とを取得する第2の取得部と、
    特定した前記撮像装置の位置と、取得した前記表示情報に対応付けられた位置情報に応じた位置との間の距離情報を算出する第3の取得部と、
    取得した前記表示情報を、算出した前記距離情報に応じた態様で表示部に表示する制御部と
    を有することを特徴とする表示制御装置。
  9. 撮像装置により撮像された撮像画像を取得し、
    センサにより検出された前記撮像装置の位置及び向きを特定し、
    表示情報を位置情報に対応付けて記憶する記憶部を参照して、特定した前記撮像装置の位置及び向きに応じたエリア内の位置情報に対応付けられた表示情報と、該表示情報に対応付けられた位置情報とを取得し、
    取得した前記撮像画像に含まれる被写体のうち、取得した前記表示情報に対応付けられた位置情報に応じた表示位置にある被写体までの距離情報を取得し、
    取得した前記距離情報と、取得した前記表示情報に対応付けられた位置情報とに基づき、取得した前記表示情報を表示部に表示するか否かを判定する、
    処理をコンピュータが実行する表示制御方法。
  10. 撮像装置により撮像され、複数の画素それぞれの画素値と、前記複数の画素それぞれに対応する被写体までの距離情報とを含む撮像画像を取得し、
    センサにより検出された前記撮像装置の位置及び向きを特定し、
    表示情報を位置情報に対応付けて記憶する記憶部を参照して、特定した前記撮像装置の位置及び向きに応じたエリア内の位置情報に対応付けられた表示情報と、該表示情報に対応付けられた位置情報とを取得し、
    取得した前記撮像画像に含まれる画素のうち、取得した前記表示情報の表示位置に対応する画素に対応付けられた距離情報を取得し、
    取得した前記距離情報と、取得した前記表示情報に対応付けられた位置情報とに基づき、取得した前記表示情報を表示部に表示するか否かを判定する、
    処理をコンピュータが実行する表示制御方法。
  11. 撮像装置により撮像された撮像画像を取得し、
    センサにより検出された前記撮像装置の位置及び向きを特定し、
    表示情報を位置情報に対応付けて記憶する記憶部を参照して、特定した前記撮像装置の位置及び向きに応じたエリア内の位置情報に対応付けられた表示情報と、該表示情報に対応付けられた位置情報とを取得し、
    特定した前記撮像装置の位置と、取得した前記表示情報に対応付けられた位置情報に応じた位置との間の距離情報を算出し、
    取得した前記表示情報を、算出した前記距離情報に応じた態様で表示部に表示する、
    処理をコンピュータが実行する表示制御方法。
JP2017100919A 2017-05-22 2017-05-22 表示制御プログラム、表示制御装置及び表示制御方法 Pending JP2018195254A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017100919A JP2018195254A (ja) 2017-05-22 2017-05-22 表示制御プログラム、表示制御装置及び表示制御方法
US15/978,411 US20180336696A1 (en) 2017-05-22 2018-05-14 Display control program, display control apparatus and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017100919A JP2018195254A (ja) 2017-05-22 2017-05-22 表示制御プログラム、表示制御装置及び表示制御方法

Publications (1)

Publication Number Publication Date
JP2018195254A true JP2018195254A (ja) 2018-12-06

Family

ID=64271973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017100919A Pending JP2018195254A (ja) 2017-05-22 2017-05-22 表示制御プログラム、表示制御装置及び表示制御方法

Country Status (2)

Country Link
US (1) US20180336696A1 (ja)
JP (1) JP2018195254A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020182068A (ja) * 2019-04-24 2020-11-05 鹿島建設株式会社 安全支援装置及び安全監視方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111462279B (zh) * 2019-01-18 2023-06-09 阿里巴巴集团控股有限公司 图像显示方法、装置、设备及可读存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5821526B2 (ja) * 2011-10-27 2015-11-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
EP2860702A4 (en) * 2012-06-12 2016-02-10 Sony Corp INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
WO2014091824A1 (ja) * 2012-12-10 2014-06-19 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
US9773346B1 (en) * 2013-03-12 2017-09-26 Amazon Technologies, Inc. Displaying three-dimensional virtual content
JP6255706B2 (ja) * 2013-04-22 2018-01-10 富士通株式会社 表示制御装置、表示制御方法、表示制御プログラムおよび情報提供システム
JP6299234B2 (ja) * 2014-01-23 2018-03-28 富士通株式会社 表示制御方法、情報処理装置、および表示制御プログラム
JP6344029B2 (ja) * 2014-04-16 2018-06-20 富士通株式会社 表示方法、表示プログラム、及び表示装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020182068A (ja) * 2019-04-24 2020-11-05 鹿島建設株式会社 安全支援装置及び安全監視方法
JP7281955B2 (ja) 2019-04-24 2023-05-26 鹿島建設株式会社 安全支援装置及び安全監視方法

Also Published As

Publication number Publication date
US20180336696A1 (en) 2018-11-22

Similar Documents

Publication Publication Date Title
CN111602140B (zh) 分析由头戴式设备的相机记录的图像中的对象的方法
JP4600515B2 (ja) 情報提示装置及び情報提示方法、撮像装置、並びにコンピュータ・プログラム
JP6411505B2 (ja) 全焦点画像を生成するための方法および装置
JP5055402B2 (ja) オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法
EP2327055B1 (en) Method of and arrangement for blurring an image
US8121353B2 (en) Apparatus, system and method for mapping information
KR101330805B1 (ko) 증강 현실 제공 장치 및 방법
CN106446223B (zh) 地图数据的处理方法和装置
CN109886208B (zh) 物体检测的方法、装置、计算机设备及存储介质
CN110570460A (zh) 目标跟踪方法、装置、计算机设备及计算机可读存储介质
JP2017211811A (ja) 表示制御プログラム、表示制御方法および表示制御装置
JP2007243509A (ja) 画像処理装置
US20140002499A1 (en) Method, System, and Computer-Readable Recording Medium for Providing Information on an Object Using Viewing Frustums
JP2018195254A (ja) 表示制御プログラム、表示制御装置及び表示制御方法
CN109754439B (zh) 标定方法、装置、电子设备及介质
JP2024026447A (ja) 物体追跡装置、物体追跡方法、およびプログラム
US9197882B2 (en) Mobile communication terminal having image conversion function and method
JPH11288341A (ja) ナビゲーション装置及び方法
JP7183058B2 (ja) 三次元計測装置および三次元計測プログラム
JP6208977B2 (ja) 情報処理装置、通信端末およびデータ取得方法
US10893388B2 (en) Map generation device, map generation system, map generation method, and non-transitory storage medium including instructions for map generation
CN110196638B (zh) 基于目标检测和空间投影的移动端增强现实方法和系统
CN114623836A (zh) 车辆位姿确定方法、装置及车辆
CN112037280A (zh) 物体距离测量方法及装置
JP6575221B2 (ja) 表示制御方法、情報処理装置及び表示制御プログラム