JP2014164572A - 情報処理装置およびプログラム - Google Patents

情報処理装置およびプログラム Download PDF

Info

Publication number
JP2014164572A
JP2014164572A JP2013035799A JP2013035799A JP2014164572A JP 2014164572 A JP2014164572 A JP 2014164572A JP 2013035799 A JP2013035799 A JP 2013035799A JP 2013035799 A JP2013035799 A JP 2013035799A JP 2014164572 A JP2014164572 A JP 2014164572A
Authority
JP
Japan
Prior art keywords
image
camera
information
marker
annotation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013035799A
Other languages
English (en)
Inventor
Hiroaki Hamada
博昭 浜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2013035799A priority Critical patent/JP2014164572A/ja
Publication of JP2014164572A publication Critical patent/JP2014164572A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】拡張現実技術に基づいて画像に追加的に表示されるアノテーションの位置を、当該画像の内容に応じて調整することができる情報処理装置およびプログラムを提供すること。
【解決手段】情報処理装置は、A社の建物94とB社の建物96を含む画像を、A社のマーカ(アノテーション)を追加して、表示する。情報処理装置は、当該画像を撮影したカメラの位置および向きを取得し、これらに基づいて、A社のマーカの表示位置を、B社の建物96の画像に重ならないような位置へと調整する。
【選択図】図6

Description

本発明は、情報処理装置およびプログラムに関し、特に、拡張現実技術を利用して、画像情報にアノテーションを付加して表示する情報処理装置およびプログラムに関する。
情報処理端末のうち、カメラと、ディスプレイと、位置情報と方向を取得できるセンサとを備え、カメラで撮影した画像に重畳して、カメラの撮影位置および撮影方向に関連付けられたアノテーションを表示するものがある。このようなアノテーションを表示する技術は、AR(Augmented Reality)技術と呼ばれる。実際に流通されているスマートフォンにおいて、AR技術を利用したアプリケーションが搭載されている。AR技術において、アノテーションは、エアタグまたはマーカーとも呼ばれ得る。
従来、AR技術に関する種々の提案がなされてきた。たとえば、特表平9−505138号公報(特許文献1)は、位置及び姿勢を利用した電子工学式視覚システムを開示している。特許第4294093号公報(特許文献2)は、コンピュータ・ビジョン・システムのグラフィック・ユーザ・インターフェースを開示している。
特表平9−505138号公報 特許第4294093号公報
しかしながら、従来のAR技術において、アノテーションが表示される位置は、AR技術が利用されるアプリケーションによって一義的に決められる。このことから、アノテーションが表示される位置の決定の際には、当該アノテーションが重畳される画像情報(背景)とアノテーションとの因果関係が考慮されない。このため、現実世界(撮影された画像等)の中の、広告や看板などのユーザに認識されるべきターゲットに対応する位置に、当該ターゲットに無関係のアノテーションが表示されることがあり得る。これにより、当該ターゲットと無関係のアノテーションが、誤って、当該ターゲットに関係のある情報として認識される問題が生じ得る。
本発明は、かかる実情に鑑み考え出されたものであり、その目的は、拡張現実技術に基づいて画像に追加的に表示されるアノテーションの位置を、当該画像の内容に応じて調整することができる情報処理装置およびプログラムを提供することである。
ある局面に従うと、情報処理装置が提供される。情報処理装置は、画像を撮影するカメラと、カメラによって撮影された画像に含まれる2以上の対象物のそれぞれの主体を特定するように構成された特定手段とを備える。2以上の対象物は、互いに主体が異なる第1の対象物と第2の対象物とを含む。情報処理装置は、カメラによって撮影された画像と、第1の対象物に対応するアノテーションとを単一の画面に表示するための情報を出力する出力手段と、画像を撮影したときのカメラの、位置、方向、および、仰角を取得する情報取得部と、画面におけるアノテーションの表示位置を調整するように構成された調整手段とを備える。調整手段は、情報取得部によって取得された情報に基づいて、アノテーションが画像の中の第2の対象物に重ならないように、アノテーションの表示位置を調整するように構成されている。
好ましくは、特定手段は、画像に含まれる広告情報を検出し、当該広告情報の内容に基づいて画像に含まれる対象物の主体を特定する。
好ましくは、特定手段は、広告情報に対して文字認識処理を施し、当該文字認識処理によって取得された文字情報に基づいて、画像に含まれる対象物の主体を特定する。
好ましくは、調整手段は、第1の対象物の位置を特定する情報と、情報取得部によって取得された情報とに基づいて、カメラが画像を撮影したときの視野において、カメラとアノテーションの表示位置の延長線に第2の対象物が存在したときに、アノテーションが画像の中で第2の対象物に重なると判断する。
他の局面に従うと、画像を撮影するカメラと、カメラによって撮影される画像を画面に表示するための情報を出力する出力手段とを備えた情報処理装置を制御するコンピュータによって実行されるプログラムが提供される。プログラムは、コンピュータに、カメラによって撮影された画像に含まれる2以上の対象物のそれぞれの主体を特定させる。2以上の対象物は、互いに主体が異なる第1の対象物と第2の対象物とを含む。プログラムは、さらに、コンピュータに、画像を撮影したときのカメラの、位置、方向、および、仰角を取得させ、コンピュータに、カメラの、位置、方向、および、仰角に基づいて、画面において、第1の対象物に対応するアノテーションが画像の中の第2の対象物に重ならないように、アノテーションの表示位置を調整させる。
画像表示システムの概略的な構成を示す図である。 移動端末のハードウェア構成の具体例を示す図である。 移動端末の機能ブロック図である。 サービス提供サーバに格納される情報の一部を概略的に示す図である。 広告情報提供サーバに格納される情報の一部を概略的に示す図である。 移動端末の動作の概要を説明するための図である。 位置(1)から撮影された画像の表示画面の一例を示す図である。 位置(2)から撮影された画像の表示画面の一例を示す図である。 図6の位置(1)でのカメラの視野を模式的に示す図である。 図6の位置(2)でのカメラ26の視野を模式的に示す図である。 マーカの位置を調整するための処理のフローチャートである。
<第1の実施の形態>
以下、情報処理装置の一実施の形態である携帯端末を含む画像表示システムについて、図面を参照して説明する。以下の説明において、同一の機能および作用を有する部品は、各図を通して同じ符号を付し、重複する説明を繰返さない。
[画像表示システムの概略的な構成]
図1を参照して、画像表示システムの構成の一例を説明する。図1は、画像表示システムの概略的な構成を示す図である。
図1に示されるように、画像表示システムは、携帯端末1と、携帯端末1をネットワーク環境に接続させるための無線ネットワーク基地局3と、サービス提供サーバ4と、広告情報提供サーバ5とを含む。携帯端末1は、ネットワーク2を介して上記基地局およびサーバと通信する。
携帯端末1の一つの面には、指示を入力するための操作ボタン25Aと、モニタ30とが設けられている。また、携帯端末1の当該面の裏側には、カメラ26が備えられている。携帯端末1は、カメラ26で撮影した画像を、モニタ30に表示する。操作ボタン25Aは、たとえばカメラ26による撮影に利用されるシャッタボタンである。
携帯端末1は、たとえば、携帯電話機、スマートフォン(高機能携帯電話)、または、情報端末によって実現される。情報処理装置は、カメラを備え、当該カメラによる撮影の際の位置および向きを特定することができれば、携帯性を具備している必要はない。
[携帯端末のハードウェア構成]
図2は、携帯端末1のハードウェア構成の具体例を示す図である。
図2を参照して、携帯端末1は、演算装置であるCPU(Central Processing Unit)20と、記憶装置21と、磁気センサを含んで当該携帯端末1の向きを検出するための電子コンパス23と、GPS(Global Positioning System)信号または基地局からの位置信号を受信して当該携帯携帯端末の位置情報を取得するためのGPSコントローラ24と、ジャイロセンサ32と、操作入力を受付けるための操作部25と、カメラ26と、外部の機器と通信するための通信装置27と、携帯端末1に対して着脱可能な記録媒体100に対する情報の書き込みおよび読み取りを行うメディアコントローラ28と、モニタ30と、表示インターフェース30Aとを含む。
記憶装置21は、CPU20で実行されるプログラムなどを記憶するROM(Read Only Memory)と、一次記憶装置の一例であるRAM(Random Access Memory)とを含む。操作部25は、キーボードやマウス、または、タッチセンサによって構成され得る。表示インターフェース30Aは、CPU20とモニタ30との間の通信のインターフェースである。モニタ30は、たとえば液晶ディスプレイやプラズマディスプレイなどによって実現され、操作部25と一体的にタッチパネルとして実現される場合もあり得る。
電子コンパス23は、携帯端末1の水平方向の向きを示す信号を生成し、当該信号をCPU20へ出力する。GPSコントローラ24は、携帯端末1の水平方向の向きや位置情報を示す信号を生成し、当該信号をCPU20へ出力する。ジャイロセンサ32は、携帯端末1の垂直方向の向き(仰角)を示す信号を生成し、当該信号をCPU20へ出力する。第1の実施の形態において、携帯端末1の位置/向きは、AR技術を利用したマーカの提供のために携帯端末1から所与のサーバへ提供される情報の一例であって、カメラ26の位置/向きに相当する。
[携帯端末の機能構成]
図3を参照して、携帯端末1の機能的な構成を示す。図3は、携帯端末1の機能ブロック図である。
図3に示されるように、携帯端末1は、出力画像生成部50と、画像取得部51と、位置情報取得部52と、方位情報取得部53と、マーカ位置検出部54と、位置関係検出部55とを含む。これらのそれぞれは、たとえばCPU20が所与のプログラムを実行することによって実現される。画像取得部51は、カメラ26から、当該カメラ26が撮影した画像情報を取得する。また、画像取得部51は、カメラ26の画像に対して与えられたマーカの画像情報を取得する。携帯端末1に搭載された特定のアプリケーションは、取得された画像と、当該取得された画像が撮影されたときのカメラ26の位置および向きとを、サービス情報サーバ4等の所与のサーバに提供する。これにより、携帯端末1は、当該サーバから、AR技術に従って、当該画像に対応するマーカを提供される。カメラ26の位置および向きに基づくマーカの提供については、公知の技術を採用することができるため、本明細書では詳細な説明は繰り返さない。
位置情報取得部52は、GPSコントローラ24から、画像取得部51が取得した画像が撮影されたときのカメラ26の位置情報を取得する。位置情報取得部52は、電子コンパス23および/またはジャイロセンサ32から、画像取得部51が取得した画像が撮影されたときのカメラ26の向きの情報を取得する。
マーカ位置検出部54は、上記のように提供されたマーカがモニタ30に表示されるときの位置情報を取得する。当該位置情報は、マーカを提供するサーバから携帯端末1に送信された情報によって特定される場合もあれば、携帯端末1に実装されている、撮影された画像をマーカとともに表示させるためのアプリケーションによって特定される場合もある。
位置関係検出部55は、画面に表示されるマーカの当該画面における位置と、画面における対象物の位置との関係を検出する。位置関係検出部55は、マーカ位置検出部54から出力される情報に基づいて、画面におけるマーカの位置を特定する。また、位置関係検出部55は、画像取得部51が取得した画像における対象物の位置を特定することにより、画面における対象物の位置を特定する。位置を特定される対象物は、画面に表示されるマーカに対応する対象物を含む。なお、位置関係検出部55は、たとえば、位置情報取得部52が取得した位置の情報と方位情報取得部53が取得した向きの情報とに基づいて、画像取得部51が取得した画像が対応する現実世界の範囲を特定し、そして、現実世界の当該範囲において画面に表示されるマーカが対応する対象物の近傍に存在する建物を特定することにより、画像取得部51が取得した画像に含まれる対象物を特定し、そして、当該特定した対象物の上記画面における位置を特定する。
出力画像生成部50は、表示位置調整部56を含む。表示位置調整部56は、位置関係検出部55によって検出された関係に基づいて、上記マーカが、画像取得部51が取得した画像の中の当該マーカが対応する対象物以外の対象物に対応するものと認識されないように、モニタ30に表示される画面におけるマーカの表示位置を調整する。出力画像生成部50は、画像取得部51が取得した画像に画像取得部51が取得したマーカを重畳させた画像情報を生成し、モニタ30に送信する。これにより、モニタ30は、画像情報に従った画面を表示する。なお、出力画像生成部50が生成する画面情報におけるマーカの位置は、表示位置調整部56によって位置を調整された後の位置である。
[サービス提供サーバ]
図4を参照して、サービス提供サーバ4に格納される情報の一例を説明する。図4は、サービス提供サーバ4に格納される情報の一部の内容を概略的に示す図である。
図4に示されるように、サービス提供サーバ4は、広告情報(AD001等)を、広告主を特定する情報(SP01等)に関連付けて格納する。広告情報とは、マーカの種類を特定する情報である。マーカの具体例としては、メッセージ「毎週水曜はレディースデー」のように、広告主の商業活動における広告が挙げられる。
[広告情報提供サーバ]
図5を参照して、広告情報提供サーバ5に格納される情報の一例を説明する。図5は、広告情報提供サーバ5に格納される情報の一部の内容を概略的に示す図である。
図5に示されるように、広告情報提供サーバ5は、広告主を特定する情報(SP01等)を、建物位置(XB1,YB1)に関係付けて格納する。建物位置は、たとえば、広告主が所有する、実世界における建物の位置を特定する情報であり、たとえば、X座標とY座標のように、実世界における平面上の位置を二次元的に特定できる情報である。
[携帯端末の動作の概要]
図6を参照して、携帯端末1の動作の概要を説明する。図6は、携帯端末1の動作の概要を説明するための図である。
図6では、実世界における建物94,96が示されている。建物94は、A社の建物であり、「A社」と書かれた看板94Aを有する。建物96は、B社の建物であり、「B社」と書かれた看板96Aを有する。図6では、建物94が存在する位置の座標がA(Xa,Ya)で示され、建物96が存在する位置の座標がB(Xb,Yb)で示されている。
図6中のマーカ97は、A社に対応して付与されるマーカであって、B社には対応しないマーカの一例である。AR技術を利用したアプリケーションは、建物94を含む画像が撮影された場合、当該画像に重畳させるマーカとして、当該画像の表示情報を生成する装置に、マーカ97を提供する。マーカ97の位置は、マーカ97の提供元によって指定される。マーカ98は、後述のように変更された後のマーカ97の位置を示す。
図6において、位置(1)と位置(2)は、それぞれ人90,92のそれぞれの位置を示している。現実世界での位置(1)は、座標(Xm1,Ym1)で示される。位置(2)は、座標(Xm2,Ym2)で示される。さらに、図6では、位置(1)から建物94を含む画像を撮影するときのカメラの視野が一点鎖線で示される。位置(2)から建物94を含む画像を撮影するときのカメラの視野が破線で示される。
位置(1)から一点鎖線で示された視野が撮影されることを考慮すると、位置(1)から建物94が撮影された場合、撮影された画像では、マーカ97は、建物94には重なるが、建物96には重ならないと想定される。図7は、位置(1)から撮影された画像がマーカ97を重畳されて表示されるときの画面の一例を示す図である。図7の画面7において、要素110は建物94に対応し、要素111はマーカ97に対応する。要素120は、建物96に対応する。
一方、位置(2)から破線で示された視野が撮影されることを考慮すると、位置(2)から建物94が撮影された場合、撮影された画像では、マーカ97は、建物96が重なることが想定される。図8は、位置(2)から撮影された画像がマーカ97を重畳されて表示されるときの画面の一例を示す図である。図8の画面8において、要素210は建物94に対応し、要素220は建物96に対応し、要素211はマーカ97に対応する。この場合、要素211は、要素220に重なっている。これにより、マーカ97が、本来対応しない建物96の所有者であるB社に対応すると誤解を与えるおそれがある。このような場合、携帯端末1は、マーカ97の位置を、図6においてマーカ98で示される位置に変更する。これにより、画面8におけるマーカの表示位置は、要素211で示される位置から要素212に示される位置へと変更される。要素212は、要素210には重なるが、要素220には重ならない。したがって、上記誤解を回避できる。
[マーカの位置の変更]
図6〜図8を参照して説明したマーカの表示位置の変更(調整)は、表示位置調整部56によって実行される。図9および図10を参照して、当該の調整の内容を、より具体的に説明する。図9および図10は、建物94,96を上から見た図に相当する。なお、図9は、図7の例に対応する。図10は、図8の例に対応する。
まず、図9に示された例について説明する。図9は、図6の位置(1)から撮影したときのカメラ26の視野を模式的に示す図である。図9では、カメラ26の位置は、点P1で示されている。その視野は、線L11,L12で表される。カメラ26の視野は、実世界に実体として存在するものではなく、位置情報取得部52が取得する位置情報と方位情報取得部53が取得する向きの情報とに基づき公知の技術を利用されて特定される。この図には、実世界には存在しないマーカ97の位置が追加されている。
位置関係検出部55は、マーカ97の広告主と建物96の所有者とを特定することにより、マーカ97の広告主が建物96の所有者とが異なる主体に対応するという結果を取得する。そして、位置関係検出部55は、画像に含まれる、主体の異なるマーカと建物との位置関係を解析する。より具体的には、位置関係検出部55は、図9に示されたマーカ97の位置と建物96の位置の関係を解析する。これにより、位置関係検出部55は、建物96が、点P1を始点としたマーカ97の延長線上には存在しない、という解析結果を取得する。
表示位置調整部56は、位置関係検出部55の解析結果に基づいて、マーカ97の表示位置を変更しない、という調整の結果を生成する。出力画像生成部50は、当該調整の結果に基づいて、マーカ97の位置を、当該マーカ97を提供するサーバまたは当該マーカ97を表示させるアプリケーションによって指定されたものから変更することなく、カメラ26によって撮影された画像に重畳させることにより、当該画像の表示情報を生成する。
次に、図10に示された例について説明する。図10は、図6の位置(2)から撮影したときのカメラ26の視野を模式的に示す図である。図10では、カメラ26の位置は、点P2で示されている。その視野は、線L21,L22で表される。この図には、実世界には存在しないマーカ97,98の位置が追加されている。
位置関係検出部55は、上記したようなマーカ97と建物96の主体の特定の結果に従って、図10中のマーカ97の位置と建物96の位置関係を解析する。図10において、線L23,24は、いずれも、点P2を始点としマーカ97上を通る線である。これらの線は、実世界には存在しない。そして、位置関係検出部55は、建物96が、点P1を始点としたマーカ97の延長線上には存在する、という解析結果を取得する。
表示位置調整部56は、当該解析結果に基づいて、マーカ97の表示位置をマーカ98で示される位置へと変更する、という調整の結果を生成する。出力画像生成部50は、当該調整の結果に基づいて、マーカ97の位置をマーカ98で示される位置へと変更した上で、カメラ26によって撮影された画像に重畳させることにより、当該画像の表示情報を生成する。
表示位置調整部56は、マーカの変更後の位置を、当該マーカが主体の異なる建物に重ならない位置であって表示画面内に収まる位置であれば、いかなる位置に決定することができる。また、表示位置調整部56は、単に位置を変更するだけでなく、当該マーカの大きさや形状を変更することによって、マーカの変更後の位置(大きさ、形状)を決定することもできる。第1の実施の形態での「重ならない」とは、たとえば、カメラ26の撮影位置を始点としたときの同じ延長線上に存在しないことを意味する。
[マーカの位置の変更のためのフローチャート]
図11を参照して、図6〜図10を参照して説明されてきた、マーカの表示位置を必要に応じて変更するための処理の内容をより具体的に説明する。図11は、当該処理のフローチャートである。
カメラ26によって画像が撮影されると、出力画像生成部50が画像取得部51を介して当該画像を取得し、当該画像を単独でモニタ30に表示させるとともに、位置情報取得部52および方位情報取得部53が、撮影時のカメラ26の位置および向きを取得する(ステップS10)。
次に、位置関係検出部55は、撮影された画像から、広告または看板を検出する(ステップS20)。これにより、看板94A,96Aが検出される。位置関係検出部55は、たとえば、パターンマッチング技術を利用して、撮影された画像が図4の広告情報で特定される広告の画像を含むかどうかを判断することにより、広告や看板を検出する。
次に、位置関係検出部55は、ステップS20で特定した広告および看板のそれぞれの広告主を特定する(ステップS30)。位置関係検出部55は、ステップS30では、たとえば、サービス提供サーバ4に格納されるデータベース(図4参照)を参照することにより、ステップS20において撮影された画像に含まれると判断された広告の画像に関連付けられた広告主を取得することにより、上記広告主を特定する。
次に、位置関係検出部55は、ステップS30で特定した広告主の建物が存在する位置を取得する(ステップS40)。位置関係検出部55は、ステップS40では、たとえば、広告情報提供サーバ5に格納されるデータベース(図5参照)を参照することにより、ステップS30で特定された広告主に関連付けられた建物位置を取得する。同一の広告主に複数の建物位置が特定されている場合、位置関係検出部55は、たとえば、ステップS10で取得された位置および向きに基づいてカメラ26の視野を特定し、当該特定された視野に含まれる建物情報を取得する。
ステップS50では、位置関係検出部55は、ステップS20で検出されたすべての広告および看板がステップS30とステップS40の処理対象とされたかどうかを判断する。まだ処理対象とされていない広告または看板が残されていれば、制御はステップS30に戻される。一方、すべての広告および看板が処理対象とされていれば、制御はステップS60へ進められる。
ステップS60では、マーカ位置検出部54は、カメラ26によって撮影された画像に対して提供されたマーカと、当該マーカの提供元から当該マーカについて指定された表示位置とを取得する。
次に、ステップS70で、表示位置調整部56は、図9および図10を参照して説明したように、撮影位置(図9の点P1または図10の点P2のような、カメラ26の位置)と提供されたマーカとの延長線上に、当該マーカと主体が異なる建物が存在するか否かを判断する。図6、図9、および、図10に示されたような建物の位置関係は、たとえば、位置関係検出部55がステップS40で取得した、画像に含まれる建物の広告主の建物位置の近傍の地図情報を読み込むことにより、構成される。位置関係検出部55は、携帯端末1の記憶装置21に格納されている地図情報を読み込んでも良いし、ネットワーク2を介して通信可能な記憶装置に格納されている地図情報を読み込んでも良い。
ステップS70において、図10に示されたように、上記延長線上に上記マーカと主体が異なる建物が存在すると判断された場合には、制御はステップS80へ進められる。一方、図9に示されたように、上記延長線上に上記マーカと主体が異なる建物が存在しないと判断された場合には、制御はステップS90へ進められる。
ステップS80では、表示位置調整部56は、図10を参照して説明したようにマーカの位置を移動させるように調整する。そして、制御は、ステップS90へと進められる。
ステップS90では、表示位置調整部56は、今回表示される画像に対して提供されたすべてのマーカについて、ステップS70における判断が実行されたか否かを判断する。そして、表示位置調整部56は、まだ判断がなされていないマーカが存在すると判断すると、ステップS70へ制御を戻す。一方、表示位置調整部56は、すべてのマーカについての判断がなされたと判断すると、図11に示された処理を終了させる。
<第2の実施の形態>
第1の実施の形態では、電子コンパス23がカメラ26の水平方向の向きを計測し、ジャイロセンサ32がカメラ26の垂直方向の向き(仰角)を計測する。携帯端末1において、カメラ26の水平方向の向きおよび/または垂直方向の向きは、他の方法によって計測されても良い。
第2の実施の形態では、携帯端末1に取り付けられた受光装置によって、カメラ26の水平方向および/または垂直方向の向きが計測される。第2の実施の形態の画像表示システムでは、カメラ26の向きを計測するための電波が、たとえば特定の位置から特定の向きで発信される。第2の実施の形態の携帯端末1では、位置情報取得部52および方位情報取得部53は、受光装置が当該電波を受信した強度等を所与の処理に適用することにより、カメラ26の水平方向および/または垂直方向の向きを特定する。
<その他>
図11を参照して説明された処理では、ステップS30〜ステップS50において、画像に含まれる全ての建物の広告主が特定された後、ステップS60において、マーカの情報が取得された。
以上説明した第1および第2の実施の形態では、対象物の一例として建物が示された。なお、第1の実施の形態の対象物としては、主体に関連付けられる対象であればよく、橋などの建物以外の建造物であっても良いし、看板などの物体であっても良い。また、対象物には、主体に関連付けられるのであれば、木などの自然物が含まれる場合もある。
また、第1および第2の実施の形態では、「広告主」は、画像に含まれる対象物の主体の一例である。当該主体は、対象物について、広告活動をするような商業的に関係付けられたものだけを意味するのではなく、対象物に対するいかなる態様で関係付けられたもの(個人、会社、団体等)を意味し得る。
また、カメラ26の位置および向きの少なくとも一方は、操作部25を介して入力された情報に基づいて特定されても良い。
携帯端末1は、上記のようにマーカの表示位置を調整することにより、マーカの表示位置付近に表示された背景から、広告・看板となるものを検出し、その中のメーカ名やロゴから、対象物(広告や看板)の主体を特定する。その結果、カメラ26が撮影した画像に重畳されるマーカと対象物の主体の関連性が判明する。そして、マーカの表示位置が、当該マーカが対応しない主体の対象物(広告や看板)に重なるように表示されるように指定されている場合、携帯端末1は、当該マーカの表示位置を変更する。
特に、図6を参照して説明されたように、携帯端末1は、同じ被写体(建物94)を含む場合であっても、撮影する位置(位置(1)と位置(2))に応じて、マーカの表示位置を撮影位置に合わせて調整する。都会のような建物密度が高い場所で撮影が行なわれる場合、同じ被写体を撮影する場合でも、撮影する位置(向き)が異なれば、画像に含まれる建物(対象物)の種類が異なる場合があり得る。携帯端末1では、このような場合でも、ユーザを煩わせることなく自動的に、マーカの表示位置を調整する。
今回開示された実施の形態およびその変形例はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 携帯端末、21 記憶装置、23 電子コンパス、24 GPSコントローラ、25 操作部、26 カメラ、27 通信装置、30 モニタ、50 出力画像生成部、51 画像取得部、52 位置情報取得部、53 方位情報取得部、54 マーカ位置検出部、55 位置関係検出部、56 表示位置調整部。

Claims (5)

  1. 画像を撮影するカメラと、
    前記カメラによって撮影された画像に含まれる2以上の対象物のそれぞれの主体を特定するように構成された特定手段とを備え、
    前記2以上の対象物は、互いに主体が異なる第1の対象物と第2の対象物とを含み、
    前記カメラによって撮影された画像と、前記第1の対象物に対応するアノテーションとを単一の画面に表示するための情報を出力する出力手段と、
    前記画像を撮影したときの前記カメラの、位置、方向、および、仰角を取得する情報取得部と、
    前記画面における前記アノテーションの表示位置を調整するように構成された調整手段とを備え、
    前記調整手段は、前記情報取得部によって取得された情報に基づいて、前記アノテーションが前記画像の中の前記第2の対象物に重ならないように、前記アノテーションの表示位置を調整するように構成されている、情報処理装置。
  2. 前記特定手段は、前記画像に含まれる広告情報を検出し、当該広告情報の内容に基づいて前記画像に含まれる対象物の主体を特定する、請求項1に記載の情報処理装置。
  3. 前記特定手段は、前記広告情報に対して文字認識処理を施し、当該文字認識処理によって取得された文字情報に基づいて、前記画像に含まれる対象物の主体を特定する、請求項2に記載の情報処理装置。
  4. 前記調整手段は、前記第1の対象物の位置を特定する情報と、前記情報取得部によって取得された情報とに基づいて、前記カメラが前記画像を撮影したときの視野において、前記カメラと前記アノテーションの表示位置の延長線に前記第2の対象物が存在したときに、前記アノテーションが前記画像の中で前記第2の対象物に重なると判断する、請求項1〜請求項3のいずれか1項に記載の情報処理装置。
  5. 画像を撮影するカメラと、前記カメラによって撮影される画像を画面に表示するための情報を出力する出力手段とを備えた情報処理装置を制御するコンピュータによって実行されるプログラムであって、
    前記プログラムは、
    コンピュータに、前記カメラによって撮影された画像に含まれる2以上の対象物のそれぞれの主体を特定させ、
    前記2以上の対象物は、互いに主体が異なる第1の対象物と第2の対象物とを含み、
    前記プログラムは、さらに、
    コンピュータに、前記画像を撮影したときの前記カメラの、位置、方向、および、仰角を取得させ、
    コンピュータに、前記カメラの、位置、方向、および、仰角に基づいて、前記画面において、前記第1の対象物に対応するアノテーションが前記画像の中の前記第2の対象物に重ならないように、前記アノテーションの表示位置を調整させる、プログラム。
JP2013035799A 2013-02-26 2013-02-26 情報処理装置およびプログラム Pending JP2014164572A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013035799A JP2014164572A (ja) 2013-02-26 2013-02-26 情報処理装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013035799A JP2014164572A (ja) 2013-02-26 2013-02-26 情報処理装置およびプログラム

Publications (1)

Publication Number Publication Date
JP2014164572A true JP2014164572A (ja) 2014-09-08

Family

ID=51615110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013035799A Pending JP2014164572A (ja) 2013-02-26 2013-02-26 情報処理装置およびプログラム

Country Status (1)

Country Link
JP (1) JP2014164572A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017169158A1 (ja) * 2016-03-29 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2017187708A1 (ja) * 2016-04-26 2019-02-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2019057014A (ja) * 2017-09-20 2019-04-11 株式会社ミクシィ 被写体特定情報処理装置並びにその制御方法及び制御プログラム
JP7482971B1 (ja) 2022-11-07 2024-05-14 ソフトバンク株式会社 情報処理装置、プログラム、システム、及び情報処理方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017169158A1 (ja) * 2016-03-29 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2017187708A1 (ja) * 2016-04-26 2019-02-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US11017257B2 (en) 2016-04-26 2021-05-25 Sony Corporation Information processing device, information processing method, and program
JP7092028B2 (ja) 2016-04-26 2022-06-28 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
JP2019057014A (ja) * 2017-09-20 2019-04-11 株式会社ミクシィ 被写体特定情報処理装置並びにその制御方法及び制御プログラム
JP7482971B1 (ja) 2022-11-07 2024-05-14 ソフトバンク株式会社 情報処理装置、プログラム、システム、及び情報処理方法

Similar Documents

Publication Publication Date Title
US10677596B2 (en) Image processing device, image processing method, and program
US10360696B2 (en) Image processing apparatus, image processing method, and program
US8850337B2 (en) Information processing device, authoring method, and program
CN105659295B (zh) 用于在移动设备上的真实环境的视图中表示兴趣点的方法以及用于此方法的移动设备
US20180286098A1 (en) Annotation Transfer for Panoramic Image
US8121353B2 (en) Apparatus, system and method for mapping information
US20100257252A1 (en) Augmented Reality Cloud Computing
US20120216149A1 (en) Method and mobile apparatus for displaying an augmented reality
US11134193B2 (en) Information processing system, information processing method, and non-transitory computer-readable storage medium
JP2015001875A (ja) 画像処理装置、画像処理方法、プログラム、印刷媒体及び印刷媒体のセット
US20130176337A1 (en) Device and Method For Information Processing
JP2013080326A (ja) 画像処理装置、画像処理方法及びプログラム
CN110794955B (zh) 定位跟踪方法、装置、终端设备及计算机可读取存储介质
JP2005135355A (ja) データオーサリング処理装置
US20190065855A1 (en) Augmented reality geolocation using image matching
JP2021136017A (ja) 仮想オブジェクトを作成し、レンダリングするための視覚的オブジェクト認識及び記憶された幾何学形状を使用する拡張現実システム
JP6686547B2 (ja) 画像処理システム、プログラム、画像処理方法
JP2014164572A (ja) 情報処理装置およびプログラム
JP6165422B2 (ja) 情報処理システム、情報処理装置、サーバ、端末装置、情報処理方法、及びプログラム
JP2012141779A (ja) 拡張現実提供装置、拡張現実提供システム、拡張現実提供方法及びプログラム
JP2011118687A (ja) オブジェクト管理装置及びオブジェクト管理方法
KR101265554B1 (ko) 3차원 광고 시스템 및 방법
CN114299809B (zh) 方向信息显示方法、显示装置、电子设备和可读存储介质
WO2021256239A1 (ja) ナビゲーション装置、ナビゲーションシステム、ナビゲーション方法、プログラム、及び、記録媒体
JP6085390B1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム