JP2013218597A - 情報処理装置、表示制御方法及びプログラム - Google Patents

情報処理装置、表示制御方法及びプログラム Download PDF

Info

Publication number
JP2013218597A
JP2013218597A JP2012090049A JP2012090049A JP2013218597A JP 2013218597 A JP2013218597 A JP 2013218597A JP 2012090049 A JP2012090049 A JP 2012090049A JP 2012090049 A JP2012090049 A JP 2012090049A JP 2013218597 A JP2013218597 A JP 2013218597A
Authority
JP
Japan
Prior art keywords
information
real
information processing
processing apparatus
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012090049A
Other languages
English (en)
Other versions
JP2013218597A5 (ja
JP6056178B2 (ja
Inventor
Kenichiro Oi
堅一郎 多井
Akihiko Kaino
彰彦 貝野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012090049A priority Critical patent/JP6056178B2/ja
Priority to EP13712939.1A priority patent/EP2836899B1/en
Priority to US14/382,505 priority patent/US9823821B2/en
Priority to PCT/JP2013/001536 priority patent/WO2013153740A2/en
Priority to TW102110495A priority patent/TW201403443A/zh
Priority to CN 201320166470 priority patent/CN203276350U/zh
Priority to CN201310116242.2A priority patent/CN103377487B/zh
Publication of JP2013218597A publication Critical patent/JP2013218597A/ja
Publication of JP2013218597A5 publication Critical patent/JP2013218597A5/ja
Application granted granted Critical
Publication of JP6056178B2 publication Critical patent/JP6056178B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

【課題】ARアプリケーションを通じて提供される多数の情報の中で、ユーザにとっての所望の情報の視認性を選択的に向上させること。
【解決手段】撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、前記入力画像に映る1つ以上の実物体の各々と関連付けられる仮想オブジェクトを前記入力画像に重畳する表示制御部と、前記1つ以上の実物体のうち少なくとも1つの実物体がユーザにより指定された後、当該指定された実物体を複数のフレームにわたって注目物体として選択する選択部と、を備え、前記表示制御部は、前記注目物体と関連付けられる仮想オブジェクトにより示される表示情報を、前記注目物体と前記撮像装置との間の相対的な位置又は姿勢に応じて変化させる、情報処理装置を提供する。
【選択図】図6

Description

本開示は、情報処理装置、表示制御方法及びプログラムに関する。
近年、実空間に付加的な情報を重畳してユーザに呈示する拡張現実(AR:Augmented Reality)と呼ばれる技術が注目されている。AR技術においてユーザに呈示される情報は、アノテーションとも呼ばれ、テキスト、アイコン又はアニメーションなどの様々な形態の仮想的なオブジェクトを用いて可視化され得る。アノテーションは、通常、入力画像に映るいずれかの実物体と関連付けられる位置に表示される。
AR技術を通じてユーザに情報を提供する際には、情報の視認性が失われないことが重要である。提供される情報が多ければ、多くの仮想オブジェクトが画像に重畳される結果として、視認性が低下し易い。そこで、下記特許文献1は、複数の仮想オブジェクトを1つの集合的な仮想オブジェクトに統合することにより、情報の視認性を向上させることを提案している。
特開2010−238098号公報
しかしながら、呈示される雑多な情報の中で、ユーザが求めている情報は、通常その一部のみである。ユーザにとっての所望の情報とその他の情報と区別することなく統合すれば、却って視認性が低下する結果ともなりかねない。また、ユーザ自身が移動し又はユーザが端末を動かす結果として画像に重畳される情報は変化し得るが、そのような変化する状況の下でユーザにとっての所望の情報をどのように取り扱うべきかについて、上記特許文献1は良好な解決策を開示していない。
従って、ARアプリケーションを通じて提供される多数の情報の中で、ユーザにとっての所望の情報を他の情報と区別し、その所望の情報の視認性を選択的に向上させることのできる仕組みが提供されることが望ましい。
本開示によれば、撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、前記入力画像に映る1つ以上の実物体の各々と関連付けられる仮想オブジェクトを前記入力画像に重畳する表示制御部と、前記1つ以上の実物体のうち少なくとも1つの実物体がユーザにより指定された後、当該指定された実物体を複数のフレームにわたって注目物体として選択する選択部と、を備え、前記表示制御部は、前記注目物体と関連付けられる仮想オブジェクトにより示される表示情報を、前記注目物体と前記撮像装置との間の相対的な位置又は姿勢に応じて変化させる、情報処理装置が提供される。
また、本開示によれば、撮像装置を用いて実空間を撮像することにより生成される入力画像を取得することと、前記入力画像に映る1つ以上の実物体の各々と関連付けられる仮想オブジェクトを前記入力画像に重畳することと、前記1つ以上の実物体のうち少なくとも1つの実物体がユーザにより指定された後、当該指定された実物体を複数のフレームにわたって注目物体として選択することと、前記注目物体と関連付けられる仮想オブジェクトにより示される表示情報を、前記注目物体と前記撮像装置との間の相対的な位置又は姿勢に応じて変化させることと、を含む表示制御方法が提供される。
また、本開示によれば、情報処理装置を制御するコンピュータを、撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、前記入力画像に映る1つ以上の実物体の各々と関連付けられる仮想オブジェクトを前記入力画像に重畳する表示制御部と、前記1つ以上の実物体のうち少なくとも1つの実物体がユーザにより指定された後、当該指定された実物体を複数のフレームにわたって注目物体として選択する選択部と、として動作させるためのプログラムであって、前記表示制御部は、前記注目物体と関連付けられる仮想オブジェクトにより示される表示情報を、前記注目物体と前記撮像装置との間の相対的な位置又は姿勢に応じて変化させる、プログラムが提供される。
本開示に係る技術によれば、ARアプリケーションを通じて提供される多数の情報の中で、ユーザにとっての所望の情報の視認性を選択的に向上させることができる。
一実施形態に係る情報処理装置の概要について説明するための説明図である。 既存のAR技術によって表示され得る画像の一例について説明するための説明図である。 画像の中央に位置する仮想オブジェクトが強調的に表示される例について説明するための説明図である。 本開示に係る技術の基本的な原理について説明するための説明図である。 一実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。 一実施形態に係る情報処理装置の論理的機能の構成の一例を示すブロック図である。 デフォルト物体を選択するための基準の第1の例について説明するための説明図である。 デフォルト物体を選択するための基準の第2の例について説明するための説明図である。 デフォルト物体を選択するための基準の第3の例について説明するための説明図である。 注目物体をロックするためのユーザインタフェースの一例を示す説明図である。 表示情報を制御するための制御パラメータの第1の例について説明するための説明図である。 表示情報を制御するための制御パラメータの第2の例について説明するための説明図である。 表示情報を制御するための制御パラメータの第3の例について説明するための説明図である。 アノテーションDBの構成の一例を示す説明図である。 スケールに従った表示情報の制御の一例について説明するための第1の説明図である。 スケールに従った表示情報の制御の一例について説明するための第2の説明図である。 距離に従った表示情報の制御の一例について説明するための第1の説明図である。 距離に従った表示情報の制御の一例について説明するための第2の説明図である。 角度に従った表示情報の制御の一例について説明するための第1の説明図である。 角度に従った表示情報の制御の一例について説明するための第2の説明図である。 未ロック状態における表示制御処理の流れの一例を示すフローチャートである。 ロック状態における表示制御処理の流れの一例を示すフローチャートである。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、以下の順序で説明を行う。
1.概要
2.一実施形態に係る装置の構成
2−1.ハードウェア構成
2−2.機能構成
2−3.表示情報の制御の例
3.処理の流れ
3−1.未ロック状態
3−2.ロック状態
4.まとめ
<1.概要>
まず、図1〜図4を用いて、本開示に係る技術の概要を説明する。
図1は、一実施形態に係る情報処理装置100の概要について説明するための説明図である。図1を参照すると、ユーザUaが有する情報処理装置100が示されている。情報処理装置100は、実空間10に向けられたレンズを有する撮像部102と、表示部110とを備える。図1の例において、実空間10には、様々な実物体(Real Object)12a〜12eが存在している。情報処理装置100の撮像部102は、実空間10を撮像する。情報処理装置100の制御部(図示せず)は、撮像部102により撮像される画像を入力画像として受け取り、拡張現実(AR)アプリケーションを動作させる。ARアプリケーションから出力される画像には、入力画像に映る1つ以上の実物体の各々と関連付けられる仮想オブジェクトが重畳される。表示部110は、仮想オブジェクトの重畳された画像を表示する。
図1では、情報処理装置100の一例として携帯端末を示している。しかしながら、情報処理装置100は、かかる例に限定されない。情報処理装置100は、例えば、PC(Personal Computer)、PDA(Personal Digital Assistant)、スマートフォン、ゲーム端末、PND(Portable Navigation Device)、コンテンツプレーヤ又はデジタル家電機器などであってもよい。また、ARアプリケーションは、ユーザにより操作される端末上で動作する代わりに、端末との間で通信可能な他の装置(例えば、アプリケーションサーバ)上で動作してもよい。
図2は、既存のAR技術によって表示され得る画像の一例について説明するための説明図である。図2を参照すると、画像Im01に、多数の仮想オブジェクトV01〜V07が重畳されている。各仮想オブジェクトは、それぞれ関連付けられる実物体に関する情報を示す。しかし、このように雑多な情報が呈示されると、ARアプリケーションの視認性は低下する。これら情報の中で、通常、ユーザが求めている情報はその一部のみである。図2の例において、仮にユーザが実物体12aに関する情報、即ち仮想オブジェクトV01により示される情報に興味を持っているとする。しかし、画像Im01には仮想オブジェクトV01のみならず他の仮想オブジェクトも多数重畳されているため、ユーザにとって、それら情報の中から実物体12aに関する情報を見分けることは容易ではない。
図3は、画像の中央に位置する仮想オブジェクトが強調的に表示される例を示している。図3を参照すると、図1と同様の多数の仮想オブジェクトV01〜V07が、画像Im02に重畳されている。但し、図3の例では、画像の中央に位置する実物体と関連付けられる仮想オブジェクトV03が、他の仮想オブジェクトよりも大きく表示されている。このような強調的な表示によって、少なくともこの時点における特定の情報の視認性を確保することができる。
しかしながら、上述したように、ARアプリケーションは、通常、ユーザにより携帯される端末に搭載される撮像装置によって撮像される画像を、入力画像として用いる。ユーザが端末を持って移動するような場合には、カメラアングルが変化しないように端末の位置及び姿勢を維持し続けることは困難である。従って、ユーザが移動し又はユーザが端末を動かすような状況を想定すると、(例えば画像の中央などの)所定の位置の仮想オブジェクトを強調的に表示するだけでは、ユーザにとっての所望の情報の視認性を十分に確保できるとは言い難い。
そこで、本開示に係る技術では、注目する実物体(以下、注目物体という)を簡易な手法でユーザに指定させる仕組みが採用される。そして、複数のフレームにわたって注目物体の指定を維持することにより、カメラアングルの変化に影響されることなく、継続的に、注目物体に関する情報の視認性を向上させる。
図4は、本開示に係る技術の基本的な原理について説明するための説明図である。
図4を参照すると、2つの状態ST1及びST2の間の状態遷移が示されている。状態ST1は、注目物体が未だ指定されていない状態である。ARアプリケーションの初期状態は、状態ST1であってよい。状態ST2は、注目物体が指定済みとなった状態である。状態ST1から状態ST2への遷移を、本明細書では「(注目物体の)ロック」という。ロックのトリガは、典型的には、何らかのユーザ入力であってよい。状態ST2から状態ST1への遷移を、本明細書では「ロック解除」という。ロック解除のトリガは、例えば、何らかのユーザ入力であってもよく、又はロックからの所定の時間の経過などであってもよい。
図4の右上の画像Im11及び画像Im12は、注目物体がロックされていない状態ST1において表示され得る画像の例である。画像Im11に映る複数の実物体のうち、実物体14aがデフォルト物体として選択されている。デフォルト物体14aと関連付けられる仮想オブジェクトは、他の仮想オブジェクトよりも強調的に表示される。しかし、カメラアングルが変化すると、デフォルト物体も変化し得る。例えば、画像Im12においては、実物体14aではなく実物体14bがデフォルト物体として選択されている。
対照的に、図4の右下の画像Im21及び画像Im22は、注目物体がロックされている状態ST2において表示され得る画像の例である。画像Im21に映る複数の実物体のうち、実物体14aが注目物体として選択されている。注目物体14aと関連付けられる仮想オブジェクトは、他の仮想オブジェクトよりも強調的に表示される。カメラアングルが変化しても、ロックされた注目物体は変化しない。例えば、画像Im22において、依然として実物体14aが注目物体として選択されており、注目物体14aと関連付けられる仮想オブジェクトが継続して他の仮想オブジェクトよりも強調的に表示されている。
このように複数のフレームにわたって注目物体の選択が維持されることにより、端末の動きに応じて表示情報が動的に変化するような場合に、ユーザにより注目されている実物体に関する情報を、ユーザが見失うことなく、高い視認性で提供することができる。このような仕組みを実現する実施形態について、次節より詳細に説明する。
<2.一実施形態に係る装置の構成>
[2−1.ハードウェア構成]
図5は、一実施形態に係る情報処理装置100のハードウェア構成の一例を示すブロック図である。図5を参照すると、情報処理装置100は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112、バス116及び制御部118を備える。
(1)撮像部
撮像部102は、画像を撮像するカメラモジュールである。撮像部102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、撮像画像を生成する。撮像部102により生成される撮像画像は、制御部118による表示制御処理の入力画像となる。なお、撮像部102は、必ずしも情報処理装置100の一部でなくてもよい。例えば、情報処理装置100と有線又は無線で接続される撮像装置が撮像部102として扱われてもよい。
(2)センサ部
センサ部104は、測位センサ(例えば、GPS(Global Positioning System)モジュールなど)、地磁気センサ、加速度センサ及びジャイロセンサなどの様々なセンサを含み得る。測位センサは、端末の現在位置を測定する。地磁気センサは、端末の現在の姿勢(方位)を測定する。センサ部104において得られる測定結果は、地理的な位置に特化したデータの取得、環境認識の支援、又はユーザ入力の検出などの様々な用途のために利用されてよい。なお、センサ部104は、情報処理装置100の構成から省略されてもよい。
(3)入力部
入力部106は、ユーザが情報処理装置100を操作し又は情報処理装置100へ情報を入力するために使用される入力デバイスである。入力部106は、例えば、表示部110の画面上へのユーザによるタッチを検出するタッチセンサを含んでもよい。その代わりに(又はそれに加えて)、入力部106は、マウス若しくはタッチパッドなどのポインティングデバイスを含んでもよい。さらに、入力部106は、キーボード、キーパッド、ボタン又はスイッチなどのその他の種類の入力デバイスを含んでもよい。
(4)記憶部
記憶部108は、半導体メモリ又はハードディスクなどの記憶媒体により構成され、情報処理装置100による処理のためのプログラム及びデータを記憶する。記憶部108により記憶されるデータは、例えば、撮像画像データ、センサデータ及び後に説明する様々なデータベース(DB)内のデータを含み得る。なお、本明細書で説明するプログラム及びデータの一部は、記憶部108により記憶されることなく、外部のデータソース(例えば、データサーバ、ネットワークストレージ又は外付けメモリなど)から取得されてもよい。
(5)表示部
表示部110は、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などのディスプレイを含む表示モジュールである。表示部110は、例えば、情報処理装置100により生成されるARアプリケーションの画像を表示するために使用される。なお、表示部110もまた、必ずしも情報処理装置100の一部でなくてもよい。例えば、情報処理装置100と有線又は無線で接続される表示装置が表示部110として扱われてもよい。
(6)通信部
通信部112は、情報処理装置100による他の装置との間の通信を仲介する通信インタフェースである。通信部112は、任意の無線通信プロトコル又は有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。
(7)バス
バス116は、撮像部102、センサ部104、入力部106、記憶部108、表示部110、通信部112及び制御部118を相互に接続する。
(8)制御部
制御部118は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。制御部118は、記憶部108又は他の記憶媒体に記憶されるプログラムを実行することにより、後に説明する情報処理装置100の様々な機能を動作させる。
[2−2.機能構成]
図6は、図5に示した情報処理装置100の記憶部108及び制御部118により実現される論理的機能の構成の一例を示すブロック図である。図6を参照すると、情報処理装置100は、画像取得部120、データ取得部130、環境認識部140、環境データベース(DB)150、選択部160、表示制御部170及びアノテーションDB180を有する。
(1)画像取得部
画像取得部120は、撮像部102により生成される撮像画像を入力画像として取得する。画像取得部120により取得される入力画像は、実空間を映した画像である。当該入力画像は、典型的には、動画を構成する各フレームである。画像取得部120は、取得した入力画像を、環境認識部140及び表示制御部170へ出力する。
(2)データ取得部
データ取得部130は、環境認識部140による環境の認識、及び表示制御部170による表示の制御のために使用されるデータを取得する。例えば、データ取得部130は、センサ部104により生成されるセンサデータ(例えば、位置データ及び姿勢データ)を取得してもよい。また、データ取得部130は、端末の現在位置の近傍に存在する実物体に関するデータ(例えば、後述するマップデータ、画像認識のための特徴データ又はアノテーションデータなど)を、端末の現在位置を用いて外部のデータサーバに問合せを行うことにより取得してもよい。
(3)環境認識部
環境認識部140は、入力画像に映る1つ以上の実物体を認識する。環境認識部140は、例えば、各実物体の識別子と実空間内の位置とを関連付けるマップデータに基づいて、端末の位置及び姿勢から判定されるカメラアングルに入る実物体を認識してもよい。環境認識部140は、当該マップデータを、外部のデータサーバからデータ取得部130を介して取得してもよい。その代わりに、環境認識部140は、SURF法(H.Bay, A.Ess, T.Tuytelaars and L.V.Gool, “Speeded-Up Robust Features (SURF)”, Computer Vision-ECCV,2006参照)又はSLAM法(Andrew J.Davison,“Real-Time Simultaneous Localization and Mapping with a Single Camera”,Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403-1410参照)などの公知の環境認識技術を入力画像に適用することにより、入力画像に映る1つ以上の実物体を認識してもよい。環境認識部140は、環境認識の結果を環境DB150に記憶させる。
なお、環境認識部140は、注目物体が選択されている間、即ちロック状態の間、注目物体のみを入力画像内で認識してもよい。それにより、環境認識処理に要する処理コストを低減することができる。未ロック状態においては、環境認識部140は、デフォルト物体及び他の実物体を入力画像内で認識する。
(4)環境DB
環境DB150は、環境認識部140による環境認識の結果を記憶するデータベースである。環境DB150により記憶される環境認識の結果は、例えば、グローバル座標系における、認識された実物体及び端末の3次元的な位置及び姿勢を含んでもよい。また、環境認識の結果は、端末固有の座標系(典型的には、撮像面を基準とする縦、横及び奥行方向の軸を有する座標系)における、認識された実物体の位置及び姿勢を含んでもよい。また、環境認識の結果は、撮像面の2次元座標系における認識された実物体の位置を含んでもよい。後述する表示制御部170は、環境DB150により記憶されるこれらデータを用いて、AR空間内の仮想オブジェクトの配置を決定し得る。
(5)選択部
選択部160は、入力画像に映る1つ以上の実物体からデフォルト物体又は注目物体を選択する。例えば、選択部160は、ユーザにより注目物体が未だ指定されていない未ロック状態(図4に示した状態ST1)においては、入力画像に映る実物体のうち所与の基準で特定される実物体をデフォルト物体として選択する。また、選択部160は、少なくとも1つの実物体がユーザにより指定されると、当該指定された実物体を注目物体として選択する(ロックする)。注目物体の指定が解除されるまでのロック状態(図4に示した状態ST2)の間、選択部160は、複数のフレームにわたって、指定された実物体を注目物体として選択し続ける。
(5−1)デフォルト物体の選択
本実施形態において、選択部160は、所与の基準に従って、デフォルト物体を自動的に選択する。所与の基準とは、例えば、入力画像内の実物体の2次元的な位置、実空間内の実物体の3次元的な位置、及び撮像装置を基準とする実物体の姿勢、のうち少なくとも1つに関する基準であってよい。
図7は、デフォルト物体を選択するための基準の第1の例について説明するための説明図である。第1の例において、デフォルト物体を選択するための基準は、入力画像内の実物体の2次元的な位置に関する。より具体的には、入力画像の中央の最も近くに位置する実物体が、デフォルト物体として選択され得る。図7を参照すると、一例としての入力画像Im31内で、実物体15a〜15fが認識されている。これら実物体15a〜15fのうち、実物体15aが、撮像面に対応するXY平面において入力画像の中央の最も近くに位置している。従って、第1の例において、選択部160は、実物体15aをデフォルト物体として選択する。なお、かかる例に限定されず、選択部160は、予め定義され得る入力画像内の任意の場所に位置する実物体を、デフォルト物体として選択してよい。
図8は、デフォルト物体を選択するための基準の第2の例について説明するための説明図である。第2の例において、デフォルト物体を選択するための基準は、実空間内の実物体の3次元的な位置に関する。より具体的には、実空間内で端末から所定の距離離れた場所に位置する実物体が、デフォルト物体として選択され得る。ここでの所定の距離は、ユーザにより設定されてもよく、又はARアプリケーションの目的に応じて定義されてもよい。図8を参照すると、一例としての入力画像Im32内で、実物体16a〜16eが認識されている。実物体16a〜16eと端末との間の距離は、それぞれ距離Da〜Deである。ここで、選択基準として与えられる所定の距離Ddftは距離Daに最も近いものとする。この場合、選択部160は、実物体16aをデフォルト物体として選択する。
図9は、デフォルト物体を選択するための基準の第3の例について説明するための説明図である。第3の例において、デフォルト物体を選択するための基準は、撮像装置を基準とする実物体の姿勢、及び入力画像内の実物体の2次元的な位置に関する。より具体的には、入力画像の中央の所定の領域に映っている実物体のうち、撮像面に正対している(その実物体の正面が撮像面の方向に向いている)実物体が、デフォルト物体として選択され得る。図9の例では、所定の領域とは、領域CAである。一例としての入力画像Im33内で、領域CAには、実物体17a〜17cが映っている。実物体17a〜17cの姿勢は、環境認識部140により認識され、例えば、それぞれ法線ベクトルVa〜Vcにより表現され得る。法線ベクトルVaは撮像面に対して略垂直である一方、法線ベクトルVb及びVcは撮像面に対して垂直から大きく外れた角度を有する。この場合、選択部160は、実物体17aをデフォルト物体として選択する。
なお、図7〜図9に示したデフォルト物体の選択基準は、例に過ぎない。上述した基準はどのように組み合わせてもよく、又は他の選択基準がデフォルト物体を選択するために用いられてもよい。
(5−2)注目物体の選択
選択部160は、注目物体をロックするためのトリガの検出に応じて、未ロック状態からロック状態に遷移し、ロック状態において注目物体を選択する。注目物体をロックするためのトリガは、情報処理装置100により提供されるユーザインタフェースを介して検出され得る。当該ユーザインタフェースは、画面上に表示されるグラフィカルユーザインタフェースであってもよく、又はキー若しくはボタンなどの物理的なユーザインタフェースであってもよい。また、ジェスチャ認識又は音声認識に基づくユーザインタフェースが利用されてもよい。
より具体的には、本実施形態において、選択部160は、ユーザインタフェースを介して所定のユーザ入力が検出された時点で選択されているデフォルト物体を、注目物体として選択する。従って、ユーザは、興味を引かれた実物体がデフォルト物体として選択されるように端末の位置又は姿勢を調整した上で、上述したトリガを情報処理装置100に与えることにより、当該実物体を注目物体としてロックすることができる。
図10は、注目物体をロックするためのユーザインタフェースの一例を示す説明図である。図10の左には、未ロック状態において、デフォルト物体として選択されている実物体18aが示されている、画面上では、実物体18aと関連付けられる仮想オブジェクトV11が画像に重畳されている。ここで、ユーザは、ボタンB1を押下する。すると、選択部160は、未ロック状態からロック状態に遷移する。図10の右には、ロック状態において注目物体として選択されている実物体18aが示されている。また、画面上では、実物体18aが注目物体としてロックされたことをユーザに通知するためのメッセージが表示されると共に、仮想オブジェクトV11の表示が変化している。このようなユーザインタフェースによれば、入力画像に映る多数の実物体の中からどの実物体を注目物体として選択するかを、ユーザは画面上で具体的に指定しなくてもよい。なお、上述したように、ボタンB1の押下の代わりに、画面へのタッチ又は音声コマンドの入力などの他の種類のユーザ入力が注目物体をロックするために利用されてもよい。
注目物体が一度ロックされると、選択部160は、入力画像内の注目物体の位置及び姿勢に依存することなく、複数のフレームにわたって同じ注目物体を選択し続ける。従って、ロック状態でユーザが移動し又は端末が動かされたとしても、注目物体は維持され、注目物体に関する情報が継続的に呈示され得る。ロックを解除するためのトリガは、注目物体をロックするための上述したトリガと同様のユーザ入力であってもよく、又はロックからの所定の時間の経過などであってもよい。
(6)表示制御部
表示制御部170は、拡張現実(AR)アプリケーションの表示を制御する。より具体的には、表示制御部170は、入力画像に映る実物体に関する情報をアノテーションDB180から取得し、取得した情報を示す仮想オブジェクトを、実物体と関連付けて入力画像に重畳する。
注目物体がロックされていない未ロック状態において、表示制御部170は、選択部160により選択されるデフォルト物体がユーザにとって識別可能となるように、当該デフォルト物体と関連付けられる仮想オブジェクトの表示を制御する。例えば、表示制御部170は、デフォルト物体と関連付けられる仮想オブジェクトの形状、サイズ、明るさ、色又は透過度などの表示属性を、他の仮想オブジェクトとは異なる値に設定する。
注目物体がロックされているロック状態において、表示制御部170は、選択部160により選択される注目物体がユーザにとって識別可能となるように、当該注目物体と関連付けられる仮想オブジェクトの表示を制御する。注目物体以外の実物体に関する情報は、その存在のみがユーザにより認識されるように簡略的に表示されてもよく、又は表示されなくてもよい。
また、表示制御部170は、デフォルト物体又は注目物体と関連付けられる仮想オブジェクトにより示される表示情報を、当該物体と撮像装置との間の相対的な位置及び姿勢の少なくとも一方に応じて変化させる。例えば、表示制御部170は、注目物体と撮像装置との間の相対的な位置又は姿勢に依存する少なくとも1つの制御パラメータを計算する。そして、表示制御部170は、計算した制御パラメータに従って、表示情報を変化させる。
例えば、表示制御部170は、注目物体(デフォルト物体)からの撮像装置の距離が近いほど、表示情報の粒度を高めてもよい。本明細書において、情報の粒度とは、情報の詳しさの程度を意味するものとする。一般的に、粒度の高い情報の情報量は、粒度の低い情報の情報量よりも多い。例えば、クチコミ情報提供サービスにおいて、商品の名称、価格及びレーティングなどの情報は、商品の詳細説明及びレビューなどの情報と比較して、より粒度の低い情報であると言える。また、地図情報提供サービスにおいて、施設の名称及び場所などの情報は、施設の詳細説明及びイベント情報などの情報と比較して、より粒度の低い情報であると言える。
また、例えば、表示制御部170は、注目物体(デフォルト物体)の撮像面に対する姿勢に応じて、表示情報の種類を変化させてもよい。例えば、同じ実物体をユーザが正面、上、下、左及び右のいずれの方向から見ているかによって、異なる種類の情報が表示され得る。
図11は、表示情報を制御するための制御パラメータの第1の例について説明するための説明図である。第1の例において、制御パラメータは、撮像面に投影される実物体のスケールSCである。図11を参照すると、入力画像Im41に映る実物体19aが示されている。実空間における実物体19aのサイズは、Hrealである。撮像面に投影された実物体19aの(画像内での)サイズは、Hscrである。制御パラメータSCは、SC=Hscr/Hrealとして計算され得る。制御パラメータSCの値は、実物体からの撮像装置の距離がより近いほど、より大きくなる。
図12は、表示情報を制御するための制御パラメータの第2の例について説明するための説明図である。第2の例において、制御パラメータは、実物体からの撮像装置の距離DISTである。図12を参照すると、入力画像Im42に映る実物体19bが示されている。実空間において、実物体19bは位置Pobjに、情報処理装置100は位置Pdevにそれぞれ存在する。制御パラメータDISTは、DIST=|Pdev−Pobj|として計算され得る。
図13は、表示情報を制御するための制御パラメータの第3の例について説明するための説明図である。第3の例において、制御パラメータは、撮像面に対する実物体の角度ANGである。図13を参照すると、入力画像Im43に映る実物体19cが示されている。撮像面の奥行き方向(Z方向)に対して実物体19cの法線ベクトルVobjのなす角度は、環境認識の結果として環境DB150により記憶され得る実物体19cの姿勢及び端末の姿勢から計算され得る。
本実施形態において、表示制御部170は、アノテーションDB180に蓄積されているアノテーションデータから、上述した制御パラメータに適合するデータをフィルタリングすることにより、表示すべき情報を抽出する。
(7)アノテーションDB
アノテーションDB180は、実空間に存在する1つ以上の実物体の各々に関してユーザに提供される情報を蓄積しているデータベースである。ARアプリケーションにおいてユーザに呈示される情報は、表示制御部170によりアノテーションDB180から選択され、仮想オブジェクトの形で可視化される。
図14は、アノテーションDB180の構成の一例を示す説明図である。図14を参照すると、アノテーションDB180は、カテゴリ182a、物体ID182b、アノテーションID182c、制御タイプ182d、表示範囲182e、データ182f及び備考182gという7つのデータ項目を有する。
カテゴリ182aは、各アノテーションに対応する実物体の種類を表す。例えば、アノテーションデータ184a及び184bのカテゴリは、食事のメニューである。アノテーションデータ184c及び184dのカテゴリは、施設である。アノテーションデータ184e〜184hのカテゴリは、展示物である。
物体ID182bは、各アノテーションに対応する実物体を識別するための識別子である。1つの実物体について複数のアノテーションが存在してもよい。
アノテーションID182cは、各アノテーションを一意に識別するための識別子である。
制御タイプ182dは、各アノテーションをフィルタリングする際に使用される制御パラメータの種類を表す。例えば、アノテーションデータ184a及び184bは、スケールを示す制御パラメータSCを用いてフィルタリングされる。アノテーションデータ184c及び184dは、距離を示す制御パラメータDISTを用いてフィルタリングされる。アノテーションデータ184e〜184hは、距離を示す制御パラメータDIST及び角度を示す制御パラメータANGを用いてフィルタリングされる。
表示範囲182eは、各アノテーションが表示されることになる制御パラメータの値の範囲を表す。ここでの制御パラメータは、制御タイプ182dにより表される種類の制御パラメータである。例えば、アノテーションデータ184aの情報は、制御パラメータSCの値が範囲[1.0,3.0]に含まれる場合に表示される。アノテーションデータ184bの情報は、制御パラメータSCの値が範囲[3.0,5.0]に含まれる場合に表示される。アノテーションデータ184cの情報は、制御パラメータDISTの値が範囲[100,1000]に含まれる場合に表示される。アノテーションデータ184dの情報は、制御パラメータDISTの値が範囲[30,120]に含まれる場合に表示される。アノテーションデータ184eの情報は、制御パラメータDISTの値が範囲[1.0,3.0]に含まれ、かつ制御パラメータANGの値が−15度以下である場合に表示される。アノテーションデータ184f〜184hについても、図14に示した通りである。
データ182fは、各アノテーションの情報の実体である。情報は、テキスト形式、イメージ形式又は外部のデータソースへのリンク形式など、いかなる形式で記述されてもよい。
備考182gは、各アノテーションの情報の概略的な説明を表す。例えば、アノテーションデータ184aは、食事のメニューのレーティング情報である。アノテーションデータ184bは、レーティング情報よりも詳細化された情報に相当する、レビューコメントである。アノテーションデータ184cは、施設の場所を指し示す標識である。アノテーションデータ184dは、施設の場所よりも詳細化された情報に相当する、施設の入口を案内する案内情報である。アノテーションデータ184e〜184gは、展示物をそれぞれ右、正面及び左から見た場合の当該展示物の概要情報である。アノテーションデータ184hは、展示物についての詳細情報である。
表示制御部170は、例えば注目物体が実物体MN1である場合に、実物体MN1について計算される制御パラメータSCの値を用いて、アノテーションデータ184a及び184bから1つ以上のデータを抽出する。例えば、SC=2.0[m]であればアノテーションデータ184aが抽出され、、SC=4.0[m]であればアノテーションデータ184bが抽出される。
同様に、表示制御部170は、例えば注目物体が実物体FC2である場合に、実物体FC2について計算される制御パラメータDISTの値を用いて、アノテーションデータ184c及び184dから1つ以上のデータを抽出する。ここで着目すべきは、アノテーションデータ184c及び184dの表示範囲が互いに重複している点である。例えば、DIST=110[m]であれば、アノテーションデータ184c及び184dの双方が抽出される。このような部分的に重複する範囲が設けられることにより、ユーザが徐々に実物体FC2に近づいた(あるいは遠ざかった)場合に、表示情報が急に入れ替わってユーザに戸惑いを与えることなく、順次新たな情報をユーザに呈示することができる。
表示制御部170は、表示情報が変化することがユーザに予測されるように、注目物体と関連付けられる仮想オブジェクトの表示を制御してもよい。例えば、実物体FC2が注目物体である状況において、表示制御部170は、制御パラメータDISTの値が120[m]を少しだけ上回る場合に、より実物体FC2に近づくことにより新たな情報が表示されることを示す補助的な仮想オブジェクトを画像に重畳する。それにより、注目物体により近づいて新たな情報を得ようとする動機づけをユーザに与えることができる。
なお、表示情報の制御は、図14に例示したようなデータ構成を用いることなく実現されてもよい。例えば、表示制御部170は、制御パラメータの値に応じて、粒度の高いある情報から、情報の一部分を抜粋し又は情報の要約を自動的に作成することにより、より粒度の低い情報を動的に生成してもよい。その場合には、アノテーションDB180のデータ構成は、より簡略化され得る。
[2−3.表示情報の制御の例]
(1)第1の例
図15A及び図15Bは、スケールに従った表示情報の制御の一例について説明するための説明図である。
図15Aを参照すると、レストランの店頭に設置されるメニューケース20を撮像する情報処理装置100が示されている。メニューケース20には複数のメニューが陳列されている。情報処理装置100の環境認識部140は、入力画像に映るこれらメニューを実物体として認識する。表示制御部170は、認識された実物体と関連付けられる情報をアノテーションDB180から抽出し、抽出した情報を示す仮想オブジェクトを画像に重畳する。図15Aの例では、仮想オブジェクトV21、V22a〜V22dが画像に重畳されている。これら仮想オブジェクトV21、V22a〜V22dは、各メニューのレーティングスコアを、星印の数で示している。仮想オブジェクトV21は、注目物体又はデフォルト物体として選択されているメニューR21に関するレーティングスコアを示している。
図15Bを参照すると、ユーザが図15Aに示したメニューケース20に情報処理装置100を近づけている様子が示されている。メニューR21と情報処理装置100との間の距離が近づいたことにより、メニューR21のスケールはより大きくなる。その結果、メニューR21に関するレーティングスコアの代わりに、メニューR21に関するレビューコメントを示す仮想オブジェクトV23が画像に重畳されている。
第1の例によれば、ユーザは、まず、未ロック状態でメニューケースの全体を撮像して複数のレーティングスコアを概観し、いずれかのメニューに興味を持つ。そして、興味を持ったメニューを注目物体としてロックした上で、端末を当該メニューに近づけることにより、そのメニューに関する詳細な情報を閲覧することができる。
(2)第2の例
図16A及び図16Bは、距離に従った表示情報の制御の一例について説明するための説明図である。
図16Aを参照すると、様々な施設を有する遊園地の遠景を撮像する情報処理装置100が示されている。情報処理装置100の環境認識部140は、入力画像に映る個々の施設を実物体として認識する。表示制御部170は、認識された実物体と関連付けられる情報をアノテーションDB180から抽出し、抽出した情報を示す仮想オブジェクトを画像に重畳する。図16Aの例では、仮想オブジェクトV31が画像に重畳されている。仮想オブジェクトV31は、施設R31までの距離を示すと共に、施設R31の場所を指し示している。
図16Bを参照すると、ユーザが図16Aに示した施設R31により接近した様子が示されている。施設R31と情報処理装置100との間の距離が近づいた結果、施設R31に関する概略的な場所の情報の代わりに、施設R31に関する入口案内情報を示す仮想オブジェクトV32が画像に重畳されている。
第2の例によれば、ユーザは、目的とする施設を注目物体としてロックし、ARアプリケーションにより提供される情報を参照しながら、当該施設に向けて移動する。その間、例えば画像の中央に目的とする施設が位置するように、カメラアングルを維持し続ける必要はない。そして、目的とする施設に近づくと、ユーザは、当該施設に関するより詳細な情報を閲覧することができる。
(3)第3の例
図17A及び図17Bは、角度に従った表示情報の制御の一例について説明するための説明図である。
図17Aを参照すると、様々な展示物を展示する美術館の内部を撮像する情報処理装置100が示されている。情報処理装置100の環境認識部140は、入力画像に映る個々の展示物を実物体として認識する。表示制御部170は、認識された実物体と関連付けられる情報をアノテーションDB180から抽出し、抽出した情報を示す仮想オブジェクトを画像に重畳する。図17Aの例では、仮想オブジェクトV41が画像に重畳されている。仮想オブジェクトV41は、展示物R41を正面から見た場合の展示物R41に関する概要情報を示している。
図17Bを参照すると、図17Aの例とは別の角度から展示物R41を撮像している情報処理装置100が示されている。撮像面に対する展示物R41の姿勢が変化した結果、仮想オブジェクトV41に加えて、展示物R41を右側から見た場合の展示物R41に関する概要情報を示す仮想オブジェクトV42が画像に重畳されている。
第3の例によれば、ユーザは、目的とする展示物を注目物体としてロックする。ARアプリケーションは、当該展示物についての情報をユーザに提供する。ユーザが端末を動かすと、ユーザは、当該展示物について、端末の姿勢に依存して他の種類の情報も提供されることに気付く。端末を動かす間、注目物体がロックされていれば、ユーザにとって、カメラアングルに過度に注意を払う必要はない。そのため、ユーザは、ストレスを感じることなく、提供される情報を参照しながら目的とする展示物を鑑賞することができる。
図15A〜図17Bを用いて説明したように、本実施形態において、仮想オブジェクトにより示される表示情報は、対応する実物体と端末との間の相対的な位置又は姿勢に応じて変化する。しかし、ユーザは、注目物体をロックすれば、端末をどのように動かしても、注目物体に関する情報を、他の情報と区別し得る形式で継続的に明瞭に視認することができる。
<3.処理の流れ>
[3−1.未ロック状態]
図18は、情報処理装置100により実行される、未ロック状態における表示制御処理の流れの一例を示すフローチャートである。
図18を参照すると、まず、画像取得部120は、撮像部102により生成される撮像画像を入力画像として取得する(ステップS110)。そして、画像取得部120は、取得した入力画像を、環境認識部140及び表示制御部170へ出力する。
次に、環境認識部140は、入力画像に映る1つ以上の実物体を認識する(ステップS120)。そして、環境認識部140は、認識した実物体の位置及び姿勢に関連する認識結果を環境DB150に記憶させる。
次に、選択部160は、環境認識部140により認識された実物体から、所与の基準に従って、デフォルト物体を選択する(ステップS130)。そして、選択部160は、選択したデフォルト物体の識別子を、表示制御部170へ出力する。
次に、表示制御部170は、選択部160により選択されたデフォルト物体について、制御パラメータの値を計算する(ステップS140)。ここで計算される制御パラメータは、例えば、アノテーションDB180の制御タイプ182dにより表される種類のパラメータ(例えば、スケール、距離及び角度のうち少なくとも1つ)であってよい。
次に、表示制御部170は、計算した制御パラメータの値を用いて、アノテーションDB180から、デフォルト物体に関する表示情報を抽出する(ステップS150)。
次に、表示制御部170は、抽出した表示情報を示す、デフォルト物体と関連付けられる仮想オブジェクトを生成する(ステップS160)。
また、表示制御部170は、デフォルト物体以外の実物体と関連付けられる仮想オブジェクトをも生成し得る(ステップS170)。
そして、表示制御部170は、ステップS160及びステップS170において生成した仮想オブジェクトを、実物体と関連付けて画像に重畳する(ステップS180)。
その後、処理はステップS110へ戻り、新たに取得される入力画像について上述した表示制御処理が繰り返される。その間、ロック状態への遷移のトリガが監視され、当該トリガが検出された場合には、情報処理装置100は、次に説明するロック状態における表示制御処理を実行する。
[3−2.ロック状態]
図19は、情報処理装置100により実行される、ロック状態における表示制御処理の流れの一例を示すフローチャートである。
図19を参照すると、まず、画像取得部120は、撮像部102により生成される撮像画像を入力画像として取得する(ステップS110)。そして、画像取得部120は、取得した入力画像を、環境認識部140及び表示制御部170へ出力する。
次に、環境認識部140は、入力画像内で、選択部160により選択された注目物体を認識する(ステップS220)。そして、環境認識部140は、注目物体の位置及び姿勢に関連する認識結果を環境DB150に記憶させる。
その後の処理は、入力画像に注目物体が映っている場合に実行される(ステップS230。
入力画像に注目物体が映っている場合に、表示制御部170は、選択部160により選択された注目物体について、制御パラメータの値を計算する(ステップS240)。ここで計算される制御パラメータは、例えば、アノテーションDB180の制御タイプ182dにより表される種類のパラメータ(例えば、スケール、距離及び角度のうち少なくとも1つ)であってよい。
次に、表示制御部170は、計算した制御パラメータの値を用いて、アノテーションDB180から、注目物体に関する表示情報を抽出する(ステップS250)。
次に、表示制御部170は、抽出した表示情報を示す、注目物体と関連付けられる仮想オブジェクトを生成する(ステップS260)。
そして、表示制御部170は、ステップS260において生成した仮想オブジェクトを、注目物体と関連付けて画像に重畳する(ステップS280)。
その後、処理はステップS110へ戻り、新たに取得される入力画像について上述した表示制御処理が繰り返される。その間、未ロック状態への遷移(ロック解除)のトリガが監視され、当該トリガが検出された場合には、情報処理装置100の状態は未ロック状態に戻る。
<4.まとめ>
ここまで、図1〜図19を用いて、本開示に係る技術の実施形態について詳細に説明した。上述した実施形態によれば、実物体と関連付けられる拡張現実のための表示情報が実物体と端末との間の相対的な位置又は姿勢に応じて変化する場合に、入力画像に映る少なくとも1つの実物体がユーザによる指定に従って注目物体として選択され、複数のフレームにわたって当該選択が維持される(即ち、ロックされる)。そして、注目物体と関連付けられる表示情報が動的に制御される。従って、ユーザは、注目物体をロックすれば、端末をどのように動かしても、注目物体に関する情報を、他の情報と区別し得る形式で継続的に明瞭に視認することができる。よって、ARアプリケーションを通じて提供され得る情報が多数存在し、情報の内容が動的に変化するような状況においても、ユーザにとっての所望の情報の視認性を選択的かつ効果的に向上させることができる。
また、上述した実施形態によれば、注目物体が指定されていない場合には、所与の基準で特定される実物体が自動的にデフォルト物体として選択され、デフォルト物体が識別可能となるように仮想オブジェクトの表示が制御される。従って、ユーザは、注目物体をこれから選択しようとする段階では、端末を動かすことにより、個々の実物体に関する情報をそれぞれ識別して自在に閲覧することができる。
また、上述した実施形態によれば、所定のユーザ入力が検出された時点で選択されているデフォルト物体が、注目物体として選択される。従って、ユーザは、どの実物体に注目するかを決定した時点で、簡単に注目物体を指定することができる。多数の実物体が入力画像に映っている場合にも、あらためて注目物体を正確にタッチし又はポインティングするような操作は必要とされないため、ユーザの負担は軽減される。
なお、本明細書において説明した各装置による一連の制御処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。ソフトウェアを構成するプログラムは、例えば、各装置の内部又は外部に設けられる記憶媒体に予め格納される。そして、各プログラムは、例えば、実行時にRAM(Random Access Memory)に読み込まれ、CPUなどのプロセッサにより実行される。
また、各装置の論理的機能の一部は、当該装置上に実装される代わりに、クラウドコンピューティング環境内に存在する装置上に実装されてもよい。その場合には、論理的機能の間でやり取りされる情報が、図5に例示した通信部112を介して装置間で送信され又は受信され得る。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、
前記入力画像に映る1つ以上の実物体の各々と関連付けられる仮想オブジェクトを前記入力画像に重畳する表示制御部と、
前記1つ以上の実物体のうち少なくとも1つの実物体がユーザにより指定された後、当該指定された実物体を複数のフレームにわたって注目物体として選択する選択部と、
を備え、
前記表示制御部は、前記注目物体と関連付けられる仮想オブジェクトにより示される表示情報を、前記注目物体と前記撮像装置との間の相対的な位置又は姿勢に応じて変化させる、
情報処理装置。
(2)
前記選択部は、前記ユーザにより注目物体が指定されていない場合には、前記1つ以上の実物体のうち所与の基準で特定される実物体をデフォルト物体として選択し、
前記表示制御部は、前記ユーザにとって前記デフォルト物体が識別可能となるように、前記デフォルト物体と関連付けられる仮想オブジェクトの表示を制御する、
前記(1)に記載の情報処理装置。
(3)
前記選択部は、所定のユーザ入力が検出された時点で選択されている前記デフォルト物体を、前記注目物体として選択する、前記(2)に記載の情報処理装置。
(4)
前記表示制御部は、前記注目物体からの前記撮像装置の距離、及び撮像面に対する前記注目物体の角度のうち少なくとも一方に依存するパラメータに応じて、前記表示情報を変化させる、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記表示制御部は、前記注目物体からの前記撮像装置の距離が第1の範囲に属する場合には前記表示情報として第1の情報を採用し、当該距離が前記第1の範囲よりも近い第2の範囲に属する場合には前記表示情報として前記第1の情報よりも詳細化された第2の情報を前記表示情報として採用する、前記(4)に記載の情報処理装置。
(6)
前記表示制御部は、前記撮像面に対する前記注目物体の角度が第1の範囲に属する場合には前記表示情報として第1の情報を採用し、当該角度が前記第1の範囲と異なる第2の範囲に属する場合には前記表示情報として前記第1の情報と異なる第2の情報を採用する、前記(4)に記載の情報処理装置。
(7)
前記表示制御部は、撮像面に投影される前記注目物体のスケールが第1の範囲に属する場合には前記表示情報として第1の情報を採用し、当該スケールが前記第1の範囲よりも大きい第2の範囲に属する場合には前記表示情報として前記第1の情報よりも詳細化された第2の情報を前記表示情報として採用する、前記(4)に記載の情報処理装置。
(8)
前記第1の範囲及び前記第2の範囲は、部分的に重複する、前記(5)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記表示制御部は、前記表示情報が変化することが前記ユーザに予測されるように、前記注目物体と関連付けられる仮想オブジェクトの表示を制御する、前記(5)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記情報処理装置は、前記入力画像を用いて前記1つ以上の実物体を認識する認識部、をさらに備える、前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(11)
前記認識部は、前記注目物体が選択されている間、前記注目物体のみを前記入力画像内で認識する、前記(10)に記載の情報処理装置。
(12)
前記情報処理装置は、前記撮像装置の位置を用いてデータサーバに問合せを行うことにより、前記1つ以上の実物体を認識する認識部、をさらに備える、前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(13)
前記所与の基準は、前記入力画像内の実物体の2次元的な位置に関する基準である、前記(2)に記載の情報処理装置。
(14)
前記所与の基準は、前記撮像装置を基準とする前記実空間内の実物体の3次元的な位置に関する基準である、前記(2)又は前記(13)に記載の情報処理装置。
(15)
前記所与の基準は、前記撮像装置を基準とする実物体の姿勢に関する基準である、前記(13)又は前記(14)に記載の情報処理装置。
(16)
前記情報処理装置は、前記撮像装置をさらに備える携帯端末である、
前記(1)〜(15)のいずれか1項に記載の情報処理装置。
(17)
前記画像取得部、前記表示制御部及び前記選択部のうち少なくとも1つが前記情報処理装置の代わりにクラウドコンピューティング環境上に存在する装置により実現される、前記(1)〜(16)のいずれか1項に記載の情報処理装置。
(18)
撮像装置を用いて実空間を撮像することにより生成される入力画像を取得することと、
前記入力画像に映る1つ以上の実物体の各々と関連付けられる仮想オブジェクトを前記入力画像に重畳することと、
前記1つ以上の実物体のうち少なくとも1つの実物体がユーザにより指定された後、当該指定された実物体を複数のフレームにわたって注目物体として選択することと、
前記注目物体と関連付けられる仮想オブジェクトにより示される表示情報を、前記注目物体と前記撮像装置との間の相対的な位置又は姿勢に応じて変化させることと、
を含む表示制御方法。
(19)
情報処理装置を制御するコンピュータを、
撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、
前記入力画像に映る1つ以上の実物体の各々と関連付けられる仮想オブジェクトを前記入力画像に重畳する表示制御部と、
前記1つ以上の実物体のうち少なくとも1つの実物体がユーザにより指定された後、当該指定された実物体を複数のフレームにわたって注目物体として選択する選択部と、
として動作させるためのプログラムであって、
前記表示制御部は、前記注目物体と関連付けられる仮想オブジェクトにより示される表示情報を、前記注目物体と前記撮像装置との間の相対的な位置又は姿勢に応じて変化させる、
プログラム。
100 情報処理装置
102 撮像部(撮像装置)
120 画像取得部
140 認識部
160 選択部
170 表示制御部

Claims (19)

  1. 撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、
    前記入力画像に映る1つ以上の実物体の各々と関連付けられる仮想オブジェクトを前記入力画像に重畳する表示制御部と、
    前記1つ以上の実物体のうち少なくとも1つの実物体がユーザにより指定された後、当該指定された実物体を複数のフレームにわたって注目物体として選択する選択部と、
    を備え、
    前記表示制御部は、前記注目物体と関連付けられる仮想オブジェクトにより示される表示情報を、前記注目物体と前記撮像装置との間の相対的な位置又は姿勢に応じて変化させる、
    情報処理装置。
  2. 前記選択部は、前記ユーザにより注目物体が指定されていない場合には、前記1つ以上の実物体のうち所与の基準で特定される実物体をデフォルト物体として選択し、
    前記表示制御部は、前記ユーザにとって前記デフォルト物体が識別可能となるように、前記デフォルト物体と関連付けられる仮想オブジェクトの表示を制御する、
    請求項1に記載の情報処理装置。
  3. 前記選択部は、所定のユーザ入力が検出された時点で選択されている前記デフォルト物体を、前記注目物体として選択する、請求項2に記載の情報処理装置。
  4. 前記表示制御部は、前記注目物体からの前記撮像装置の距離、及び撮像面に対する前記注目物体の角度のうち少なくとも一方に依存するパラメータに応じて、前記表示情報を変化させる、請求項1に記載の情報処理装置。
  5. 前記表示制御部は、前記注目物体からの前記撮像装置の距離が第1の範囲に属する場合には前記表示情報として第1の情報を採用し、当該距離が前記第1の範囲よりも近い第2の範囲に属する場合には前記表示情報として前記第1の情報よりも詳細化された第2の情報を前記表示情報として採用する、請求項4に記載の情報処理装置。
  6. 前記表示制御部は、前記撮像面に対する前記注目物体の角度が第1の範囲に属する場合には前記表示情報として第1の情報を採用し、当該角度が前記第1の範囲と異なる第2の範囲に属する場合には前記表示情報として前記第1の情報と異なる第2の情報を採用する、請求項4に記載の情報処理装置。
  7. 前記表示制御部は、撮像面に投影される前記注目物体のスケールが第1の範囲に属する場合には前記表示情報として第1の情報を採用し、当該スケールが前記第1の範囲よりも大きい第2の範囲に属する場合には前記表示情報として前記第1の情報よりも詳細化された第2の情報を前記表示情報として採用する、請求項4に記載の情報処理装置。
  8. 前記第1の範囲及び前記第2の範囲は、部分的に重複する、請求項5に記載の情報処理装置。
  9. 前記表示制御部は、前記表示情報が変化することが前記ユーザに予測されるように、前記注目物体と関連付けられる仮想オブジェクトの表示を制御する、請求項5に記載の情報処理装置。
  10. 前記情報処理装置は、前記入力画像を用いて前記1つ以上の実物体を認識する認識部、をさらに備える、請求項1に記載の情報処理装置。
  11. 前記認識部は、前記注目物体が選択されている間、前記注目物体のみを前記入力画像内で認識する、請求項10に記載の情報処理装置。
  12. 前記情報処理装置は、前記撮像装置の位置を用いてデータサーバに問合せを行うことにより、前記1つ以上の実物体を認識する認識部、をさらに備える、請求項1に記載の情報処理装置。
  13. 前記所与の基準は、前記入力画像内の実物体の2次元的な位置に関する基準である、請求項2に記載の情報処理装置。
  14. 前記所与の基準は、前記撮像装置を基準とする前記実空間内の実物体の3次元的な位置に関する基準である、請求項2に記載の情報処理装置。
  15. 前記所与の基準は、前記撮像装置を基準とする実物体の姿勢に関する基準である、請求項13に記載の情報処理装置。
  16. 前記情報処理装置は、前記撮像装置をさらに備える携帯端末である、
    請求項1に記載の情報処理装置。
  17. 前記画像取得部、前記表示制御部及び前記選択部のうち少なくとも1つが前記情報処理装置の代わりにクラウドコンピューティング環境上に存在する装置により実現される、請求項1に記載の情報処理装置。
  18. 撮像装置を用いて実空間を撮像することにより生成される入力画像を取得することと、
    前記入力画像に映る1つ以上の実物体の各々と関連付けられる仮想オブジェクトを前記入力画像に重畳することと、
    前記1つ以上の実物体のうち少なくとも1つの実物体がユーザにより指定された後、当該指定された実物体を複数のフレームにわたって注目物体として選択することと、
    前記注目物体と関連付けられる仮想オブジェクトにより示される表示情報を、前記注目物体と前記撮像装置との間の相対的な位置又は姿勢に応じて変化させることと、
    を含む表示制御方法。
  19. 情報処理装置を制御するコンピュータを、
    撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、
    前記入力画像に映る1つ以上の実物体の各々と関連付けられる仮想オブジェクトを前記入力画像に重畳する表示制御部と、
    前記1つ以上の実物体のうち少なくとも1つの実物体がユーザにより指定された後、当該指定された実物体を複数のフレームにわたって注目物体として選択する選択部と、
    として動作させるためのプログラムであって、
    前記表示制御部は、前記注目物体と関連付けられる仮想オブジェクトにより示される表示情報を、前記注目物体と前記撮像装置との間の相対的な位置又は姿勢に応じて変化させる、
    プログラム。
JP2012090049A 2012-04-11 2012-04-11 情報処理装置、表示制御方法及びプログラム Expired - Fee Related JP6056178B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2012090049A JP6056178B2 (ja) 2012-04-11 2012-04-11 情報処理装置、表示制御方法及びプログラム
US14/382,505 US9823821B2 (en) 2012-04-11 2013-03-08 Information processing apparatus, display control method, and program for superimposing virtual objects on input image and selecting an interested object
PCT/JP2013/001536 WO2013153740A2 (en) 2012-04-11 2013-03-08 Information processing apparatus, display control method, and program
EP13712939.1A EP2836899B1 (en) 2012-04-11 2013-03-08 Augmented reality system to selectively improve the visibility of the desired information
TW102110495A TW201403443A (zh) 2012-04-11 2013-03-25 資訊處理設備、顯示控制方法及程式
CN 201320166470 CN203276350U (zh) 2012-04-11 2013-04-03 信息处理设备
CN201310116242.2A CN103377487B (zh) 2012-04-11 2013-04-03 信息处理设备、显示控制方法以及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012090049A JP6056178B2 (ja) 2012-04-11 2012-04-11 情報処理装置、表示制御方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2013218597A true JP2013218597A (ja) 2013-10-24
JP2013218597A5 JP2013218597A5 (ja) 2015-03-19
JP6056178B2 JP6056178B2 (ja) 2017-01-11

Family

ID=48014235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012090049A Expired - Fee Related JP6056178B2 (ja) 2012-04-11 2012-04-11 情報処理装置、表示制御方法及びプログラム

Country Status (6)

Country Link
US (1) US9823821B2 (ja)
EP (1) EP2836899B1 (ja)
JP (1) JP6056178B2 (ja)
CN (2) CN103377487B (ja)
TW (1) TW201403443A (ja)
WO (1) WO2013153740A2 (ja)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015118578A (ja) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション 拡張現実情報詳細
JP2016004340A (ja) * 2014-06-16 2016-01-12 セイコーエプソン株式会社 情報配信システム、頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2016018367A (ja) * 2014-07-08 2016-02-01 沖電気工業株式会社 情報処理装置、情報処理方法、及びプログラム
JP2016071471A (ja) * 2014-09-29 2016-05-09 京セラドキュメントソリューションズ株式会社 物品情報提供装置、物品情報提供システム、物品情報提供方法及び物品情報提供プログラム
JP2016110565A (ja) * 2014-12-10 2016-06-20 富士通株式会社 表示制御方法、情報処理プログラム、及び情報処理装置
JP2016173693A (ja) * 2015-03-17 2016-09-29 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
WO2017018603A1 (ko) * 2015-07-30 2017-02-02 엘지전자 주식회사 이동 단말기 및 이의 제어방법
JP2017054185A (ja) * 2015-09-07 2017-03-16 株式会社東芝 情報処理装置、情報処理方法及び情報処理プログラム
JP2018066823A (ja) * 2016-10-18 2018-04-26 株式会社日立システムズ 情報表示装置、及びその処理制御方法
JP2018112753A (ja) * 2018-03-20 2018-07-19 マクセル株式会社 情報表示端末及び情報表示方法
WO2018142756A1 (ja) * 2017-01-31 2018-08-09 株式会社Nttドコモ 情報処理装置及び情報処理方法
WO2020031795A1 (ja) * 2018-08-07 2020-02-13 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US10650601B2 (en) 2016-03-29 2020-05-12 Sony Corporation Information processing device and information processing method
JP2020074150A (ja) * 2020-01-10 2020-05-14 株式会社東芝 情報処理装置、情報処理方法及び情報処理プログラム
JP2020149476A (ja) * 2019-03-14 2020-09-17 トヨタ自動車株式会社 プログラム、情報処理装置、及び制御方法
JP2021007003A (ja) * 2016-08-12 2021-01-21 マジック リープ, インコーポレイテッドMagic Leap,Inc. ワードフロー注釈
JP2021082344A (ja) * 2019-04-17 2021-05-27 Kddi株式会社 キャラクタ画像生成装置、キャラクタ画像生成方法及びプログラム
JPWO2021256242A1 (ja) * 2020-06-15 2021-12-23
US11417296B2 (en) 2018-03-13 2022-08-16 Sony Corporation Information processing device, information processing method, and recording medium
US12051167B2 (en) 2016-03-31 2024-07-30 Magic Leap, Inc. Interactions with 3D virtual objects using poses and multiple-DOF controllers
US12056293B2 (en) 2015-10-20 2024-08-06 Magic Leap, Inc. Selecting virtual objects in a three-dimensional space

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI475474B (zh) * 2012-07-30 2015-03-01 Mitac Int Corp Gesture combined with the implementation of the icon control method
US9262865B2 (en) * 2013-03-15 2016-02-16 Daqri, Llc Content creation tool
USD757103S1 (en) * 2013-06-18 2016-05-24 Huawei Technologies Co., Ltd. Display screen or portion thereof with icon
JP2015142181A (ja) * 2014-01-27 2015-08-03 キヤノン株式会社 制御装置、制御方法
CA2945023A1 (en) 2014-04-07 2015-10-15 Cubic Corporation Systems and methods for queue management
WO2015157298A1 (en) * 2014-04-07 2015-10-15 Cubic Corporation Intuitive visual assessment of device operational health
US9652894B1 (en) * 2014-05-15 2017-05-16 Wells Fargo Bank, N.A. Augmented reality goal setter
US11983401B1 (en) * 2014-06-04 2024-05-14 ULTRAHAPTICS IP TWO LIMITED, , United Kingd Systems and methods of interacting with a virtual grid in a three-dimensional (3D) sensory space
WO2016017253A1 (ja) * 2014-08-01 2016-02-04 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
KR102265086B1 (ko) 2014-11-07 2021-06-15 삼성전자 주식회사 정보를 공유하기 위한 가상 환경
US9778814B2 (en) * 2014-12-19 2017-10-03 Microsoft Technology Licensing, Llc Assisted object placement in a three-dimensional visualization system
US10335677B2 (en) 2014-12-23 2019-07-02 Matthew Daniel Fuchs Augmented reality system with agent device for viewing persistent content and method of operation thereof
TWI533240B (zh) * 2014-12-31 2016-05-11 拓邁科技股份有限公司 資料顯示方法及系統,及相關電腦程式產品
WO2016179248A1 (en) 2015-05-05 2016-11-10 Ptc Inc. Augmented reality system
KR20160131720A (ko) * 2015-05-08 2016-11-16 엘지전자 주식회사 이동단말기 및 그 제어방법
WO2016185557A1 (ja) * 2015-05-19 2016-11-24 楽天株式会社 情報処理装置、情報処理方法、プログラム
TWI578146B (zh) * 2015-12-30 2017-04-11 Chunghwa Telecom Co Ltd Mobile energy monitoring and management system
CN105469004A (zh) * 2015-12-31 2016-04-06 上海小蚁科技有限公司 一种显示装置和显示方法
CN105847583A (zh) * 2016-05-10 2016-08-10 北京奇虎科技有限公司 在移动终端上进行图像处理的方法及装置
JP6440910B2 (ja) * 2016-07-29 2018-12-19 三菱電機株式会社 表示装置、表示制御装置および表示制御方法
US10026023B2 (en) * 2016-08-11 2018-07-17 International Business Machines Corporation Sentiment based social media comment overlay on image posts
CN106331854A (zh) * 2016-09-29 2017-01-11 深圳Tcl数字技术有限公司 智能电视控制方法及装置
CN107979628B (zh) * 2016-10-24 2020-04-21 腾讯科技(深圳)有限公司 获取虚拟物品的方法、装置及系统
US10593116B2 (en) 2016-10-24 2020-03-17 Snap Inc. Augmented reality object manipulation
JP6809267B2 (ja) * 2017-02-10 2021-01-06 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム
CN107170046B (zh) * 2017-03-30 2020-10-30 努比亚技术有限公司 一种增强现实装置及增强现实画面显示方法
US10282911B2 (en) * 2017-05-03 2019-05-07 International Business Machines Corporation Augmented reality geolocation optimization
US10572716B2 (en) 2017-10-20 2020-02-25 Ptc Inc. Processing uncertain content in a computer graphics system
US11030808B2 (en) * 2017-10-20 2021-06-08 Ptc Inc. Generating time-delayed augmented reality content
WO2018216355A1 (ja) * 2017-05-24 2018-11-29 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN109451295A (zh) * 2017-08-29 2019-03-08 深圳市掌网科技股份有限公司 一种获取虚拟信息的方法和系统
US11432470B2 (en) 2017-12-01 2022-09-06 Sony Group Corporation Information processing apparatus, information processing method, and vegetation management system
CN111712870B (zh) * 2018-02-22 2024-03-08 索尼公司 信息处理装置、移动装置、方法和程序
JP2021141346A (ja) * 2018-05-31 2021-09-16 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
CN108829368B (zh) * 2018-06-29 2021-07-16 联想(北京)有限公司 一种信息处理方法及电子设备
CN109164958A (zh) * 2018-08-02 2019-01-08 珠海格力电器股份有限公司 一种后台中应用锁定的方法和设备
US10460139B1 (en) * 2018-08-24 2019-10-29 Intuit Inc. System and method for unique identifier detection based on invisible light
DE102019218787A1 (de) * 2018-12-04 2020-06-04 Apple Inc. Verfahren, vorrichtung und system zum erzeugen von mit einer darstellung eines artikels verbundenen angeboten
WO2020203126A1 (ja) * 2019-04-02 2020-10-08 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11287947B2 (en) 2019-05-15 2022-03-29 Microsoft Technology Licensing, Llc Contextual input in a three-dimensional environment
US11087560B2 (en) 2019-05-15 2021-08-10 Microsoft Technology Licensing, Llc Normalization of objects for a 3D environment within an authoring application
US11164395B2 (en) 2019-05-15 2021-11-02 Microsoft Technology Licensing, Llc Structure switching in a three-dimensional environment
US11039061B2 (en) * 2019-05-15 2021-06-15 Microsoft Technology Licensing, Llc Content assistance in a three-dimensional environment
US11030822B2 (en) 2019-05-15 2021-06-08 Microsoft Technology Licensing, Llc Content indicators in a 3D environment authoring application
CN110716646A (zh) * 2019-10-15 2020-01-21 北京市商汤科技开发有限公司 一种增强现实数据呈现方法、装置、设备及存储介质
WO2021106648A1 (ja) * 2019-11-27 2021-06-03 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
TWI728930B (zh) 2020-10-20 2021-05-21 洪仁哲 海浪發電裝置
JP7405735B2 (ja) * 2020-12-21 2023-12-26 トヨタ自動車株式会社 表示システム、表示装置、及びプログラム
CN113359983A (zh) * 2021-06-03 2021-09-07 北京市商汤科技开发有限公司 增强现实数据呈现方法、装置、电子设备及存储介质
US11537260B1 (en) * 2021-08-05 2022-12-27 Lenovo (Singapore) Pte. Ltd. Graphical indications and selectors for whether object being selected via AR device is real or virtual

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009271732A (ja) * 2008-05-07 2009-11-19 Sony Corp 情報提示装置及び情報提示方法、撮像装置、並びにコンピュータ・プログラム
WO2010029671A1 (ja) * 2008-09-09 2010-03-18 頓智ドット株式会社 視界情報に仮想情報を付加して表示できるシステム
WO2010073616A1 (ja) * 2008-12-25 2010-07-01 パナソニック株式会社 情報表示装置および情報表示方法
EP2420978A2 (en) * 2010-08-20 2012-02-22 Pantech Co., Ltd. Apparatus and method for providing object information

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8218873B2 (en) 2000-11-06 2012-07-10 Nant Holdings Ip, Llc Object information derived from object images
JP2010033367A (ja) * 2008-07-29 2010-02-12 Canon Inc 情報処理装置及び情報処理方法
JP5315111B2 (ja) 2009-03-31 2013-10-16 株式会社エヌ・ティ・ティ・ドコモ 端末装置、情報提示システム及び端末画面表示方法
JP5390322B2 (ja) 2009-09-28 2014-01-15 株式会社東芝 画像処理装置、及び画像処理方法
JP2011244058A (ja) 2010-05-14 2011-12-01 Sony Corp 情報処理装置、情報処理システム、及びプログラム
JP5377537B2 (ja) * 2011-02-10 2013-12-25 株式会社エヌ・ティ・ティ・ドコモ オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009271732A (ja) * 2008-05-07 2009-11-19 Sony Corp 情報提示装置及び情報提示方法、撮像装置、並びにコンピュータ・プログラム
WO2010029671A1 (ja) * 2008-09-09 2010-03-18 頓智ドット株式会社 視界情報に仮想情報を付加して表示できるシステム
WO2010073616A1 (ja) * 2008-12-25 2010-07-01 パナソニック株式会社 情報表示装置および情報表示方法
EP2420978A2 (en) * 2010-08-20 2012-02-22 Pantech Co., Ltd. Apparatus and method for providing object information

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015118578A (ja) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション 拡張現実情報詳細
US10073262B2 (en) 2014-06-16 2018-09-11 Seiko Epson Corporation Information distribution system, head mounted display, method for controlling head mounted display, and computer program
JP2016004340A (ja) * 2014-06-16 2016-01-12 セイコーエプソン株式会社 情報配信システム、頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2016018367A (ja) * 2014-07-08 2016-02-01 沖電気工業株式会社 情報処理装置、情報処理方法、及びプログラム
JP2016071471A (ja) * 2014-09-29 2016-05-09 京セラドキュメントソリューションズ株式会社 物品情報提供装置、物品情報提供システム、物品情報提供方法及び物品情報提供プログラム
JP2016110565A (ja) * 2014-12-10 2016-06-20 富士通株式会社 表示制御方法、情報処理プログラム、及び情報処理装置
JP2016173693A (ja) * 2015-03-17 2016-09-29 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
WO2017018603A1 (ko) * 2015-07-30 2017-02-02 엘지전자 주식회사 이동 단말기 및 이의 제어방법
JP2017054185A (ja) * 2015-09-07 2017-03-16 株式会社東芝 情報処理装置、情報処理方法及び情報処理プログラム
US10235776B2 (en) 2015-09-07 2019-03-19 Kabushiki Kaisha Toshiba Information processing device, information processing method, and information processing program
US12056293B2 (en) 2015-10-20 2024-08-06 Magic Leap, Inc. Selecting virtual objects in a three-dimensional space
US10650601B2 (en) 2016-03-29 2020-05-12 Sony Corporation Information processing device and information processing method
US11004273B2 (en) 2016-03-29 2021-05-11 Sony Corporation Information processing device and information processing method
US12051167B2 (en) 2016-03-31 2024-07-30 Magic Leap, Inc. Interactions with 3D virtual objects using poses and multiple-DOF controllers
JP7100092B2 (ja) 2016-08-12 2022-07-12 マジック リープ, インコーポレイテッド ワードフロー注釈
JP2021007003A (ja) * 2016-08-12 2021-01-21 マジック リープ, インコーポレイテッドMagic Leap,Inc. ワードフロー注釈
US11423909B2 (en) 2016-08-12 2022-08-23 Magic Leap, Inc. Word flow annotation
JP2018066823A (ja) * 2016-10-18 2018-04-26 株式会社日立システムズ 情報表示装置、及びその処理制御方法
WO2018142756A1 (ja) * 2017-01-31 2018-08-09 株式会社Nttドコモ 情報処理装置及び情報処理方法
JPWO2018142756A1 (ja) * 2017-01-31 2019-11-07 株式会社Nttドコモ 情報処理装置及び情報処理方法
US11417296B2 (en) 2018-03-13 2022-08-16 Sony Corporation Information processing device, information processing method, and recording medium
JP2018112753A (ja) * 2018-03-20 2018-07-19 マクセル株式会社 情報表示端末及び情報表示方法
WO2020031795A1 (ja) * 2018-08-07 2020-02-13 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US12033380B2 (en) 2018-08-07 2024-07-09 Sony Corporation Information processing apparatus and information processing method
JP2020149476A (ja) * 2019-03-14 2020-09-17 トヨタ自動車株式会社 プログラム、情報処理装置、及び制御方法
JP2021082344A (ja) * 2019-04-17 2021-05-27 Kddi株式会社 キャラクタ画像生成装置、キャラクタ画像生成方法及びプログラム
JP2020074150A (ja) * 2020-01-10 2020-05-14 株式会社東芝 情報処理装置、情報処理方法及び情報処理プログラム
WO2021256242A1 (ja) * 2020-06-15 2021-12-23 Necソリューションイノベータ株式会社 ガイド装置、ガイドシステム、ガイド方法、プログラム、及び、記録媒体
JPWO2021256242A1 (ja) * 2020-06-15 2021-12-23
JP7355467B2 (ja) 2020-06-15 2023-10-03 Necソリューションイノベータ株式会社 ガイド装置、ガイドシステム、ガイド方法、プログラム、及び、記録媒体

Also Published As

Publication number Publication date
EP2836899B1 (en) 2018-10-03
TW201403443A (zh) 2014-01-16
CN103377487B (zh) 2018-04-03
EP2836899A2 (en) 2015-02-18
CN103377487A (zh) 2013-10-30
US9823821B2 (en) 2017-11-21
US20150052479A1 (en) 2015-02-19
WO2013153740A3 (en) 2014-09-25
CN203276350U (zh) 2013-11-06
WO2013153740A2 (en) 2013-10-17
JP6056178B2 (ja) 2017-01-11

Similar Documents

Publication Publication Date Title
JP6056178B2 (ja) 情報処理装置、表示制御方法及びプログラム
JP5732988B2 (ja) 画像処理装置、表示制御方法及びプログラム
JP5724543B2 (ja) 端末装置、オブジェクト制御方法及びプログラム
US9996982B2 (en) Information processing device, authoring method, and program
US9639988B2 (en) Information processing apparatus and computer program product for processing a virtual object
KR102576654B1 (ko) 전자 장치 및 그의 제어 방법
US9268410B2 (en) Image processing device, image processing method, and program
KR101337555B1 (ko) 객체 연관성을 이용한 증강 현실 제공 장치 및 방법
US20130176202A1 (en) Menu selection using tangible interaction with mobile devices
EP2444942A1 (en) Apparatus and method for providing augmented reality (AR) information
JP2012079129A (ja) 画像処理装置、プログラム及び画像処理方法
JP5668587B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN112083845B (zh) 气泡控件处理方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160322

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161007

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20161018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161121

R151 Written notification of patent or utility model registration

Ref document number: 6056178

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees