JP5741160B2 - 表示制御装置、表示制御方法、およびプログラム - Google Patents

表示制御装置、表示制御方法、およびプログラム Download PDF

Info

Publication number
JP5741160B2
JP5741160B2 JP2011086679A JP2011086679A JP5741160B2 JP 5741160 B2 JP5741160 B2 JP 5741160B2 JP 2011086679 A JP2011086679 A JP 2011086679A JP 2011086679 A JP2011086679 A JP 2011086679A JP 5741160 B2 JP5741160 B2 JP 5741160B2
Authority
JP
Japan
Prior art keywords
real
virtual object
real object
display control
space image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011086679A
Other languages
English (en)
Other versions
JP2012221249A (ja
Inventor
俊一 笠原
俊一 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011086679A priority Critical patent/JP5741160B2/ja
Priority to EP12162153.6A priority patent/EP2508975B1/en
Priority to US13/435,967 priority patent/US9836263B2/en
Priority to BRBR102012007393-5A priority patent/BR102012007393A2/pt
Priority to RU2012112464/08A priority patent/RU2012112464A/ru
Priority to CN201210096417.3A priority patent/CN102750118B/zh
Publication of JP2012221249A publication Critical patent/JP2012221249A/ja
Application granted granted Critical
Publication of JP5741160B2 publication Critical patent/JP5741160B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Digital Computer Display Output (AREA)

Description

本発明は、表示制御装置、表示制御方法、およびプログラムに関する。
近年、画像認識技術が高度化しており、撮像装置からの入力画像に含まれる実オブジェクト(例えば、看板やビルなどの物体)の位置や姿勢を認識することが可能となっている。このような物体認識の応用例の一つとして、AR(Augmented Reality:拡張現実)アプリケーションが知られている。ARアプリケーションによれば、実空間画像に含まれる実オブジェクトに、実オブジェクトに対応付けられた仮想オブジェクト(例えば、広告情報、ナビゲーション情報、またはゲームのための情報)を付加することができる。なお、このようなARアプリケーションについては例えば特許文献1に開示されている。
特開2010−49158号公報
しかし、仮想オブジェクトは、実オブジェクトに対して一律的な姿勢で実オブジェクトに付加される傾向にある。このため、実オブジェクトの姿勢によっては、仮想オブジェクトの視認性が損なわれる場合がある。
そこで、本開示では仮想オブジェクトの視認性を向上することが可能な、新規かつ改良された表示制御装置、表示制御方法、およびプログラムを提案する。
本開示によれば、実空間画像に含まれる実オブジェクトに対応する仮想オブジェクトの表示を制御する制御部を備え、前記制御部は、前記実空間画像における前記実オブジェクトの姿勢に応じ、前記実オブジェクトに対する前記仮想オブジェクトの相対的な姿勢を変化させる、表示制御装置が提供される。
また、本開示によれば、実空間画像に含まれる実オブジェクトに対応する仮想オブジェクトの姿勢を、前記実空間画像における前記実オブジェクトの姿勢に応じ、前記実オブジェクトに対して相対的に変化させる、表示制御方法が提供される。
また、本開示によれば、コンピュータを、実空間画像に含まれる実オブジェクトに対応する仮想オブジェクトの表示を制御する制御部であって、前記実空間画像における前記実オブジェクトの姿勢に応じ、前記実オブジェクトに対する前記仮想オブジェクトの相対的な姿勢を変化させる制御部、として機能させるためのプログラムが提供される。
以上説明したように本開示に係る表示制御装置、表示制御方法、およびプログラムによれば、仮想オブジェクトの視認性を向上することが可能である。
本開示によるARシステムの構成を示した説明図である。 仮想オブジェクトが付加された実空間画像の具体例を示した説明図である。 本開示の比較例を示した説明図である。 携帯端末のハードウェア構成を示した説明図である。 第1の実施形態による携帯端末の構成を示した機能ブロック図である。 実オブジェクトの正対状態を示した説明図である。 実オブジェクトの面がy軸回りに回転した状態を示した説明図である。 第1の実施形態による実空間画像へのラベルグラフィックの付加例を示した説明図である。 第1の実施形態による実空間画像へのラベルグラフィックの他の付加例を示した説明図である。 複数の実オブジェクトが存在する場合のラベルグラフィックの付加を示した説明図である。 実オブジェクトの面がx軸回りに回転した状態を示した説明図である。 第1の実施形態による実空間画像へのラベルグラフィックの付加例を示した説明図である。 第1の実施形態による携帯端末の動作を示したフローチャートである。 本開示の第2の実施形態によるARシステムの構成例を示した説明図である。 本開示の第2の実施形態による携帯端末の構成を示した機能ブロック図である。 第2の実施形態による実空間画像へのラベルグラフィックの付加例を示した説明図である。 第2の実施形態による他の実空間画像へのラベルグラフィックの付加例を示した説明図である。 第2の実施形態の変形例による実空間画像へのラベルグラフィックの付加例を示した説明図である。 第3の実施形態によるARシステムを示した説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.ARシステムの概要
2.各実施形態の説明
2−1.第1の実施形態
2−2.第2の実施形態
2−3.第3の実施形態
3.むすび
<<1.ARシステムの概要>>
本開示によるARシステムは、一例として「2−1.第1の実施形態」〜「2−3.第3の実施形態」において詳細に説明するように、多様な形態で実施され得る。また、各実施形態によるARシステムを構成する表示制御装置(携帯端末20、ARサーバ30)は、
A.実空間画像に含まれる実オブジェクトに対応する仮想オブジェクトの表示を制御する制御部(241、242)を備え、
B.制御部は、実空間画像における実オブジェクトの姿勢に応じ、実オブジェクトに対する前記仮想オブジェクトの相対的な姿勢を変化させる。
以下では、まず、このような各実施形態において共通するARシステムの基本構成について図1および図2を参照して説明する。
図1は、本開示によるARシステムの構成を示した説明図である。図1に示したように、本開示によるARシステムは、撮像機能を有する携帯端末20を含む。この携帯端末20は、実空間画像を撮像し、実空間画像に含まれる実オブジェクトに対応する仮想オブジェクトを実空間画像に付加してディスプレイ26に表示することができる。
例えば、携帯端末20により撮像された実オブジェクトが図1に示したような電車の発着時刻を示す駅時刻表40Aである場合、携帯端末20は、駅時刻表40Aに対応する仮想オブジェクトが付加された実空間画像をディスプレイ26に表示することが可能である。以下、図2を参照し、仮想オブジェクトが付加された実空間画像についてより具体的に説明する。
図2は、仮想オブジェクトが付加された実空間画像の具体例を示した説明図である。図2に示したように、実空間画像Pは、実オブジェクトである駅時刻表40A、及び駅時刻表40Aに付加された仮想オブジェクトであるラベルグラフィック50Aを含む。図2に示したように、ラベルグラフィック50Aは例えば駅時刻表40Aと同一平面に付加される。ユーザは、このような仮想オブジェクトが付加された実空間画像を視認することにより、実空間から直接には得られない情報(図2の場合、例えば実オブジェクトが時刻表であること。)を把握することができる。
さらに、ユーザは、表示画面において所定の操作を行うことにより、実空間画像に含まれる仮想オブジェクトの表示を変化させることが可能である。例えば、1の実オブジェクトに複数の仮想オブジェクトが関連付けられている場合、携帯端末20は、ユーザ操作に応じて複数の仮想オブジェクトのうちで表示する仮想オブジェクトを切り替えてもよい。より具体的に説明すると、駅時刻表40Aにラベルグラフィック50Aおよび周辺マップを示す仮想オブジェクトが関連付けられている場合、携帯端末20は、ユーザ操作に応じて駅時刻表40Aの表示上に周辺マップを示す仮想オブジェクトを重畳してもよい。
なお、上記のように1の実オブジェクトに複数の仮想オブジェクトが関連付けられている場合、携帯端末20は、関連付けられている仮想オブジェクトを識別するタブグラフィックを実オブジェクトに付加してもよい。例えば、携帯端末20は、ラベルグラフィック50Aに加え、「周辺マップ」というテキスト情報からなるタブグラフィックを時刻表40Aに付加してもよい。
以上、壁に配置された駅時刻表40Aを実オブジェクトの一例として説明したが、図1に示した床に配置される出口案内40Bも実オブジェクトとして同様に扱うことが可能である。さらに、実オブジェクトは、看板、ビル、乗り物、食品、または玩具などの物体や、QRコードやARマーカーのような識別パターンであってもよい。
また、図1においては、携帯端末20の一例としてスマートフォンを示したが、携帯端末20はスマートフォンに限定されない。例えば、携帯端末20は、PDA(Personal Digital Assistants)、携帯電話、携帯用音楽再生装置、携帯用映像処理装置、または携帯用ゲーム機器であってもよい。さらに、携帯端末20は表示制御装置の一例に過ぎず、表示制御装置はネットワーク側に設けられるサーバであってもよい。
ところで、上述したラベルグラフィック50を一律的に実オブジェクト40と同一平面に付加すると、ラベルグラフィック50の視認性や操作性が損なわれる場合がある。例えば、図3に示したように、駅時刻表40Aを構成する平面と実空間画像の撮像光軸の成す角度が浅い場合にラベルグラフィック50A’を駅時刻表40Aと同一平面に付加すると、傾きの大きさによりラベルグラフィック50A’の表示が小さくなるので、視認性が下がる。さらに、ラベルグラフィック50A’がユーザにより操作可能な領域である場合、ラベルグラフィック50A’の表示が小さいと操作判定領域も極端に小さくなってしまう。
そこで、上記事情を一着眼点にして本開示の実施形態を創作するに至った。本開示の実施形態によれば、仮想オブジェクトの視認性および操作性を向上することが可能である。以下、図4を参照してこのような携帯端末20のハードウェア構成を説明した後、本開示の各実施形態について順次詳細に説明する。
(携帯端末のハードウェア構成)
図4は、携帯端末20のハードウェア構成を示した説明図である。図3に示したように、携帯端末20は、CPU(Central Processing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、入力装置208と、出力装置210と、ストレージ装置211と、ドライブ212と、撮像装置213と、通信装置215とを備える。
CPU201は、演算処理装置および制御装置として機能し、各種プログラムに従って無線通信装置20内の動作全般を制御する。また、CPU201は、マイクロプロセッサであってもよい。ROM202は、CPU201が使用するプログラムや演算パラメータ等を記憶する。RAM203は、CPU201の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。
入力装置208は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU201に出力する入力制御回路などから構成されている。携帯端末20のユーザは、該入力装置208を操作することにより、携帯端末20に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置210は、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。さらに、出力装置210は、スピーカおよびヘッドホンなどの音声出力装置を含む。例えば、表示装置は、撮像された画像や生成された画像などを表示する。一方、音声出力装置は、音声データ等を音声に変換して出力する。
ストレージ装置211は、本実施形態にかかる携帯端末20の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置211は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置211は、CPU201が実行するプログラムや各種データを格納する。
ドライブ212は、記憶媒体用リーダライタであり、携帯端末20に内蔵、あるいは外付けされる。ドライブ212は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体24に記録されている情報を読み出して、RAM203に出力する。また、ドライブ212は、リムーバブル記憶媒体24に情報を書き込むこともできる。
撮像装置213は、光を集光する撮影レンズおよびズームレンズなどの撮像光学系、およびCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの信号変換素子を備える。撮像光学系は、被写体から発せられる光を集光して信号変換部に被写体像を形成し、信号変換素子は、形成された被写体像を電気的な画像信号に変換する。
通信装置215は、例えば、ネットワーク12に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置215は、無線LAN(Local Area Network)対応通信装置であっても、LTE(Long Term Evolution)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
なお、ネットワーク12は、ネットワーク12に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク12は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク12は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
<<2.各実施形態の説明>>
以上、図1〜図4を参照し、本開示によるARシステムの基本構成を説明した。以下、図5〜図19を参照し、本開示による第1の実施形態〜第3の実施形態について詳細に説明する。
<2−1.第1の実施形態>
−−−携帯端末の構成−−−
図5は、第1の実施形態による携帯端末20−1の構成を示した機能ブロック図である。図5に示したように、第1の実施形態による携帯端末20−1は、ディスプレイ26と、タッチパネル27と、撮像装置213と、特徴量DB220と、画像認識部224と、仮想オブジェクトDB228と、仮想オブジェクト取得部232と、制御部241と、を備える。
ディスプレイ26は、LCDまたはOLEDなどにより構成される表示モジュールである。ディスプレイ26は、制御部241による制御に従って多様な画面を表示する。例えば、ディスプレイ26は、撮像装置213により撮像中の実空間画像および実オブジェクトに付加される仮想オブジェクトを表示する。
なお、図5においてはディスプレイ26が携帯端末20−1の一部として実装される例を示したが、ディスプレイ26は、携帯端末20−1とは別体に構成されてもよい。また、ディスプレイ26は、ユーザの頭部に装着されるHMD(Head Mounted Display)であってもよい。
タッチパネル27は、ディスプレイ26に積層される操作検出部である。タッチパネル27は、ユーザの指やタッチペンなどの操作体の近接または接触を検出することができる。なお、タッチパネル27は操作検出部の一例に過ぎず、携帯端末20−1は、キーボードおよびボタンなどの他の操作用の構成を含んでもよい。
撮像装置213は、図4を参照して説明したように、撮像光学系および信号変換素子を備え、制御部241による制御に従って実空間画像(動画または静止画)を撮像する。なお、撮像装置213は、動画撮像用の構成と、静止画撮像用の構成を別個に備えてもよい。
特徴量DB220は、実オブジェクトの画像の特徴量データを記憶するデータベースである。具体的には、特徴量DB220においては、各実オブジェクトを識別するための識別情報と、各実オブジェクトの特徴量データが関連付けられる。特徴量データは、例えば、SIFT法またはRandom Ferns法に従って実オブジェクトの学習用画像から決定された特徴量の集合であってもよい。
画像認識部224は、撮像装置213により撮像された実空間画像に含まれる実オブジェクト、および当該実オブジェクトの実空間画像における位置および姿勢を認識する。例えば、画像認識部224は、実空間画像から決定される特徴量をデータベース220に記憶されている各実オブジェクトの特徴量と照合することにより、実空間画像に含まれる実オブジェクトを認識する。より具体的には、画像認識部224は、SIFT法またはRandom Ferns法などの特徴量決定法に従って実空間画像内の実オブジェクトの特徴量を決定し、決定した特徴量をデータベース220に記憶されている各実オブジェクトの特徴量と照合する。そして、画像認識部224は、実空間画像内の実オブジェクトの特徴量と最も適合する特徴量と関連付けられている実オブジェクトの識別情報、実空間画像における位置および姿勢を認識する。
なお、画像認識部224は、既知の図形若しくは記号、人工マーカ(例えば、バーコード若しくはQRコード)又は自然マーカなどの実オブジェクトを認識し、当該実オブジェクトの実空間画像におけるサイズおよび形状から当該実オブジェクトの位置及び姿勢を認識してもよい。
また、上記では、実空間画像に含まれる実オブジェクトを画像処理により認識する例を説明したが、実オブジェクトの認識方法は画像処理に限定されない。例えば、撮像装置213が向けられている方向、および携帯端末20−1の現在位置を検出し、検出結果に基づいて実空間画像に含まれている実オブジェクト、実空間画像における当該実オブジェクトの位置および姿勢を推定することも可能である。
仮想オブジェクトDB228は、実オブジェクトに付加するための仮想オブジェクトを記憶するデータベースである。具体的には、仮想オブジェクトDB228においては、仮想オブジェクトの識別情報、実オブジェクトの識別情報、実オブジェクトからの相対的な表示位置を示す設定情報、およびユーザに呈示される仮想オブジェクトが関連付けられる。仮想オブジェクトには、例えば図2を参照して説明したようなラベルグラフィック50が該当するが、ラベルグラフィック50は仮想オブジェクトの一例に過ぎない。仮想オブジェクトは、テキスト形式であってもよいし、イメージ形式であってもよい。
仮想オブジェクト取得部232は、画像認識部224により認識された実オブジェクトに対応する仮想オブジェクトおよび設定情報を取得する。例えば、仮想オブジェクト取得部232は、画像認識部224により認識された実オブジェクトの識別情報に関連付けられている仮想オブジェクトおよび設定情報を仮想オブジェクトDB228から取得する。
制御部241は、携帯端末20−1の動作全般を制御する。例えば、制御部241は、仮想オブジェクト取得部232により取得された仮想オブジェクトを実空間画像に付加し、仮想オブジェクトが付加された実空間画像をディスプレイ26に表示させる。
ここで、制御部241は、実空間画像における実オブジェクトの姿勢に応じ、実オブジェクトに対する仮想オブジェクトの相対的な姿勢を変化させる。例えば、制御部241は、実オブジェクトの面の、実空間画像の撮像光軸と交差する軸回りの回転角に応じ、実オブジェクトの面と同一の面(、平面および曲面を含む。面という語に関し、以下同様である。)、前記実オブジェクトの面と平行な面、前記実オブジェクトの面と所定の関係にある面、または前記実オブジェクトの面と異なる面などに前記仮想オブジェクトを付加する。
具体例として、制御部241は、実オブジェクトの正対状態を基準とする上記軸回りの回転角が所定値未満である場合には実オブジェクトの面と同一または平行な面上に仮想オブジェクトを付加してもよい。一方、制御部241は、正対状態を基準とする上記軸回りの回転角が所定値以上である場合には実オブジェクトの面と異なる面上に仮想オブジェクトを付加してもよい。以下、このような制御部241の機能をより詳細に説明する。
(正対状態)
まず、図6を参照し、実オブジェクトの正対状態について説明する。図6は、実オブジェクトの正対状態を示した説明図である。なお、本明細書で用いるz軸は実空間画像の撮像光軸であり、x軸は実空間画像の水平方向に沿う軸であり、y軸は実空間画像の鉛直方向に沿う軸であり、x軸、y軸およびz軸は各々直交する。
図6に示したように、正対状態は、実オブジェクト40の面が撮像光軸であるz軸と直交する状態である。なお、図6に示した実オブジェクト40の面は、実オブジェクト40の実際の面と異なってもよく、実オブジェクト40に関して事前に定義されている面であってもよい。以下では、この正対状態を基準とする実オブジェクト40の面の回転角を議論する。ただし、回転角の基準となる状態は正対状態に限られず、実オブジェクトの他の姿勢を基準状態として扱ってもよい。
(y軸回りの回転角α)
図7は、実オブジェクト40の面がy軸回りに回転した状態を示した説明図である。本明細書においては、図7に示したように、正対状態を基準とするy軸回りの実オブジェクト40の面の回転角をαと称する。
(回転角αに基づく表示制御)
制御部241は、回転角αが所定値未満である場合、実オブジェクトの面と同一または平行な平面上に仮想オブジェクトであるラベルグラフィックを付加してもよい。一方、制御部241は、回転角αが所定値以上である場合、実オブジェクトの面と異なる平面上にラベルグラフィックを付加してもよい。以下、この点について図8〜図10を参照して具体的に説明する。
図8は、第1の実施形態による実空間画像へのラベルグラフィックの付加例を示した説明図である。図8に示したように、駅時刻表40Aの回転角αが所定値以上である場合、制御部241は、駅時刻表40Aと直交する平面上(x−z平面において駅時刻表40Aと90度または270度を形成する平面上)にラベルグラフィック50Aを付加してもよい。かかる構成により、ラベルグラフィック50Aの表示面積の拡大しつつ、正対状態を基準とする傾きを低減できるので、ラベルグラフィック50Aの視認性を向上することが可能となる。
さらに、ラベルグラフィック50Aのような仮想オブジェクトを図8に示したように実オブジェクトと重ならない領域に付加することにより、実オブジェクトの視認性を確保することができる。
なお、制御部241は、実オブジェクトの回転角αが所定値より大きくなったことによりラベルグラフィック50Aの相対的な姿勢を変化させる場合、ユーザが変化を認識できるように、姿勢変化の過程をアニメーションで表現してもよい。
図9は、第1の実施形態による実空間画像へのラベルグラフィックの他の付加例を示した説明図である。図9に示したように、駅時刻表40Aの回転角αが所定値以上である場合、制御部241は、撮像光軸であるz軸と直交する平面上(すなわち、x−y平面上)にラベルグラフィック50Aを付加してもよい。かかる構成により、上記同様にラベルグラフィック50Aの視認性を確保することが可能となる。
なお、制御部241は、図10に示したように実空間画像に複数の実オブジェクト40L、40M、40Nが含まれる場合、各実オブジェクト40の各々に対応するラベルグラフィック50L、50Mおよび50Nが重ならないように各ラベルグラフィック50を付加してもよい。かかる構成により、各ラベルグラフィック50の視認性を確保することが可能である。
以上、図7〜図10を参照して実オブジェクト40の面がy軸回りに回転した場合の表示制御について説明したが、以下に説明するように、実オブジェクト40の面がx軸回りに回転した場合にも同様の表示制御を実現可能である。
(x軸回りの回転角β)
図11は、実オブジェクト40の面がx軸回りに回転した状態を示した説明図である。本明細書においては、図11に示したように、正対状態を基準とするx軸回りの実オブジェクト40の面の回転角をβと称する。
(回転角βに基づく表示制御)
制御部241は、回転角βが所定値(回転角αに関する所定値と同一であってもよいし、異なってもよい。)未満である場合、実オブジェクトの面と同一または平行な平面上にラベルグラフィックを付加してもよい。一方、制御部241は、回転角βが所定値以上である場合、実オブジェクトの面と異なる平面上にラベルグラフィックを付加してもよい。以下、この点について図12を参照して具体的に説明する。
図12は、第1の実施形態による実空間画像へのラベルグラフィックの付加例を示した説明図である。図12に示したように、出口案内40Bの回転角βが所定値以上である場合、制御部241は、撮像光軸であるz軸と直交する平面上(すなわち、x−y平面上)にラベルグラフィック50Bを付加してもよい。かかる構成により、ラベルグラフィック50Bの表示面積の拡大しつつ、ラベルグラフィック50Bを正対状態で表示できるので、ラベルグラフィック50Bの視認性を向上することが可能となる。
なお、出口案内40Bの回転角βが所定値以上である場合、制御部241は、出口案内40Bと直交する平面上(y−z平面において出口案内40Bと90度または270度を形成する平面上)にラベルグラフィック50Aを付加してもよい。かかる構成によっても、上記同様にラベルグラフィック50Bの視認性を向上することが可能である。
(補足)
・認識できていた実オブジェクトが認識できなくなった場合
実空間画像において認識できていた実オブジェクトが携帯端末20−1との位置関係の変化により認識できなくなる場合がある。例えば、図8に示した実オブジェクト40Aの面がさらにy軸回りに反時計方向に回転した場合、実空間画像に実オブジェクト40Aの面が含まれなくなるので、画像認識部224は実オブジェクト40Aを認識できなくなる。その結果、ラベルグラフィックも画面から消え得る。
しかし、実空間画像上に映っている実オブジェクトの認識が難しい場合にほど、その実オブジェクトに関する情報をユーザに伝える意義が高いと考えられる。そこで、制御部241は、認識できていた実オブジェクトが認識できなくなった場合、以前の認識結果に基づき、当該実オブジェクトに対応するラベルグラフィックを維持してもよい。例えば、制御部241は、実オブジェクトを認識できなくなる直前の実オブジェクトの位置、姿勢に応じた位置、姿勢で、所定期間にわたってラベルグラフィックを維持してもよい。かかる構成により、実空間画像からは視認が困難である実オブジェクトに関する情報をユーザに伝えることが可能となる。
・制御部が着目する回転角
上記では、y軸回りの回転角α、またはx軸回りの回転角βのいずれかが所定値以上である場合に制御部241がラベルグラフィックの実オブジェクトに対する相対的な姿勢を変化させる例を説明したが、本技術はかかる例に限定されない。より詳細に説明すると、ラベルグラフィックが付加される位置や向きによっては、ある座標軸回りの回転角が大きくても、ラベルグラフィックの視認性や操作性に与える影響が少ない場合がある。例えば、図2に示したように、ラベルグラフィック50Aが実オブジェクト40Aのy軸方向に沿う辺上に付加される場合、実オブジェクト40Aのx軸回りの回転角がラベルグラフィック50Aの視認性に与える影響は比較的少ない。
そこで、制御部241は、実オブジェクトの面が正対状態である場合にラベルグラフィックを付加する辺の方向に沿う座標軸に着目し、この座標軸回りの回転角が所定値以上であるか否かに応じてラベルグラフィックの姿勢を制御してもよい。例えば、図12に示したラベルグラフィック50Bは出口案内40Bの面が正対状態である場合にx軸方向の辺に付加されるので、制御部241は、ラベルグラフィック50Bの姿勢制御に関してはx軸回りの回転角のみに着目してもよい。なお、実オブジェクト40Aの姿勢は、x軸回りの回転角、y軸回りの回転角、およびz軸回りの回転角などの成分ごとに表現することが可能である。
−−−携帯端末の動作−−−
以上、図5〜図12を参照して第1の実施形態による携帯端末20−1の構成を説明した。続いて、図13を参照し、第1の実施形態による携帯端末20−1の動作を説明する。
図13は、第1の実施形態による携帯端末20−1の動作を示したフローチャートである。図13に示したように、撮像装置213により実空間画像が撮像されると、画像認識部224が、実空間画像に含まれる実オブジェクトの識別、および実オブジェクトの位置、姿勢、およびスケールなどを認識する(S310)。
続いて、仮想オブジェクト取得部232が、画像認識部224による認識結果に基づいて実オブジェクトに対応する仮想オブジェクトを取得する(S320)。
その後、制御部241は、画像認識部224により認識された実オブジェクトの正対状態を基準とする回転角が所定値以上であるか否かを判断する(S330)。回転角が所定値未満である場合(S330/no)、制御部241は仮想オブジェクトを実オブジェクトの面と同一または並行する平面上に付加する(S340)。
一方、制御部241は、回転角が所定値以上である場合(S330/yes)、仮想オブジェクトを実オブジェクトと異なる平面に付加する(S350)。例えば、制御部241は、回転角が所定値以上である場合(S330/yes)、仮想オブジェクトを撮像光軸であるz軸と直交する平面上に付加してもよい。かかる構成により、仮想オブジェクトを正対状態で表示できるので、ラベルグラフィック50Bの視認性を向上することが可能となる。
<2−2.第2の実施形態>
以上、図5〜図13を参照して本開示の第1の実施形態を説明した。続いて、図14〜図18を参照し、本開示の第2の実施形態を説明する。本開示の第2の実施形態では、実オブジェクトが複数の面を有する場合の仮想オブジェクトの表示方法を提案する。
(第2の実施形態によるARシステム)
図14は、本開示の第2の実施形態によるARシステムの構成例を示した説明図である。第2の実施形態によるARシステムは、図14に示したように携帯端末20−2を含み、この携帯端末20−2が牛乳パック40Cのような複数の面を有する実オブジェクトを撮像する場合に適用される。図14に示した牛乳パック40Cは、複数の面として、商品名が印刷された第1の面42、および、原材料名が印刷された第2の面44を有する。
(第2の実施形態による携帯端末の構成)
図15は、本開示の第2の実施形態による携帯端末20−2の構成を示した機能ブロック図である。図15に示したように、第2の実施形態による携帯端末20−2は、ディスプレイ26と、タッチパネル27と、撮像装置213と、特徴量DB220と、画像認識部224と、仮想オブジェクトDB228と、仮想オブジェクト取得部232と、制御部242と、を備える。ディスプレイ26、タッチパネル27、撮像装置213、特徴量DB220、画像認識部224、仮想オブジェクトDB228、および仮想オブジェクト取得部232の機能は第1の実施形態で説明した通りであるので、以下では、第1の実施形態と異なる構成について主に説明する。
制御部242は、第1の実施形態による制御部241の機能の全部または一部に加え、主面判断部250の機能、および主面判断部250による判断結果に応じた姿勢で仮想オブジェクトを付加する機能を有する。
主面判断部250は、実空間画像に含まれる実オブジェクトが複数の面を有する場合、複数の面のうちの主面を判断する。例えば、主面判断部250は、複数の面のうちで、画像認識部224による認識面積が最も広い面を主面として判断してもよい。または、主面判断部250は、複数の面のうちで、撮像光軸であるz軸との直交性が最も高い面(正対状態に最も近い面)を主面として判断してもよい。さらに、主面は、実オブジェクトごとに事前に定義されていてもよい。
制御部242は、主面判断部250により判断された主面に対し、実オブジェクトに対応するラベルグラフィック(仮想オブジェクト)を付加する。以下、図16を参照し、より具体的に説明する。
図16は、第2の実施形態による実空間画像へのラベルグラフィックの付加例を示した説明図である。図16に示した実空間画像においては、牛乳パック40Cの第1の面42の方が、第2の面よりも認識面積が広く、かつ、正対状態に近い。このため、主面判断部250は、牛乳パック40Cの第1の面42および第2の面44のうちで、第1の面42を主面と判断する。
このため、制御部242は、主面判断部250により主面と判断された第1の面42に対してラベルグラフィック50Cを付加する。なお、図16においては、ラベルグラフィック50Cが値段表示である例を示しているが、ラベルグラフィック50Cは値段表示に限定されない。ラベルグラフィック50Cは、例えば、賞味期限情報、クーポン情報、および公告情報など、牛乳パック40Cに関連付けられたどのような情報であってもよい。
図17は、第2の実施形態による他の実空間画像へのラベルグラフィックの付加例を示した説明図である。図17に示した実空間画像においては、牛乳パック40Cの第2の面44の方が、第1の面よりも認識面積が広く、かつ、正対状態に近い。このため、主面判断部250は、牛乳パック40Cの第1の面42および第2の面44のうちで、第2の面44を主面と判断する。
このため、制御部242は、主面判断部250により主面と判断された第2の面44に対してラベルグラフィック50Cを付加する。なお、図16および図17に示したように、ラベルグラフィック50Cを付加する面に応じ、ラベルグラフィック50Cの牛乳パック40Cに対する相対的な姿勢も変化する。
(補足)
上記では、いずれの面が主面である場合にも同一のラベルグラフィックを付加する例を説明したが、本実施形態はかかる例に限定されない。他の例として、仮想オブジェクトDB228には、実オブジェクトの面の各々にラベルグラフィックが対応付けられていてもよく、この場合、制御部242は、図18に示すように、主面に応じて異なるラベルグラフィックを付加してもよい。
図18は、第2の実施形態の変形例による実空間画像へのラベルグラフィックの付加例を示した説明図である。図18に示したように、制御部242は、第2の面44が主面である場合、第1の面42が主面である場合のラベルグラフィック50Cと異なる、賞味期限を示すラベルグラフィック50C’を第2の面44に付加してもよい。かかる構成により、実オブジェクトを撮像する角度に応じて多様な情報をユーザに呈示することが可能となる。
同様の趣旨により、制御部242は、複数の面の全てに、各面に対応するラベルグラフィックを付加してもよい。さらに、制御部242は、第1の実施形態において説明したように、ラベルグラフィック50Cを付加する面の回転角に応じ、ラベルグラフィック50Cの牛乳パック40Cに対する相対的な姿勢を変化させてもよい。
<2−3.第3の実施形態>
以上、本開示の第2の実施形態を説明した。続いて、本開示の第3の実施形態を説明する。第1および第2の実施形態では携帯端末が単独でARを実現する例を説明したが、本開示の第3の実施形態のように、携帯端末とネットワーク側に配置されたサーバとが共同してARを実現することも可能である。
図19は、第3の実施形態によるARシステムを示した説明図である。図19に示したように、第3の実施形態によるARシステムは、携帯端末20−3と、ネットワーク12と、ARサーバ30と、を含む。
このような第3の実施形態によれば、ARのための機能の一部をARサーバ30に実装することによりクラウドコンピューティングを実現することができる。例えば、仮想オブジェクトDB、および仮想オブジェクト取得部の機能をARサーバ30に実装してもよい。この場合、携帯端末20−3は、実オブジェクトの認識結果を仮想オブジェクトの取得要求としてARサーバ30に送信することにより、実オブジェクトに対応する仮想オブジェクトをARサーバ30から受信することが可能である。
また、画像認識部および特徴量DBの機能もARサーバ30に実装してもよい。この場合、携帯端末20−3は、撮像装置213により撮像された画像をARサーバ30に送信し、ARサーバ30が、実オブジェクトの認識および仮想オブジェクトの取得を行い、仮想オブジェクトを携帯端末20−4に送信してもよい。
さらに、仮想オブジェクトの実空間画像への付加機能をARサーバ30に実装してもよい。この場合、携帯端末20−3は、撮像装置213により撮像された実空間画像をARサーバ30に送信し、ARサーバ30が、実オブジェクトの認識、仮想オブジェクトの取得、および仮想オブジェクトの付加を行い、仮想オブジェクトが付加された実空間画像を携帯端末20−3に送信してもよい。このように仮想オブジェクトの実空間画像への付加機能をARサーバ30に実装する場合、ARサーバ30が表示制御装置として機能することとなる。
<<3.むすび>>
以上説明したように、本開示による携帯端末20は、実空間画像における実オブジェクトの姿勢に応じ、ラベルグラフィックを実オブジェクトと同一面、または、実オブジェクトと異なる面に付加する。かかる構成により、ラベルグラフィックの視認性および操作性を向上することが可能である。
なお、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、本明細書の携帯端末20の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、携帯端末20の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、携帯端末20またはARサーバ30に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した携帯端末20またはARサーバ30の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
また、以下のような構成も本開示の技術的範囲に属する。
(1)
実空間画像に含まれる実オブジェクトに対応する仮想オブジェクトの表示を制御する制御部を備え、
前記制御部は、前記実空間画像における前記実オブジェクトの姿勢に応じ、前記実オブジェクトに対する前記仮想オブジェクトの相対的な姿勢を変化させる、表示制御装置。
(2)
前記制御部は、前記実空間画像における前記実オブジェクトの姿勢に応じ、前記実オブジェクトの面と同一の面、前記実オブジェクトの面と平行な面、前記実オブジェクトの面と所定の関係にある面、または前記実オブジェクトの面と異なる面に前記仮想オブジェクトを付加する、(1)に記載の表示制御装置。
(3)
前記制御部は、前記実オブジェクトの面の、前記実空間画像の撮像光軸と交差する交差軸回りの回転角に応じた相対的な姿勢で、前記実オブジェクトの面に前記仮想オブジェクトを付加する、(1)または(2)に記載の表示制御装置。
(4)
前記制御部は、
前記実オブジェクトの面が前記撮像光軸に直交する正対状態を基準とする前記交差軸回りの回転角が所定値未満である場合には前記実オブジェクトの面と同一または平行な面上に前記仮想オブジェクトを付加し、
前記正対状態を基準とする前記交差軸回りの回転角が所定値以上である場合には前記実オブジェクトの面と異なる面上に前記仮想オブジェクトを付加する、(3)に記載の表示制御装置。
(5)
前記制御部は、前記正対状態を基準とする前記交差軸回りの回転角が所定値以上である場合には、前記実オブジェクトの面と直交する面上、または、前記撮像装置の光軸と直交する面上に前記仮想オブジェクトを付加する、(4)に記載の表示制御装置。
(6)
前記仮想オブジェクトは、前記実オブジェクトの面を構成するいずれかの辺に対応するように付加され、
前記交差軸は、前記実オブジェクトの面が前記正対状態である場合に前記仮想オブジェクトが付加される辺の方向に沿う軸である、(3)〜(5)のいずれか一項に記載の表示制御装置。
(7)
前記制御部は、前記仮想オブジェクトを、前記実オブジェクトと重ならない位置に付加する、(1)〜(6)のいずれか一項に記載の表示制御装置。
(8)
前記制御部は、実空間画像に複数の実オブジェクトが含まれる場合、前記複数の実オブジェクトの各々に対応する仮想オブジェクトが重ならないように各仮想オブジェクトを付加する、(1)〜(7)のいずれか一項に記載の表示制御装置。
(9)
前記制御部は、前記仮想オブジェクトの相対的な姿勢を変化させる場合、変化の過程を表示装置に表示させる、(1)〜(8)のいずれか一項に記載の表示制御装置。
(10)
前記制御部は、前記実オブジェクトから複数の面が検出された場合、複数の面のうちの主面に対して前記仮想オブジェクトを付加する、(1)〜(9)のいずれか一項に記載の表示制御装置。
(11)
前記制御部は、前記主面に該当する面に応じ、異なる仮想オブジェクトを前記主面に付加する、(10)に記載の表示制御装置。
(12)
前記主面は、前記複数の面のうちで、前記撮像光軸との直交性が最も高い面である、(10)に記載の表示制御装置。
(13)
前記主面は、前記複数の面のうちで、前記実空間画像における認識面積が最も広い面である、(10)に記載の表示制御装置。
(14)
前記主面は、前記複数の面のうちで事前に定義されている面である、(10)に記載の表示制御装置。
(15)
実空間画像に含まれる実オブジェクトに対応する仮想オブジェクトの姿勢を、前記実空間画像における前記実オブジェクトの姿勢に応じ、前記実オブジェクトに対して相対的に変化させる、表示制御方法。
(16)
コンピュータを、
実空間画像に含まれる実オブジェクトに対応する仮想オブジェクトの表示を制御する制御部であって、前記実空間画像における前記実オブジェクトの姿勢に応じ、前記実オブジェクトに対する前記仮想オブジェクトの相対的な姿勢を変化させる制御部、として機能させるための、プログラム。
(17)
前記制御部は、前記実空間画像における前記実オブジェクトの姿勢に応じ、前記実オブジェクトの面と同一の面、前記実オブジェクトの面と平行な面、前記実オブジェクトの面と所定の関係にある面、または前記実オブジェクトの面と異なる面に前記仮想オブジェクトを付加する、(16)に記載のプログラム。
(18)
前記制御部は、前記実オブジェクトの面の、前記実空間画像の撮像光軸と交差する交差軸回りの回転角に応じた相対的な姿勢で、前記実オブジェクトの面に前記仮想オブジェクトを付加する、(16)または(17)に記載のプログラム。
(19)
前記制御部は、
前記実オブジェクトの面が前記撮像光軸に直交する正対状態を基準とする前記交差軸回りの回転角が所定値未満である場合には前記実オブジェクトの面と同一または平行な面上に前記仮想オブジェクトを付加し、
前記正対状態を基準とする前記交差軸回りの回転角が所定値以上である場合には前記実オブジェクトの面と異なる面上に前記仮想オブジェクトを付加する、(18)に記載のプログラム。
(20)
前記制御部は、前記実オブジェクトから複数の面が検出された場合、複数の面のうちの主面に対して前記仮想オブジェクトを付加する、(16)〜(19)のいずれか一項に記載のプログラム。
20 携帯端末
26 ディスプレイ
27 タッチパネル
30 ARサーバ
213 撮像装置
220 特徴量DB
224 画像認識部
228、328 仮想オブジェクトDB
232、332 仮想オブジェクト取得部
241、242 制御部
250 主面判断部

Claims (14)

  1. 実空間画像に含まれる実オブジェクトに対応する仮想オブジェクトの表示を制御する制御部を備え、
    前記制御部は、
    前記実オブジェクトの面の、前記実空間画像の撮像光軸に直交する正対状態を基準とする、前記撮像光軸と交差する交差軸回りの回転角が、所定値未満である場合には前記実オブジェクトの面と同一または平行な面上に前記仮想オブジェクトを付加し、
    前記正対状態を基準とする前記交差軸回りの回転角が所定値以上である場合には前記実オブジェクトの面と異なる面上に前記仮想オブジェクトを付加する、表示制御装置。
  2. 前記制御部は、前記正対状態を基準とする前記交差軸回りの回転角が所定値以上である場合には、前記実オブジェクトの面と直交する面上、または、前記撮像光軸と直交する面上に前記仮想オブジェクトを付加する、請求項1に記載の表示制御装置。
  3. 前記仮想オブジェクトは、前記実オブジェクトの面を構成するいずれかの辺に対応するように付加され、
    前記交差軸は、前記実オブジェクトの面が前記正対状態である場合に前記仮想オブジェクトが付加される辺の方向に沿う軸である、請求項1に記載の表示制御装置。
  4. 前記制御部は、前記仮想オブジェクトを、前記実オブジェクトと重ならない位置に付加する、請求項1に記載の表示制御装置。
  5. 前記制御部は、実空間画像に複数の実オブジェクトが含まれる場合、前記複数の実オブジェクトの各々に対応する仮想オブジェクトが重ならないように各仮想オブジェクトを付加する、請求項1に記載の表示制御装置。
  6. 前記制御部は、前記仮想オブジェクトの相対的な姿勢を変化させる場合、変化の過程を表示装置に表示させる、請求項1に記載の表示制御装置。
  7. 前記制御部は、前記実オブジェクトから複数の面が検出された場合、複数の面のうちの主面に対して前記仮想オブジェクトを付加する、請求項1に記載の表示制御装置。
  8. 前記制御部は、前記主面に該当する面に応じ、異なる仮想オブジェクトを前記主面に付加する、請求項7に記載の表示制御装置。
  9. 前記主面は、前記複数の面のうちで、前記撮像光軸との直交性が最も高い面である、請求項7に記載の表示制御装置。
  10. 前記主面は、前記複数の面のうちで、前記実空間画像における認識面積が最も広い面である、請求項7に記載の表示制御装置。
  11. 前記主面は、前記複数の面のうちで事前に定義されている面である、請求項7に記載の表示制御装置。
  12. 実空間画像に含まれる実オブジェクトに対応する仮想オブジェクトの表示を制御する表示制御方法であって、
    前記実オブジェクトの面の、前記実空間画像の撮像光軸に直交する正対状態を基準とする、前記撮像光軸と交差する交差軸回りの回転角が、所定値未満である場合には前記実オブジェクトの面と同一または平行な面上に前記仮想オブジェクトを付加し、
    前記正対状態を基準とする前記交差軸回りの回転角が所定値以上である場合には前記実オブジェクトの面と異なる面上に前記仮想オブジェクトを付加する、表示制御方法。
  13. コンピュータを、
    実空間画像に含まれる実オブジェクトに対応する仮想オブジェクトの表示を制御する制御部を備え、
    前記制御部は、
    前記実オブジェクトの面の、前記実空間画像の撮像光軸に直交する正対状態を基準とする、前記撮像光軸と交差する交差軸回りの回転角が、所定値未満である場合には前記実オブジェクトの面と同一または平行な面上に前記仮想オブジェクトを付加し、
    前記正対状態を基準とする前記交差軸回りの回転角が所定値以上である場合には前記実オブジェクトの面と異なる面上に前記仮想オブジェクトを付加する、表示制御装置、として機能させるための、プログラム。
  14. 前記制御部は、前記実オブジェクトから複数の面が検出された場合、複数の面のうちの主面に対して前記仮想オブジェクトを付加する、請求項13に記載のプログラム。
JP2011086679A 2011-04-08 2011-04-08 表示制御装置、表示制御方法、およびプログラム Active JP5741160B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2011086679A JP5741160B2 (ja) 2011-04-08 2011-04-08 表示制御装置、表示制御方法、およびプログラム
EP12162153.6A EP2508975B1 (en) 2011-04-08 2012-03-29 Display control device, display control method, and program
US13/435,967 US9836263B2 (en) 2011-04-08 2012-03-30 Display control device, display control method, and program
BRBR102012007393-5A BR102012007393A2 (pt) 2011-04-08 2012-03-30 Dispositivo de controle de exibição, método, e, meio legível por computador
RU2012112464/08A RU2012112464A (ru) 2011-04-08 2012-03-30 Устройство управления отображением, способ управления отображением и программа
CN201210096417.3A CN102750118B (zh) 2011-04-08 2012-04-01 显示控制设备、显示控制方法和计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011086679A JP5741160B2 (ja) 2011-04-08 2011-04-08 表示制御装置、表示制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2012221249A JP2012221249A (ja) 2012-11-12
JP5741160B2 true JP5741160B2 (ja) 2015-07-01

Family

ID=46085335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011086679A Active JP5741160B2 (ja) 2011-04-08 2011-04-08 表示制御装置、表示制御方法、およびプログラム

Country Status (6)

Country Link
US (1) US9836263B2 (ja)
EP (1) EP2508975B1 (ja)
JP (1) JP5741160B2 (ja)
CN (1) CN102750118B (ja)
BR (1) BR102012007393A2 (ja)
RU (1) RU2012112464A (ja)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5724544B2 (ja) * 2011-03-31 2015-05-27 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US9576397B2 (en) 2012-09-10 2017-02-21 Blackberry Limited Reducing latency in an augmented-reality display
EP2706508B1 (en) * 2012-09-10 2019-08-28 BlackBerry Limited Reducing latency in an augmented-reality display
EP2916204A4 (en) * 2012-10-31 2016-06-29 Warld Ltd IMAGE DISPLAY SYSTEM, ELECTRONIC DEVICE, PROGRAM, AND IMAGE DISPLAY METHOD
JP6064544B2 (ja) * 2012-11-27 2017-01-25 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び端末装置
EP2930693B1 (en) * 2012-12-10 2020-06-24 Sony Corporation Display control device, display control method and program
US9317972B2 (en) * 2012-12-18 2016-04-19 Qualcomm Incorporated User interface for augmented reality enabled devices
US10529134B2 (en) 2013-02-01 2020-01-07 Sony Corporation Information processing device, client device, information processing method, and program
US9946963B2 (en) * 2013-03-01 2018-04-17 Layar B.V. Barcode visualization in augmented reality
US9547917B2 (en) 2013-03-14 2017-01-17 Paypay, Inc. Using augmented reality to determine information
US9924102B2 (en) * 2013-03-14 2018-03-20 Qualcomm Incorporated Image-based application launcher
JP2014191718A (ja) 2013-03-28 2014-10-06 Sony Corp 表示制御装置、表示制御方法および記録媒体
JP2014191688A (ja) * 2013-03-28 2014-10-06 Sony Corp 情報処理装置、情報処理方法、及び、記憶媒体
US9639984B2 (en) * 2013-06-03 2017-05-02 Daqri, Llc Data manipulation based on real world object manipulation
US9383819B2 (en) * 2013-06-03 2016-07-05 Daqri, Llc Manipulation of virtual object in augmented reality via intent
KR102138511B1 (ko) * 2013-08-28 2020-07-28 엘지전자 주식회사 헤드 마운티드 디스플레이의 화상통화를 지원하는 포터블 디바이스 및 그 제어 방법
JP6202981B2 (ja) * 2013-10-18 2017-09-27 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6202980B2 (ja) * 2013-10-18 2017-09-27 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
EP3070681A4 (en) * 2013-11-13 2017-07-12 Sony Corporation Display control device, display control method and program
US9448621B2 (en) * 2013-12-20 2016-09-20 Nokia Technologies Oy Causation of display of information on a see through display
JP6314564B2 (ja) * 2014-03-17 2018-04-25 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
US20170140457A1 (en) * 2014-03-24 2017-05-18 Pioneer Corporation Display control device, control method, program and storage medium
KR20160070874A (ko) * 2014-12-10 2016-06-21 브이앤아이 주식회사 모바일 기기를 이용한 위치기반 시설물 관리 시스템
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
JP6569726B2 (ja) * 2015-02-27 2019-09-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2016206695A (ja) * 2015-04-15 2016-12-08 株式会社ウイズ コンテンツ提供用のアプリケーションプログラムおよびコンテンツ提供方法
US11252399B2 (en) * 2015-05-28 2022-02-15 Microsoft Technology Licensing, Llc Determining inter-pupillary distance
JP6780642B2 (ja) * 2015-06-15 2020-11-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
DE102015119753A1 (de) * 2015-11-16 2017-05-18 Storydocks Gmbh Augmented Reality System
US10424121B1 (en) * 2016-11-06 2019-09-24 Oded Melinek Generated offering exposure
US20180268614A1 (en) * 2017-03-16 2018-09-20 General Electric Company Systems and methods for aligning pmi object on a model
KR20180131856A (ko) * 2017-06-01 2018-12-11 에스케이플래닛 주식회사 배송 물품 정보 제공 방법 및 이를 위한 장치
JP2019057057A (ja) 2017-09-20 2019-04-11 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム
JP2019101783A (ja) * 2017-12-04 2019-06-24 キヤノン株式会社 情報処理装置及び方法
JP7119384B2 (ja) * 2018-01-23 2022-08-17 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
US11132841B2 (en) 2018-11-30 2021-09-28 Facebook Technologies, Llc Systems and methods for presenting digital assets within artificial environments via a loosely coupled relocalization service and asset management service
US20200184737A1 (en) * 2018-12-05 2020-06-11 Xerox Corporation Environment blended packaging
USD959447S1 (en) 2019-12-20 2022-08-02 Sap Se Display system or portion thereof with a virtual three-dimensional animated graphical user interface
US11205296B2 (en) * 2019-12-20 2021-12-21 Sap Se 3D data exploration using interactive cuboids
USD959476S1 (en) 2019-12-20 2022-08-02 Sap Se Display system or portion thereof with a virtual three-dimensional animated graphical user interface
USD959477S1 (en) 2019-12-20 2022-08-02 Sap Se Display system or portion thereof with a virtual three-dimensional animated graphical user interface
US11688151B1 (en) 2022-11-15 2023-06-27 VR-EDU, Inc. Method of rendering dynamic labels in an extended reality environment

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1126025C (zh) * 1997-08-12 2003-10-29 松下电器产业株式会社 窗口显示装置
WO2001024518A1 (en) * 1999-09-25 2001-04-05 Koninklijke Philips Electronics N.V. User interface generation
JP4356983B2 (ja) * 2004-02-10 2009-11-04 キヤノン株式会社 画像処理方法、画像処理装置
JP4522129B2 (ja) * 2004-03-31 2010-08-11 キヤノン株式会社 画像処理方法および画像処理装置
CN101243392A (zh) * 2005-08-15 2008-08-13 皇家飞利浦电子股份有限公司 用于终端用户编程的增强现实眼镜的系统、设备和方法
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
CN101068221B (zh) * 2006-12-14 2010-07-21 腾讯科技(深圳)有限公司 在网络通信系统中显示用户地址地图的方法及系统
JP2010026818A (ja) * 2008-07-18 2010-02-04 Geisha Tokyo Entertainment Inc 画像処理プログラム、画像処理装置及び画像処理方法
JP2010073126A (ja) * 2008-09-22 2010-04-02 Toshiba Corp 情報可視化装置および情報可視化方法
US8289288B2 (en) * 2009-01-15 2012-10-16 Microsoft Corporation Virtual object adjustment via physical object detection
DE102009049073A1 (de) * 2009-10-12 2011-04-21 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung
JP2011086679A (ja) 2009-10-13 2011-04-28 Elpida Memory Inc 半導体装置および半導体装置の製造方法
US20120113141A1 (en) * 2010-11-09 2012-05-10 Cbs Interactive Inc. Techniques to visualize products using augmented reality
JP5724544B2 (ja) * 2011-03-31 2015-05-27 ソニー株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP2012221249A (ja) 2012-11-12
CN102750118B (zh) 2018-05-18
RU2012112464A (ru) 2013-10-27
US20120256956A1 (en) 2012-10-11
EP2508975A3 (en) 2013-08-07
BR102012007393A2 (pt) 2015-06-16
EP2508975A2 (en) 2012-10-10
US9836263B2 (en) 2017-12-05
CN102750118A (zh) 2012-10-24
EP2508975B1 (en) 2017-08-09

Similar Documents

Publication Publication Date Title
JP5741160B2 (ja) 表示制御装置、表示制御方法、およびプログラム
JP5765019B2 (ja) 表示制御装置、表示制御方法、およびプログラム
US11195307B2 (en) Image processing apparatus, image processing method, and program
US11663784B2 (en) Content creation in augmented reality environment
CN110944141B (zh) 创意相机
JP6121647B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5724543B2 (ja) 端末装置、オブジェクト制御方法及びプログラム
TW202119199A (zh) 虛擬鍵盤
US20220100265A1 (en) Dynamic configuration of user interface layouts and inputs for extended reality systems
US10186084B2 (en) Image processing to enhance variety of displayable augmented reality objects
CN104166509B (zh) 一种非接触式屏幕交互方法及系统
JP6686547B2 (ja) 画像処理システム、プログラム、画像処理方法
JP7419003B2 (ja) 情報表示装置、情報表示方法及び情報表示システム
CN111913674B (zh) 虚拟内容的显示方法、装置、系统、终端设备及存储介质
JP5446700B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6065084B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN111399630A (zh) 虚拟内容交互方法、装置、终端设备及存储介质
JP2021166091A (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2011123748A (ja) 携帯端末、描画システム及び描画方法
KR20200063115A (ko) 적응형 증강현실 제공 방법
JP2011048476A (ja) 拡張現実感を用いた3dオブジェクト生成cadシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150413

R151 Written notification of patent or utility model registration

Ref document number: 5741160

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250