JPWO2014162824A1 - 表示制御装置、表示制御方法およびプログラム - Google Patents

表示制御装置、表示制御方法およびプログラム Download PDF

Info

Publication number
JPWO2014162824A1
JPWO2014162824A1 JP2015509966A JP2015509966A JPWO2014162824A1 JP WO2014162824 A1 JPWO2014162824 A1 JP WO2014162824A1 JP 2015509966 A JP2015509966 A JP 2015509966A JP 2015509966 A JP2015509966 A JP 2015509966A JP WO2014162824 A1 JPWO2014162824 A1 JP WO2014162824A1
Authority
JP
Japan
Prior art keywords
image
display
real space
display control
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015509966A
Other languages
English (en)
Other versions
JP6304240B2 (ja
Inventor
俊一 笠原
俊一 笠原
暦本 純一
純一 暦本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2014162824A1 publication Critical patent/JPWO2014162824A1/ja
Application granted granted Critical
Publication of JP6304240B2 publication Critical patent/JP6304240B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】実空間を透過的に表示させつつAR空間を表現する場合のユーザ体験を向上させる。【解決手段】端末装置の表示部を制御して前記端末装置が存在する実空間の像を表示させる表示制御部を備え、前記表示制御部は、前記表示部に表示させる画像を、前記表示部以外の領域で視認される前記実空間の像との間に連続性を有する第1の画像、または前記実空間の撮像画像に基づいて生成され前記表示部以外の領域で視認される前記実空間の像とは独立した第2の画像から選択する表示制御装置が提供される。【選択図】図7

Description

本開示は、表示制御装置、表示制御方法およびプログラムに関する。
近年、実世界に付加的な情報を重畳してユーザに提示する拡張現実(AR:Augmented Reality)と呼ばれる技術が注目されている。AR技術においてユーザに提示される情報は、アノテーションとも呼ばれ、テキスト、アイコンまたはアニメーションなど様々な形態の仮想的なオブジェクトを用いて可視化されうる。例えば、特許文献1には、こうしたARの仮想オブジェクトの操作を、AR空間へのユーザの没入感を損なうことなく実現するための技術が記載されている。
特開2012−212345号公報
上記の特許文献1などで提案されているAR技術は、未だ開発されてから日が浅く、さまざまな局面でARを活用するための技術が十分に提案されているとはいいがたい。例えば、実空間を透過的に表示させつつAR空間を表現するための技術も、十分には提案されていないものの一つである。
そこで、本開示では、実空間を透過的に表示させつつAR空間を表現する場合のユーザ体験を向上させることが可能な、新規かつ改良された表示制御装置、表示制御方法およびプログラムを提案する。
本開示によれば、端末装置の表示部を制御して前記端末装置が存在する実空間の像を表示させる表示制御部を備え、前記表示制御部は、前記表示部に表示させる画像を、前記表示部以外の領域で視認される前記実空間の像との間に連続性を有する第1の画像、または前記実空間の撮像画像に基づいて生成され前記表示部以外の領域で視認される前記実空間の像とは独立した第2の画像から選択する表示制御装置が提供される。
また、本開示によれば、端末装置の表示部を制御して前記端末装置が存在する実空間の像を表示させるプロセッサが、前記表示部に表示させる画像を、前記表示部以外の領域で視認される前記実空間の像との間に連続性を有する第1の画像、または前記実空間の撮像画像に基づいて生成され前記表示部以外の領域で視認される前記実空間の像とは独立した第2の画像から選択することを含む表示制御方法が提供される。
また、本開示によれば、端末装置の表示部を制御して前記端末装置が存在する実空間の像を表示させるコンピュータに、前記表示部に表示させる画像を、前記表示部以外の領域で視認される前記実空間の像との間に連続性を有する第1の画像、または前記実空間の撮像画像に基づいて生成され前記表示部以外の領域で視認される前記実空間の像とは独立した第2の画像から選択する機能を実現させるためのプログラムが提供される。
以上説明したように本開示によれば、実空間を透過的に表示させつつAR空間を表現する場合のユーザ体験を向上させることができる。
本開示の一実施形態に係るシステムの概略的な構成を示す図である。 本開示の一実施形態に係る装置の概略的な構成を示す図である。 本開示の一実施形態における撮像画像の共有の例を示す図である。 本開示の一実施形態におけるアノテーション入力の例を示す図である。 本開示の一実施形態における撮像画像の共有の別の例を示す図である。 本開示の一実施形態において利用されうる技術の処理の例を示すフローチャートである。 本開示の一実施形態において利用されうる技術の処理の別の例を示すフローチャートである。 本開示の一実施形態に係るウェアラブル端末の構成例を示す図である。 本開示の一実施形態に係るウェアラブル端末におけるマージビューの例を示す図である。 本開示の一実施形態に係るウェアラブル端末におけるマージビューの例を示す図である。 本開示の一実施形態に係るウェアラブル端末におけるカメラビューの例を示す図である。 本開示の一実施形態におけるウェアラブル端末でのキャリブレーション手順の例を示す図である。 本開示の一実施形態に係るタブレット端末におけるマージビューの例を示す図である。 本開示の一実施形態における切り替え表示の例を示す図である。 本開示の一実施形態における切り替え表示の例を示す図である。 本開示の一実施形態における切り替え表示の例を示す図である。 本開示の一実施形態における切り替え表示の別の例を示す図である。 本開示の一実施形態における表示可能範囲外にあるアノテーションの表示の第1の例を示す図である。 本開示の一実施形態における表示可能範囲外にあるアノテーションの表示の第1の例を示す図である。 本開示の一実施形態における表示可能範囲外にあるアノテーションの表示の第1の例を示す図である。 本開示の一実施形態における表示可能範囲外にあるアノテーションの表示の第2の例を示す図である。 本開示の一実施形態における表示可能範囲外にあるアノテーションの表示の第2の例を示す図である。 本開示の一実施形態における表示可能範囲外にあるアノテーションの表示の第3の例を示す図である。 本開示の一実施形態における表示可能範囲外にあるアノテーションの表示の第3の例を示す図である。 本開示の一実施形態における表示可能範囲外にあるアノテーションの表示の第4の例を示す図である。 本開示の一実施形態における表示可能範囲外にあるアノテーションの表示の第5の例を示す図である。 本開示の一実施形態における表示可能範囲外にあるアノテーションの表示の第6の例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.システムおよび装置の構成
1−1.システム構成
1−2.装置構成
2.実空間画像の共有およびインタラクション
2−1.インタラクションの概念
2−2.利用されうる技術
3.ウェアラブル端末での表示例
3−1.マージビュー
3−2.カメラビュー
3−3.キャリブレーション
4.タブレット端末での表示例
5.マージビューとカメラビューとの切り替え
6.表示可能範囲外にあるアノテーションの表示
7.補足
(1.システムおよび装置の構成)
(1−1.システム構成)
図1は、本開示の一実施形態に係るシステムの概略的な構成を示す図である。図1を参照すると、システム10は、サーバ100と、クライアント200〜500とを有する。
サーバ100は、単一のサーバ装置、または有線または無線の各種ネットワークで接続されて協働する複数のサーバ装置によって実現される機能の集合体であり、クライアント200〜700にサービスを提供する。
クライアント200〜500は、サーバ100と有線または無線の各種ネットワークで接続された端末装置である。クライアント200〜500は、サーバ100によって提供されるサービスの種類に応じて以下の(1)〜(3)に分類される。
(1)カメラなどの撮像手段を有し、実空間の画像をサーバ100に提供する装置。
(2)ディスプレイなどの表示手段と、タッチパネルなどの操作手段とを有し、(1)の装置から提供された画像をサーバ100から取得し、ユーザの閲覧に供するとともに、ユーザによる画像へのアノテーション入力を受け付ける装置。
(3)ディスプレイなどの表示手段を有し、(2)の装置によって入力が受け付けられたアノテーションを実空間に表示させる装置。
クライアント200は、ウェアラブル端末である(以下、単にウェアラブル端末200ともいう)。ウェアラブル端末200は、例えば撮像手段または表示手段のいずれかまたは両方を有し、上記(1)または(3)のいずれかまたは両方の装置として機能する。図示された例においてウェアラブル端末200は眼鏡型であるが、ユーザの身体に装着可能な形状であればこの例には限られない。上記(1)の装置として機能する場合、ウェアラブル端末200は、撮像手段として、例えば眼鏡のフレーム部分に設置されたカメラを有する。このカメラによって、ウェアラブル端末200は、ユーザの視点に近い位置から実空間の画像を取得することができる。取得した画像は、サーバ100に送信される。また、上記(3)の装置として機能する場合、ウェアラブル端末200は、表示手段として、例えば眼鏡のレンズ部分の一部または全部に設置されたディスプレイを有する。ウェアラブル端末200は、上記のカメラによって撮像された画像をこのディスプレイに表示させるとともに、当該画像に対して上記(2)の装置によって入力されたアノテーションを重畳表示させる。あるいは、ディスプレイが透過型である場合、ウェアラブル端末200は、ユーザが直接視認している実世界の像にアノテーションを透過的に重畳表示させてもよい。
クライアント300は、タブレット端末である(以下、単にタブレット端末300ともいう)。タブレット端末300は、少なくとも表示手段および操作手段を有し、例えば上記(2)の装置として機能しうる。タブレット端末300は、さらに撮像手段を有し、上記の(1)または(3)のいずれかまたは両方の装置として機能してもよい。つまり、タブレット端末300は、上記の(1)〜(3)の装置のうちの任意の装置として機能しうる。上記(2)の装置として機能する場合、タブレット端末300は、例えば表示手段としてディスプレイを、操作手段としてディスプレイ上のタッチセンサを有し、上記(1)の装置からサーバ100を介して提供される画像を表示するとともに、当該画像に対するユーザのアノテーション入力を受け付ける。受け付けられたアノテーション入力は、サーバ100を介して上記(3)の装置に提供される。上記(1)の装置として機能する場合、タブレット端末300は、例えば上記のウェアラブル端末200と同様に撮像手段としてカメラを有し、ユーザがタブレット端末300を実空間にかざすことによって、ユーザの視線の延長線上にある実空間の画像を取得することができる。取得した画像は、サーバ100に送信される。上記(3)の装置として機能する場合、タブレット端末300は、上記のカメラによって撮像された画像をディスプレイに表示させるとともに、当該画像に対して上記(2)の装置(例えば他のタブレット端末など)によって入力されたアノテーションを重畳表示させる。あるいは、ディスプレイが透過型である場合、タブレット端末300は、ユーザが直接視認している実世界の像にアノテーションを透過的に重畳表示させてもよい。
クライアント400は、携帯電話(スマートフォン)である(以下、単に携帯電話400ともいう)。なお、システム10における携帯電話400の機能は、タブレット端末300と同様であるため、詳細な説明は省略する。なお、図示していないが、例えば携帯型ゲーム機やデジタルカメラのような装置も、通信手段と表示手段、操作手段または撮像手段とを有していれば、システム10においてタブレット端末300や携帯電話400と同様に機能しうる。
クライアント500は、ラップトップPC(Personal Computer)である(以下、単にラップトップPC500ともいう)。ラップトップPC500は、表示手段および操作手段を有し、上記(2)の装置として機能する。図示された例において、ラップトップPC500は、基本的に固定して使用されるために上記(1)の装置としては機能しない装置の例として扱われている。図示していないが、例えばデスクトップPCやテレビなども、ラップトップPC500と同様に機能しうる。ラップトップPC500は、表示手段としてディスプレイを、操作手段としてマウスやキーボードを有し、上記(1)の装置からサーバ100を介して提供される画像を表示するとともに、当該画像に対するユーザのアノテーション入力を受け付ける。受け付けられたアノテーション入力は、サーバ100を介して上記(3)の装置に提供される。
以上、本開示の一実施形態に係るシステムについて説明した。図1に示されたように、本実施形態に係るシステム10は、上記(1)の実空間の画像を取得可能な装置(ウェアラブル端末200、タブレット端末300、携帯電話400)と、(2)の実空間の画像をユーザの閲覧に供するとともにユーザによる画像へのアノテーション入力を受け付けることが可能な装置(タブレット端末300、携帯電話400、ラップトップPC500)と、(3)のアノテーションを実空間に表示させる装置(ウェアラブル端末200、タブレット端末300、携帯電話400)とを含みうる。
サーバ100は、上記の各装置と協働することによって、実空間の画像を取得し、その画像をユーザ(例えば上記実空間にはいないユーザでありうる)の閲覧に供するとともにユーザによる画像へのアノテーション入力を受け付け、入力されたアノテーションを上記実空間に表示させる機能を実現する。このような機能によって、例えば、第1のユーザがいる実空間の画像を第2のユーザが閲覧し、第2のユーザが画像に対して加えたアノテーションが上記実空間に表示されて第1のユーザによって視認されるといったような、AR技術を利用したユーザ間のインタラクションが可能になる。
あるいは、システム10において、上記(2)の装置の機能は、サーバ100によって実現されてもよい。この場合、サーバ100は、予め登録された位置情報やオブジェクト情報に基づいて、(1)の装置から提供された画像に対するアノテーションを生成し、アノテーションの情報を(3)の装置に送信する。例えば(1)の装置と(3)の装置とが同一の装置である場合、画像およびアノテーションのやりとりはクライアントとサーバ100との間で完結する。
(1−2.装置構成)
図2は、本開示の一実施形態に係る装置の概略的な構成を示す図である。図2を参照すると、装置900は、プロセッサ910、およびメモリ920を含む。装置900は、さらに、表示部930、操作部940、通信部950、撮像部960、またはセンサ970を含みうる。これらの構成要素は、バス980によって相互に接続される。装置900は、例えば、上記のサーバ100を構成するサーバ装置、およびクライアント200〜500を実現しうる。
プロセッサ910は、例えばCPU(Central Processing Unit)またはDSP(Digital Signal Processor)といったような各種のプロセッサであり、例えばメモリ920に格納されたプログラムに従って演算や制御などの動作を実行することによって各種の機能を実現する。プロセッサ910は、例えば上記のサーバ100およびクライアント200〜700の装置全体の制御機能を実現する。また、プロセッサ910は、例えばウェアラブル端末200、タブレット端末300、または携帯電話400において、後述する例のようなAR画像の表示を実現するための表示制御を実行する。
メモリ920は、半導体メモリまたはハードディスクなどの記憶媒体によって構成され、装置900による処理のためのプログラムおよびデータを格納する。メモリ920は、例えば、撮像部960によって取得された撮像画像データや、センサ970によって取得されたセンサデータを格納してもよい。なお、本明細書で説明するプログラムおよびデータの一部は、メモリ920に格納されることなく、外部のデータソース(例えばデータサーバ、ネットワークストレージまたは外付けメモリなど)から取得されてもよい。
表示部930は、例えば上述した表示手段を有するクライアントに設けられる。表示部930は、例えば装置900の形状に応じたディスプレイでありうる。例えば、上記の例でいえば、ウェアラブル端末200は、例えば眼鏡のレンズ部分に対応した形状のディスプレイを有しうる。また、タブレット端末300や携帯電話400、ラップトップPC500は、それぞれの筐体に設けられる平板型のディスプレイを有しうる。
操作部940は、例えば、上述した操作手段を有するクライアントに設けられる。操作部940は、例えばディスプレイ上に設けられたタッチセンサ(ディスプレイとあわせてタッチパネルを構成する)やタッチパッド、マウスなどのポインティングデバイスに、必要に応じてキーボード、ボタン、スイッチなどを組み合わせて構成される。操作部940は、例えばポインティングデバイスによって表示部930に表示された画像中の位置を特定し、その位置に対してキーボードやボタン、スイッチなどによって何らかの情報を入力するユーザの操作を受け付ける。あるいは、操作部940は、ポインティングデバイスによって表示部930に表示された画像中の位置を特定し、さらにポインティングデバイスによってその位置に対して何らかの情報を入力するユーザの操作を受け付けてもよい。
通信部950は、装置900による他の装置との間の通信を仲介する通信インターフェースである。通信部950は、任意の無線通信プロトコルまたは有線通信プロトコルをサポートし、他の装置との間の通信接続を確立する。上記の例では、クライアントで撮像された実空間の画像や入力されたアノテーション情報のサーバ100への送信、およびサーバ100からクライアントへの実空間の画像やアノテーション情報の送信に通信部950が用いられる。
撮像部960は、画像を撮像するカメラモジュールである。撮像部960は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、撮像画像を生成する。撮像部960によって生成される一連の撮像画像は、映像を構成する。なお、撮像部960は、必ずしも装置900の一部でなくてもよい。例えば、装置900と有線または無線で接続される撮像装置が撮像部960として扱われてもよい。また、撮像部960は、撮像部960と被写体との間の距離を画素ごとに測定する深度(depth)センサを含んでいてもよい。深度センサから出力される深度データは、後述するように実空間を撮像した画像における環境の認識のために利用されうる。
センサ970は、測位センサ、加速度センサおよびジャイロセンサなどのさまざまなセンサを含みうる。センサ970において得られる測定結果は、実空間を撮像した画像における環境の認識の支援、地理的な位置に特化したデータの取得、またはユーザ入力の検出などのさまざまな用途で利用されてもよい。なお、センサ970は、撮像部960を有する装置、上記の例ではウェアラブル端末200やタブレット端末300、または携帯電話400に設けられうる。
(2.実空間画像の共有およびインタラクション)
次に、図3A〜図4を参照して、本開示の一実施形態に係るインタラクションの基本的な概念について説明する。
(2−1.インタラクションの概念)
図3Aは、本開示の一実施形態における撮像画像の共有の例を示す図である。図示された例では、ウェアラブル端末200のカメラ260(撮像部)によって撮像された実空間の画像がサーバ100を介してタブレット端末300にストリーミング配信され、ディスプレイ330(表示部)に画像1300として表示される。このとき、ウェアラブル端末200では、撮像された実空間の画像がディスプレイ230(表示部)に表示されるか、実空間の像がディスプレイ230を透過して直接視認される。このときディスプレイ230に表示されている像(透過して視認される背景を含む)を、以下では画像1200として参照する。
図3Bは、本開示の一実施形態におけるアノテーション入力の例を示す図である。タブレット端末300では、ディスプレイ330上にタッチセンサ340(操作部)が設けられており、ディスプレイ330に表示された画像1300に対するユーザのタッチ入力を取得することが可能である。図示された例では、画像1300内のある位置を指示するユーザのタッチ入力がタッチセンサ340によって取得され、その位置にポインタ1310が表示されている。さらに、例えば別途表示されるスクリーンキーボードなどを用いて入力されたテキストが、画像1300にコメント1320として表示されている。このポインタ1310およびコメント1320が、アノテーションとしてサーバ100を介してウェアラブル端末200に送信される。
ウェアラブル端末200では、タブレット端末300で入力されたアノテーションが、画像1200にポインタ1210およびコメント1220として表示される。画像1200においてこれらのアノテーションが表示される位置は、タブレット端末300で表示される画像1300における実空間の位置に対応している。このようにして、送信側(ストリーミング側)の装置であるウェアラブル端末200と、受信側(視聴者側)の装置であるタブレット端末300との間でのインタラクションが成立する。なお、この例において、装置間でアノテーションの表示位置を対応させたり、アノテーションを継続的に表示させたりするために用いられうる技術については後述する。
図3Bは、本開示の一実施形態における撮像画像の共有の別の例を示す図である。図示された例では、タブレット端末300aのカメラ(撮像部;背面側にあるため図示されていない)によって撮像された実空間の画像がタブレット端末300bにストリーミング配信され、ディスプレイ330b(表示部)に画像1300bとして表示される。このとき、タブレット端末300aでは、撮像された実空間の画像がディスプレイ330aに表示されるか、実空間の像がディスプレイ330aを透過して直接視認されている。このときディスプレイ330aに表示されている像(透過して視認される背景を含む)を、以下では画像1300aとして参照する。図示された例でも、タブレット端末300bで画像1300bに対して入力されたアノテーションを画像1300aに表示させることによって、送信側(ストリーミング側)の装置であるタブレット端末300aと、受信側(視聴者側)の装置であるタブレット端末300bとの間でのインタラクションが成立しうる。
なお、本実施形態における実空間の画像の共有とそれに基づくユーザ間のインタラクションは、ウェアラブル端末200およびタブレット端末300に係る上記の例には限られず、既に説明した携帯電話400、またはラップトップPC500も、それぞれの機能(例えば上述した(1)〜(3)の機能)を実現する限りにおいて、任意の装置を送信側(ストリーミング側)および受信側(視聴者側)として成立しうる。
また、上述のように、本実施形態はユーザ間のインタラクションが発生する例には限らず、アノテーションがサーバ100で自動的に生成される場合をも含む。また、後述するような表示画像の切り替えに関しては、アノテーション情報の有無とは独立して実行されうる。
(2−2.利用されうる技術)
本実施形態では、上述した実空間画像の共有とインタラクションを実現するにあたって、いくつかの技術が利用される。まず、本実施形態では、送信側の装置において、送信される実空間の画像データに空間情報が付加される。空間情報は、送信側の装置の撮像部(図3Aおよび図3Bの例ではウェアラブル端末200のカメラ260、図4の例ではタブレット端末300aのカメラ)が実空間の中でどのように移動しているかを推定することを可能にする情報である。
例えば、空間情報は、SfM(Structure from Motion)法またはSLAM(Simultaneous Localization And Mapping)法などの公知の画像認識技術によって認識される環境認識行列でありうる。環境認識行列は、例えば送信側の装置固有の座標系に対する基準環境(実空間)の座標系の相対的な位置および姿勢を示す。例えば、SLAM法が利用される場合、送信側の装置のプロセッサが、装置の位置、姿勢、速度および角速度、ならびに撮像画像に含まれる少なくとも1つの特徴点の位置を含む状態変数を、拡張カルマンフィルタの原理に基づいて撮像画像のフレームごとに更新する。これによって、装置の位置および姿勢を基準とする基準環境の位置および姿勢を、単眼カメラからの入力画像を利用して認識することができる。なお、SLAM法の詳しい説明は、例えば“Real-Time Simultaneous Localization and Mapping with a Single Camera”(Andrew J.Davison,Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403-1410)に記載されている。
他にも、空間情報は、撮像部の実空間における相対的な位置および姿勢を示す情報であればどのようなものであってもよい。例えば、撮像部に設けられうる深度センサからの深度データに基づいて環境認識行列が認識されてもよい。また、赤外線測距システムまたはモーションキャプチャシステムなどの環境認識システムからの出力データに基づいて環境認識行列が認識されてもよい。こうした技術の一例は、例えばS.Izadi, et al, KinectFusion: Real-time 3D Reconstruction and Interaction Using a Moving Depth Camera, ACM Symposium on User Interface Software and Technology, 2011に記載されているが、この例には限られず、公知の様々な技術が空間情報の生成に利用可能である。
あるいは、空間情報は、実空間を撮像した一連のフレーム画像のステッチング解析によって、各フレーム画像の相対的な位置関係を特定することによって生成されてもよい。この場合、ステッチング解析は、基底平面上に各フレーム画像を貼りつける2次元ステッチング解析、または空間内の任意の位置に各フレーム画像を貼りつける3次元ステッチング解析でありうる。
以下、上記の技術に係る送信側の装置、受信側の装置、およびサーバの処理の例について、図5Aのフローチャートを参照しながら、図3Aおよび図3Bに示した例を用いて説明する。なお、上記の技術は、図3Aおよび図3Bの例に関わらず上述したシステム10における任意の装置の組み合わせについて適用可能でありうる。
まず、ウェアラブル端末200(送信側の装置)において、撮像部が実空間の画像データを取得するとともに、撮像部またはセンサが取得した情報を必要に応じてプロセッサが処理することによって空間情報が生成される(ステップS101)。画像データと空間情報とは、互いに関連付けられてウェアラブル端末200の通信部からサーバ100に送信される(ステップS103)。サーバ100では、通信部がウェアラブル端末200から画像データおよび空間情報を受信し、画像データをタブレット端末300(受信側の装置)に転送する(ステップS105)。また、サーバ100では、プロセッサが空間情報を用いて受信された画像内の位置とウェアラブル端末200が存在する実空間の位置とを関係づける(ステップS107)。
タブレット端末300では、通信部がサーバ100から画像データを受信し、受信された画像データに基づいてプロセッサがディスプレイ330に画像1300を表示させる(ステップS109)。ここで、タッチセンサ340によって画像1300に対するユーザのアノテーション入力が取得された場合(ステップS111)、プロセッサはアノテーション入力を画像1300内の位置(例えばポインタ1310の位置)に関係づけ、通信部からサーバ100に送信する(ステップS113)。
サーバ100では、通信部がタブレット端末300から送信されたアノテーション入力および画像内の位置の情報を受信すると、プロセッサが受信された情報に含まれる画像内の位置を実空間の位置に変換する(ステップS115)。変換後の実空間の位置に関連付けられたアノテーション入力は、通信部からウェアラブル端末200に送信される(ステップS117)。
ウェアラブル端末200では、通信部がサーバ100からアノテーション入力および実空間の位置の情報を受信し、プロセッサが空間情報を用いてアノテーション情報に関連付けられた実空間の位置を現在ディスプレイ230に表示されている画像1200内の位置に変換し(ステップS119)、その位置にアノテーション(例えばポインタ1210やコメント1220)を表示させる(ステップS121)。
図5Bに、上記の処理の別の例を示す。この例では、サーバ100のプロセッサが画像内の位置と実空間の位置とを関係づけた後に、通信部が画像データとともに画像に含まれる実空間の位置の情報をタブレット端末300に送信する(ステップS201)。タブレット端末300では、ディスプレイ330に画像が表示される(ステップS109)のは上記の図5Aの例と同様であるが、アノテーション入力が、画像内の位置ではなくステップS201で受信された実空間の位置に関連付けて送信される(ステップS203)。従って、サーバ100では、通信部が実空間の位置が関連付けられたアノテーション入力の情報をウェアラブル端末200に転送すればよい(ステップS205)。
(第1の利点)
上記で説明した技術には、いくつかの利点がある。例えば、ウェアラブル端末200で実空間の画像が取得されてから、タブレット端末300で当該画像に対するアノテーションが入力され、さらにそのアノテーションがウェアラブル端末200に送信されるまでには時間差が生じていることが多い。
従って、画像内の位置を基準にしてアノテーションをやりとりすると、上記の時間差の間にユーザや装置の移動によってウェアラブル端末200で表示される画像1200の表示範囲が変化したために、タブレット端末300から送信されたアノテーションが、ウェアラブル端末200ではタブレット端末300のユーザが画像1300を見ながら意図した位置とは異なった位置に表示される場合がある。
これに対して、上記の技術を適用すれば、アノテーションを実空間の位置に関連付けることが可能であるため、画像1200の表示範囲の変化に関わらず、ウェアラブル端末200でも、タブレット端末300のユーザが画像1300を見ながら意図した位置(例えば実空間にある特定のオブジェクトに対応する位置)にアノテーションが表示されうる。
(第2の利点)
また、例えば、ウェアラブル端末200で表示される実空間の画像1200が、ディスプレイ230を透過して直接視認されるものであったり、ディスプレイ230の外側に見えている実空間の像と整合させてディスプレイ230に表示されるものであったりする場合、画像1200の範囲が、ウェアラブル端末200のカメラ260が撮像する実空間の画像の範囲よりも狭い(つまり、ウェアラブル端末200のユーザが視認している範囲よりも、撮像画像の範囲の方が広い)場合がありうる。
このような場合、タブレット端末300のディスプレイ330に表示される画像1300の範囲がウェアラブル端末200の画像1200の範囲よりも広くなり、タブレット端末300のユーザが、画像1200の外側、つまりウェアラブル端末200のユーザには見えていない領域にアノテーションを入力することが可能になりうる。従って、画像内の位置を基準にしてアノテーションをやりとりすると、タブレット端末300では入力可能であっても、ウェアラブル端末200の画像1200には表示されないアノテーションが発生してしまう。
これに対して、上記の技術を適用すれば、アノテーションを実空間の位置に関連付けることが可能であるため、サーバ100またはウェアラブル端末200に受信された時点では画像1200の表示範囲に入っていない位置に対するアノテーションであっても、例えばその後に画像1200の表示範囲が変化してアノテーションの位置を含むようになった場合に画像1200に表示することができる。
なお、上記の技術には、ここで説明したものには限られず、利用される状況に応じて他の利点が存在しうる。それらの利点は、以下の説明の中で明示または示唆されうる。
(3.ウェアラブル端末での表示例)
次に、図6〜図9を参照して、本開示の一実施形態におけるウェアラブル端末での表示例について説明する。
図6は、本開示の一実施形態に係るウェアラブル端末の構成例を示す図である。図6を参照すると、ウェアラブル端末200は、ディスプレイ230と、カメラ260とを有する。ここで、ディスプレイ230は、眼鏡状のウェアラブル端末200のレンズ部分231の一部または全面に配置されうる。
ディスプレイ230は、例えばレンズ部分231を通して直接的に視認される実空間の像を透過し、透過される像に重畳してアノテーションなどの情報を表示させてもよい。あるいは、ディスプレイ230は、レンズ部分231を通して直接的に視認される実空間の像に連続するように、カメラ260による撮像画像を加工した画像を表示させ、当該画像にアノテーションなどの情報を表示させてもよい。なお、例えばディスプレイ230がレンズ部分231の全面に配置される場合、ディスプレイ230は、レンズ部分231の周囲のフレームの外側の実空間の像に連続するように実空間の画像を表示させてもよい。上述したいずれの場合も、ディスプレイ230は、撮像画像に基づく画像をディスプレイ230の外側で視認される実空間の像に連続するように表示している。また、ディスプレイ230は、ディスプレイ230の外側で視認される実空間の像とは独立した画像を表示してもよい。以下では、こうしたディスプレイ230の表示のいくつかの例について、さらに説明する。
(3−1.マージビュー)
図7および図8は、本開示の一実施形態に係るウェアラブル端末におけるマージビューの例を示す図である。図示された例では、ディスプレイ230の領域でも他のレンズ部分231を通して視認される実空間の像に連続した像が表示されている(透過している場合を含む)状態で、ディスプレイ230に実空間の位置または実空間のオブジェクトに対するアノテーション(ポインタ1210およびコメント1220)が表示されている。このとき、ディスプレイ230の表示は、周囲の実空間の像に没入されている。従って、本明細書では、このようなディスプレイ230の表示によって観察されるビューをマージビューともいう。
図7には、マージビューの第1の例が示されている。図示された例では、ディスプレイ230が、他のレンズ部分231と同様に実空間の像を透過させている。従って、ユーザは、ディスプレイ230の領域でも、他のレンズ部分231と同様に実空間の像を視認することが可能である。さらに、ディスプレイ230は、透過される実空間の像に重畳させてアノテーション(ポインタ1210およびコメント1220)を表示させている。これによって、ユーザは、実空間の位置または実空間にあるオブジェクトに対するアノテーションを視認することができる。
図8には、マージビューの第2の例が示されている。図示された例では、ディスプレイ230が、他のレンズ部分231を通して視認される実空間の像に連続するように、実空間の画像2300を表示させる。画像2300には、アノテーション(ポインタ1210およびコメント1220)がさらに表示される。これによって、ユーザは、上記の図7の例と同様に、実空間の位置または実空間にあるオブジェクトに対するアノテーションを視認することができる。
上記のようなマージビューの表示にあたっては、例えばアノテーションの対象になる実空間の位置を特定するために、上述したような空間情報が利用されうる。例えば、空間情報を利用してウェアラブル端末200から対象となる実空間の位置や物体までの距離を算出できれば、両眼のディスプレイ230に表示されるアノテーションの表示に適切なディスパリティを設定することができる。さらに、カメラ260が撮像した実空間の画像と、ユーザによって視認される実空間の像との位置を整合させるために、後述するキャリブレーションの手順が予め実行されてもよい。
(3−2.カメラビュー)
図9は、本開示の一実施形態に係るウェアラブル端末におけるカメラビューの例を示す図である。図示された例では、ディスプレイ230の領域において、他のレンズ部分231を通して視認される実空間の像とは独立して、カメラ260によって撮像された実空間の画像2300が表示され、画像2300に実空間の位置または実空間のオブジェクトに対するアノテーション(ポインタ1210およびコメント1220)が表示されている。このとき、ディスプレイ230の表示は、周囲の実空間の像にかかわらず、カメラ260の撮像画像が表示されている。従って、本明細書では、このようなディスプレイ230の表示によって観察されるビューをカメラビューともいう。
図示された例では、上記の図6〜図8の例とは異なり、ディスプレイ230がレンズ部分231の右上隅に配置されているが、この違いに本質的な意味はなく、ディスプレイ230の配置は上記の例と同様であってもよい。ディスプレイ230は、レンズ部分231を通して視認される実空間の像とは別に、カメラ260によって撮像された実空間の画像2300を表示させる。図示された例の場合、レンズ部分231を通して視認される実空間の範囲よりも、カメラ260によって撮像される実空間の範囲の方が広い。従って、画像2300には、レンズ部分231を通してユーザが視認しているよりも広い範囲の実空間が表示されている。画像2300に表示されているアノテーション(ポインタ1210およびコメント1220)は、レンズ部分231を通して視認されている範囲の外側に対して設定されている。
上記のようなカメラビューの表示にあたっては、例えばアノテーションを撮像画像の位置情報に関連付けることも可能であるが、カメラ260の位置も刻々と変化することを考慮すると、上述したような空間情報を利用してアノテーションの対象になる実空間の位置を特定することが望ましい。なお、カメラ260の撮像画像をそのまま画像2300として表示する場合には後述するキャリブレーションの手順は不要である。しかしながら、例えば後述するようにマージビューとの間で表示を切り替えたりするような場合にはキャリブレーションの手順が実行されうる。
(3−3.キャリブレーション)
図10は、本開示の一実施形態におけるウェアラブル端末でのキャリブレーション手順の例を示す図である。図示された例では、ユーザが、他の端末装置201に表示されたグラフィックGを、ウェアラブル端末200を通して視認する。このとき、レンズ部分231に含まれるディスプレイ230には所定の位置および形状の基準線2330が表示され、ユーザはグラフィックGが基準線2330に一致するように端末装置201を移動および回転させる。グラフィックGが基準線2330にほぼ一致したところで、ユーザはウェアラブル端末200の操作部に対して所定の決定操作を実行する。あるいは、ユーザは端末装置201の操作部に対して所定の決定操作を実行し、その情報が端末装置201の通信部からサーバ100、またはサーバ100を経由してウェアラブル端末200に伝送されてもよい。
上記の決定操作が実行された場合、ウェアラブル端末200またはサーバ100のプロセッサは、ウェアラブル端末200におけるカメラ260の撮像画像の補正パラメータを決定する。この補正パラメータは、カメラ260による実空間の撮像画像2600をどのように変形すれば、ウェアラブル端末200のユーザが直接視認している実空間の画像に整合し、マージビューにおいて表示可能になるかを示すパラメータである。上記プロセッサは、例えば、ウェアラブル端末200から提供されている空間情報に基づいて端末装置201のディスプレイの実空間における位置および姿勢を特定し、当該位置および姿勢に基づいて補正パラメータを決定する。つまり、上記プロセッサは、ウェアラブル端末200において視認されている実空間の像に含まれるグラフィックGの形状またはサイズと、カメラ260による撮像画像に含まれるグラフィックG’の形状またはサイズとを比較することによって補正パラメータを決定する。
例えば、図示された例のように、ユーザが直接視認するグラフィックGが基準線2330にほぼ一致する正方形であるのに対し、撮像画像2600に映っている端末装置201’に表示されたグラフィックG’が台形である場合、グラフィックG’が正方形に変換されるように補正パラメータを設定すればよいことになる。また、ユーザが直接視認するグラフィックGが基準線2330にほぼ一致してディスプレイ230の中央付近に位置するのに対し、撮像画像2600に映っているグラフィックG’が中央からずれていれば、グラフィックG’が中央に移動されるように補正パラメータを設定すればよいことになる。
上記のようなキャリブレーションの手順は、例えばウェアラブル端末200のディスプレイ230とカメラ260との位置関係がほぼ固定されており、またディスプレイ230とユーザの視点との位置関係の個人差も無視できるような場合には必ずしも必要ではない。ただし、例えばカメラ260の位置や角度が可変であって、ディスプレイ230とカメラ260との位置関係が変化しうる場合や、上記の個人差が無視できないような場合には、キャリブレーションの手順が有効である。
なお、キャリブレーションに用いられるグラフィックGは、必ずしも端末装置に電子的に表示されなくてもよい。例えば、グラフィックGは紙などに印刷されていてもよい。また、グラフィックGの形状やサイズも、方向や角度を識別できるものであればどのようなものであってもよい。上記の例では、グラフィックGが基準線2330に一致するように、ユーザがグラフィックGを表示する(印刷される場合も含む)媒体を移動および回転させたが、他の例では、グラフィックGを表示する媒体は固定されており、グラフィックGが基準線2330に一致するように、ウェアラブル端末200を装着したユーザが移動してもよい。
(4.タブレット端末での表示例)
次に、図11を参照して、本開示の一実施形態におけるタブレット端末での表示例について説明する。
図11は、本開示の一実施形態に係るタブレット端末におけるマージビューの例を示す図である。図示された例では、タブレット端末300のディスプレイ330に、タブレット端末300の向こう側に視認される実空間の像に連続した画像1300が表示されている(透過している場合を含む)状態で、ディスプレイ330に実空間の位置または実空間のオブジェクトに対するアノテーション1310が表示されている。画像1300に含まれる実空間の像は、例えばタブレット端末300のカメラ(背面側にあるため図示していない)による撮像画像を加工することによって表示されてもよい。あるいは、実空間の像は、ディスプレイ330が背面側の実空間の像を透過させることによって表示されてもよい。
なお、図示された例において、アノテーション1310は、実空間に存在するリンゴに対して表示され、リンゴの成分を示している。このリンゴについては、タブレット端末300の向こう側に見えているリンゴの像APPLE_Aに連続するように、ディスプレイ330の画像1300にリンゴの画像APPLE_Bが表示されている。このようなタブレット端末300における表示によって観察されるビューも、ディスプレイ330の表示が周囲の実空間の像に没入されているため、上記のウェアラブル端末200の例と同様にマージビューであるといえる。
一方、図示していないが、タブレット端末300のディスプレイ330に、タブレット端末300の向こう側に視認される実空間の像とは独立して、タブレット端末300のカメラによって撮像された実空間の画像を表示する場合、タブレット端末300における表示によって観察されるビューはカメラビューであるといえる。この場合、例えば、タブレット端末300の向こう側に視認される実空間において、ユーザの平均的な視野角に基づいて視認可能範囲が推定されてもよい。例えばタブレット端末300のカメラによって撮像される実空間の範囲が推定される視認可能範囲よりも広い場合や、空間情報の利用によって実空間の位置にアノテーションが関連付けられうる場合、視認可能範囲の外にアノテーションが設定される場合がありうる。
なお、タブレット端末300の場合も、上記のウェアラブル端末200の場合と同様にキャリブレーションの手順を実行することが可能である。タブレット端末300は、例えばユーザが実空間に対してかざすことによってマージビュー可能なディスプレイとして機能するため、ユーザの視点とディスプレイ330との位置関係はウェアラブル端末200の場合よりも多様に変化しうる。従って、タブレット端末300によってマージビューを可能にする場合は、上述したキャリブレーションの手順が有効でありうる。
(5.マージビューとカメラビューとの切り替え)
次に、図12〜図15を参照して、本開示の一実施形態におけるマージビューとカメラビューとの切り替えについて説明する。マージビューとカメラビューは、上記の例で説明したように、例えばウェアラブル端末200のディスプレイ230の表示によって提供される2種類のビューである。なお、以下の例では、例としてウェアラブル端末200のディスプレイ230によるマージビューとカメラビューとの切り替えについて説明するが、本開示の実施形態はこの例には限られない。例えば、上記のようにタブレット端末300においてもマージビューおよびカメラビューの表示が可能であるため、同様にビューを切り替えることが可能である。
図12〜図14は、本開示の一実施形態における切り替え表示の例を示す図である。図12に示された状態では、ウェアラブル端末200のディスプレイ230に、周囲のレンズ部分231を通して視認される実空間の像に連続するように、カメラ260の撮像画像を加工した画像2300aが表示されている。ここでは、画像2300aにアノテーションは表示されていない。例えば撮像画像に対してアノテーションが設定されていない場合は、図示された例のようにマージビューが表示されてもよい。
図13に示された状態では、カメラ260の撮像画像に対して、例えば他の端末装置のユーザまたはサーバ100によってアノテーションが入力されている。アノテーションの対象になる実空間の位置は、カメラ260の撮像画像の範囲には含まれているが、ユーザがレンズ部分231を通して直接視認可能な範囲には含まれない。そこで、ウェアラブル端末200のプロセッサは、ディスプレイ230の表示を画像2300aから画像2300bに切り替えることによって、表示されるビューをマージビューからカメラビューに変更し、画像2300bにアノテーション1211を表示させる。これによって、ユーザは、直接視認可能な範囲にはないアノテーション1211を視認することができる。
さらに、図14に示された状態でも、カメラ260の撮像画像に対して、例えば他の端末装置のユーザまたはサーバ100によってアノテーションが入力されている。アノテーションの対象になる実空間のオブジェクト(ディスプレイ230の右下にあるリンゴ)は、カメラ260の撮像画像の範囲に含まれているとともに、ユーザがレンズ部分231を通して直接視認可能な範囲にも含まれている。そこで、ウェアラブル端末200のプロセッサは、ディスプレイ230の表示を再び画像2300aに切り替えることによって、表示されるビューをカメラビューからマージビューに変更し、画像2300aにアノテーション(ポインタ1210およびコメント1220)を表示させる。これによって、ユーザは、直接視認可能な実空間の像の中でアノテーションを視認することができる。
このように、本実施形態では、アノテーションの対象になる実空間の位置またはオブジェクトが視認可能な範囲に含まれるか否かによって、ディスプレイ230による表示がマージビューとカメラビューとの間で切り替えられうる。なお、アノテーションの対象になる実空間の位置またはオブジェクトが視認可能な範囲に含まれても、ディスプレイ230との位置関係からアノテーションの表示が困難であるような場合には、カメラビューが選択されうる。マージビューとカメラビューとの間の切り替えは、例えばディスプレイ230に表示される画像2300の範囲が徐々に変化するようなアニメーションを伴って表示されてもよい。
また、マージビューとカメラビューとは、上記の例のように自動的に切り替えられてもよいし、ユーザの操作入力に応じて切り替えられてもよい。従って、アノテーションの対象になる実空間の位置またはオブジェクトが視認可能な範囲に含まれてもカメラビューが表示されていてもよいし、アノテーションの対象になる実空間の位置またはオブジェクトが視認可能な範囲に含まれていなかったり、アノテーションが設定されていなくても、カメラビューが表示される場合もありうる。
図15は、本開示の一実施形態における切り替え表示の別の例を示す図である。図15の例では、ディスプレイ230に表示される画像2300aが、画像2300b,2300c,2300dへと連続的に変化する。これらの一連の表示によって、画像2300aに斜めに映っていた雑誌(MAG)に対して正対するとともにズームインした画像2300dが表示される。
ここで、画像2300aは、例えば上述したマージビューにおいて表示される画像でありうる。つまり、画像2300aは、ディスプレイ230の周囲で直接視認される実空間の像に連続した表示であり、視認される実空間では雑誌(MAG)が斜めに見えている。一方、カメラ260によって撮像される画像を加工することによって、正対するように変形および拡大された雑誌(MAG)を表示する画像2300dは、少なくとも雑誌(MAG)の表示領域において、ディスプレイ230の周囲で直接視認される実空間の像とは独立している。従って、画像2300dは、上述したカメラビューとして表示される画像でありうる。
なお、画像2300における雑誌(MAG)以外の領域は、図示された例のように雑誌(MAG)の表示とともに変形および拡大されてもよいし、雑誌(MAG)の変形および拡大の影響を受けず、ディスプレイ230の周囲で直接視認される実空間の像に連続した表示を維持していてもよい。
上記の例のような表示は、例えば、カメラ260の撮像画像に対する画像処理によって雑誌(MAG)のようなオブジェクトを認識し、認識されたオブジェクトの姿勢を推定することによって可能になる。カメラ260の解像度が十分に高ければ、画像2300dのようにオブジェクトの変形および拡大を実行しても、画像を十分な品質で表示することができうる。
(6.表示可能範囲外にあるアノテーションの表示)
続いて、図16〜図25を参照して、本開示の一実施形態における表示可能範囲外にあるアノテーションの表示について説明する。本実施形態では、上記のように、送信側の装置において送信される実空間の画像データに空間情報が付加される。この空間情報を利用すれば、受信側の装置では、送信側の装置で表示されている画像の表示範囲に関わらず、実空間の任意の位置に対してアノテーションを入力することが可能である。
例えば、上述した図7〜図10の例では、マージビューの表示中に、カメラの撮像画像には含まれるが、ディスプレイの表示領域から離れている(視認可能ではない場合も含む)実空間上の位置またはオブジェクトに対してアノテーションが入力される場合がある。このような場合、アノテーションをディスプレイに表示することは困難である。それゆえ、アノテーションは、マージビューが自動的に、またはユーザの操作入力に応じてカメラビューに切り替えられるか、カメラおよび/またはディスプレイの位置を移動させることによってディスプレイに表示されることになる。
上記の場合、自動的にマージビューがカメラビューに切り替わる場合を別にすれば、送信側の装置(以下、例としてウェアラブル端末200とする)のユーザがアノテーションの存在を知らないと、アノテーションが画像2300の表示範囲に含まれることなく時間が経過してしまう可能性がある。アノテーションは、例えばその時にユーザにとって必要な情報を表示することも多いため、アノテーションの存在はウェアラブル端末200のユーザに知らされる方が望ましい。
そこで、本実施形態では、以下の例に示すように、表示可能範囲外にあるアノテーションに関する情報が表示されうる。これらの情報の表示もまたアノテーションの一種であるが、以下の説明では、表示可能範囲外の位置またはオブジェクトに対して設定された情報を特にアノテーションと呼んで区別する場合がある。このような表示がされることによって、ウェアラブル端末200のユーザは、マージビューを表示するかカメラビューを表示させるか、またはカメラおよび/もしくはディスプレイをどの方向に移動させるかを判断することが容易になる。これらの表示のための表示制御は、例えばアノテーションを表示させる装置(例えばウェアラブル端末200やタブレット端末300など)のプロセッサで実行されてもよいし、これらの装置における視認可能範囲外を認識しているサーバ100のプロセッサによって実行されてもよい。
(第1の例)
図16〜図18は、本開示の一実施形態における表示可能範囲外にあるアノテーションの表示の第1の例を示す図である。
図16は、アノテーションが画像2300に表示可能である場合の表示例を示す。この場合、アノテーションは、テーブルの上に置かれたカップ(CUP)を対象として表示され、ポインタ1210と、コメント1220とを含む。
図17は、アノテーションの対象であるカップ(CUP)が画像2300に表示可能ではない場合の表示例を示す。この場合、図16に示したようなアノテーションの代わりに、アノテーションの対象が存在する方向を示す方向表示1230が表示されうる。方向表示1230は、例えば、ウェアラブル端末200が取得している空間情報に基づいて、画像2300の表示範囲とアノテーションの対象との位置関係を特定することによって表示可能になる。また、このとき、アノテーションのうちのコメント1220が、方向表示1230とともに表示されてもよい。コメント1220は、アノテーションの内容または種類などを示す情報であるため、ポインタ1210ではなく方向表示1230とともに表示されても有用である。
図18は、ウェアラブル端末200のユーザが方向表示1230に応じてカメラ260の向きを変えたことなどによって画像2300の表示範囲が移動し、アノテーションの一部が画像2300に表示可能になった場合の表示例を示す。この場合、アノテーションの全部が画像2300に表示可能でなくても、ポインタ1210の一部とコメント1220とがアノテーションとして表示されてもよい。
(第2の例)
図19および図20は、本開示の一実施形態における表示可能範囲外にあるアノテーションの表示の第2の例を示す図である。この第2の例では、表示可能範囲外にアノテーションの対象が存在することに加えて、アノテーションの対象までの距離が表示される。
図19は、表示可能範囲からアノテーションの対象までの距離が異なる2つの画像に対する表示の例を示す図である。この例では、ディスプレイ2300の表示可能範囲外にアノテーションが存在することが、円1240によって表示される。円1240は、図20にも示すように、アノテーションの対象からディスプレイ2300の表示範囲までの距離に応じた半径で表示される。図20Aに示されるように、アノテーションの対象から表示範囲(画像2300a)までの距離が大きい場合、より大きい半径rの円1240aが表示される。また、図20Bに示されるように、アノテーションの対象から表示範囲(画像2300b)までの距離が小さい場合、より小さい半径rの円1240bが表示される。円1240の半径rは、アノテーションの対象までの距離に応じて連続的に設定されてもよいし、段階的に設定されてもよい。また、図19に示されるように、円1240とともに、アノテーションのうちのコメント1220が表示されてもよい。
このように円1240を表示することによって、例えば、画像2300を見ているユーザが、表示可能範囲外にアノテーションが存在することだけではなく、画像2300の表示範囲をどの方向にどの程度移動させればアノテーションが表示されるかを直感的に把握することができうる。
(第3の例)
図21および図22は、本開示の一実施形態における表示可能範囲外にあるアノテーションの表示の第3の例を示す図である。
図21は、アノテーションの対象であるリンゴ(APPLE)が画像2300の外にあり、かつ視認可能範囲にも含まれない場合の表示例を示す。この場合、図17の例と同様の方向表示1250とともに、対象のアイコン1251が表示されうる。アイコン1251は、例えば現在または過去においてカメラ260が撮像した画像にリンゴ(APPLE)が含まれる場合、サーバ100またはウェアラブル端末200のプロセッサがカメラ260によって撮像された画像からリンゴAPPLEの部分を切り出すことによって生成されうる。この場合、アイコン1251は、カメラ260が取得するフレーム画像の変化に応じて変化する必要はなく、例えば静止画であってよい。あるいは、リンゴAPPLEがオブジェクト認識されている場合であれば、カメラ260が撮像した画像に関係なく、リンゴを表すイラストや写真がアイコン1251として表示されてもよい。また、このとき、アノテーションのうちのコメント1220が、方向表示1250およびアイコン1251とともに表示されてもよい。
図22は、ウェアラブル端末200のユーザが方向表示1250に応じてカメラ260の向きを変えたことなどによって画像2300の表示範囲が移動し、アノテーションの一部が画像2300に表示可能になった場合の表示例を示す。この場合、方向表示1250およびアイコン1251の表示が終了し、図18の例と同様にポインタ1210の一部とコメント1220とがアノテーションとして表示されてもよい。
このようにアイコン1251を表示することによって、例えば、画像2300を見ているユーザが、表示可能範囲外(視認可能範囲外でもありうる)にアノテーションが存在することだけではなく、アノテーションの対象が何であるかを把握することができ、すぐに見るか、後で見るかといった行動の決定が容易になりうる。
(第4の例)
図23は、本開示の一実施形態における表示可能範囲外にあるアノテーションの表示の第4の例を示す図である。図示された例では、アノテーションの対象であるリンゴ(APPLE)が画像2300の外にある場合に、リンゴにより近い画像2300の端部分1260が光る。例えば、画像2300aでは、リンゴが画面の右下の方向にあるため、右下の端部分1260aが光る。また、画像2300bでは、リンゴが画面の左上の方向にあるため、左上の端部分1260bが光る。画像2300cでは、リンゴが画面の左下の方向にあるため、左下の端部分1260cが光る。
上記の例において、端部分1260の領域は、画像2300からみてアノテーションの対象が存在する方向に基づいて設定されうる。図には斜め方向の例が示されているが、他の例では、リンゴが画像2300の左方向にある場合に、左の端部分1260が光ってもよい。この場合、端部分1260は、画像2300の左側の辺の全体であってもよい。また、アノテーションの対象が斜め方向に存在し、画像2300の角を含む端部分1260が光る場合、角を挟んだ端部分1260の縦部分と横部分の比率は、アノテーションの対象が存在する方向の角度に応じて設定されてもよい。この場合、例えば、より上に近い左上に対象が存在すれば端部分1260の縦部分(画像2300の左辺に沿う)よりも横部分(画像2300の上辺に沿う)が長くなりうる。逆に、より左に近い左上に対象が存在すれば端部分1260の横部分(画像2300の上辺に沿う)よりも縦部分(画像2300の左辺に沿う)が長くなりうる。また、別の例において、端部分1260は光る代わりに所定の色(透過色でありうる)で着色されてもよい。
このように、端部分1260の表示の変化によって表示可能範囲外にアノテーションが存在することを通知する場合、例えば矢印などによる別途の方向表示をしなくてもよいため、画像2300の表示を邪魔することなくアノテーションの存在を通知することができる。
(第5の例)
図24は、本開示の一実施形態における表示可能範囲外にあるアノテーションの表示の第5の例を示す図である。図示された例では、アノテーションとしてコメント1220が表示されている。しかし、コメント1220は横に長いため、画像2300には表示しきれていない。図では、これによって生じる非表示部分1221も示されている。この場合のコメント1220の非表示部分1221も、表示可能範囲外にあるアノテーションであるといえる。この非表示部分1221の存在を示すために、コメント1220が画像2300の端部に当接した部分に発光領域1280が表示される。
ここで、発光領域1280の長さは、非表示部分1221の長さ(例えば長さ方向のピクセル数などで表現されてもよく、コメント1220の表示部分との比率や他の非表示部分1221との比率によって表現されてもよい)に応じて設定されうる。図示された例では、コメント1220aの非表示部分1221aについて発光領域1280aが表示され、コメント1220bの非表示部分1221bについて発光領域1280bが表示されるが、非表示部分1221aよりも非表示部分1221bの方が長いことを反映して、発光領域1280aよりも発光領域1280bの方が長く表示されてもよい。
このように、発光領域1280の表示によって表示可能範囲外にアノテーションが存在することを通知する場合、アノテーションであるコメント1220の内部で表示を完結させることができるため、画像2300の表示を邪魔することなくアノテーションの存在を通知することができる。また、非表示部分1221の長さに応じて発光領域1280の長さが設定される場合、コメント1220が全体としてどのくらいの長さであるかがユーザに直感的に把握されるため、すぐに見るか、後で見るかといった行動の決定が容易になる。なお、コメント1220の非表示部分1221を画像2300の表示に含めようとする場合、例えば画像2300の表示範囲を移動させてもよいし、あるいはコメント1220を画像2300の内側(図示された例のコメント1220aであれば左側、コメント1220bであれば右側)にドラッグしてもよい。
(第6の例)
図25は、本開示の一実施形態における表示可能範囲外にあるアノテーションの表示の第6の例を示す図である。図示された例では、道案内で方向を示す矢印のアノテーション1210が表示されている。このアノテーション1210は、例えばユーザが画像2300bを見ている場合には視認可能であるが、画像2300aを見ている場合には視認可能ではない。そこで、ユーザが画像2300aを見ている場合には、アノテーション1210の影1290が表示されうる。影1290が表示されることによって、画像2300aを見ているユーザは、画面の上方の外にアノテーションが存在することを認識することができる。
その後、ユーザが画像2300bを見るようになった場合、影1290の表示は終了してもよいし、継続されてもよい。影1290がアノテーション1210とともに継続して表示される場合、影1290が表示されることによって、ユーザは空中に配置されたアノテーション1210の奥行き方向の位置を認識することが容易になりうる。
このように影1290を表示することによって、仮想的な光源の方向による制約はあるものの、違和感のない表示によってユーザにアノテーションの存在を通知することができる。
(7.補足)
本開示の実施形態は、例えば、上記で説明したような表示制御装置(サーバまたはクライアント)、システム、画像処理装置またはシステムで実行される表示制御方法、表示制御装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)端末装置の表示部を制御して前記端末装置が存在する実空間の像を表示させる表示制御部を備え、
前記表示制御部は、前記表示部に表示させる画像を、前記表示部以外の領域で視認される前記実空間の像との間に連続性を有する第1の画像、または前記実空間の撮像画像に基づいて生成され前記表示部以外の領域で視認される前記実空間の像とは独立した第2の画像から選択する表示制御装置。
(2)前記第2の画像は、前記第1の画像よりも広い前記実空間の範囲を含み、
前記表示制御部は、前記撮像画像に対して設定される仮想オブジェクトが配置される前記実空間の位置が前記第1の画像の範囲に含まれる場合には前記仮想オブジェクトを含む前記第1の画像を前記表示部に表示させ、前記仮想オブジェクトが配置される前記実空間の位置が前記第1の画像の範囲には含まれず前記第2の画像の範囲には含まれる場合には前記仮想オブジェクトを含む前記第2の画像を前記表示部に表示させる、前記(1)に記載の表示制御装置。
(3)前記表示制御部は、前記表示部において透過される前記実空間の像に前記仮想オブジェクトを重畳させることによって前記第1の画像を表示させる、前記(2)に記載の表示制御装置。
(4)前記表示制御部は、前記撮像画像を前記表示部以外の領域で視認される前記実空間の像に整合するように変形した画像に前記仮想オブジェクトを加えた画像を前記第1の画像として表示させる、前記(2)に記載の表示制御装置。
(5)前記表示制御部は、前記仮想オブジェクトが設定されていない場合には前記第1の画像を前記表示部に表示させる、前記(2)に記載の表示制御装置。
(6)前記表示制御部は、前記表示部において前記実空間の像を透過させることによって前記第1の画像を表示させる、前記(1)に記載の表示制御装置。
(7)前記表示制御部は、前記撮像画像を前記表示部以外の領域で視認される前記実空間の像に整合するように変形した画像を前記第1の画像として表示させる、前記(1)に記載の表示制御装置。
(8)前記表示部は、前記実空間の像を透過させることが可能であり、
前記表示制御部は、前記実空間に存在するグラフィックを前記表示部を透過して視認した場合の第1の形状と前記撮像画像に含まれる前記グラフィックの第2の形状とを比較することによって、前記撮像画像を前記実空間の像に整合させるためにどのように変形するかを決定する、前記(7)に記載の表示制御装置。
(9)前記表示制御部は、固定された前記第1の形状を示す基準線を前記表示部に表示させ、前記表示部を透過して視認される前記グラフィックが前記基準線に合わせられた場合に前記第1の形状と前記第2の形状とを比較する、前記(8)に記載の表示制御装置。
(10)前記端末装置におけるユーザ操作に基づく情報を取得する操作取得部をさらに備え、
前記表示制御部は、前記ユーザ操作に応じて前記第1の画像または前記第2の画像のいずれかを前記表示部に表示させる、前記(1),(6)〜(9)のいずれか1項に記載の表示制御装置。
(11)前記第2の画像は、前記第1の画像よりも広い前記実空間の範囲を含み、
前記表示制御部は、前記第1の画像が前記表示部に表示されていて、前記撮像画像に対して設定される仮想オブジェクトが配置される前記実空間の位置が前記第1の画像の範囲に含まれず前記第2の画像の範囲には含まれる場合に、前記仮想オブジェクトの存在を示す通知を前記第1の画像に表示させる、前記(10)に記載の表示制御装置。
(12)前記表示制御部は、前記仮想オブジェクトの全部が前記第1の画像の範囲の外にある場合に前記通知を表示させる、前記(11)に記載の表示制御装置。
(13)前記通知は、前記第1の画像の範囲から見て前記仮想オブジェクトが存在する方向を示す表示を含む、前記(12)に記載の表示制御装置。
(14)前記通知は、前記第1の画像の範囲と前記仮想オブジェクトとの間の距離を示す表示を含む、前記(13)に記載の表示制御装置。
(15)前記仮想オブジェクトは、前記仮想オブジェクトが配置される前記実空間の位置を示すポインタと、前記位置に関する情報とを含み、
前記通知は、前記情報を含む、前記(12)に記載の表示制御装置。
(16)前記通知は、前記撮像画像から抽出された、前記仮想オブジェクトが配置される前記実空間の位置の前記実空間の画像を含む、前記(12)に記載の表示制御装置。
(17)前記第2の画像は、前記実空間に存在する実オブジェクトを基準にして前記撮像画像を拡大した画像である、前記(1),(6)〜(10)のいずれか1項に記載の表示制御装置。
(18)前記表示制御部は、前記第1の画像の少なくとも前記実オブジェクトを含む部分を前記実オブジェクトに対して正対するように変形および拡大することによって前記第2の画像を生成する、前記(17)に記載の表示制御装置。
(19)端末装置の表示部を制御して前記端末装置が存在する実空間の像を表示させるプロセッサが、
前記表示部に表示させる画像を、前記表示部以外の領域で視認される前記実空間の像との間に連続性を有する第1の画像、または前記実空間の撮像画像に基づいて生成され前記表示部以外の領域で視認される前記実空間の像とは独立した第2の画像から選択すること
を含む表示制御方法。
(20)端末装置の表示部を制御して前記端末装置が存在する実空間の像を表示させるコンピュータに、
前記表示部に表示させる画像を、前記表示部以外の領域で視認される前記実空間の像との間に連続性を有する第1の画像、または前記実空間の撮像画像に基づいて生成され前記表示部以外の領域で視認される前記実空間の像とは独立した第2の画像から選択する機能
を実現させるためのプログラム。
10 システム
100 サーバ
200,300,400,500,600,700 クライアント
900 装置
910 プロセッサ
920 メモリ
930 表示部
940 操作部
950 通信部
960 撮像部
970 センサ

Claims (20)

  1. 端末装置の表示部を制御して前記端末装置が存在する実空間の像を表示させる表示制御部を備え、
    前記表示制御部は、前記表示部に表示させる画像を、前記表示部以外の領域で視認される前記実空間の像との間に連続性を有する第1の画像、または前記実空間の撮像画像に基づいて生成され前記表示部以外の領域で視認される前記実空間の像とは独立した第2の画像から選択する表示制御装置。
  2. 前記第2の画像は、前記第1の画像よりも広い前記実空間の範囲を含み、
    前記表示制御部は、前記撮像画像に対して設定される仮想オブジェクトが配置される前記実空間の位置が前記第1の画像の範囲に含まれる場合には前記仮想オブジェクトを含む前記第1の画像を前記表示部に表示させ、前記仮想オブジェクトが配置される前記実空間の位置が前記第1の画像の範囲には含まれず前記第2の画像の範囲には含まれる場合には前記仮想オブジェクトを含む前記第2の画像を前記表示部に表示させる、請求項1に記載の表示制御装置。
  3. 前記表示制御部は、前記表示部において透過される前記実空間の像に前記仮想オブジェクトを重畳させることによって前記第1の画像を表示させる、請求項2に記載の表示制御装置。
  4. 前記表示制御部は、前記撮像画像を前記表示部以外の領域で視認される前記実空間の像に整合するように変形した画像に前記仮想オブジェクトを加えた画像を前記第1の画像として表示させる、請求項2に記載の表示制御装置。
  5. 前記表示制御部は、前記仮想オブジェクトが設定されていない場合には前記第1の画像を前記表示部に表示させる、請求項2に記載の表示制御装置。
  6. 前記表示制御部は、前記表示部において前記実空間の像を透過させることによって前記第1の画像を表示させる、請求項1に記載の表示制御装置。
  7. 前記表示制御部は、前記撮像画像を前記表示部以外の領域で視認される前記実空間の像に整合するように変形した画像を前記第1の画像として表示させる、請求項1に記載の表示制御装置。
  8. 前記表示部は、前記実空間の像を透過させることが可能であり、
    前記表示制御部は、前記実空間に存在するグラフィックを前記表示部を透過して視認した場合の第1の形状と前記撮像画像に含まれる前記グラフィックの第2の形状とを比較することによって、前記撮像画像を前記実空間の像に整合させるためにどのように変形するかを決定する、請求項7に記載の表示制御装置。
  9. 前記表示制御部は、固定された前記第1の形状を示す基準線を前記表示部に表示させ、前記表示部を透過して視認される前記グラフィックが前記基準線に合わせられた場合に前記第1の形状と前記第2の形状とを比較する、請求項8に記載の表示制御装置。
  10. 前記端末装置におけるユーザ操作に基づく情報を取得する操作取得部をさらに備え、
    前記表示制御部は、前記ユーザ操作に応じて前記第1の画像または前記第2の画像のいずれかを前記表示部に表示させる、請求項1に記載の表示制御装置。
  11. 前記第2の画像は、前記第1の画像よりも広い前記実空間の範囲を含み、
    前記表示制御部は、前記第1の画像が前記表示部に表示されていて、前記撮像画像に対して設定される仮想オブジェクトが配置される前記実空間の位置が前記第1の画像の範囲に含まれず前記第2の画像の範囲には含まれる場合に、前記仮想オブジェクトの存在を示す通知を前記第1の画像に表示させる、請求項10に記載の表示制御装置。
  12. 前記表示制御部は、前記仮想オブジェクトの全部が前記第1の画像の範囲の外にある場合に前記通知を表示させる、請求項11に記載の表示制御装置。
  13. 前記通知は、前記第1の画像の範囲から見て前記仮想オブジェクトが存在する方向を示す表示を含む、請求項12に記載の表示制御装置。
  14. 前記通知は、前記第1の画像の範囲と前記仮想オブジェクトとの間の距離を示す表示を含む、請求項13に記載の表示制御装置。
  15. 前記仮想オブジェクトは、前記仮想オブジェクトが配置される前記実空間の位置を示すポインタと、前記位置に関する情報とを含み、
    前記通知は、前記情報を含む、請求項12に記載の表示制御装置。
  16. 前記通知は、前記撮像画像から抽出された、前記仮想オブジェクトが配置される前記実空間の位置の前記実空間の画像を含む、請求項12に記載の表示制御装置。
  17. 前記第2の画像は、前記実空間に存在する実オブジェクトを基準にして前記撮像画像を拡大した画像である、請求項1に記載の表示制御装置。
  18. 前記表示制御部は、前記第1の画像の少なくとも前記実オブジェクトを含む部分を前記実オブジェクトに対して正対するように変形および拡大することによって前記第2の画像を生成する、請求項17に記載の表示制御装置。
  19. 端末装置の表示部を制御して前記端末装置が存在する実空間の像を表示させるプロセッサが、
    前記表示部に表示させる画像を、前記表示部以外の領域で視認される前記実空間の像との間に連続性を有する第1の画像、または前記実空間の撮像画像に基づいて生成され前記表示部以外の領域で視認される前記実空間の像とは独立した第2の画像から選択すること
    を含む表示制御方法。
  20. 端末装置の表示部を制御して前記端末装置が存在する実空間の像を表示させるコンピュータに、
    前記表示部に表示させる画像を、前記表示部以外の領域で視認される前記実空間の像との間に連続性を有する第1の画像、または前記実空間の撮像画像に基づいて生成され前記表示部以外の領域で視認される前記実空間の像とは独立した第2の画像から選択する機能
    を実現させるためのプログラム。
JP2015509966A 2013-04-04 2014-03-10 表示制御装置、表示制御方法およびプログラム Expired - Fee Related JP6304240B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013078893 2013-04-04
JP2013078893 2013-04-04
PCT/JP2014/056158 WO2014162824A1 (ja) 2013-04-04 2014-03-10 表示制御装置、表示制御方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2014162824A1 true JPWO2014162824A1 (ja) 2017-02-16
JP6304240B2 JP6304240B2 (ja) 2018-04-04

Family

ID=51658127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015509966A Expired - Fee Related JP6304240B2 (ja) 2013-04-04 2014-03-10 表示制御装置、表示制御方法およびプログラム

Country Status (5)

Country Link
US (1) US20160049011A1 (ja)
EP (1) EP2983140A4 (ja)
JP (1) JP6304240B2 (ja)
CN (1) CN105339865B (ja)
WO (1) WO2014162824A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102413074B1 (ko) * 2015-09-21 2022-06-24 삼성전자주식회사 사용자 단말, 전자 장치 및 이들의 제어 방법
US10489981B2 (en) * 2015-12-10 2019-11-26 Sony Corporation Information processing device, information processing method, and program for controlling display of a virtual object
CN107038746B (zh) * 2017-03-27 2019-12-24 联想(北京)有限公司 一种信息处理方法及电子设备
US11054894B2 (en) 2017-05-05 2021-07-06 Microsoft Technology Licensing, Llc Integrated mixed-input system
US11023109B2 (en) * 2017-06-30 2021-06-01 Microsoft Techniogy Licensing, LLC Annotation using a multi-device mixed interactivity system
US10895966B2 (en) 2017-06-30 2021-01-19 Microsoft Technology Licensing, Llc Selection using a multi-device mixed interactivity system
DK201870351A1 (en) 2018-05-07 2020-01-13 Apple Inc. Devices and Methods for Measuring Using Augmented Reality
US10785413B2 (en) * 2018-09-29 2020-09-22 Apple Inc. Devices, methods, and graphical user interfaces for depth-based annotation
KR102649988B1 (ko) 2019-01-21 2024-03-22 소니 어드밴스드 비주얼 센싱 아게 투명한 스마트폰
US10992926B2 (en) * 2019-04-15 2021-04-27 XRSpace CO., LTD. Head mounted display system capable of displaying a virtual scene and a real scene in a picture-in-picture mode, related method and related non-transitory computer readable storage medium
CN111832360A (zh) * 2019-04-19 2020-10-27 北京三星通信技术研究有限公司 提示信息的处理方法、装置、电子设备以及可读存储介质
CN110300225A (zh) * 2019-06-28 2019-10-01 联想(北京)有限公司 一种信息处理方法及电子设备
US11227446B2 (en) 2019-09-27 2022-01-18 Apple Inc. Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality
US11080879B1 (en) 2020-02-03 2021-08-03 Apple Inc. Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments
US11727650B2 (en) 2020-03-17 2023-08-15 Apple Inc. Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments
KR20230029885A (ko) * 2020-06-30 2023-03-03 스냅 인코포레이티드 말 풍선들 및 번역을 갖는 증강 현실 안경류
JP7484586B2 (ja) 2020-08-31 2024-05-16 株式会社Jvcケンウッド 表示制御装置、及び表示制御プログラム
US11615595B2 (en) 2020-09-24 2023-03-28 Apple Inc. Systems, methods, and graphical user interfaces for sharing augmented reality environments
KR20220115433A (ko) 2021-02-10 2022-08-17 삼성전자주식회사 Ar 객체를 표시하는 방법 및 전자 장치
US11941764B2 (en) 2021-04-18 2024-03-26 Apple Inc. Systems, methods, and graphical user interfaces for adding effects in augmented reality environments
US11379950B1 (en) * 2021-05-07 2022-07-05 Lemon Inc. System and method for projecting content in an environment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009140125A (ja) * 2007-12-05 2009-06-25 National Institute Of Advanced Industrial & Technology 情報提示装置
WO2011106798A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
JP2012212345A (ja) * 2011-03-31 2012-11-01 Sony Corp 端末装置、オブジェクト制御方法及びプログラム
JP2013020569A (ja) * 2011-07-14 2013-01-31 Toshiba Corp 画像処理装置
JP2013506226A (ja) * 2009-09-29 2013-02-21 ウェーブレングス・アンド・リソナンス・エルエルシィ 仮想環境との相互作用のためのシステム及び方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6278461B1 (en) * 1993-09-10 2001-08-21 Geovector Corporation Augmented reality vision systems which derive image information from other vision systems
JP4065507B2 (ja) * 2002-07-31 2008-03-26 キヤノン株式会社 情報提示装置および情報処理方法
JP2005149409A (ja) * 2003-11-19 2005-06-09 Canon Inc 画像再生方法及び装置
US20160267720A1 (en) * 2004-01-30 2016-09-15 Electronic Scripting Products, Inc. Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
US7737965B2 (en) * 2005-06-09 2010-06-15 Honeywell International Inc. Handheld synthetic vision device
WO2011063034A1 (en) * 2009-11-17 2011-05-26 Rtp, Llc Systems and methods for augmented reality
US20150309316A1 (en) * 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US8315674B2 (en) * 2010-10-08 2012-11-20 Research In Motion Limited System and method for displaying object location in augmented reality
US9280852B2 (en) * 2010-11-08 2016-03-08 Sony Corporation Augmented reality virtual guide system
SE535881C2 (sv) * 2011-06-15 2013-01-29 Mebe Viewcom Ab Videokonferenssystem som använder en kamera med inverterat teleskop
US9081177B2 (en) * 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US8963805B2 (en) * 2012-01-27 2015-02-24 Microsoft Corporation Executable virtual objects associated with real objects
US9147221B2 (en) * 2012-05-23 2015-09-29 Qualcomm Incorporated Image-driven view management for annotations
US9846960B2 (en) * 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US10269179B2 (en) * 2012-10-05 2019-04-23 Elwha Llc Displaying second augmentations that are based on registered first augmentations
WO2015090421A1 (en) * 2013-12-19 2015-06-25 Metaio Gmbh Method and system for providing information associated with a view of a real environment superimposed with a virtual object
US9977493B2 (en) * 2015-06-17 2018-05-22 Microsoft Technology Licensing, Llc Hybrid display system
JP6017664B1 (ja) * 2015-12-28 2016-11-02 株式会社コロプラ 情報処理方法及び情報処理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009140125A (ja) * 2007-12-05 2009-06-25 National Institute Of Advanced Industrial & Technology 情報提示装置
JP2013506226A (ja) * 2009-09-29 2013-02-21 ウェーブレングス・アンド・リソナンス・エルエルシィ 仮想環境との相互作用のためのシステム及び方法
WO2011106798A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
JP2012212345A (ja) * 2011-03-31 2012-11-01 Sony Corp 端末装置、オブジェクト制御方法及びプログラム
JP2013020569A (ja) * 2011-07-14 2013-01-31 Toshiba Corp 画像処理装置

Also Published As

Publication number Publication date
US20160049011A1 (en) 2016-02-18
JP6304240B2 (ja) 2018-04-04
EP2983140A1 (en) 2016-02-10
WO2014162824A1 (ja) 2014-10-09
CN105339865B (zh) 2018-05-22
EP2983140A4 (en) 2016-11-09
CN105339865A (zh) 2016-02-17

Similar Documents

Publication Publication Date Title
JP6304240B2 (ja) 表示制御装置、表示制御方法およびプログラム
JP6304241B2 (ja) 表示制御装置、表示制御方法およびプログラム
JP6308213B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6304242B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5843340B2 (ja) 3次元環境共有システム及び3次元環境共有方法
JP2019079056A (ja) モバイル端末、方法、プログラムおよび記録媒体
JP6288084B2 (ja) 表示制御装置、表示制御方法および記録媒体
JP5871345B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
US20200341284A1 (en) Information processing apparatus, information processing method, and recording medium
EP3654147A1 (en) System for the rendering of shared digital interfaces relative to each user's point of view
WO2015093130A1 (ja) 情報処理装置、情報処理方法およびプログラム
CN107884930B (zh) 头戴式装置及控制方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170123

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180219

R151 Written notification of patent or utility model registration

Ref document number: 6304240

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees