JP2014191718A - 表示制御装置、表示制御方法および記録媒体 - Google Patents

表示制御装置、表示制御方法および記録媒体 Download PDF

Info

Publication number
JP2014191718A
JP2014191718A JP2013068395A JP2013068395A JP2014191718A JP 2014191718 A JP2014191718 A JP 2014191718A JP 2013068395 A JP2013068395 A JP 2013068395A JP 2013068395 A JP2013068395 A JP 2013068395A JP 2014191718 A JP2014191718 A JP 2014191718A
Authority
JP
Japan
Prior art keywords
virtual object
display control
control unit
space
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013068395A
Other languages
English (en)
Inventor
Shingo Tsurumi
辰吾 鶴見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013068395A priority Critical patent/JP2014191718A/ja
Priority to US14/169,474 priority patent/US9261954B2/en
Priority to CN201410108001.8A priority patent/CN104077023B/zh
Publication of JP2014191718A publication Critical patent/JP2014191718A/ja
Priority to US15/045,246 priority patent/US9886798B2/en
Priority to US15/855,377 priority patent/US10733807B2/en
Priority to US16/927,665 priority patent/US10922902B2/en
Priority to US17/162,535 priority patent/US11348326B2/en
Priority to US17/745,295 priority patent/US11836883B2/en
Priority to US18/470,971 priority patent/US11954816B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Abstract

【課題】AR空間に配置された仮想オブジェクトの位置をユーザの意図に従って変更することを可能とする技術を提供する。
【解決手段】撮像部により撮像された画像に映る実オブジェクトの認識結果に応じて実空間に対応する拡張現実空間内に仮想オブジェクトを配置する表示制御部と、ユーザ操作を取得する操作取得部と、を備え、前記表示制御部は、前記ユーザ操作が第1の操作である場合には、前記仮想オブジェクトを前記拡張現実空間内において移動させる、表示制御装置が提供される。
【選択図】図1

Description

本開示は、表示制御装置、表示制御方法および記録媒体に関する。
近年、実空間に付加的な情報を重畳してユーザに呈示する拡張現実(AR:Augmented Reality)と呼ばれる技術が注目されている。AR技術においてユーザに呈示される情報は、テキスト、アイコンまたはアニメーションなどの様々な形態の仮想的なオブジェクトを用いて可視化され得る。AR空間へのアノテーションの配置は、通常、画像に映る実空間の3次元構造の認識に基づいて行われる。
実空間の3次元構造を認識するための手法としては、例えば、SfM(Structure from Motion)法およびSLAM(Simultaneous Localization And Mapping)法が知られている。SfM法では、視点を変えながら撮像される複数の画像から、それら画像に映る実空間の3次元構造が視差を利用して認識される。SLAM法についての説明は、下記非特許文献1においてなされている。下記特許文献1は、SLAM法において初期化の際に選択される特徴点の3次元位置をSfM法を用いて認識する手法を開示している。
特開2009−237845号公報
Andrew J.Davison,"Real−Time Simultaneous Localization and Mapping with a Single Camera",Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403−1410
一般的に、AR空間への仮想オブジェクトの配置がなされた後は、仮想オブジェクトはユーザの意図に依らずに事前に定められた状態を維持する。しかし、ユーザは、仮想オブジェクトが配置された後に仮想オブジェクトの状態を変更したいと考える場合がある。例えば、ユーザは、仮想オブジェクトが配置された後に仮想オブジェクトのAR空間における位置を変更したいと考える場合がある。
そこで、本開示において、AR空間に配置された仮想オブジェクトの位置をユーザの意図に従って変更することを可能とする技術を提案する。
本開示によれば、撮像部により撮像された画像に映る実オブジェクトの認識結果に応じて実空間に対応する拡張現実空間内に仮想オブジェクトを配置する表示制御部と、ユーザ操作を取得する操作取得部と、を備え、前記表示制御部は、前記ユーザ操作が第1の操作である場合には、前記仮想オブジェクトを前記拡張現実空間内において移動させる、表示制御装置が提供される。
また、本開示によれば、撮像部により撮像された画像に映る実オブジェクトの認識結果に応じて実空間に対応する拡張現実空間内に仮想オブジェクトを配置することと、ユーザ操作を取得することと、前記ユーザ操作が第1の操作である場合には、前記仮想オブジェクトを前記拡張現実空間内において移動させることと、を含む、表示制御方法が提供される。
また、本開示によれば、コンピュータを、撮像部により撮像された画像に映る実オブジェクトの認識結果に応じて実空間に対応する拡張現実空間内に仮想オブジェクトを配置する表示制御部と、ユーザ操作を取得する操作取得部と、を備え、前記表示制御部は、前記ユーザ操作が第1の操作である場合には、前記仮想オブジェクトを前記拡張現実空間内において移動させる、表示制御装置として機能させるためのプログラムを記録した、コンピュータに読み取り可能な記録媒体が提供される。
以上説明したように本開示によれば、AR空間に配置された仮想オブジェクトの位置をユーザの意図に従って変更することが可能である。
本開示の実施形態に係る表示制御装置の概要について説明するための図である。 本開示の実施形態に係る表示制御装置の機能構成例を示す図である。 重力ベクトルを考慮しない場合における仮想オブジェクトの初期表示例を示す図である。 重力ベクトルを考慮しない場合と重力ベクトルを考慮する場合との比較結果を示す図である。 重力ベクトルを考慮する場合における仮想オブジェクトの初期表示例を示す図である。 仮想オブジェクトの初期表示の動作例を示すフローチャートである。 仮想オブジェクトを拡張現実空間内に固定する場合を説明するための図である。 仮想オブジェクトを拡張現実空間内に固定する場合の表示例を示す図である。 仮想オブジェクトを拡張現実空間内において移動させる場合の仮想オブジェクト移動前の表示例を示す図である。 仮想オブジェクトを拡張現実空間内において移動させる場合を説明するための図である。 仮想オブジェクトの位置を移動可能領域にシフトさせる場合を説明するための図である。 仮想オブジェクトを拡張現実空間内において移動させる場合の仮想オブジェクト移動後の表示例を示す図である。 仮想オブジェクトの位置姿勢制御の動作例を示すフローチャートである。 仮想オブジェクトを拡張現実空間内において拡大する場合の仮想オブジェクト拡大前の表示例を示す図である。 仮想オブジェクトを拡張現実空間内において拡大する場合を説明するための図である。 仮想オブジェクトを拡張現実空間内において拡大する場合の仮想オブジェクト拡大後の表示例を示す図である。 仮想オブジェクトのサイズ制御の動作例を示すフローチャートである。 複数の仮想オブジェクトのうちの1の仮想オブジェクトを拡張現実空間内において拡大する場合の仮想オブジェクト拡大前の表示例を示す図である。 複数の仮想オブジェクトのうちの1の仮想オブジェクトを拡張現実空間内において拡大する場合の仮想オブジェクト拡大後の表示例を示す図である。 本開示の実施形態に係る表示制御装置のハードウェア構成例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットまたは数字を付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.実施形態
1−1.表示制御装置の概要
1−2.表示制御装置の機能構成例
1−3.仮想オブジェクトの初期表示
1−4.仮想オブジェクトの位置姿勢制御
1−5.仮想オブジェクトのサイズ制御
1−6.ハードウェア構成例
2.むすび
<<1.実施形態>>
[1−1.表示制御装置の概要]
最初に、本開示の実施形態に係る表示制御装置10の概要について説明する。図1は、本開示の実施形態に係る表示制御装置10の概要について説明するための図である。図1を参照すると、ユーザUaが有する表示制御装置10が示されている。表示制御装置10は、実空間1に向けられた撮像部120と操作部140と表示部160とを備える。撮像部120は、実空間1を撮像することによって画像を生成する。
図1に示した例では、表示部160は、撮像部120によって撮像された画像Im1を表示している。ユーザUaは表示部160によって表示された画像Im1に視点を当てることにより実空間1を把握することが可能である。しかし、画像Im1は必ずしも表示部160によって表示されなくてもよい。例えば、表示部160が透過型HMD(head mounted display)である場合には、表示部160によって画像Im1は表示されず、ユーザUaは、画像Im1の代わりに実空間1に直接視点を当ててもよい。
また、画像Im1には、実オブジェクトA1が映っている。例えば、画像Im1から実オブジェクトA1が認識されると、表示制御装置10は、実オブジェクトA1の認識結果に基づいて、仮想オブジェクトを実空間1に対応するAR空間に配置する。そうすれば、ユーザUaは、表示制御装置10によってAR空間に配置された仮想オブジェクトを、表示部160を介して閲覧することができる。実オブジェクトA1の認識は、表示制御装置10によってなされてもよいし、表示制御装置10とは異なる装置(例えば、サーバなど)によってなされてもよい。
ここで、一般的に、AR空間への仮想オブジェクトの配置がなされた後は、仮想オブジェクトはユーザの意図に依らずに事前に定められた状態を維持する。しかし、ユーザUaは、仮想オブジェクトが配置された後に仮想オブジェクトの状態を変更したいと考える場合がある。そこで、本開示においては、AR空間に配置された仮想オブジェクトの状態をユーザの意図に従って変更することを可能とする技術を提案する。
なお、以下の説明においては、表示制御装置10がカメラ機能付きのスマートフォンに適用される場合を例として説明するが、表示制御装置10は、スマートフォン以外の装置に適用されてもよい。例えば、表示制御装置10は、ビデオカメラ、デジタルカメラ、PDA(Personal Digital Assistants)、PC(Personal Computer)、携帯電話、携帯用音楽再生装置、携帯用映像処理装置、携帯用ゲーム機器、望遠鏡、双眼鏡等に適用されてもよい。
以上、本開示の実施形態に係る表示制御装置の概要について説明した。
[1−2.表示制御装置の機能構成例]
続いて、本開示の実施形態に係る表示制御装置10の機能構成例について説明する。図2は、本開示の実施形態に係る表示制御装置10の機能構成例を示す図である。図2に示すように、表示制御装置10は、制御部110、撮像部120、センサ部130、操作部140、記憶部150および表示部160を備える。
制御部110は、例えば、CPU(Central Processing Unit)またはDSP(Digital Signal Processor)などのプロセッサに相当する。制御部110は、記憶部150または他の記憶媒体に記憶されるプログラムを実行することにより、制御部110が有する様々な機能を発揮する。制御部110は、操作取得部111、センサデータ取得部112、画像認識部113、環境認識部114および表示制御部115などの各機能ブロックを有する。これら各機能ブロックが有する機能については後に説明する。
撮像部120は、画像を撮像するカメラモジュールである。撮像部120は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、画像を生成する。撮像部120により生成される画像は、制御部110に出力される。なお、図2に示した例では、撮像部120は表示制御装置10と一体化されているが、撮像部120は、表示制御装置10と別体に構成されていてもよい。例えば、表示制御装置10と有線または無線で接続される撮像装置が撮像部120として扱われてもよい。
センサ部130は、センサデータを取得する。例えば、センサ部130は、3軸加速度センサを含む。3軸加速度センサは、撮像部120に加わる重力加速度を測定し、重力加速度の大きさおよび方向を3次元的に表すセンサデータ(加速度データ)を生成する。追加的に、センサ部130は、地磁気センサを含んでもよい。地磁気センサは、撮像部120の座標系における地磁気の方向を表すセンサデータ(地磁気データ)を生成する。さらに、センサ部130は、測位センサ(例えば、GPS(Global Positioning System)センサ)を含んでもよい。測位センサは、実空間における表示制御装置10の緯度および経度を表すセンサデータ(測位データ)を生成する。なお、図2に示した例では、センサ部130は表示制御装置10と一体化されているが、センサ部130は、表示制御装置10と別体に構成されていてもよい。
操作部140は、ユーザによる操作を検出して制御部110に出力する。本明細書においては、操作部140がタッチパネルにより構成される場合を想定しているため、ユーザによる操作はタッチパネルをタップする操作に相当する。しかし、操作部140はタッチパネル以外のハードウェア(例えば、ボタン等)により構成されていてもよい。なお、図2に示した例では、操作部140は表示制御装置10と一体化されているが、操作部140は、表示制御装置10と別体に構成されていてもよい。
記憶部150は、半導体メモリまたはハードディスクなどの記憶媒体を用いて、制御部110を動作させるためのプログラムを記憶する。また、例えば、記憶部150は、プログラムによって使用される各種のデータ(例えば、各種のセンサデータ、仮想オブジェクトなど)を記憶することもできる。なお、図2に示した例では、記憶部150は表示制御装置10と一体化されているが、記憶部150は表示制御装置10と別体に構成されていてもよい。
表示部160は、表示制御部115による制御に従って、各種情報の表示を行う。表示部160は、例えば、表示制御装置10により生成されるARアプリケーションの画像を表示する。表示部160は、例えば、LCD(Liquid Crystal Display)、有機EL(Electroluminescence)ディスプレイ装置などにより構成される。なお、図2に示した例では、表示部160は表示制御装置10と一体化されているが、表示部160は表示制御装置10と別体に構成されていてもよい。例えば、表示制御装置10と有線または無線で接続される表示装置が表示部160として扱われてもよい。
以上、本開示の実施形態に係る表示制御装置10の機能構成例について説明した。
次節以降においては、本開示の表示制御装置10が有する機能として、「仮想オブジェクトの初期表示」、「仮想オブジェクトの位置姿勢制御」および「仮想オブジェクトのサイズ制御」の順に説明を続ける。なお、「仮想オブジェクトの初期表示」、「仮想オブジェクトの位置姿勢制御」および「仮想オブジェクトのサイズ制御」それぞれにおいて説明する機能は、すべてが組み合わされて用いられてもよいし、一部のみが組み合わされて用いられてもよい。
[1−3.仮想オブジェクトの初期表示]
まず、仮想オブジェクトの初期表示について説明する。図3を参照すると、撮像部120によって撮像された画像Im2には、実オブジェクトA1が映っている。また、画像認識部113によって実オブジェクトA1が認識され、認識結果に応じた仮想オブジェクトV1が表示制御部115によって実空間に対応するAR空間に配置されている。したがって、表示部160には、AR空間に配置された仮想オブジェクトV1が表示されている。
より詳細には、画像認識部113によって実オブジェクトA1の位置および姿勢が認識されると、表示制御部115は、実オブジェクトA1の位置に従って仮想オブジェクトV1の位置を特定するとともに実オブジェクトA1の姿勢に従って仮想オブジェクトV1の姿勢を特定し、特定した位置および姿勢に従って仮想オブジェクトV1を配置する。実オブジェクトA1の位置と仮想オブジェクトV1の位置との関係は、あらかじめ定められていてよい。また、実オブジェクトA1の姿勢と仮想オブジェクトV1の姿勢との関係もあらかじめ定められていてよい。
例えば、画像認識部113は、画像Im2に含まれる部分画像と、特徴データに含まれる各特徴点のパッチとを照合し、画像Im2に含まれる特徴点を検出する。画像認識部113は、画像Im2内のある領域に実オブジェクトA1に属する特徴点が高い密度で検出された場合には、その領域に実オブジェクトA1が映っていると認識し得る。画像認識部113は、検出された特徴点の間の位置関係と3次元形状データとに基づいて、認識された実オブジェクトA1の位置および姿勢をさらに認識し得る。
図3に示した例では、ユーザUaが水族館に訪れた際に、水槽の奥の壁面に実オブジェクトA1が存在している。ユーザUaが撮像部120を実オブジェクトA1にかざし、画像認識部113によって実オブジェクトA1が認識されると、認識結果に応じた仮想オブジェクトV1の例としてのサメが、表示制御部115によって実空間に対応するAR空間に配置される。しかし、仮想オブジェクトV1はサメ以外のいかなる仮想オブジェクトであってもよい。
また、図3に示した例では、表示制御部115が、仮想オブジェクトV1のAR空間におけるサイズをサイズM1として表示させている。仮想オブジェクトV1のAR空間におけるサイズは後に説明するような手法によって定められていてよい。また、表示制御部115が、仮想オブジェクトV1の実物大に対する仮想オブジェクトV1のAR空間における現在のサイズの割合を割合N1として表示させている。例えば、仮想オブジェクトV1の実物大もあらかじめ登録されていてよい。なお、仮想オブジェクトの実物大とは、仮想オブジェクトに対応する実オブジェクトのサイズを意味する。仮想オブジェクトとしてサメを想定する場合には、仮想オブジェクトの実物大とは、実オブジェクトとしてのサメのサイズを意味する。
ここで、例えば、実オブジェクトA1の姿勢が正常ではない場合などには、AR空間に配置される仮想オブジェクトV1の姿勢が正常ではなくなることが想定される。例えば、実オブジェクトA1が水平面上に置かれた場合に、仮想オブジェクトV1の姿勢が正常となるように実オブジェクトA1の姿勢と仮想オブジェクトV1の姿勢との関係が定められている場合を想定する。かかる場合、図3に示したように、実オブジェクトA1が壁面に存在する場合には、仮想オブジェクトVの姿勢が正常ではなくなることが予想される。
そこで、本節においては、実オブジェクトA1の姿勢が正常であるか否かに関わらず、仮想オブジェクトV1の初期表示を正常に行うための技術を提案する。
図4に示したように、正常な姿勢で実オブジェクトA0が置かれているとする。かかる場合には、実オブジェクトA0の位置および姿勢に従ってAR空間に配置される仮想オブジェクトV0も正常となる。一方、上記したように、正常ではない姿勢で実オブジェクトA1が置かれているとする。かかる場合には、実オブジェクトA1の位置および姿勢に従ってAR空間に配置される仮想オブジェクトV1も正常ではなくなる。
このような場合、例えば、表示制御部115は、重力ベクトルGに応じた姿勢となるように仮想オブジェクトV2を配置すればよい。重力ベクトルGは、センサ部130によって加速度データが検出された場合には、その加速度センサがセンサデータ取得部112によって重力ベクトルGとして取得され得る。例えば、表示制御部115は、重力ベクトルGが示す方向と仮想オブジェクトV1の姿勢とが満たすべき関係があらかじめ定められていれば、かかる関係を満たすように仮想オブジェクトV1を回転させればよい。
図4を参照すると、重力ベクトルGが示す方向と仮想オブジェクトV1の姿勢とが満たすべき関係を満たすように仮想オブジェクトV1が回転された結果が、仮想オブジェクトV2として示されている。また、図5を参照すると、画像Im3が撮像されており、かかる関係を満たすように仮想オブジェクトV1が回転された結果が、仮想オブジェクトV2として示されている。このように、重力ベクトルGを考慮して仮想オブジェクトV1の姿勢を変更することにより、正常な姿勢となるようにAR空間内に仮想オブジェクトV1を配置することが可能となる。

より詳細には、表示制御部115は、重力ベクトルGが示す方向と実オブジェクトA1の法線ベクトルの反対ベクトルとの関係によって、実オブジェクトA1がどのような姿勢であるかを把握し、実オブジェクトA1の姿勢に応じて仮想オブジェクトV1の回転度合いを決めてもよい。
例えば、表示制御部115は、重力ベクトルGが示す方向と実オブジェクトA1の法線ベクトルの反対ベクトルとのなす角が0度以上の場合であり、かつ、45度未満(または45度以下)である場合には、実オブジェクトA1が床面に配置されていると判断してもよい。かかる場合において、実オブジェクトA1の法線ベクトル方向に仮想オブジェクトV1が配置される場合には、表示制御部115は、仮想オブジェクトVを回転させなくてよい。
また、例えば、表示制御部115は、重力ベクトルGが示す方向と実オブジェクトA1の法線ベクトルの反対ベクトルとのなす角が45度以上の場合(または45度を上回る場合)であり、かつ、135度未満である場合には、実オブジェクトA1が壁面に貼られていると判断してもよい。かかる場合において、実オブジェクトA1の法線ベクトル方向に仮想オブジェクトV1が配置される場合には、表示制御部115は、仮想オブジェクトVを重力ベクトルGが示す方向に90度回転させてもよい。
また、例えば、表示制御部115は、重力ベクトルGが示す方向と実オブジェクトA1の法線ベクトルの反対ベクトルとのなす角が135度以上の場合(または135度を上回る場合)であり、かつ、180度以下である場合には、実オブジェクトA1が天井に貼られていると判断してもよい。かかる場合において、実オブジェクトA1の法線ベクトル方向に仮想オブジェクトV1が配置される場合には、表示制御部115は、仮想オブジェクトVを重力ベクトルGが示す方向に180度回転させてもよい。
図6は、仮想オブジェクトV2の初期表示の動作例を示すフローチャートである。まず、撮像部120により画像が撮像されると、画像認識部113は、撮像部120により撮像された画像から実オブジェクトA1を認識する(S11)。画像認識部113は、実オブジェクトA1の位置および姿勢を算出する(S12)。また、センサデータ取得部112は、センサ部130により検出されたセンサデータを取得し、センサデータに基づいて重力ベクトルを特定する(S14)。例えば、センサデータとして加速度データが取得された場合には、加速度データを重力ベクトルとして特定してよい。
表示制御部115は、実オブジェクトA1の位置に応じて仮想オブジェクトV1の位置を特定する(S15)。続いて、表示制御部115は、重力ベクトルに応じて仮想オブジェクトの姿勢を特定する(S16)。表示制御部115は、特定した位置および姿勢に基づいてAR空間に仮想オブジェクトV2を配置する(S17)。制御部110は、画像認識部113による実オブジェクトA1の認識が継続していれば(S18で「Yes」)、動作を終了してもよいが、画像認識部113による実オブジェクトA1の認識が継続中であれば、ステップS11に戻ってよい。
以上、仮想オブジェクトの初期表示について説明した。
[1−4.仮想オブジェクトの位置姿勢制御]
続いて、仮想オブジェクトの位置姿勢制御について説明する。図7を参照すると、AR空間2には、表示制御部115により仮想オブジェクトV2が配置されている。ここで、図7に示したように、撮像部120の位置および姿勢は、それぞれP1およびQ1であり、仮想オブジェクトV2の位置および姿勢は、それぞれp1およびq1であるとする。この状態で撮像部120の位置および姿勢が、それぞれP2およびQ2に変化したとする。この場合、一般的には、仮想オブジェクトV2は、AR空間内に固定される。しかし、ユーザUaは、仮想オブジェクトV2が配置された後に仮想オブジェクトV2のAR空間における位置を変更したいと考える場合がある。
例えば、ユーザUaがこれから仮想オブジェクトV2の写真撮影を行おうとしている場面を想定すれば、仮想オブジェクトV2を移動させて背景を決めた後に仮想オブジェクトV2の写真撮影を行いたいと望む場合も想定される。また、例えば、実オブジェクトA1を撮像範囲内に収めたくないとユーザUaが考えた場合には、実オブジェクトA1が撮像範囲から外れるような位置に仮想オブジェクトV2を移動させてから仮想オブジェクトV2の写真撮影を行いたいと望む場合も想定される。
そこで、本節においては、AR空間に配置された仮想オブジェクトV2の位置をユーザの意図に従って変更することを可能とする技術を提案する。
まず、AR空間に配置された仮想オブジェクトV2の位置を変更しない場合を説明する。例えば、表示制御部115は、第1の操作がなされていない間は、仮想オブジェクトV2をAR空間内に固定すればよい。第1の操作はどのような操作であってもよいが、仮想オブジェクトV2を指定する操作であってもよい。以下では、第1の操作として、仮想オブジェクトV2を指定する操作を用いる場合を例に説明する。仮想オブジェクトV2を指定する操作は、例えば、仮想オブジェクトV2を1または複数の操作体を用いて指定する操作を含んでもよい。
仮想オブジェクトV2を指定する操作は、例えば、仮想オブジェクトV2をタップする操作であってもよい。また、仮想オブジェクトV2を指定する操作は、表示部160が透過型HMDの場合には、仮想オブジェクトV2を二本の操作体(例えば、二本の指)で挟み込む操作であってもよい。あるいは、仮想オブジェクトV2を指定する操作は、仮想オブジェクトV2に視線を当てるというジェスチャであってもよい。例えば、仮想オブジェクトV2の指定が開始されてから解除されるまでの間、仮想オブジェクトV2を指定する操作がなされているとしてよい。
図7に示したように、仮想オブジェクトV2を指定しない状態で撮像部120の位置および姿勢が、それぞれP2およびQ2に変化したとする。表示制御部115は、仮想オブジェクトV2を指定しない状態では、仮想オブジェクトV2をAR空間内に固定すればよい。例えば、表示制御部115は、仮想オブジェクトV2を指定しない状態では、撮像部120と仮想オブジェクトV2との距離に応じて仮想オブジェクトV2の画像におけるサイズを変化させればよい。
例えば、図8を参照すると、画像Im4が撮像されている。図8に示したように、表示制御部115は、仮想オブジェクトV2を指定しない状態では、ユーザUaが仮想オブジェクトV2から遠ざかり、撮像部120と仮想オブジェクトV2とが遠ざかるにつれて、仮想オブジェクトV2の画像Im4におけるサイズを小さくすればよい。
また、表示制御部115は、仮想オブジェクトV2を指定しない状態では、撮像部120を基準とした仮想オブジェクトV2の姿勢に応じて仮想オブジェクトV2の画像における姿勢を変化させればよい。例えば、表示制御部115は、仮想オブジェクトV2を指定しない状態では、ユーザUaが撮像方向を変更し、撮像部120を基準とした仮想オブジェクトV2の姿勢が変化した場合には、変化後の姿勢に応じて仮想オブジェクトV2の画像における姿勢を変化させればよい。
一方、表示制御部115は、操作取得部111によって取得されたユーザ操作が、仮想オブジェクトV2を指定する操作である場合には、仮想オブジェクトV2をAR空間内において移動させればよい。表示制御部115は、仮想オブジェクトV2をAR空間内において移動させている間、何らかの出力を制御してもよい。例えば、表示制御部115は、仮想オブジェクトV2をAR空間内において移動させている間、仮想オブジェクトV2を移動させている旨を表示させてもよい。
例えば、図9に示したように、表示制御部115は、仮想オブジェクトV2が「移動中」である旨を示すメッセージL1を表示させてもよい。しかし、仮想オブジェクトV2を移動させている旨はメッセージ以外であってもよい。例えば、表示制御部115は、仮想オブジェクトV2を移動させている旨を、仮想オブジェクトV2に動きを持たせることにより表示させてもよい。
仮想オブジェクトV2をどのように移動させるかについては限定されない。一例として、図10に示したように、表示制御部115は、仮想オブジェクトV2を指定した状態で、撮像部120の位置がP2からP3に変化し、撮像部120の姿勢がQ2からQ3に変化した場合、表示制御部115は、撮像部120と仮想オブジェクトV2との相対的な位置関係を維持した状態で、仮想オブジェクトV2をAR空間内において移動させればよい。
このようにして仮想オブジェクトV2をAR空間内において移動させる場合には、仮想オブジェクトV2が撮像範囲に固定され得る。したがって、表示制御部115は、仮想オブジェクトV2が撮像範囲に固定されることを示す何らかの仮想オブジェクト(例えば、仮想オブジェクトV2に刺し込まれる串など)を表示させてもよい。図10に示した例では、仮想オブジェクトV2の位置がp1からp2に移動され、仮想オブジェクトV2の姿勢がq1からq2に変化されている。
また、表示制御部115は、どのような手法によって撮像部120の位置および姿勢を把握してもよい。例えば、表示制御部115は、環境認識部114による環境認識の結果に基づいて、撮像部120の位置および姿勢を把握してもよい。環境認識部114による環境認識としては、SLAM法に従った演算を用いることが可能である。SLAM法に従った演算によれば、撮像部120により撮像される画像に映る実空間の三次元構造と撮像部120の位置および姿勢とを動的に認識することが可能である。
なお、図10には、表示制御部115が仮想オブジェクトV2を指定する操作により指定される1の仮想オブジェクトV2をAR空間内において移動される例を示したが、移動される仮想オブジェクトの数は1つでなくてもよい。表示制御部115は、操作取得部111によって取得されたユーザ操作が、仮想オブジェクトを指定する操作である場合には、仮想オブジェクトを指定する操作により指定される1または複数の仮想オブジェクトをAR空間内において移動させてもよい。
かかる構成によって、ユーザUaは、仮想オブジェクトV2を指定する操作を開始してから解除するまでの間に撮像部120の位置および姿勢を変化させることで、仮想オブジェクトV2を移動させることが可能である。したがって、あたかもドラッグ&ドロップ操作を用いて仮想オブジェクトV2を移動させるような感覚をユーザUaに与えることができ、AR空間内における仮想オブジェクトV2の移動をユーザUaに対して直感的に行わせることができる。
ここで、仮想オブジェクトV2の移動先の環境は様々な環境であることが予想される。したがって、表示制御部115は、移動先の仮想オブジェクトV2の環境に基づいて、仮想オブジェクトV2を制御してもよい。例えば、図11に示したように、表示制御部115は、仮想オブジェクトV2の移動先の環境が移動不可能領域R2である場合には、仮想オブジェクトV2の位置を移動可能領域R1にシフトさせてもよい。移動不可能領域R2は、例えば、柱や壁などといった実オブジェクトであれば外部から侵入し得ないような領域であってもよい。
あるいは、表示制御部115は、仮想オブジェクトV2の移動先の環境に応じた動きを仮想オブジェクトV2に行わせるようにしてもよい。例えば、仮想オブジェクトV2の移動先の環境が海である場合には、仮想オブジェクトV2が泳ぎ始めるようなアニメーションを仮想オブジェクトV2に対して施してもよい。また、例えば、仮想オブジェクトV2の移動先の環境が陸である場合には、仮想オブジェクトV2の泳ぎが停止するようなアニメーションを仮想オブジェクトV2に対して施してもよい。
図12は、仮想オブジェクトV2をAR空間内において移動させた場合における仮想オブジェクトV2の移動後の表示例を示す図である。図12を参照すると、画像Im5が撮像されており、仮想オブジェクトV2が移動されている。このようにして、AR空間に配置された仮想オブジェクトV2の位置をユーザの意図に従って変更することが可能となる。図12に示した例では、水族館を背景とし、ユーザUaの家族と仮想オブジェクトV2とを同一の撮像範囲内に収めることが可能となっている。
図13は、仮想オブジェクトV2の位置姿勢制御の動作例を示すフローチャートである。まず、環境認識部114により環境認識が開始され(S21)、操作取得部111によってユーザ操作が取得される。表示制御部115は、仮想オブジェクトV2を指定する操作がなされていない場合には(S22で「No」)、仮想オブジェクトV2をAR空間に固定し、制御部110はS27に進む。
一方、表示制御部115は、仮想オブジェクトV2を指定する操作がなされた場合には(S22で「Yes」)、仮想オブジェクトV2をAR空間において移動させ(S24)、移動先の環境に基づいて仮想オブジェクトV2を制御する(S25)。さらに、表示制御部115は、仮想オブジェクトV2を移動させている旨を表示させ(S26)、制御部110はS27に進む。制御部110は、環境認識部114による環境認識が継続していれば(S27で「Yes」)、動作を終了してもよいが、環境認識部114による環境認識が継続中であれば、S22に戻ってよい。
以上、仮想オブジェクトの位置姿勢制御について説明した。
[1−5.仮想オブジェクトのサイズ制御]
続いて、仮想オブジェクトのサイズ制御について説明する。図14を参照すると、AR空間2には、表示制御部115により仮想オブジェクトV2が配置されている。ここで、一般的には、実オブジェクトA1の画像におけるサイズに応じて、仮想オブジェクトV2の画像におけるサイズが決定される。しかし、ユーザUaは、仮想オブジェクトV2が配置された後に仮想オブジェクトV2のAR空間におけるサイズを変更したいと考える場合がある。
例えば、ユーザUaがこれから仮想オブジェクトV2の写真撮影を行おうとしている場面を想定すれば、実物大までAR空間におけるサイズを大きくしてから仮想オブジェクトV2の写真撮影を行いたいと望む場合も想定される。そこで、本節においては、AR空間に配置された仮想オブジェクトV2のAR空間におけるサイズをユーザの意図に従って変更することを可能とする技術を提案する。
具体的には、表示制御部115は、ユーザ操作が第2の操作である場合には、第2の操作に基づいて仮想オブジェクトV2のAR空間におけるサイズを変更すればよい。第2の操作はどのような操作であってもよいが、例えば、図14に示すように、複数の操作体の間の距離を変更する操作を含んでもよい。例えば、ユーザ操作が、複数の操作体の間の距離を近づける操作(例えば、ピンチイン操作)である場合には、仮想オブジェクトV2のAR空間におけるサイズを縮小させればよい。
また、例えば、ユーザ操作が、複数の操作体の間の距離を遠ざける操作(例えば、ピンチアウト操作)である場合には、仮想オブジェクトV2のAR空間におけるサイズを拡大させればよい。図15を参照すると、仮想オブジェクトのAR空間におけるサイズが拡大された結果、AR空間に配置されている仮想オブジェクトが仮想オブジェクトV2から仮想オブジェクトV3に変更された様子が示されている。
図16は、仮想オブジェクトをAR空間内において拡大する場合の仮想オブジェクト拡大後の表示例を示す図である。図16に示したように、仮想オブジェクトV3を拡大することが可能である場合において、仮想オブジェクトV3の拡大に限度を設けてもよい。(あるいは、仮想オブジェクトV3を縮小することが可能である場合において、仮想オブジェクトV3の縮小に限度を設けてもよい。)例えば、図16には画像Im6が示されているが、図16に示したように、表示制御部115は、仮想オブジェクトのAR空間におけるサイズが仮想オブジェクトの実物大に達した場合には、仮想オブジェクトの拡大を停止すればよい。
また、表示制御部115は、仮想オブジェクトのAR空間におけるサイズが仮想オブジェクトの実物大に達した場合には、仮想オブジェクトのAR空間におけるサイズが仮想オブジェクトの実物大に達した旨を表示させてもよい。例えば、図16に示したように、表示制御部115は、仮想オブジェクトのAR空間におけるサイズが実物大に達した旨を示すメッセージL2を表示させてもよい。
また、図16に示した例では、表示制御部115が、仮想オブジェクトV3のAR空間におけるサイズをサイズM2として表示させている。また、表示制御部115が、仮想オブジェクトV3の実物大に対する仮想オブジェクトV3のAR空間における現在のサイズの割合を割合N2として表示させている。
ここで、仮想オブジェクトのAR空間におけるサイズが仮想オブジェクトの実物大に達したか否かを判断する手法は特に限定されない。一例として、表示制御部115は、実オブジェクトA1の実物大に関する既知のデータと、実オブジェクトA1の画像におけるサイズと、仮想オブジェクトの実物大に関する既知のデータとに基づいて、仮想オブジェクトのAR空間におけるサイズが仮想オブジェクトの実物大に達したか否かを判断すればよい。
より詳細には、表示制御部115は、既知のデータとして、実オブジェクトA1の実物大が登録されている場合、実オブジェクトA1の画像におけるサイズに対する実オブジェクトA1の実物大の割合を算出すればよい。そうすれば、表示制御部115は、実オブジェクトA1と仮想オブジェクトとが撮像部120から同じ距離に存在するときには、算出した割合を仮想オブジェクトの画像におけるサイズに乗じることにより仮想オブジェクトのAR空間におけるサイズを算出することができる。
なお、実オブジェクトA1と仮想オブジェクトとが撮像部120から異なる距離に存在しても、仮想オブジェクトのAR空間におけるサイズを算出することができる。例えば、実オブジェクトA1の画像におけるサイズに対する実オブジェクトA1の実物大の割合を用いれば、撮像部120の位置を基準とした実オブジェクトA1の実空間における位置を把握することができる。また、ユーザUaが撮像範囲に仮想オブジェクトが収まる位置まで撮像部120を移動させたとしても、表示制御部115は、環境認識の結果に基づいて、撮像部120の位置を基準とした実オブジェクトA1の実空間における位置および仮想オブジェクトのAR空間における位置を把握することができる。
そして、表示制御部115は、撮像部120の位置を基準とした仮想オブジェクトのAR空間における位置を用いて、仮想オブジェクトの画像におけるサイズから仮想オブジェクトのAR空間におけるサイズを把握することができる。既知のデータとして、仮想オブジェクトの実物大が登録されている場合には、表示制御部115は、仮想オブジェクトの実物大と仮想オブジェクトのAR空間におけるサイズとを比較することによって、仮想オブジェクトのAR空間におけるサイズが仮想オブジェクトの実物大に達したか否かを判断することができる。
一般的には、実オブジェクトの画像におけるサイズに応じて仮想オブジェクトの画像におけるサイズが決定されるため、AR空間において所望のサイズの仮想オブジェクトを配置するためには、実オブジェクトの実空間におけるサイズを調整するか、画像に映る実オブジェクトのサイズを調整する必要があった。本実施形態に係る仮想オブジェクトのサイズ制御によれば、ユーザ操作に従ってAR空間において所望のサイズの仮想オブジェクトを配置することが可能となる。
図17は、仮想オブジェクトのサイズ制御の動作例を示すフローチャートである。まず、環境認識部114により環境認識が開始され(S31)、操作取得部111によってユーザ操作が取得される。制御部110は、サイズ変更操作がなされていない場合には(S32で「No」)、S37に進む。
一方、表示制御部115は、サイズ変更操作がなされた場合には(S32で「Yes」)、仮想オブジェクトのAR空間におけるサイズを調整し(S33)、制御部110は、仮想オブジェクトのAR空間におけるサイズが実物大に達していない場合には(S34で「No」)、S37に進む。一方、表示制御部115は、仮想オブジェクトのAR空間におけるサイズが実物大に達した場合には(S34で「Yes」)、仮想オブジェクトの拡大を停止し(S35)、仮想オブジェクトのAR空間におけるサイズが実物大に達した旨を表示させ(S36)、制御部110は、S37に進む。
制御部110は、環境認識部114による環境認識が継続していれば(S37で「Yes」)、動作を終了してもよいが、環境認識部114による環境認識が継続中であれば、S31に戻ってよい。
以上においては、仮想オブジェクトが1つである場合を説明したが、仮想オブジェクトは複数存在する場合も想定される。かかる場合には、複数の仮想オブジェクトの一部のサイズを調整してもよいし、複数の仮想オブジェクトの全部のサイズを調整してもよい。例えば、表示制御部115は、撮像部120と複数の仮想オブジェクトそれぞれとの距離に応じてサイズ変更対象の仮想オブジェクトを選択してもよい。
図18は、仮想オブジェクトV11、V2のうち、仮想オブジェクトV2をAR空間内において拡大する場合の仮想オブジェクトV2拡大前の表示例を示す図である。図18を参照すると、画像Im7が撮像されている。図19は、仮想オブジェクトV2拡大後の表示例を示す図である。図18を参照すると、画像Im8が撮像されている。これらの図に示した例では、表示制御部115は、撮像部120から最も近い仮想オブジェクト(撮像部120から見て最も手前に存在する仮想オブジェクト)をサイズ変更対象として選択している。
かかる場合、例えば、撮像部120から最も近い仮想オブジェクトは他の仮想オブジェクトと区別される態様によって表示されてもよい。例えば、撮像部120から最も近い仮想オブジェクトは動きを有し、他の仮想オブジェクトは静止するように表示されてもよい。しかし、複数の仮想オブジェクトの一部のサイズを調整する手法は、かかる例に限定されない。
例えば、表示制御部115は、ユーザUaによって選択操作がなされた場合には、選択操作に基づいてサイズ変更対象の仮想オブジェクトを選択してもよい。選択操作は限定されないが、例えば、タップ操作であってもよい。あるいは、サイズ変更操作が、ピンチアウト操作やピンチイン操作である場合には、表示制御部115は、ピンチアウト操作やピンチイン操作のときに操作体によって直接的に指定された仮想オブジェクトを選択してもよい。
以上、仮想オブジェクトのサイズ制御について説明した。
[1−6.ハードウェア構成例]
続いて、本開示の実施形態に係る表示制御装置10のハードウェア構成例について説明する。図19は、本開示の実施形態に係る表示制御装置10のハードウェア構成例を示す図である。ただし、図19に示したハードウェア構成例は、表示制御装置10のハードウェア構成の一例を示したに過ぎない。したがって、表示制御装置10のハードウェア構成は、図19に示した例に限定されない。
図19に示したように、表示制御装置10は、CPU(Central Processing Unit)801と、ROM(Read Only Memory)802と、RAM(Random Access Memory)803と、センサ804と、入力装置808と、出力装置810と、ストレージ装置811と、ドライブ812と、撮像装置813と、通信装置815とを備える。
CPU801は、演算処理装置および制御装置として機能し、各種プログラムに従って表示制御装置10内の動作全般を制御する。また、CPU801は、マイクロプロセッサであってもよい。ROM802は、CPU801が使用するプログラムや演算パラメータ等を記憶する。RAM803は、CPU801の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。
センサ804は、表示制御装置10の状態を検知するための端末状態検知センサなどの各種検知用センサとその周辺回路からなる。センサ804としては、一例として、傾きセンサ、加速度センサ、方位センサ、温度センサ、湿度センサ、照度センサなどを挙げることができる。センサ804による検知信号は、CPU801に送られる。これにより、CPU801は、表示制御装置10の状態(傾き、加速度、方位、温度、湿度、照度など)を知ることができる。
入力装置808は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバーなどユーザが情報を入力するための入力部と、ユーザによる入力に基づいて入力信号を生成し、CPU801に出力する入力制御回路などから構成されている。表示制御装置10のユーザは、該入力装置808を操作することにより、表示制御装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置810は、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。さらに、出力装置810は、スピーカおよびヘッドホンなどの音声出力装置を含む。例えば、表示装置は、撮像された画像や生成された画像などを表示する。一方、音声出力装置は、音声データ等を音声に変換して出力する。
ストレージ装置811は、表示制御装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置811は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置811は、CPU801が実行するプログラムや各種データを格納する。
ドライブ812は、記憶媒体用リーダライタであり、表示制御装置10に内蔵、あるいは外付けされる。ドライブ812は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体71に記録されている情報を読み出して、RAM803に出力する。また、ドライブ812は、リムーバブル記憶媒体71に情報を書き込むこともできる。
撮像装置813は、光を集光する撮影レンズおよびズームレンズなどの撮像光学系、およびCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの信号変換素子を備える。撮像光学系は、被写体から発せられる光を集光して信号変換部に被写体像を形成し、信号変換素子は、形成された被写体像を電気的な画像信号に変換する。
通信装置815は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置815は、無線LAN(Local Area Network)対応通信装置であっても、LTE(Long Term Evolution)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。通信装置815は、例えば、ネットワーク30を介して他の装置と通信を行うことが可能である。
以上、本開示の実施形態に係る表示制御装置10のハードウェア構成例について説明した。
<<2.むすび>>
以上説明したように、本開示の実施形態によれば、撮像部120により撮像された画像に映る実オブジェクトA1の認識結果に応じて実空間に対応するAR空間内に仮想オブジェクトを配置する表示制御部115と、ユーザ操作を取得する操作取得部111と、を備え、表示制御部115は、ユーザ操作が第1の操作である場合には、仮想オブジェクトをAR空間内において移動させる、表示制御装置10が提供される。かかる構成によれば、AR空間に配置された仮想オブジェクトの位置をユーザの意図に従って変更することが可能となる。
また、本開示の実施形態に係る仮想オブジェクトの位置姿勢制御とサイズ制御とによれば、例えば、ユーザUaは、実物大まで仮想オブジェクトを拡大させる操作を行った場合、拡大させる操作の過程において仮想オブジェクトを撮像範囲内に収めるために仮想オブジェクトから遠ざかる必要が生じる場合が起こり得る。このような動作をユーザUaに行わせることによって、仮想オブジェクトの実物大をより直感的にユーザUaに把握させることが可能となる。
本開示の実施形態においては、仮想オブジェクトをAR空間内において移動させたりサイズ調整したりする場面として、仮想オブジェクトを撮像範囲内に収めた写真撮影を行う場面を主に想定した。しかし、本開示の実施形態はかかる場面以外のあらゆる場面に適用することが可能である。例えば、ゲームアプリケーションにおいて登場する仮想オブジェクトをAR空間内において移動させたりサイズ調整したりする場面にも、本開示の実施形態は有効に適用され得る。
また、本開示の実施形態においては、表示制御装置10によって仮想オブジェクトを制御した結果が、表示制御装置10のAR空間において反映される例を主に説明した。しかし、例えば、表示制御装置10と当該他の装置との間で同一のAR空間を共有している場合などには、表示制御装置10によって仮想オブジェクトを制御した結果は、表示制御装置10と通信可能な他の装置のAR空間に反映されてもよい。
なお、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した表示制御装置10が有する構成と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
撮像部により撮像された画像に映る実オブジェクトの認識結果に応じて実空間に対応する拡張現実空間内に仮想オブジェクトを配置する表示制御部と、
ユーザ操作を取得する操作取得部と、を備え、
前記表示制御部は、前記ユーザ操作が第1の操作である場合には、前記仮想オブジェクトを前記拡張現実空間内において移動させる、
表示制御装置。
(2)
前記表示制御部は、前記ユーザ操作が前記第1の操作である場合には、前記撮像部と前記仮想オブジェクトとの相対的な位置関係を維持した状態で、前記仮想オブジェクトを前記拡張現実空間内において移動させる、
前記(1)に記載の表示制御装置。
(3)
前記表示制御部は、前記ユーザ操作が前記第1の操作である場合には、前記第1の操作により指定される1または複数の仮想オブジェクトを前記拡張現実空間内において移動させる、
前記(1)または(2)に記載の表示制御装置。
(4)
前記表示制御部は、前記仮想オブジェクトを前記拡張現実空間内において移動させている間、前記仮想オブジェクトを移動させている旨を表示させる、
前記(1)〜(3)のいずれか一項に記載の表示制御装置。
(5)
前記表示制御部は、前記第1の操作がなされていない間は、前記仮想オブジェクトを前記拡張現実空間内に固定する、
前記(1)〜(4)のいずれか一項に記載の表示制御装置。
(6)
前記表示制御部は、前記第1の操作がなされていない間は、前記撮像部と前記仮想オブジェクトとの距離に応じて前記仮想オブジェクトの前記画像におけるサイズを変化させる、
前記(5)に記載の表示制御装置。
(7)
前記表示制御部は、前記第1の操作がなされていない間は、前記撮像部を基準とした前記仮想オブジェクトの姿勢に応じて前記仮想オブジェクトの前記画像における姿勢を変化させる、
前記(5)に記載の表示制御装置。
(8)
前記表示制御部は、移動先の前記仮想オブジェクトの環境に基づいて、前記仮想オブジェクトを制御する、
前記(1)〜(7)のいずれか一項に記載の表示制御装置。
(9)
前記表示制御部は、移動先の前記仮想オブジェクトの環境が移動不可能領域である場合には、前記仮想オブジェクトの位置を移動可能領域にシフトさせる、
前記(8)に記載の表示制御装置。
(10)
前記第1の操作は、前記仮想オブジェクトを1または複数の操作体を用いて指定する操作を含む、
前記(1)〜(9)のいずれか一項に記載の表示制御装置。
(11)
前記表示制御部は、前記ユーザ操作が第2の操作である場合には、前記第2の操作に基づいて前記仮想オブジェクトの前記拡張現実空間におけるサイズを変更する、
前記(1)に記載の表示制御装置。
(12)
前記表示制御部は、前記仮想オブジェクトの前記拡張現実空間におけるサイズが前記仮想オブジェクトの実物大に達した場合には、前記仮想オブジェクトの拡大を停止する、
前記(11)に記載の表示制御装置。
(13)
前記表示制御部は、前記仮想オブジェクトの前記拡張現実空間におけるサイズが前記仮想オブジェクトの実物大に達した場合には、前記仮想オブジェクトの前記拡張現実空間におけるサイズが前記仮想オブジェクトの実物大に達した旨を表示させる、
前記(11)または(12)に記載の表示制御装置。
(14)
前記表示制御部は、前記実オブジェクトの実物大に関する既知のデータと、前記実オブジェクトの前記画像におけるサイズと、前記仮想オブジェクトの実物大に関する既知のデータとに基づいて、前記仮想オブジェクトの前記拡張現実空間におけるサイズが前記仮想オブジェクトの実物大に達したか否かを判断する、
前記(11)〜(13)のいずれか一項に記載の表示制御装置。
(15)
前記表示制御部は、選択操作がなされた場合には、前記選択操作に基づいてサイズ変更対象の仮想オブジェクトを選択する、
前記(11)〜(14)のいずれか一項に記載の表示制御装置。
(16)
前記表示制御部は、前記撮像部と1または複数の仮想オブジェクトそれぞれとの距離に応じてサイズ変更対象の仮想オブジェクトを選択する、
前記(11)〜(14)のいずれか一項に記載の表示制御装置。
(17)
前記第2の操作は、複数の操作体の間の距離を遠ざける操作を含む、
前記(11)〜(16)のいずれか一項に記載の表示制御装置。
(18)
前記表示制御部は、重力ベクトルに応じた姿勢となるように前記仮想オブジェクトを配置する、
前記(1)に記載の表示制御装置。
(19)
撮像部により撮像された画像に映る実オブジェクトの認識結果に応じて実空間に対応する拡張現実空間内に仮想オブジェクトを配置することと、
ユーザ操作を取得することと、
前記ユーザ操作が第1の操作である場合には、前記仮想オブジェクトを前記拡張現実空間内において移動させることと、
を含む、表示制御方法。
(20)
コンピュータを、
撮像部により撮像された画像に映る実オブジェクトの認識結果に応じて実空間に対応する拡張現実空間内に仮想オブジェクトを配置する表示制御部と、
ユーザ操作を取得する操作取得部と、を備え、
前記表示制御部は、前記ユーザ操作が第1の操作である場合には、前記仮想オブジェクトを前記拡張現実空間内において移動させる、
表示制御装置として機能させるためのプログラムを記録した、コンピュータに読み取り可能な記録媒体。
1 実空間
2 AR空間
10 表示制御装置
110 制御部
111 操作取得部
112 センサデータ取得部
113 画像認識部
114 環境認識部
115 表示制御部
120 撮像部
130 センサ部
140 操作部
150 記憶部
160 表示部
Im1、Im2 画像
A0、A1 実オブジェクト
V0、V1、V2、V3、V11 仮想オブジェクト
M1、M2 サイズ
N1 割合
L1、L2 メッセージ
R1 移動可能領域
R2 移動不可能領域
Ua ユーザ
G 重力ベクトル

Claims (20)

  1. 撮像部により撮像された画像に映る実オブジェクトの認識結果に応じて実空間に対応する拡張現実空間内に仮想オブジェクトを配置する表示制御部と、
    ユーザ操作を取得する操作取得部と、を備え、
    前記表示制御部は、前記ユーザ操作が第1の操作である場合には、前記仮想オブジェクトを前記拡張現実空間内において移動させる、
    表示制御装置。
  2. 前記表示制御部は、前記ユーザ操作が前記第1の操作である場合には、前記撮像部と前記仮想オブジェクトとの相対的な位置関係を維持した状態で、前記仮想オブジェクトを前記拡張現実空間内において移動させる、
    請求項1に記載の表示制御装置。
  3. 前記表示制御部は、前記ユーザ操作が前記第1の操作である場合には、前記第1の操作により指定される1または複数の仮想オブジェクトを前記拡張現実空間内において移動させる、
    請求項1に記載の表示制御装置。
  4. 前記表示制御部は、前記仮想オブジェクトを前記拡張現実空間内において移動させている間、前記仮想オブジェクトを移動させている旨を表示させる、
    請求項1に記載の表示制御装置。
  5. 前記表示制御部は、前記第1の操作がなされていない間は、前記仮想オブジェクトを前記拡張現実空間内に固定する、
    請求項1に記載の表示制御装置。
  6. 前記表示制御部は、前記第1の操作がなされていない間は、前記撮像部と前記仮想オブジェクトとの距離に応じて前記仮想オブジェクトの前記画像におけるサイズを変化させる、
    請求項5に記載の表示制御装置。
  7. 前記表示制御部は、前記第1の操作がなされていない間は、前記撮像部を基準とした前記仮想オブジェクトの姿勢に応じて前記仮想オブジェクトの前記画像における姿勢を変化させる、
    請求項5に記載の表示制御装置。
  8. 前記表示制御部は、移動先の前記仮想オブジェクトの環境に基づいて、前記仮想オブジェクトを制御する、
    請求項1に記載の表示制御装置。
  9. 前記表示制御部は、移動先の前記仮想オブジェクトの環境が移動不可能領域である場合には、前記仮想オブジェクトの位置を移動可能領域にシフトさせる、
    請求項8に記載の表示制御装置。
  10. 前記第1の操作は、前記仮想オブジェクトを1または複数の操作体を用いて指定する操作を含む、
    請求項1に記載の表示制御装置。
  11. 前記表示制御部は、前記ユーザ操作が第2の操作である場合には、前記第2の操作に基づいて前記仮想オブジェクトの前記拡張現実空間におけるサイズを変更する、
    請求項1に記載の表示制御装置。
  12. 前記表示制御部は、前記仮想オブジェクトの前記拡張現実空間におけるサイズが前記仮想オブジェクトの実物大に達した場合には、前記仮想オブジェクトの拡大を停止する、
    請求項11に記載の表示制御装置。
  13. 前記表示制御部は、前記仮想オブジェクトの前記拡張現実空間におけるサイズが前記仮想オブジェクトの実物大に達した場合には、前記仮想オブジェクトの前記拡張現実空間におけるサイズが前記仮想オブジェクトの実物大に達した旨を表示させる、
    請求項11に記載の表示制御装置。
  14. 前記表示制御部は、前記実オブジェクトの実物大に関する既知のデータと、前記実オブジェクトの前記画像におけるサイズと、前記仮想オブジェクトの実物大に関する既知のデータとに基づいて、前記仮想オブジェクトの前記拡張現実空間におけるサイズが前記仮想オブジェクトの実物大に達したか否かを判断する、
    請求項11に記載の表示制御装置。
  15. 前記表示制御部は、選択操作がなされた場合には、前記選択操作に基づいてサイズ変更対象の仮想オブジェクトを選択する、
    請求項11に記載の表示制御装置。
  16. 前記表示制御部は、前記撮像部と1または複数の仮想オブジェクトそれぞれとの距離に応じてサイズ変更対象の仮想オブジェクトを選択する、
    請求項11に記載の表示制御装置。
  17. 前記第2の操作は、複数の操作体の間の距離を遠ざける操作を含む、
    請求項11に記載の表示制御装置。
  18. 前記表示制御部は、重力ベクトルに応じた姿勢となるように前記仮想オブジェクトを配置する、
    請求項1に記載の表示制御装置。
  19. 撮像部により撮像された画像に映る実オブジェクトの認識結果に応じて実空間に対応する拡張現実空間内に仮想オブジェクトを配置することと、
    ユーザ操作を取得することと、
    前記ユーザ操作が第1の操作である場合には、前記仮想オブジェクトを前記拡張現実空間内において移動させることと、
    を含む、表示制御方法。
  20. コンピュータを、
    撮像部により撮像された画像に映る実オブジェクトの認識結果に応じて実空間に対応する拡張現実空間内に仮想オブジェクトを配置する表示制御部と、
    ユーザ操作を取得する操作取得部と、を備え、
    前記表示制御部は、前記ユーザ操作が第1の操作である場合には、前記仮想オブジェクトを前記拡張現実空間内において移動させる、
    表示制御装置として機能させるためのプログラムを記録した、コンピュータに読み取り可能な記録媒体。
JP2013068395A 2013-03-28 2013-03-28 表示制御装置、表示制御方法および記録媒体 Pending JP2014191718A (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2013068395A JP2014191718A (ja) 2013-03-28 2013-03-28 表示制御装置、表示制御方法および記録媒体
US14/169,474 US9261954B2 (en) 2013-03-28 2014-01-31 Display control device, display control method, and recording medium
CN201410108001.8A CN104077023B (zh) 2013-03-28 2014-03-21 显示控制设备、显示控制方法以及记录介质
US15/045,246 US9886798B2 (en) 2013-03-28 2016-02-16 Display control device, display control method, and recording medium
US15/855,377 US10733807B2 (en) 2013-03-28 2017-12-27 Display control device, display control method, and recording medium
US16/927,665 US10922902B2 (en) 2013-03-28 2020-07-13 Display control device, display control method, and recording medium
US17/162,535 US11348326B2 (en) 2013-03-28 2021-01-29 Display control device, display control method, and recording medium
US17/745,295 US11836883B2 (en) 2013-03-28 2022-05-16 Display control device, display control method, and recording medium
US18/470,971 US11954816B2 (en) 2013-03-28 2023-09-20 Display control device, display control method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013068395A JP2014191718A (ja) 2013-03-28 2013-03-28 表示制御装置、表示制御方法および記録媒体

Publications (1)

Publication Number Publication Date
JP2014191718A true JP2014191718A (ja) 2014-10-06

Family

ID=51598324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013068395A Pending JP2014191718A (ja) 2013-03-28 2013-03-28 表示制御装置、表示制御方法および記録媒体

Country Status (3)

Country Link
US (7) US9261954B2 (ja)
JP (1) JP2014191718A (ja)
CN (1) CN104077023B (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016099996A (ja) * 2014-11-20 2016-05-30 財団法人 資訊工業策進会Institute For Information Industry モバイルデバイス、操作方法及び非一時的なコンピュータ読取可能な記憶媒体
JP2016167217A (ja) * 2015-03-10 2016-09-15 株式会社コロプラ ヘッドマウントディスプレイへ表示するためのユーザインタフェース表示方法、及びプログラム
JP2017199237A (ja) * 2016-04-28 2017-11-02 株式会社カプコン 仮想空間表示システム、ゲームシステム、仮想空間表示プログラムおよびゲームプログラム
JP6242473B1 (ja) * 2016-12-22 2017-12-06 株式会社コロプラ 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2018530043A (ja) * 2015-08-13 2018-10-11 ノキア テクノロジーズ オーユー イメージコンテンツ検索
JP6410874B1 (ja) * 2017-05-30 2018-10-24 株式会社タカラトミー Ar映像生成装置
JP2018190171A (ja) * 2017-05-02 2018-11-29 京セラドキュメントソリューションズ株式会社 表示装置
WO2019131143A1 (ja) 2017-12-27 2019-07-04 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2020198108A (ja) * 2017-04-28 2020-12-10 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理装置の制御方法、及びプログラム
WO2021020068A1 (ja) * 2019-07-26 2021-02-04 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2021012511A (ja) * 2019-07-05 2021-02-04 株式会社スクウェア・エニックス プログラム、画像処理方法及び画像処理システム
WO2022014700A1 (ja) * 2020-07-16 2022-01-20 株式会社ドワンゴ 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム
WO2022196199A1 (ja) * 2021-03-16 2022-09-22 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
JP2023000947A (ja) * 2021-06-18 2023-01-04 ヤフー株式会社 表示制御装置、表示制御方法および表示制御プログラム
WO2023067836A1 (ja) * 2021-10-18 2023-04-27 東芝デジタルソリューションズ株式会社 コンテンツ表示装置、コンテンツ表示プログラム、コンテンツ表示方法、及びコンテンツ表示システム
JP2023060799A (ja) * 2021-10-18 2023-04-28 東芝デジタルソリューションズ株式会社 コンテンツ表示装置、コンテンツ表示プログラム、コンテンツ表示方法、及びコンテンツ表示システム
US11960660B2 (en) 2020-07-16 2024-04-16 Popopo Inc Terminal device, virtual object manipulation method, and virtual object manipulation program

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016057997A1 (en) * 2014-10-10 2016-04-14 Pantomime Corporation Support based 3d navigation
JP6143469B2 (ja) * 2013-01-17 2017-06-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2014191718A (ja) 2013-03-28 2014-10-06 Sony Corp 表示制御装置、表示制御方法および記録媒体
US9704295B2 (en) * 2013-11-05 2017-07-11 Microsoft Technology Licensing, Llc Construction of synthetic augmented reality environment
KR102182161B1 (ko) 2014-02-20 2020-11-24 엘지전자 주식회사 Hmd 및 그 제어 방법
US10043319B2 (en) 2014-11-16 2018-08-07 Eonite Perception Inc. Optimizing head mounted displays for augmented reality
US9916002B2 (en) * 2014-11-16 2018-03-13 Eonite Perception Inc. Social applications for augmented reality technologies
WO2016077798A1 (en) 2014-11-16 2016-05-19 Eonite Perception Inc. Systems and methods for augmented reality preparation, processing, and application
US20160196693A1 (en) * 2015-01-06 2016-07-07 Seiko Epson Corporation Display system, control method for display device, and computer program
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
US10832479B2 (en) * 2015-06-15 2020-11-10 Sony Corporation Information processing apparatus, information processing method, and program
KR101666561B1 (ko) * 2015-07-13 2016-10-24 한국과학기술원 증강 공간 내 부분 공간 획득 시스템 및 방법
JP6597235B2 (ja) * 2015-11-30 2019-10-30 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
CN106371571B (zh) 2015-11-30 2019-12-13 北京智谷睿拓技术服务有限公司 信息处理方法、信息处理装置及用户设备
JP6665572B2 (ja) * 2016-02-16 2020-03-13 富士通株式会社 制御プログラム、制御方法およびコンピュータ
JP2017191378A (ja) * 2016-04-11 2017-10-19 富士通テン株式会社 拡張現実情報表示装置および拡張現実情報表示方法
EP3455700A1 (en) * 2016-05-12 2019-03-20 Google LLC System and method relating to movement in a virtual reality environment
CN106200916B (zh) * 2016-06-28 2019-07-02 Oppo广东移动通信有限公司 增强现实图像的控制方法、装置及终端设备
US10482662B2 (en) * 2016-06-30 2019-11-19 Intel Corporation Systems and methods for mixed reality transitions
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
US11017712B2 (en) 2016-08-12 2021-05-25 Intel Corporation Optimized display image rendering
JP6809034B2 (ja) * 2016-08-17 2021-01-06 富士ゼロックス株式会社 表示システム、制御装置、および、プログラム
DE102016010037A1 (de) * 2016-08-22 2018-02-22 Michael Schick Verändern einer Darstellung einer Realität für Informationszwecke
US9928660B1 (en) 2016-09-12 2018-03-27 Intel Corporation Hybrid rendering for a wearable display attached to a tethered computer
US10593116B2 (en) 2016-10-24 2020-03-17 Snap Inc. Augmented reality object manipulation
GB2555841A (en) * 2016-11-11 2018-05-16 Sony Corp An apparatus, computer program and method
EP3336805A1 (en) 2016-12-15 2018-06-20 Thomson Licensing Method and device for a placement of a virtual object of an augmented or mixed reality application in a real-world 3d environment
JP6866646B2 (ja) * 2017-01-16 2021-04-28 オムロン株式会社 センサ支援システム、端末、センサおよびセンサ支援方法
US10643397B2 (en) * 2017-03-19 2020-05-05 Purdue Research Foundation Window-shaping virtual reality system
US10509556B2 (en) * 2017-05-02 2019-12-17 Kyocera Document Solutions Inc. Display device
CN107168532B (zh) * 2017-05-05 2020-09-11 武汉秀宝软件有限公司 一种基于增强现实的虚拟同步显示方法及系统
CN107320955B (zh) * 2017-06-23 2021-01-29 武汉秀宝软件有限公司 一种基于多客户端的ar场馆界面交互方法及系统
US10922878B2 (en) * 2017-10-04 2021-02-16 Google Llc Lighting for inserted content
CN108355351A (zh) * 2017-11-28 2018-08-03 岳阳市数博环球实业有限公司 一种基于实时背景的电子游戏的生成方法
CN108332365B (zh) * 2018-01-04 2019-10-18 珠海格力电器股份有限公司 空调控制方法及装置
CN110119189B (zh) * 2018-02-05 2022-06-03 浙江商汤科技开发有限公司 Slam系统的初始化、ar控制方法、装置和系统
WO2019172704A1 (en) * 2018-03-08 2019-09-12 Samsung Electronics Co., Ltd. Method for intent-based interactive response and electronic device thereof
CN108427501B (zh) * 2018-03-19 2022-03-22 网易(杭州)网络有限公司 虚拟现实中移动控制方法和装置
CN108520552A (zh) * 2018-03-26 2018-09-11 广东欧珀移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN108479060B (zh) * 2018-03-29 2021-04-13 联想(北京)有限公司 一种显示控制方法及电子设备
CN110827412A (zh) * 2018-08-09 2020-02-21 北京微播视界科技有限公司 自适应平面的方法、装置和计算机可读存储介质
CN109508093B (zh) * 2018-11-13 2022-08-09 江苏视睿迪光电有限公司 一种虚拟现实交互方法及装置
DE102019218787A1 (de) * 2018-12-04 2020-06-04 Apple Inc. Verfahren, vorrichtung und system zum erzeugen von mit einer darstellung eines artikels verbundenen angeboten
USD900925S1 (en) * 2019-02-01 2020-11-03 Apple Inc. Type font and electronic device with graphical user interface
KR20200098034A (ko) * 2019-02-11 2020-08-20 삼성전자주식회사 가상 현실 유저 인터페이스를 제공하기 위한 전자 장치 및 그의 동작 방법
USD914762S1 (en) * 2019-03-27 2021-03-30 Mi Hee Lee Display screen or portion thereof with icon
CN110286754B (zh) * 2019-06-11 2022-06-24 Oppo广东移动通信有限公司 基于眼球追踪的投射方法及相关设备
US11397503B2 (en) * 2019-06-28 2022-07-26 Snap Inc. Association of user identifiers to augmented-reality content
CN114174895A (zh) * 2019-07-26 2022-03-11 奇跃公司 用于增强现实的系统和方法
CN110533780B (zh) * 2019-08-28 2023-02-24 深圳市商汤科技有限公司 一种图像处理方法及其装置、设备和存储介质
USD914763S1 (en) * 2019-09-17 2021-03-30 Mi Hee Lee Display screen or portion thereof with icon
US20210097731A1 (en) * 2019-09-26 2021-04-01 Apple Inc. Presenting environment based on physical dimension
EP4075392A4 (en) * 2019-12-10 2023-02-22 Sony Group Corporation INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD AND PROGRAM
CN111311741B (zh) * 2020-03-23 2023-07-07 重庆忽米网络科技有限公司 一种基于5g通信的交互式室内空间构建装置及方法
CN114201028B (zh) * 2020-09-01 2023-08-04 宏碁股份有限公司 扩增实境系统与其锚定显示虚拟对象的方法
CN112068703B (zh) * 2020-09-07 2021-11-16 北京字节跳动网络技术有限公司 目标物体的控制方法、装置、电子设备及存储介质
CN112774195B (zh) * 2021-02-05 2023-03-10 腾讯科技(深圳)有限公司 信息显示方法、装置、终端及存储介质

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157607A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
JP3944019B2 (ja) * 2002-07-31 2007-07-11 キヤノン株式会社 情報処理装置および方法
US7427996B2 (en) * 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2004199496A (ja) * 2002-12-19 2004-07-15 Sony Corp 情報処理装置および方法、並びにプログラム
US8072470B2 (en) * 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US7991220B2 (en) * 2004-09-01 2011-08-02 Sony Computer Entertainment Inc. Augmented reality game system using identification information to display a virtual object in association with a position of a real object
JP4500632B2 (ja) * 2004-09-07 2010-07-14 キヤノン株式会社 仮想現実感提示装置および情報処理方法
EP1929430A4 (en) * 2005-08-29 2011-06-29 Evryx Technologies Inc INTERACTIVITY OF MOBILITY RECOGNITION
JP4804256B2 (ja) * 2006-07-27 2011-11-02 キヤノン株式会社 情報処理方法
JP2008108246A (ja) * 2006-10-23 2008-05-08 Internatl Business Mach Corp <Ibm> 閲覧者の位置に従って仮想画像を生成するための方法、システム、およびコンピュータ・プログラム
US8902227B2 (en) * 2007-09-10 2014-12-02 Sony Computer Entertainment America Llc Selective interactive mapping of real-world objects to create interactive virtual-world objects
JP4989383B2 (ja) * 2007-09-10 2012-08-01 キヤノン株式会社 情報処理装置、情報処理方法
DE102007045835B4 (de) 2007-09-25 2012-12-20 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
JP4985516B2 (ja) 2008-03-27 2012-07-25 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
GB2465791A (en) * 2008-11-28 2010-06-02 Sony Corp Rendering shadows in augmented reality scenes
KR101633359B1 (ko) * 2009-10-20 2016-06-27 삼성전자 주식회사 투사 불변량을 이용한 무표식 증강 현실 구현 시스템 및 그 방법
JP5602618B2 (ja) * 2010-06-10 2014-10-08 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP5514637B2 (ja) * 2010-06-11 2014-06-04 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
EP2395765B1 (en) * 2010-06-14 2016-08-24 Nintendo Co., Ltd. Storage medium having stored therein stereoscopic image display program, stereoscopic image display device, stereoscopic image display system, and stereoscopic image display method
US9098182B2 (en) * 2010-07-30 2015-08-04 Apple Inc. Device, method, and graphical user interface for copying user interface objects between content regions
JP2012058968A (ja) 2010-09-08 2012-03-22 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP4869430B1 (ja) * 2010-09-24 2012-02-08 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
US9348141B2 (en) * 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
JP5799521B2 (ja) * 2011-02-15 2015-10-28 ソニー株式会社 情報処理装置、オーサリング方法及びプログラム
US9329469B2 (en) * 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US8872854B1 (en) * 2011-03-24 2014-10-28 David A. Levitt Methods for real-time navigation and display of virtual worlds
EP3654146A1 (en) * 2011-03-29 2020-05-20 QUALCOMM Incorporated Anchoring virtual images to real world surfaces in augmented reality systems
JP5724543B2 (ja) 2011-03-31 2015-05-27 ソニー株式会社 端末装置、オブジェクト制御方法及びプログラム
JP5765019B2 (ja) * 2011-03-31 2015-08-19 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
JP5741160B2 (ja) * 2011-04-08 2015-07-01 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
JP5702653B2 (ja) * 2011-04-08 2015-04-15 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
EP2521097B1 (en) * 2011-04-15 2020-01-22 Sony Interactive Entertainment Europe Limited System and Method of Input Processing for Augmented Reality
JP2012243147A (ja) * 2011-05-20 2012-12-10 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US20120306850A1 (en) * 2011-06-02 2012-12-06 Microsoft Corporation Distributed asynchronous localization and mapping for augmented reality
US8885883B2 (en) 2011-07-22 2014-11-11 Raytheon Company Enhancing GMAPD LADAR images using 3-D wallis statistical differencing
US9345957B2 (en) * 2011-09-30 2016-05-24 Microsoft Technology Licensing, Llc Enhancing a sport using an augmented reality display
US9081177B2 (en) * 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
JP6121647B2 (ja) * 2011-11-11 2017-04-26 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9497501B2 (en) * 2011-12-06 2016-11-15 Microsoft Technology Licensing, Llc Augmented reality virtual monitor
WO2013095383A1 (en) * 2011-12-20 2013-06-27 Intel Corporation User-to-user communication enhancement with augmented reality
US20130194304A1 (en) * 2012-02-01 2013-08-01 Stephen Latta Coordinate-system sharing for augmented reality
JP6044079B2 (ja) * 2012-02-06 2016-12-14 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2013174642A (ja) * 2012-02-23 2013-09-05 Toshiba Corp 映像表示装置
JP6040564B2 (ja) * 2012-05-08 2016-12-07 ソニー株式会社 画像処理装置、投影制御方法及びプログラム
US9041622B2 (en) * 2012-06-12 2015-05-26 Microsoft Technology Licensing, Llc Controlling a virtual object with a real controller device
US20130335405A1 (en) * 2012-06-18 2013-12-19 Michael J. Scavezze Virtual object generation within a virtual environment
US9310611B2 (en) * 2012-09-18 2016-04-12 Qualcomm Incorporated Methods and systems for making the use of head-mounted displays less obvious to non-users
US9552673B2 (en) * 2012-10-17 2017-01-24 Microsoft Technology Licensing, Llc Grasping virtual objects in augmented reality
US9430877B2 (en) * 2013-01-25 2016-08-30 Wilus Institute Of Standards And Technology Inc. Electronic device and method for selecting augmented content using the same
EP2953098B1 (en) * 2013-02-01 2019-03-13 Sony Corporation Information processing device, terminal device, information processing method, and programme
JP2014149712A (ja) * 2013-02-01 2014-08-21 Sony Corp 情報処理装置、端末装置、情報処理方法及びプログラム
US20140282220A1 (en) * 2013-03-14 2014-09-18 Tim Wantland Presenting object models in augmented reality images
US9418629B2 (en) * 2013-03-15 2016-08-16 Disney Enterprises, Inc. Optical illumination mapping
JP2014191718A (ja) * 2013-03-28 2014-10-06 Sony Corp 表示制御装置、表示制御方法および記録媒体
JP5790692B2 (ja) * 2013-03-29 2015-10-07 ソニー株式会社 情報処理装置、情報処理方法および記録媒体
JP6089898B2 (ja) * 2013-04-09 2017-03-08 ソニー株式会社 画像処理装置および記憶媒体
US9639984B2 (en) * 2013-06-03 2017-05-02 Daqri, Llc Data manipulation based on real world object manipulation

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016099996A (ja) * 2014-11-20 2016-05-30 財団法人 資訊工業策進会Institute For Information Industry モバイルデバイス、操作方法及び非一時的なコンピュータ読取可能な記憶媒体
JP2016167217A (ja) * 2015-03-10 2016-09-15 株式会社コロプラ ヘッドマウントディスプレイへ表示するためのユーザインタフェース表示方法、及びプログラム
JP2018530043A (ja) * 2015-08-13 2018-10-11 ノキア テクノロジーズ オーユー イメージコンテンツ検索
JP2017199237A (ja) * 2016-04-28 2017-11-02 株式会社カプコン 仮想空間表示システム、ゲームシステム、仮想空間表示プログラムおよびゲームプログラム
JP6242473B1 (ja) * 2016-12-22 2017-12-06 株式会社コロプラ 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP2018106258A (ja) * 2016-12-22 2018-07-05 株式会社コロプラ 仮想空間を提供するための方法、および当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
US11896893B2 (en) 2017-04-28 2024-02-13 Sony Interactive Entertainment Inc. Information processing device, control method of information processing device, and program
JP2020198108A (ja) * 2017-04-28 2020-12-10 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理装置の制御方法、及びプログラム
US11260287B2 (en) 2017-04-28 2022-03-01 Sony Interactive Entertainment Inc. Information processing device, control method of information processing device, and program
US11617942B2 (en) 2017-04-28 2023-04-04 Sony Interactive Entertainment Inc. Information processing device, control method of information processing device, and program
JP2018190171A (ja) * 2017-05-02 2018-11-29 京セラドキュメントソリューションズ株式会社 表示装置
JP2018205828A (ja) * 2017-05-30 2018-12-27 株式会社タカラトミー Ar映像生成装置
JP6410874B1 (ja) * 2017-05-30 2018-10-24 株式会社タカラトミー Ar映像生成装置
WO2019131143A1 (ja) 2017-12-27 2019-07-04 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
KR20200100059A (ko) 2017-12-27 2020-08-25 소니 주식회사 정보 처리 장치, 정보 처리 방법, 및 프로그램
US11156844B2 (en) 2017-12-27 2021-10-26 Sony Corporation Information processing apparatus, information processing method, and program
US11386612B2 (en) 2019-07-05 2022-07-12 Square Enix Co., Ltd. Non-transitory computer-readable medium, image processing method, and image processing system for controlling progress of information processing in response to a user operation
JP2021012511A (ja) * 2019-07-05 2021-02-04 株式会社スクウェア・エニックス プログラム、画像処理方法及び画像処理システム
WO2021020068A1 (ja) * 2019-07-26 2021-02-04 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2022018697A (ja) * 2020-07-16 2022-01-27 株式会社バーチャルキャスト 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム
WO2022014700A1 (ja) * 2020-07-16 2022-01-20 株式会社ドワンゴ 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム
US11960660B2 (en) 2020-07-16 2024-04-16 Popopo Inc Terminal device, virtual object manipulation method, and virtual object manipulation program
WO2022196199A1 (ja) * 2021-03-16 2022-09-22 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
JP2023000947A (ja) * 2021-06-18 2023-01-04 ヤフー株式会社 表示制御装置、表示制御方法および表示制御プログラム
WO2023067836A1 (ja) * 2021-10-18 2023-04-27 東芝デジタルソリューションズ株式会社 コンテンツ表示装置、コンテンツ表示プログラム、コンテンツ表示方法、及びコンテンツ表示システム
JP2023060799A (ja) * 2021-10-18 2023-04-28 東芝デジタルソリューションズ株式会社 コンテンツ表示装置、コンテンツ表示プログラム、コンテンツ表示方法、及びコンテンツ表示システム
JP7330323B2 (ja) 2021-10-18 2023-08-21 東芝デジタルソリューションズ株式会社 コンテンツ表示装置、コンテンツ表示プログラム、コンテンツ表示方法、及びコンテンツ表示システム

Also Published As

Publication number Publication date
US20180122149A1 (en) 2018-05-03
US20200342687A1 (en) 2020-10-29
US20140292645A1 (en) 2014-10-02
US10733807B2 (en) 2020-08-04
US9886798B2 (en) 2018-02-06
US11348326B2 (en) 2022-05-31
US9261954B2 (en) 2016-02-16
US20220277531A1 (en) 2022-09-01
CN104077023A (zh) 2014-10-01
US20210150823A1 (en) 2021-05-20
US11954816B2 (en) 2024-04-09
CN104077023B (zh) 2018-03-30
US11836883B2 (en) 2023-12-05
US10922902B2 (en) 2021-02-16
US20240013503A1 (en) 2024-01-11
US20160163117A1 (en) 2016-06-09

Similar Documents

Publication Publication Date Title
US11954816B2 (en) Display control device, display control method, and recording medium
US11188187B2 (en) Information processing apparatus, information processing method, and recording medium
US10412379B2 (en) Image display apparatus having live view mode and virtual reality mode and operating method thereof
US9307153B2 (en) Method and apparatus for previewing a dual-shot image
WO2019141100A1 (zh) 附加对象显示方法、装置、计算机设备及存储介质
US11122193B2 (en) Focusing lighting module
US11636644B2 (en) Output of virtual content
US9794495B1 (en) Multiple streaming camera navigation interface system
US20140168262A1 (en) User Interface for Augmented Reality Enabled Devices
JP2019047167A (ja) 撮像装置、画像表示システム、操作方法、プログラム
US10375312B2 (en) Imaging device and video generation method by imaging device
JPWO2017169369A1 (ja) 情報処理装置、情報処理方法、プログラム
WO2015068447A1 (ja) 情報処理装置、情報処理方法および情報処理システム
US20230215098A1 (en) Method and system for creating and storing map target
CN114764295A (zh) 立体场景切换方法、装置、终端及存储介质