JPWO2014162852A1 - 画像処理装置、画像処理方法およびプログラム - Google Patents
画像処理装置、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JPWO2014162852A1 JPWO2014162852A1 JP2015509985A JP2015509985A JPWO2014162852A1 JP WO2014162852 A1 JPWO2014162852 A1 JP WO2014162852A1 JP 2015509985 A JP2015509985 A JP 2015509985A JP 2015509985 A JP2015509985 A JP 2015509985A JP WO2014162852 A1 JPWO2014162852 A1 JP WO2014162852A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- viewpoint
- display
- real space
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 99
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000003384 imaging method Methods 0.000 claims description 55
- 230000008859 change Effects 0.000 claims description 15
- 238000005516 engineering process Methods 0.000 abstract description 21
- 230000003993 interaction Effects 0.000 abstract description 18
- 238000010586 diagram Methods 0.000 description 58
- 238000000034 method Methods 0.000 description 44
- 230000033001 locomotion Effects 0.000 description 35
- 238000004891 communication Methods 0.000 description 28
- 230000006870 function Effects 0.000 description 27
- 241000220225 Malus Species 0.000 description 19
- 230000005540 biological transmission Effects 0.000 description 19
- 238000004458 analytical method Methods 0.000 description 7
- 241001503987 Clematis vitalba Species 0.000 description 5
- 230000008901 benefit Effects 0.000 description 5
- 230000003760 hair shine Effects 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000010411 cooking Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- OHVLMTFVQDZYHP-UHFFFAOYSA-N 1-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)-2-[4-[2-[[3-(trifluoromethoxy)phenyl]methylamino]pyrimidin-5-yl]piperazin-1-yl]ethanone Chemical compound N1N=NC=2CN(CCC=21)C(CN1CCN(CC1)C=1C=NC(=NC=1)NCC1=CC(=CC=C1)OC(F)(F)F)=O OHVLMTFVQDZYHP-UHFFFAOYSA-N 0.000 description 1
- 235000021016 apples Nutrition 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
1.システムおよび装置の構成
1−1.システム構成
1−2.装置構成
2.実空間画像の共有およびインタラクション
2−1.インタラクションの概念
2−2.利用されうる技術
3.可変視点画像の表示の例
4.アノテーションの実空間への表示
4−1.表示例
4−2.アノテーションの配置
5.視認可能範囲外にあるアノテーションの表示
6.その他の表示例
7.アプリケーションの例
8.補足
(1−1.システム構成)
図1は、本開示の一実施形態に係るシステムの概略的な構成を示す図である。図1を参照すると、システム10は、サーバ100と、クライアント200〜700とを有する。
(2)ディスプレイなどの表示手段と、タッチパネルなどの操作手段とを有し、(1)の装置から提供された画像をサーバ100から取得し、ユーザの閲覧に供するとともに、ユーザによる画像へのアノテーション入力を受け付ける装置。
(3)ディスプレイなどの表示手段を有し、(2)の装置によって入力が受け付けられたアノテーションを実空間に直接的または間接的に表示させる装置。
図2は、本開示の一実施形態に係る装置の概略的な構成を示す図である。図2を参照すると、装置900は、プロセッサ910、およびメモリ920を含む。装置900は、さらに、表示部930、操作部940、通信部950、撮像部960、またはセンサ970を含みうる。これらの構成要素は、バス980によって相互に接続される。装置900は、例えば、上記のサーバ100を構成するサーバ装置、およびクライアント200〜700を実現しうる。
次に、図3A〜図4を参照して、本開示の一実施形態に係るインタラクションの基本的な概念について説明する。
図3Aは、本開示の一実施形態における撮像画像の共有の例を示す図である。図示された例では、ウェアラブル端末200のカメラ260(撮像部)によって撮像された実空間の画像がサーバ100を介してタブレット端末300にストリーミング配信され、ディスプレイ330(表示部)に画像1300として表示される。このとき、ウェアラブル端末200では、撮像された実空間の画像がディスプレイ230(表示部)に表示されるか、実空間の像がディスプレイ230を透過して直接視認される。このときディスプレイ230に表示されている像(透過して視認される背景を含む)を、以下では画像1200として参照する。
本実施形態では、上述した実空間画像の共有とインタラクションを実現するにあたって、いくつかの技術が利用される。まず、本実施形態では、送信側の装置において、送信される実空間の画像データに空間情報が付加される。空間情報は、送信側の装置の撮像部(図3Aおよび図3Bの例ではウェアラブル端末200のカメラ260、図4の例ではタブレット端末300aのカメラ)が実空間の中でどのように移動しているかを推定することを可能にする情報である。
上記で説明した技術には、いくつかの利点がある。例えば、ウェアラブル端末200で実空間の画像が取得されてから、タブレット端末300で当該画像に対するアノテーションが入力され、さらにそのアノテーションがウェアラブル端末200に送信されるまでには時間差が生じていることが多い。
また、例えば、ウェアラブル端末200で表示される実空間の画像1200が、ディスプレイ230を透過して直接視認されるものであったり、ディスプレイ230の外側に見えている実空間の像と整合させてディスプレイ230に表示されるものであったりする場合、画像1200の範囲が、ウェアラブル端末200のカメラ260が撮像する実空間の画像の範囲よりも狭い(つまり、ウェアラブル端末200のユーザが視認している範囲よりも、撮像画像の範囲の方が広い)場合がありうる。
次に、図6〜図12を参照して、本開示の一実施形態に係る可変視点画像の表示について説明する。本実施形態では、上記のように、送信側の装置が、実空間の画像データに空間情報を付加して送信する。空間情報は、例えば送信側の装置の撮像部の実空間における位置および姿勢を示す情報である。この情報を利用すれば、以下で説明するように、1人称画像(撮像部が撮像した実空間の画像)の視点にとらわれず、自由な視点で実空間を観察する画像を生成して受信側の装置に提供することが可能である。
図6は、本開示の一実施形態における1人称画像の表示例を示す図である。図6には、1人称画像1010が示されている。1人称画像1010は、ウェアラブル端末200(送信側の装置)のカメラ260が撮像した画像であり、ウェアラブル端末200でディスプレイ230に表示される画像1200と同一でありうるため、本明細書では「1人称画像」という。1人称画像1010はストリーミングフレーム、つまりカメラ260が撮像している一連のフレーム画像であるため、その表示範囲は例えばウェアラブル端末200を装着したユーザの動きに伴って刻々と変化する。
図7〜図9は、本開示の一実施形態における3人称画像の表示例を示す図である。図7〜図9に示された3人称画像1020は、ウェアラブル端末200のカメラ260が存在する実空間を、撮像画像のデータとともに提供された空間情報に基づいて1人称画像とは異なる視点から仮想的に撮像した画像である。3人称画像1020は、1人称画像1010とは異なり、ウェアラブル端末200のカメラ260の実空間での位置、すなわち送信側の装置の視点に関わらず自由に設定された視点で生成されうるため、本明細書では「3人称画像」という。3人称画像1020は、例えば、サーバ100のプロセッサが、ウェアラブル端末200から提供された空間情報に基づいてウェアラブル端末200のカメラ260が取得した実空間の画像を加工することによって生成され、通信部によってタブレット端末300に送信されうる。
図10Aは、本開示の一実施形態における1.3人称画像の表示例を示す図である。図10Aには、1.3人称画像1030が示されている。1.3人称画像1030は、ウェアラブル端末200のカメラ260が撮像した画像に基づいて、カメラ260の背面側の視点から実空間を仮想的に撮像した画像である。1.3人称画像1030の視点は、1人称画像1010の視点とは別に設定されうるが、3人称画像1020の視点のように自由に設定されるわけではないため、本明細書では、1人称画像と3人称画像との中間的な性質を有する画像を意味する用語として「1.3人称画像」を用いる。なお、1.3人称画像1030の視点と1人称画像1010の視点との関係は、例えば図7および図8に示された3人称画像1020で表示される視点オブジェクト1022および視点オブジェクト1023の関係を参照すれば容易に理解できる。
さらに、図10D〜図10Fを参照して、本開示の一実施形態における1.3人称画像および3人称画像の例について説明する。なお、この項での説明では、1.3人称画像と3人称画像とを総称して体外離脱視点画像ともいう。
図10Dに示す追従モードは、画像を閲覧するユーザU(以下、閲覧ユーザともいう)が特段の操作をすることなく体外離脱視点画像を閲覧している場合に設定されるモードである。仮想カメラの位置姿勢が図示されるように決定されることによって、追従モードの画像1030dが表示される。例えばSLAM法などによって推定されたウェアラブル端末200(送信側の装置)のカメラ260の姿勢・位置Mbc(t)から得られる平行移動成分Tbc(t)および回転成分Rbc(t)のそれぞれをkT,kRの係数として平滑化したT’bc(t),R’bc(t)から、以下の式1によって平滑化されたカメラ姿勢M’bc(t)を得ることができる。
図10Eに示す視点移動モードは、例えば、画像を閲覧するユーザU(以下、閲覧ユーザともいう)が、ディスプレイから所定の距離以上離れてポインティング操作を実行した(図示された例ではジェスチャによってポインティング操作が実行されているが、ポインティングデバイスなどを使用したポインティング操作であってもよい)場合に設定されるモードである。視点移動モードでは、仮想カメラの位置Mvを移動させた画像1030eが表示されうる。
図10Fに示すポインティングモードは、例えば、画像を閲覧するユーザU(以下、閲覧ユーザともいう)が、ディスプレイから所定の距離以内でポインティング操作を実行した(図示された例ではジェスチャによってポインティング操作が実行されているが、ポインティングデバイスなどを使用したポインティング操作であってもよい)場合に設定されるモードである。ポインティングモードにおいて、仮想カメラの位置M’vは、上記の視点移動モードと同様のアルゴリズムによって決定されうる。ただし、仮想カメラの位置M’vは、さらに、フォーカスフレームFRM’をズームして見ることができる位置に設定されてもよい。これによって、閲覧ユーザは、フォーカスフレームFRM’をより詳細に観察することができる。このような仮想カメラの位置M’vの設定の結果、閲覧ユーザには画像1030fが提供される。
なお、上記の例では、ユーザUのディスプレイからの距離に応じて視点移動モードとポインティングモードとの切替えが実行されたが、この距離は、例えばディスプレイが比較的大型である場合にはディスプレイからユーザUの立ち位置までの距離であってもよい。また、例えば、タブレット端末やスマートフォンなどに設けられた比較的小型のディスプレイの場合には、視点移動モードとポインティングモードとの切替えに用いられる距離が、ジェスチャを実行しているユーザUの手(指)までの距離や、ユーザUが把持しているポインティングデバイスまでの距離として特定されてもよい。例えば、ユーザUが手のジェスチャによってポインティング操作を開始した場合、ディスプレイから手までの距離が閾値を超えている場合には視点移動モードが選択される。その後、ディスプレイから手までの距離が閾値以下になった場合に、上述のように視点移動モードがポインティングモードに切り替えられてもよい。
さらに、既に述べたように、本実施形態では実空間の位置を基準にしてアノテーションをやりとりする技術を利用することが可能である。この技術を利用すれば、タブレット端末300(受信側の装置)のユーザは、3人称画像1020や1.3人称画像1030において表示されるストリーミングフレーム1021,1031以外の領域に対してもアノテーションを入力することができる。これによって、例えば、ウェアラブル端末200(送信側の装置)が過去に見ていたが現在は見ていないオブジェクトや実空間内の位置に対してもアノテーションを加えることが可能である。このアノテーションは、例えば、後にストリーミングフレーム1021,1031が移動した場合に表示されてもよいし、後述する例のように、ウェアラブル端末200において、画像1200の外にアノテーションが存在することを示す通知が表示されてもよい。
続いて、図13〜図20を参照して、本開示の一実施形態におけるアノテーションの実空間への表示について説明する。本実施形態では、上記のように、送信側の装置において送信される実空間の画像データに空間情報が付加される。空間情報は、例えば送信側の装置の撮像部の実空間における位置および姿勢を示す情報である。この情報を利用すれば、受信側の装置で入力されたアノテーションを、さまざまな形で送信側の装置がある実空間に直接的または間接的に表示させることが可能である。
図13は、本開示の一実施形態におけるアノテーション表示の第1の例を示す図である。図13には、タブレット端末300cとタブレット端末300dとが示されている。図示された例において、タブレット端末300cは、図示しないカメラ(撮像部)によって実空間の画像を撮像し、それをディスプレイ330c(表示部)に画像1300cとして表示させる。タブレット端末300cのユーザは、ディスプレイ330c上に設けられたタッチセンサ340(操作部)によって画像1300cに対するアノテーション1310cを入力する。ここで、タブレット端末300cでは、画像1300c内の位置ではなく、画像1300cによってとらえられている実空間内の位置を指定してアノテーション1310cが入力される。実空間内の位置は、タブレット端末300cが撮像画像とともに取得する空間情報に基づいて指定することが可能であり、例えばタブレット端末300cの撮像部を基準にした相対的な位置、または空間内の特徴点などを基準とした位置として表現されうる。
図19は、本開示の一実施形態におけるアノテーションの配置について説明するための図である。図19に示されたウェアラブル端末200は、カメラ260(撮像部)で撮像した実空間の画像を空間情報とともにサーバ100に送信する。さらに、ウェアラブル端末200は、送信した画像に対して他の装置で入力されたアノテーションの情報を実空間の位置情報とともに受信し、受信した情報に基づいて、ディスプレイ230(表示部)を透過して視認される実空間の像に重畳してアノテーション1210を表示させる。なお、アノテーション1210は、実空間の像に重畳して仮想的に表示された結果ウェアラブル端末200のユーザに認識される位置に図示されている。つまり、図示されたようなアノテーション1210は、ウェアラブル端末200のユーザ以外には不可視である。
続いて、図21〜図32を参照して、本開示の一実施形態における視認可能範囲外にあるアノテーションの表示について説明する。本実施形態では、上記のように、送信側の装置において送信される実空間の画像データに空間情報が付加される。この空間情報を利用すれば、受信側の装置では、送信側の装置で表示されている画像の表示範囲に関わらず、実空間の任意の位置に対してアノテーションを入力することが可能である。
図21〜図23は、本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第1の例を示す図である。
図24および図25は、本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第2の例を示す図である。この第2の例では、視認可能範囲外にアノテーションの対象が存在することに加えて、アノテーションの対象までの距離が表示される。
図26および図27は、本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第3の例を示す図である。
図28は、本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第4の例を示す図である。図示された例では、アノテーションの対象であるリンゴ(APPLE)が画像1200の外にある場合に、リンゴにより近い画像1200の端部分1260が光る。例えば、画像1200aでは、リンゴが画面の右下の方向にあるため、右下の端部分1260aが光る。また、画像1200bでは、リンゴが画面の左上の方向にあるため、左上の端部分1260bが光る。画像1200cでは、リンゴが画面の左下の方向にあるため、左下の端部分1260cが光る。
図29は、本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第5の例を示す図である。図示された例では、アノテーションとしてコメント1220が表示されている。しかし、コメント1220は横に長いため、画像1200には表示しきれていない。図では、これによって生じる非表示部分1221も示されている。この場合のコメント1220の非表示部分1221も、視認可能範囲外にあるアノテーションであるといえる。この非表示部分1221の存在を示すために、コメント1220が画像1200の端部に当接した部分に発光領域1280が表示される。
図30は、本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の第6の例を示す図である。図示された例では、道案内で方向を示す矢印のアノテーション1210が表示されている。このアノテーション1210は、例えばユーザが画像1200bを見ている場合には視認可能であるが、画像1200aを見ている場合には視認可能ではない。そこで、ユーザが画像1200aを見ている場合には、アノテーション1210の影1290が表示されうる。影1290が表示されることによって、画像1200aを見ているユーザは、画面の上方の外にアノテーションが存在することを認識することができる。
図31および図32は、本開示の一実施形態における視認可能範囲外にあるアノテーションの表示の応用例を示す図である。図示された例では、ウェアラブル端末200のユーザが見ている画像1200が画像1200aから画像1200b、さらに画像1200cへと変化する中で、アノテーションの表示が変化する。画像1200には、アノテーションとして、ポインタ1210と、方向表示1230と、コメント1220とが表示される。
続いて、図33〜図35を参照して、本開示の一実施形態におけるその他の表示例について説明する。
続いて、図36〜図44を参照して、本開示の一実施形態を利用したアプリケーションの例について説明する。
本開示の実施形態は、例えば、上記で説明したような画像処理装置(サーバまたはクライアント)、システム、画像処理装置またはシステムで実行される画像処理方法、画像処理装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
(1)第1の視点から実空間を撮像した第1の画像を入力画像として出力画像を生成する画像処理部を備え、
前記画像処理部は、前記実空間における前記第1の視点の位置および姿勢に基づいて、前記実空間において前記第1の視点とは異なる位置および姿勢を有する第2の視点から前記実空間を仮想的に撮像した第2の画像を前記出力画像として生成する画像処理装置。
(2)前記第2の視点の位置および姿勢は、前記第1の視点の位置および姿勢を基準にして設定される、前記(1)に記載の画像処理装置。
(3)端末装置の表示部を制御して前記出力画像を表示させる表示制御部をさらに備え、
前記画像処理部は、前記実空間における前記第1の視点の位置および姿勢に基づいて、前記実空間において位置および姿勢が自由に設定される第3の視点から前記実空間を仮想的に撮像した第3の画像を前記出力画像として生成し、
前記表示制御部は、前記第2の画像または前記第3の画像のいずれかまたは両方を前記表示部に表示させる、前記(2)に記載の画像処理装置。
(4)前記表示制御部は、少なくとも前記第3の画像を前記表示部に表示させ、
前記画像処理部は、前記第2の視点が前記第3の画像の範囲に含まれる場合に、前記第2の視点を示すアイコンを前記第3の画像に表示させる、前記(3)に記載の画像処理装置。
(5)前記表示部に表示された画像に対するユーザ操作に基づく情報を取得する操作取得部をさらに備え、
前記画像処理部は、前記第2の視点を示すアイコンを選択するユーザ操作に基づく情報が取得された場合には、前記第2の画像を前記第3の画像とともに、または前記第3の画像に代えて前記出力画像として提供する、前記(4)に記載の画像処理装置。
(6)前記第2の視点は、前記第1の視点をセットバックさせた視点である、前記(2)〜(5)のいずれか1項に記載の画像処理装置。
(7)前記画像処理部は、連続的に撮像される前記第1の画像に基づいて連続的に前記第2の画像を生成し、
前記第2の視点の位置および姿勢は、前記第1の視点の位置および姿勢に追従して変化する、前記(2)〜(6)のいずれか1項に記載の画像処理装置。
(8)前記画像処理部は、前記第1の視点の位置および姿勢の変化をスムージングして前記第2の視点の位置および姿勢に反映させる、前記(7)に記載の画像処理装置。
(9)前記画像処理部は、前記第2の視点の位置および姿勢の変化量に制限を設定するとともに、前記第1の視点の位置および姿勢と前記第2の視点の位置および姿勢との関係に基づいて前記第2の画像内に表示される前記第1の画像が前記第2の画像の範囲から所定の割合以上外れた場合には前記制限を解除する、前記(8)に記載の画像処理装置。
(10)前記第2の視点の位置および姿勢は、前記実空間に配置されたオブジェクトの位置および姿勢を基準にして設定される、前記(1)に記載の画像処理装置。
(11)前記画像処理部は、前記第1の視点が前記第2の画像の範囲に含まれる場合に、前記第1の視点を示すアイコンを前記第2の画像に表示させる、前記(1)〜(10)のいずれか1項に記載の画像処理装置。
(12)端末装置の表示部を制御して前記出力画像を表示させる表示制御部と、
前記表示部に表示された画像に対するユーザ操作に基づく情報を取得する操作取得部と
をさらに備え、
前記画像処理部は、前記第1の視点を示すアイコンを選択するユーザ操作に基づく情報が取得された場合には、第1の画像を前記第2の画像とともに、または前記第2の画像に代えて前記出力画像として提供する、前記(11)に記載の画像処理装置。
(13)前記画像処理部は、前記実空間における位置および姿勢が互いに異なる複数の視点のうちのいずれか1つの視点を前記第2の視点として前記第2の画像を生成するとともに、前記複数の視点のうちの他の視点が前記第2の画像の範囲に含まれる場合に、前記他の視点を示すアイコンを前記第2の画像に表示させる、前記(1)〜(12)のいずれか1項に記載の画像処理装置。
(14)端末装置の表示部を制御して前記出力画像を表示させる表示制御部と、前記表示部に表示された画像に対するユーザ操作に基づく情報を取得する操作取得部と
をさらに備え、
前記画像処理部は、前記他の視点を示すアイコンを選択するユーザ操作に基づく情報が取得された場合には、前記選択されたアイコンに対応する前記他の視点を前記第2の視点として前記第2の画像を生成して、新たに生成された前記第2の画像を元の前記第2の画像とともに、または元の前記第2の画像に代えて前記出力画像として提供する、前記(13)に記載の画像処理装置。
(15)前記画像処理部は、前記第1の視点の位置および姿勢と前記第2の視点の位置および姿勢との関係に基づいて変形された前記第1の画像を前記第2の画像内に表示させる、前記(1)〜(14)のいずれか1項に記載の画像処理装置。
(16)前記画像処理部は、連続的に撮像される前記第1の画像に基づいて連続的に前記第2の画像を生成し、最新の前記第1の画像を前記第2の画像内に表示させるとともに、過去の前記第1の画像に基づいて前記第2の画像の前記最新の第1の画像以外の部分を生成する、前記(15)に記載の画像処理装置。
(17)前記画像処理部は、前記最新の第1の画像と前記過去の第1の画像との間、または前記過去の第1の画像同士の間でのステッチングによって前記第2の画像の前記最新の第1の画像以外の部分を生成する、前記(16)に記載の画像処理装置。
(18)前記画像処理部は、前記実空間における位置および姿勢が互いに異なる複数の前記第1の視点から前記実空間を撮像した複数の前記第1の画像を入力画像として前記出力画像を生成するとともに、前記複数の第1の視点のそれぞれの位置および姿勢と前記第1の視点の位置および姿勢との関係に基づいて変形された前記複数の第1の画像を前記第2の画像内に表示させる、前記(15)〜(17)のいずれか1項に記載の画像処理装置。
(19)第1の視点から実空間を撮像した第1の画像を入力画像として出力画像を生成するプロセッサが、
前記実空間における前記第1の視点の位置および姿勢に基づいて、前記実空間において前記第1の視点とは異なる位置および姿勢を有する第2の視点から前記実空間を仮想的に撮像した第2の画像を前記出力画像として生成すること
を含む画像処理方法。
(20)第1の視点から実空間を撮像した第1の画像を入力画像として出力画像を生成するコンピュータに、
前記実空間における前記第1の視点の位置および姿勢に基づいて、前記実空間において前記第1の視点とは異なる位置および姿勢を有する第2の視点から前記実空間を仮想的に撮像した第2の画像を前記出力画像として生成する機能
を実現させるためのプログラム。
100 サーバ
200,300,400,500,600,700 クライアント
900 装置
910 プロセッサ
920 メモリ
930 表示部
940 操作部
950 通信部
960 撮像部
970 センサ
Claims (20)
- 第1の視点から実空間を撮像した第1の画像を入力画像として出力画像を生成する画像処理部を備え、
前記画像処理部は、前記実空間における前記第1の視点の位置および姿勢に基づいて、前記実空間において前記第1の視点とは異なる位置および姿勢を有する第2の視点から前記実空間を仮想的に撮像した第2の画像を前記出力画像として生成する画像処理装置。 - 前記第2の視点の位置および姿勢は、前記第1の視点の位置および姿勢を基準にして設定される、請求項1に記載の画像処理装置。
- 端末装置の表示部を制御して前記出力画像を表示させる表示制御部をさらに備え、
前記画像処理部は、前記実空間における前記第1の視点の位置および姿勢に基づいて、前記実空間において位置および姿勢が自由に設定される第3の視点から前記実空間を仮想的に撮像した第3の画像を前記出力画像として生成し、
前記表示制御部は、前記第2の画像または前記第3の画像のいずれかまたは両方を前記表示部に表示させる、請求項2に記載の画像処理装置。 - 前記表示制御部は、少なくとも前記第3の画像を前記表示部に表示させ、
前記画像処理部は、前記第2の視点が前記第3の画像の範囲に含まれる場合に、前記第2の視点を示すアイコンを前記第3の画像に表示させる、請求項3に記載の画像処理装置。 - 前記表示部に表示された画像に対するユーザ操作に基づく情報を取得する操作取得部をさらに備え、
前記画像処理部は、前記第2の視点を示すアイコンを選択するユーザ操作に基づく情報が取得された場合には、前記第2の画像を前記第3の画像とともに、または前記第3の画像に代えて前記出力画像として提供する、請求項4に記載の画像処理装置。 - 前記第2の視点は、前記第1の視点をセットバックさせた視点である、請求項2に記載の画像処理装置。
- 前記画像処理部は、連続的に撮像される前記第1の画像に基づいて連続的に前記第2の画像を生成し、
前記第2の視点の位置および姿勢は、前記第1の視点の位置および姿勢に追従して変化する、請求項2に記載の画像処理装置。 - 前記画像処理部は、前記第1の視点の位置および姿勢の変化をスムージングして前記第2の視点の位置および姿勢に反映させる、請求項7に記載の画像処理装置。
- 前記画像処理部は、前記第2の視点の位置および姿勢の変化量に制限を設定するとともに、前記第1の視点の位置および姿勢と前記第2の視点の位置および姿勢との関係に基づいて前記第2の画像内に表示される前記第1の画像が前記第2の画像の範囲から所定の割合以上外れた場合には前記制限を解除する、請求項8に記載の画像処理装置。
- 前記第2の視点の位置および姿勢は、前記実空間に配置されたオブジェクトの位置および姿勢を基準にして設定される、請求項1に記載の画像処理装置。
- 前記画像処理部は、前記第1の視点が前記第2の画像の範囲に含まれる場合に、前記第1の視点を示すアイコンを前記第2の画像に表示させる、請求項1に記載の画像処理装置。
- 端末装置の表示部を制御して前記出力画像を表示させる表示制御部と、
前記表示部に表示された画像に対するユーザ操作に基づく情報を取得する操作取得部と
をさらに備え、
前記画像処理部は、前記第1の視点を示すアイコンを選択するユーザ操作に基づく情報が取得された場合には、第1の画像を前記第2の画像とともに、または前記第2の画像に代えて前記出力画像として提供する、請求項11に記載の画像処理装置。 - 前記画像処理部は、前記実空間における位置および姿勢が互いに異なる複数の視点のうちのいずれか1つの視点を前記第2の視点として前記第2の画像を生成するとともに、前記複数の視点のうちの他の視点が前記第2の画像の範囲に含まれる場合に、前記他の視点を示すアイコンを前記第2の画像に表示させる、請求項1に記載の画像処理装置。
- 端末装置の表示部を制御して前記出力画像を表示させる表示制御部と、前記表示部に表示された画像に対するユーザ操作に基づく情報を取得する操作取得部と
をさらに備え、
前記画像処理部は、前記他の視点を示すアイコンを選択するユーザ操作に基づく情報が取得された場合には、前記選択されたアイコンに対応する前記他の視点を前記第2の視点として前記第2の画像を生成して、新たに生成された前記第2の画像を元の前記第2の画像とともに、または元の前記第2の画像に代えて前記出力画像として提供する、請求項13に記載の画像処理装置。 - 前記画像処理部は、前記第1の視点の位置および姿勢と前記第2の視点の位置および姿勢との関係に基づいて変形された前記第1の画像を前記第2の画像内に表示させる、請求項1に記載の画像処理装置。
- 前記画像処理部は、連続的に撮像される前記第1の画像に基づいて連続的に前記第2の画像を生成し、最新の前記第1の画像を前記第2の画像内に表示させるとともに、過去の前記第1の画像に基づいて前記第2の画像の前記最新の第1の画像以外の部分を生成する、請求項15に記載の画像処理装置。
- 前記画像処理部は、前記最新の第1の画像と前記過去の第1の画像との間、または前記過去の第1の画像同士の間でのステッチングによって前記第2の画像の前記最新の第1の画像以外の部分を生成する、請求項16に記載の画像処理装置。
- 前記画像処理部は、前記実空間における位置および姿勢が互いに異なる複数の前記第1の視点から前記実空間を撮像した複数の前記第1の画像を入力画像として前記出力画像を生成するとともに、前記複数の第1の視点のそれぞれの位置および姿勢と前記第1の視点の位置および姿勢との関係に基づいて変形された前記複数の第1の画像を前記第2の画像内に表示させる、請求項15に記載の画像処理装置。
- 第1の視点から実空間を撮像した第1の画像を入力画像として出力画像を生成するプロセッサが、
前記実空間における前記第1の視点の位置および姿勢に基づいて、前記実空間において前記第1の視点とは異なる位置および姿勢を有する第2の視点から前記実空間を仮想的に撮像した第2の画像を前記出力画像として生成すること
を含む画像処理方法。 - 第1の視点から実空間を撮像した第1の画像を入力画像として出力画像を生成するコンピュータに、
前記実空間における前記第1の視点の位置および姿勢に基づいて、前記実空間において前記第1の視点とは異なる位置および姿勢を有する第2の視点から前記実空間を仮想的に撮像した第2の画像を前記出力画像として生成する機能
を実現させるためのプログラム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013078894 | 2013-04-04 | ||
JP2013078894 | 2013-04-04 | ||
JP2014002758 | 2014-01-09 | ||
JP2014002758 | 2014-01-09 | ||
PCT/JP2014/056984 WO2014162852A1 (ja) | 2013-04-04 | 2014-03-14 | 画像処理装置、画像処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2014162852A1 true JPWO2014162852A1 (ja) | 2017-02-16 |
JP6304242B2 JP6304242B2 (ja) | 2018-04-04 |
Family
ID=51658153
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015509985A Expired - Fee Related JP6304242B2 (ja) | 2013-04-04 | 2014-03-14 | 画像処理装置、画像処理方法およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US9823739B2 (ja) |
EP (1) | EP2983139A4 (ja) |
JP (1) | JP6304242B2 (ja) |
CN (2) | CN104104862B (ja) |
WO (1) | WO2014162852A1 (ja) |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6143469B2 (ja) * | 2013-01-17 | 2017-06-07 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP6459972B2 (ja) * | 2013-11-13 | 2019-01-30 | ソニー株式会社 | 表示制御装置、表示制御方法、およびプログラム |
US10600245B1 (en) | 2014-05-28 | 2020-03-24 | Lucasfilm Entertainment Company Ltd. | Navigating a virtual environment of a media content item |
US20170061700A1 (en) * | 2015-02-13 | 2017-03-02 | Julian Michael Urbach | Intercommunication between a head mounted display and a real world object |
US10037312B2 (en) * | 2015-03-24 | 2018-07-31 | Fuji Xerox Co., Ltd. | Methods and systems for gaze annotation |
US10627908B2 (en) * | 2015-03-27 | 2020-04-21 | Lucasfilm Entertainment Company Ltd. | Facilitate user manipulation of a virtual reality environment view using a computing device with touch sensitive surface |
JP6691351B2 (ja) * | 2015-03-31 | 2020-04-28 | 株式会社バンダイナムコエンターテインメント | プログラム及びゲームシステム |
JP6585929B2 (ja) * | 2015-06-02 | 2019-10-02 | キヤノン株式会社 | システム、システムの制御方法 |
ES2746448T3 (es) * | 2015-06-16 | 2020-03-06 | Nokia Technologies Oy | Realidad mediada |
US20160371885A1 (en) * | 2015-06-22 | 2016-12-22 | Anatolie Gavriliuc | Sharing of markup to image data |
US20190019308A1 (en) * | 2016-01-12 | 2019-01-17 | Suncorporation | Image display device |
JP6362631B2 (ja) * | 2016-01-15 | 2018-07-25 | 株式会社meleap | 画像表示システム、画像表示システムの制御方法、画像配信システムおよびヘッドマウントディスプレイ |
WO2017163384A1 (ja) * | 2016-03-24 | 2017-09-28 | 三菱電機株式会社 | データ処理装置、データ処理方法及びデータ処理プログラム |
CN109478339A (zh) * | 2016-07-29 | 2019-03-15 | 三菱电机株式会社 | 显示装置、显示控制装置和显示控制方法 |
JP6203346B1 (ja) * | 2016-08-16 | 2017-09-27 | 株式会社コロプラ | 仮想空間を提供する方法、プログラム、および記録媒体 |
TWI585617B (zh) * | 2016-08-31 | 2017-06-01 | 宅妝股份有限公司 | 互動方法及系統 |
JP2018055589A (ja) * | 2016-09-30 | 2018-04-05 | セイコーエプソン株式会社 | プログラム、物体の追跡方法、表示装置 |
JP7095602B2 (ja) | 2017-02-16 | 2022-07-05 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
DK179979B1 (en) * | 2017-05-16 | 2019-11-27 | Apple Inc. | DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR TOUCH INPUT PROCESSING |
JP6788845B2 (ja) * | 2017-06-23 | 2020-11-25 | パナソニックIpマネジメント株式会社 | 遠隔通信方法、遠隔通信システム及び自律移動装置 |
US10430924B2 (en) * | 2017-06-30 | 2019-10-01 | Quirklogic, Inc. | Resizable, open editable thumbnails in a computing device |
US20190057180A1 (en) * | 2017-08-18 | 2019-02-21 | International Business Machines Corporation | System and method for design optimization using augmented reality |
US10489951B2 (en) | 2017-09-29 | 2019-11-26 | Qualcomm Incorporated | Display of a live scene and auxiliary object |
CN109658514B (zh) * | 2017-10-11 | 2022-03-11 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置和计算机存储介质 |
US10553031B2 (en) | 2017-12-06 | 2020-02-04 | Microsoft Technology Licensing, Llc | Digital project file presentation |
WO2019163128A1 (ja) * | 2018-02-26 | 2019-08-29 | 三菱電機株式会社 | 仮想物体表示制御装置、仮想物体表示システム、仮想物体表示制御方法、及び仮想物体表示制御プログラム |
KR102279300B1 (ko) * | 2018-02-26 | 2021-07-19 | 미쓰비시덴키 가부시키가이샤 | 가상 물체 표시 제어 장치, 가상 물체 표시 시스템, 가상 물체 표시 제어 방법, 및 가상 물체 표시 제어 프로그램 |
JP7209474B2 (ja) | 2018-03-30 | 2023-01-20 | 株式会社スクウェア・エニックス | 情報処理プログラム、情報処理方法及び情報処理システム |
JP6658799B2 (ja) * | 2018-06-08 | 2020-03-04 | 株式会社セガゲームス | 端末装置及びプログラム |
US10785413B2 (en) | 2018-09-29 | 2020-09-22 | Apple Inc. | Devices, methods, and graphical user interfaces for depth-based annotation |
US11227446B2 (en) | 2019-09-27 | 2022-01-18 | Apple Inc. | Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality |
WO2021131991A1 (ja) * | 2019-12-23 | 2021-07-01 | ソニーグループ株式会社 | 映像生成装置、映像生成方法および映像生成プログラム |
US11727650B2 (en) | 2020-03-17 | 2023-08-15 | Apple Inc. | Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments |
JP2021157277A (ja) * | 2020-03-25 | 2021-10-07 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7513723B2 (ja) * | 2020-08-06 | 2024-07-09 | マクセル株式会社 | 仮想現実共有方法及びシステム |
US11941764B2 (en) | 2021-04-18 | 2024-03-26 | Apple Inc. | Systems, methods, and graphical user interfaces for adding effects in augmented reality environments |
US20240296632A1 (en) | 2021-06-28 | 2024-09-05 | Kyocera Corporation | Wearable terminal apparatus, program, and display method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05191902A (ja) * | 1991-10-31 | 1993-07-30 | Railway Technical Res Inst | 画像データ処理方式 |
JPH11122638A (ja) * | 1997-10-15 | 1999-04-30 | Oki Electric Ind Co Ltd | 画像処理装置および画像処理方法ならびに画像処理プログラムが記録されたコンピュータ読み取り可能な情報記録媒体 |
JP2006053694A (ja) * | 2004-08-10 | 2006-02-23 | Riyuukoku Univ | 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体 |
JP2009301350A (ja) * | 2008-06-13 | 2009-12-24 | Kyocera Mita Corp | 仮想映像表示システム及び仮想映像表示方法 |
JP2011130323A (ja) * | 2009-12-21 | 2011-06-30 | Canon Inc | 放送受信装置及びその制御方法 |
JP2011227613A (ja) * | 2010-04-16 | 2011-11-10 | Canon Inc | 画像処理装置および方法 |
JP2012212345A (ja) * | 2011-03-31 | 2012-11-01 | Sony Corp | 端末装置、オブジェクト制御方法及びプログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100438623C (zh) * | 1999-04-16 | 2008-11-26 | 松下电器产业株式会社 | 图象处理装置及监视系统 |
JP4366023B2 (ja) * | 2001-03-16 | 2009-11-18 | インターナショナル・ビジネス・マシーンズ・コーポレーション | ビデオ・イメージの部分イメージ領域抽出方法、部分イメージ領域抽出システム、部分イメージ領域抽出のためのプログラム、抽出されたビデオ・イメージの配信方法およびコンテンツ作成方法 |
JP2004005272A (ja) * | 2002-05-31 | 2004-01-08 | Cad Center:Kk | 仮想空間移動制御装置及び制御方法並びに制御プログラム |
WO2007011306A2 (en) * | 2005-07-20 | 2007-01-25 | Bracco Imaging S.P.A. | A method of and apparatus for mapping a virtual model of an object to the object |
CN101170961A (zh) * | 2005-03-11 | 2008-04-30 | 布拉科成像S.P.A.公司 | 利用显微镜的用于外科手术导航及可视化的方法及设备 |
WO2009089129A1 (en) * | 2008-01-04 | 2009-07-16 | 3M Innovative Properties Company | Global camera path optimization |
JP5035284B2 (ja) * | 2009-03-25 | 2012-09-26 | 株式会社日本自動車部品総合研究所 | 車両周辺表示装置 |
US20110007134A1 (en) * | 2009-07-13 | 2011-01-13 | Raytheon Company | Synchronizing video images and three dimensional visualization images |
US9383888B2 (en) * | 2010-12-15 | 2016-07-05 | Microsoft Technology Licensing, Llc | Optimized joint document review |
-
2014
- 2014-03-14 WO PCT/JP2014/056984 patent/WO2014162852A1/ja active Application Filing
- 2014-03-14 US US14/779,452 patent/US9823739B2/en not_active Expired - Fee Related
- 2014-03-14 EP EP14779795.5A patent/EP2983139A4/en not_active Withdrawn
- 2014-03-14 JP JP2015509985A patent/JP6304242B2/ja not_active Expired - Fee Related
- 2014-03-28 CN CN201410122662.6A patent/CN104104862B/zh not_active Expired - Fee Related
- 2014-03-28 CN CN201420149871.5U patent/CN204465706U/zh not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05191902A (ja) * | 1991-10-31 | 1993-07-30 | Railway Technical Res Inst | 画像データ処理方式 |
JPH11122638A (ja) * | 1997-10-15 | 1999-04-30 | Oki Electric Ind Co Ltd | 画像処理装置および画像処理方法ならびに画像処理プログラムが記録されたコンピュータ読み取り可能な情報記録媒体 |
JP2006053694A (ja) * | 2004-08-10 | 2006-02-23 | Riyuukoku Univ | 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体 |
JP2009301350A (ja) * | 2008-06-13 | 2009-12-24 | Kyocera Mita Corp | 仮想映像表示システム及び仮想映像表示方法 |
JP2011130323A (ja) * | 2009-12-21 | 2011-06-30 | Canon Inc | 放送受信装置及びその制御方法 |
JP2011227613A (ja) * | 2010-04-16 | 2011-11-10 | Canon Inc | 画像処理装置および方法 |
JP2012212345A (ja) * | 2011-03-31 | 2012-11-01 | Sony Corp | 端末装置、オブジェクト制御方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6304242B2 (ja) | 2018-04-04 |
CN104104862B (zh) | 2018-12-07 |
CN204465706U (zh) | 2015-07-08 |
WO2014162852A1 (ja) | 2014-10-09 |
EP2983139A4 (en) | 2016-12-28 |
US9823739B2 (en) | 2017-11-21 |
EP2983139A1 (en) | 2016-02-10 |
US20160054793A1 (en) | 2016-02-25 |
CN104104862A (zh) | 2014-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6304242B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP6304241B2 (ja) | 表示制御装置、表示制御方法およびプログラム | |
JP6308213B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP6304240B2 (ja) | 表示制御装置、表示制御方法およびプログラム | |
US11886633B2 (en) | Virtual object display interface between a wearable device and a mobile device | |
US9384594B2 (en) | Anchoring virtual images to real world surfaces in augmented reality systems | |
US20130208005A1 (en) | Image processing device, image processing method, and program | |
US20140313228A1 (en) | Image processing device, and computer program product |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180219 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6304242 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |