JPWO2015189972A1 - 情報重畳画像表示装置および情報重畳画像表示プログラム - Google Patents
情報重畳画像表示装置および情報重畳画像表示プログラム Download PDFInfo
- Publication number
- JPWO2015189972A1 JPWO2015189972A1 JP2016518777A JP2016518777A JPWO2015189972A1 JP WO2015189972 A1 JPWO2015189972 A1 JP WO2015189972A1 JP 2016518777 A JP2016518777 A JP 2016518777A JP 2016518777 A JP2016518777 A JP 2016518777A JP WO2015189972 A1 JPWO2015189972 A1 JP WO2015189972A1
- Authority
- JP
- Japan
- Prior art keywords
- area
- information
- image
- display device
- unusable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 claims abstract description 70
- 238000010586 diagram Methods 0.000 claims description 148
- 238000000034 method Methods 0.000 claims description 83
- 238000004458 analytical method Methods 0.000 claims description 6
- 230000015572 biosynthetic process Effects 0.000 claims 1
- 238000003786 synthesis reaction Methods 0.000 claims 1
- 230000003190 augmentative effect Effects 0.000 abstract description 3
- 238000012545 processing Methods 0.000 description 21
- 238000001514 detection method Methods 0.000 description 15
- 239000003550 marker Substances 0.000 description 10
- 230000007717 exclusion Effects 0.000 description 9
- 238000000605 extraction Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/16—Indexing scheme for image data processing or generation, in general involving adaptation to the client's capabilities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/21—Indexing scheme for image data processing or generation, in general involving computational photography
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
不可領域選択部(130)は、情報処理表示デバイスを映した撮影画像(191)から、情報処理表示デバイスの表示領域を不可領域として選択する。AR画像生成部(140)は、不可領域を避けて撮影画像に重畳情報(192)を重畳したAR画像(194)を生成する。AR画像表示部(150)は、AR画像(194)をAR表示デバイスの表示領域に表示する。ARは拡張現実の略称である。
Description
本発明は、撮影画像に情報を重畳して表示する技術に関するものである。
現実世界または現実世界を映した映像にコンピュータによって生成したCGを重畳表示させるAR技術が普及してきている。CGはコンピュータグラフィックスの略称であり、ARは拡張現実の略称である。
例えば、ユーザが向いている方向に存在する建造物にCGをプロジェクターから投影する方法がある。また、スマートフォン、タブレット端末またはウェアラブル端末等の情報端末が備えるカメラで撮影した映像をその情報端末の画面に表示する際に、CGを重畳表示する方法がある。
これらの技術は、周辺の建築物を説明する情報を観光客向けに表示する観光支援システム、または、目的地までの道順をCGで表示するナビゲーションシステムなどの用途に用いることができる。
例えば、ユーザが向いている方向に存在する建造物にCGをプロジェクターから投影する方法がある。また、スマートフォン、タブレット端末またはウェアラブル端末等の情報端末が備えるカメラで撮影した映像をその情報端末の画面に表示する際に、CGを重畳表示する方法がある。
これらの技術は、周辺の建築物を説明する情報を観光客向けに表示する観光支援システム、または、目的地までの道順をCGで表示するナビゲーションシステムなどの用途に用いることができる。
ところで、現実世界にCGを重畳表示した場合、重畳表示した部分に存在する現実世界が見えない状況、または、見難い状況となる。その状況は、CGが重畳された部分の現実世界を見なくてよい場合には問題とならないが、現実世界を見たい場合にはユーザビリティの観点で課題となる。
また、現実世界には、AR技術によってCGを重畳表示する情報処理端末の他にも、ユーザに有益な情報を発信する表示デバイスが存在する。そのため、表示デバイスが表示された部分にCGを重畳表示した場合、表示デバイスから発信される情報が遮断され、ユーザの利益が損なわれる。
また、現実世界には、AR技術によってCGを重畳表示する情報処理端末の他にも、ユーザに有益な情報を発信する表示デバイスが存在する。そのため、表示デバイスが表示された部分にCGを重畳表示した場合、表示デバイスから発信される情報が遮断され、ユーザの利益が損なわれる。
特許文献1は、CGを重畳表示しないCG除去領域を指定することによって、CG除去領域にCGが重畳表示されることを防ぐ技術を開示している。
但し、ユーザは、CG除去フレーム、電子ペンまたは自身の手を用いて、CG除去領域を明示的に指定する必要がある。
そのため、CG除去領域の位置およびサイズを調整する労力が生じる。また、CG除去領域にCGが重畳表示されなくなるため、重畳表示すべきCGの一部が欠落する可能性がある。また、CG除去領域が必要以上に大きい場合、CGが全く表示されない可能性がある。したがって、効果的な情報発信が行えなくなることが予想される。
一方、CGが表示デバイスに重畳表示される場合、ユーザは表示デバイスに表示されている情報を認知することが困難になる。
但し、ユーザは、CG除去フレーム、電子ペンまたは自身の手を用いて、CG除去領域を明示的に指定する必要がある。
そのため、CG除去領域の位置およびサイズを調整する労力が生じる。また、CG除去領域にCGが重畳表示されなくなるため、重畳表示すべきCGの一部が欠落する可能性がある。また、CG除去領域が必要以上に大きい場合、CGが全く表示されない可能性がある。したがって、効果的な情報発信が行えなくなることが予想される。
一方、CGが表示デバイスに重畳表示される場合、ユーザは表示デバイスに表示されている情報を認知することが困難になる。
金澤 靖、"移動単眼カメラによる道路上の障害物の計測"、[online]、2012年7月10日、[2014年4月7日検索]、インターネット(URL:http://jstshingi.jp/abst/p/12/1216/toyohashi04.pdf)
本発明は、撮影画像に映った表示デバイスの表示領域を隠さずに撮影画像に情報を重畳表示できるようにすることを目的とする。
本発明の情報重畳画像表示装置は、
表示領域として情報処理表示領域を有する情報処理表示デバイスを映した撮影画像に重畳情報が重畳された情報重畳画像を、表示領域として本体表示領域を有する本体表示デバイスの前記本体表示領域に表示する情報重畳画像表示部を備える。
前記情報重畳画像は、前記撮影画像から前記情報処理表示デバイスの前記情報処理表示領域が映った部分を避けて選択された画像領域に前記情報が重畳された画像である。
表示領域として情報処理表示領域を有する情報処理表示デバイスを映した撮影画像に重畳情報が重畳された情報重畳画像を、表示領域として本体表示領域を有する本体表示デバイスの前記本体表示領域に表示する情報重畳画像表示部を備える。
前記情報重畳画像は、前記撮影画像から前記情報処理表示デバイスの前記情報処理表示領域が映った部分を避けて選択された画像領域に前記情報が重畳された画像である。
本発明によれば、撮影画像に映った表示デバイスの表示領域を隠さずに撮影画像に情報を重畳表示することができる。
実施の形態1.
撮影画像に映った表示デバイスの表示領域を隠さずに撮影画像に情報を重畳表示する形態について説明する。
撮影画像に映った表示デバイスの表示領域を隠さずに撮影画像に情報を重畳表示する形態について説明する。
図1は、実施の形態1におけるAR装置100の機能構成図である。ARは拡張現実の略称である。
実施の形態1におけるAR装置100の機能構成について、図1に基づいて説明する。但し、AR装置100の機能構成は図1と異なる機能構成であっても構わない。
実施の形態1におけるAR装置100の機能構成について、図1に基づいて説明する。但し、AR装置100の機能構成は図1と異なる機能構成であっても構わない。
AR装置100(情報重畳画像表示装置の一例)は、AR装置100が備える表示デバイスの表示領域(本体表示領域の一例)にAR画像194を表示する装置である。AR画像194は、情報が重畳された情報重畳画像である。
AR装置100は、カメラと表示デバイス(本体表示デバイスの一例)とを備える(図示省略)。カメラおよび表示デバイスはケーブルなどを介してAR装置100に接続されたものであっても構わない。以下、AR装置100が備える表示デバイスを表示デバイス又はAR表示デバイスという。
タブレット型のコンピュータ、スマートフォンおよびデスクトップ型のコンピュータはAR装置100の一例である。
AR装置100は、カメラと表示デバイス(本体表示デバイスの一例)とを備える(図示省略)。カメラおよび表示デバイスはケーブルなどを介してAR装置100に接続されたものであっても構わない。以下、AR装置100が備える表示デバイスを表示デバイス又はAR表示デバイスという。
タブレット型のコンピュータ、スマートフォンおよびデスクトップ型のコンピュータはAR装置100の一例である。
AR装置100は、撮影画像取得部110と、重畳情報取得部120と、不可領域選択部130と、AR画像生成部140(情報重畳画像生成部の一例)と、AR画像表示部150(情報重畳画像表示部の一例)と、装置記憶部190とを備える。
撮影画像取得部110は、カメラによって生成される撮影画像191を取得する。
撮影画像191は、情報処理装置によって使用される表示デバイスが存在する撮影範囲を映している。以下、情報処理装置によって使用される表示デバイスを表示デバイス又は情報処理表示デバイスという。また、情報処理表示デバイスが有する表示領域に表示される画像を情報処理画像という。
撮影画像191は、情報処理装置によって使用される表示デバイスが存在する撮影範囲を映している。以下、情報処理装置によって使用される表示デバイスを表示デバイス又は情報処理表示デバイスという。また、情報処理表示デバイスが有する表示領域に表示される画像を情報処理画像という。
重畳情報取得部120は、撮影画像191に重畳される重畳情報192を取得する。
不可領域選択部130は、撮影画像191から情報処理表示デバイスの表示領域が映っている画像領域を選択し、選択した画像領域を不可領域として示す不可領域情報193を生成する。
AR画像生成部140は、重畳情報192と不可領域情報193とに基づいて、AR画像194を生成する。
AR画像194は、重畳情報192が不可領域以外の画像領域に重畳された撮影画像191である。
AR画像194は、重畳情報192が不可領域以外の画像領域に重畳された撮影画像191である。
AR画像表示部150は、AR画像194をAR表示デバイスに表示する。
装置記憶部190は、AR装置100によって使用、生成または入出力されるデータを記憶する。
例えば、装置記憶部190は、撮影画像191、重畳情報192、不可領域情報193およびAR画像194などを記憶する。
例えば、装置記憶部190は、撮影画像191、重畳情報192、不可領域情報193およびAR画像194などを記憶する。
図2は、実施の形態1におけるAR装置100のAR処理を示すフローチャートである。
実施の形態1におけるAR装置100のAR処理について、図2に基づいて説明する。但し、AR処理は図2と異なる処理であっても構わない。
実施の形態1におけるAR装置100のAR処理について、図2に基づいて説明する。但し、AR処理は図2と異なる処理であっても構わない。
図2に示すAR処理は、AR装置100のカメラによって撮影画像191が生成される毎に実行される。
S110において、撮影画像取得部110は、AR装置100のカメラによって生成された撮影画像191を取得する。
S110の後、処理はS120に進む。
S110の後、処理はS120に進む。
図3は、実施の形態1における撮影画像191の一例を示す図である。
例えば、撮影画像取得部110は、図3に示すような撮影画像191を取得する。
撮影画像191は、タブレット型の情報処理装置200と時計310とを含んだ撮影範囲を映している。
タブレット型の情報処理装置200は表示デバイスを備えている。情報処理装置200の表示デバイスは情報処理画像300が表示される表示領域201を備えている。
図2に戻り、S120から説明を続ける。
例えば、撮影画像取得部110は、図3に示すような撮影画像191を取得する。
撮影画像191は、タブレット型の情報処理装置200と時計310とを含んだ撮影範囲を映している。
タブレット型の情報処理装置200は表示デバイスを備えている。情報処理装置200の表示デバイスは情報処理画像300が表示される表示領域201を備えている。
図2に戻り、S120から説明を続ける。
S120において、重畳情報取得部120は、撮影画像191に重畳する重畳情報192を取得する。
例えば、重畳情報取得部120は、撮影画像191(図3参照)から時計310を検出し、時計310に関連する重畳情報192を取得する。
重畳情報取得処理(S120)の詳細については、別の実施の形態で説明する。
S120の後、処理はS130に進む。但し、S120はS130の後に実行されても構わない。また、S120は、S130と並列に実行されても構わない。
例えば、重畳情報取得部120は、撮影画像191(図3参照)から時計310を検出し、時計310に関連する重畳情報192を取得する。
重畳情報取得処理(S120)の詳細については、別の実施の形態で説明する。
S120の後、処理はS130に進む。但し、S120はS130の後に実行されても構わない。また、S120は、S130と並列に実行されても構わない。
S130において、不可領域選択部130は、撮影画像191から情報処理装置200の表示領域201が映っている画像領域を不可領域390として選択する。不可領域390は、重畳情報192が重畳されない四角形の画像領域である。但し、不可領域390の形状は四角形でなくても構わない。
そして、不可領域選択部130は、不可領域を示す不可領域情報193を生成する。
不可領域選択処理(S130)の詳細については、別の実施の形態で説明する。
S130の後、処理はS140に進む。
そして、不可領域選択部130は、不可領域を示す不可領域情報193を生成する。
不可領域選択処理(S130)の詳細については、別の実施の形態で説明する。
S130の後、処理はS140に進む。
図4は、実施の形態1における撮影画像191に含まれる不可領域390の一例を示す図である。図4において、斜線の網掛け部分は不可領域390を表している。
不可領域選択部130は、情報処理装置200の表示領域の全体または一部を不可領域390として選択し、選択した不可領域390を示す不可領域情報193を生成する。
図2に戻り、S140から説明を続ける。
不可領域選択部130は、情報処理装置200の表示領域の全体または一部を不可領域390として選択し、選択した不可領域390を示す不可領域情報193を生成する。
図2に戻り、S140から説明を続ける。
S140において、AR画像生成部140は、重畳情報192と不可領域情報193とに基づいて、AR画像194を生成する。
AR画像194は、重畳情報192が不可領域を避けて重畳された撮影画像191である。
AR画像生成処理(S140)の詳細については、別の実施の形態で説明する。
S140の後、処理はS150に進む。
AR画像194は、重畳情報192が不可領域を避けて重畳された撮影画像191である。
AR画像生成処理(S140)の詳細については、別の実施の形態で説明する。
S140の後、処理はS150に進む。
図5は、実施の形態1におけるAR画像194の一例を示す図である。
例えば、AR画像生成部140は、図5に示すようなAR画像194を生成する。
AR画像194は吹き出し形状の情報図320を含んでいる。情報図320は、時計310が示す現在時刻に近い時刻のスケジュール情報を重畳情報192として示している。情報図320はCG(コンピュータグラフィックス)である。
図2に戻り、S150から説明を続ける。
例えば、AR画像生成部140は、図5に示すようなAR画像194を生成する。
AR画像194は吹き出し形状の情報図320を含んでいる。情報図320は、時計310が示す現在時刻に近い時刻のスケジュール情報を重畳情報192として示している。情報図320はCG(コンピュータグラフィックス)である。
図2に戻り、S150から説明を続ける。
S150において、AR画像表示部150は、AR装置100の表示デバイスにAR画像194を表示する。
S150の後、1つの撮影画像191に対するAR処理は終了する。
S150の後、1つの撮影画像191に対するAR処理は終了する。
図6は、実施の形態1におけるAR画像194の表示形態の一例を示す図である。
例えば、AR画像表示部150は、タブレット型のAR装置100(図6参照)が備える表示デバイスの表示領域101にAR画像194を表示する。
例えば、AR画像表示部150は、タブレット型のAR装置100(図6参照)が備える表示デバイスの表示領域101にAR画像194を表示する。
図7は、実施の形態1におけるAR装置100のハードウェア構成図である。
実施の形態1におけるAR装置100のハードウェア構成について、図7に基づいて説明する。但し、AR装置100のハードウェア構成は図7に示す構成と異なる構成であってもよい。
実施の形態1におけるAR装置100のハードウェア構成について、図7に基づいて説明する。但し、AR装置100のハードウェア構成は図7に示す構成と異なる構成であってもよい。
AR装置100はコンピュータである。
AR装置100は、バス801と、メモリ802と、ストレージ803と、通信インタフェース804と、CPU805と、GPU806とを備える。
さらに、AR装置100は、表示デバイス807と、カメラ808と、ユーザインタフェースデバイス809と、センサ810とを備える。
AR装置100は、バス801と、メモリ802と、ストレージ803と、通信インタフェース804と、CPU805と、GPU806とを備える。
さらに、AR装置100は、表示デバイス807と、カメラ808と、ユーザインタフェースデバイス809と、センサ810とを備える。
バス801は、AR装置100のハードウェアがデータを交換するために用いるデータ転送路である。
メモリ802は、AR装置100のハードウェアによってデータが書き込まれ、または、データが読み出される揮発性の記憶装置である。但し、メモリ802は不揮発性の記憶装置であっても構わない。メモリ802は主記憶装置ともいう。
ストレージ803は、AR装置100のハードウェアによってデータが書き込まれ、または、データが読み出される不揮発性の記憶装置である。ストレージ803は補助記憶装置ともいう。
通信インタフェース804は、AR装置100が外部のコンピュータとデータを交換するために用いる通信装置である。
CPU805は、AR装置100が行う処理(例えば、AR処理)を実行する演算装置である。CPUはCentral Processing Unitの略称である。
GPU806は、コンピュータグラフィックス(CG)に関する処理を実行する演算装置である。但し、CGに関する処理はCPU805によって実行されても構わない。AR画像194はCGの技術によって生成されるデータの一例である。GPUはGraphics Processing Unitの略称である。
表示デバイス807は、CGのデータを光学的な出力に変換する装置である。つまり、表示デバイス807はCGを表示する表示装置である。
カメラ808は、光学的な入力をデータに変換する装置である。つまり、カメラ808は、撮影によって画像を生成する撮影装置である。一つの画像は静止画という。また、時系列に連続する複数の静止画を動画または映像という。
ユーザインタフェースデバイス809は、AR装置100を利用するユーザがAR装置100を操作するために用いる入力装置である。デスクトップ型のコンピュータが備えるキーボードおよびポインティングデバイスはユーザインタフェースデバイス809の一例である。マウスおよびトラックボールはポインティングデバイスの一例である。また、スマートフォンまたはタブレット型のコンピュータが備えるタッチパネルおよびマイクはユーザインタフェースデバイス809の一例である。
センサ810は、AR装置100または周辺の状況を検出するための計測装置である。位置を計測するGPS、加速度を計測する加速度センサ、角速度を計測するジャイロセンサ、方位を計測する磁気センサ、近接する物の有無を検出する近接センサおよび照度を計測する照度センサは、センサ810の一例である。
メモリ802は、AR装置100のハードウェアによってデータが書き込まれ、または、データが読み出される揮発性の記憶装置である。但し、メモリ802は不揮発性の記憶装置であっても構わない。メモリ802は主記憶装置ともいう。
ストレージ803は、AR装置100のハードウェアによってデータが書き込まれ、または、データが読み出される不揮発性の記憶装置である。ストレージ803は補助記憶装置ともいう。
通信インタフェース804は、AR装置100が外部のコンピュータとデータを交換するために用いる通信装置である。
CPU805は、AR装置100が行う処理(例えば、AR処理)を実行する演算装置である。CPUはCentral Processing Unitの略称である。
GPU806は、コンピュータグラフィックス(CG)に関する処理を実行する演算装置である。但し、CGに関する処理はCPU805によって実行されても構わない。AR画像194はCGの技術によって生成されるデータの一例である。GPUはGraphics Processing Unitの略称である。
表示デバイス807は、CGのデータを光学的な出力に変換する装置である。つまり、表示デバイス807はCGを表示する表示装置である。
カメラ808は、光学的な入力をデータに変換する装置である。つまり、カメラ808は、撮影によって画像を生成する撮影装置である。一つの画像は静止画という。また、時系列に連続する複数の静止画を動画または映像という。
ユーザインタフェースデバイス809は、AR装置100を利用するユーザがAR装置100を操作するために用いる入力装置である。デスクトップ型のコンピュータが備えるキーボードおよびポインティングデバイスはユーザインタフェースデバイス809の一例である。マウスおよびトラックボールはポインティングデバイスの一例である。また、スマートフォンまたはタブレット型のコンピュータが備えるタッチパネルおよびマイクはユーザインタフェースデバイス809の一例である。
センサ810は、AR装置100または周辺の状況を検出するための計測装置である。位置を計測するGPS、加速度を計測する加速度センサ、角速度を計測するジャイロセンサ、方位を計測する磁気センサ、近接する物の有無を検出する近接センサおよび照度を計測する照度センサは、センサ810の一例である。
「〜部」として説明している機能を実現するためのプログラムは、ストレージ803に記憶され、ストレージ803からメモリ802にロードされ、CPU805によって実行される。
「〜の判断」、「〜の判定」、「〜の抽出」、「〜の検知」、「〜の設定」、「〜の登録」、「〜の選択」、「〜の生成」、「〜の入力」、「〜の出力」等の処理の結果を示す情報、データ、ファイル、信号値または変数値がメモリ802またはストレージ803に記憶される。
図8は、従来技術におけるAR画像194の一例を示す図である。
従来技術の場合、情報図320は情報処理装置200の表示領域201に重畳される可能性がある(図8参照)。
この場合、情報処理装置200の表示領域201に表示された情報処理画像300は、情報図320に隠れて見えなくなってしまう。
そのため、有益な情報が情報処理画像300に含まれる場合、ユーザはその有益な情報をAR画像194から得ることができなくなってしまう。情報処理画像300を見たい場合は、ユーザはAR画像194の表示デバイスから情報処理装置200の表示デバイスに視線を移さなければならない。
従来技術の場合、情報図320は情報処理装置200の表示領域201に重畳される可能性がある(図8参照)。
この場合、情報処理装置200の表示領域201に表示された情報処理画像300は、情報図320に隠れて見えなくなってしまう。
そのため、有益な情報が情報処理画像300に含まれる場合、ユーザはその有益な情報をAR画像194から得ることができなくなってしまう。情報処理画像300を見たい場合は、ユーザはAR画像194の表示デバイスから情報処理装置200の表示デバイスに視線を移さなければならない。
一方、実施の形態1におけるAR装置100は、情報処理装置200の表示領域201を避けて、情報図320を重畳表示する(図6参照)。
図6において、情報図320は、情報処理装置200のベゼルに重なっているが、表示領域201には重なっていない。また、情報図320は、情報処理装置200の周辺機器に重なることがあっても、表示領域201には重ならない。
そのため、ユーザは、情報図320に記される情報と情報処理画像300に記される情報との両方を、AR画像194から得ることができる。
図6において、情報図320は、情報処理装置200のベゼルに重なっているが、表示領域201には重なっていない。また、情報図320は、情報処理装置200の周辺機器に重なることがあっても、表示領域201には重ならない。
そのため、ユーザは、情報図320に記される情報と情報処理画像300に記される情報との両方を、AR画像194から得ることができる。
実施の形態1により、撮影画像に映った表示デバイスの表示領域を隠さずに、撮影画像に情報を重畳表示することができる。
実施の形態2.
AR装置100の重畳情報取得部120について説明する。
以下、実施の形態1で説明していない事項について主に説明する。説明を省略する事項については実施の形態1と同様である。
AR装置100の重畳情報取得部120について説明する。
以下、実施の形態1で説明していない事項について主に説明する。説明を省略する事項については実施の形態1と同様である。
図9は、実施の形態2における重畳情報取得部120の機能構成図である。
実施の形態2における重畳情報取得部120の機能構成について、図9に基づいて説明する。但し、重畳情報取得部120の機能構成は図9と異なる機能構成であっても構わない。
実施の形態2における重畳情報取得部120の機能構成について、図9に基づいて説明する。但し、重畳情報取得部120の機能構成は図9と異なる機能構成であっても構わない。
重畳情報取得部120は、物体検出部121と、物体特定部122と、重畳情報収集部123とを備える。
物体検出部121は、撮影画像191に映っている物体を撮影画像191から検出する。言い換えると、物体検出部121は、物体が映っている物体領域を撮影画像191から検出する。
例えば、物体検出部121は、撮影画像191(図3参照)に映っている時計310を、撮影画像191から検出する。
例えば、物体検出部121は、撮影画像191(図3参照)に映っている時計310を、撮影画像191から検出する。
例えば、物体検出部121は、マーカー方式またはマーカーレス方式によって、撮影画像191から物体を検出する。
マーカー方式は、物体(物体の画像を含む)に付加されたマーカーを撮影画像191から検出することによって、マーカーが付加された物体を検出する方式である。マーカーは、バーコードのような特殊な図柄である。マーカーは物体に関する物体情報に基づいて生成される。物体情報は物体の種別を表す種別情報、物体の位置を表す座標値および物体の大きさを表すサイズ情報などを含む。
マーカーレス方式は、幾何学的または光学的な特徴量を撮影画像191から抽出し、抽出した特徴量に基づいて物体を検出する方式である。物体の形状、色彩および輝度を表す量は、物体の特徴を表す特徴量の一例である。また、物体に記された文字および記号は、物体の特徴を表す特徴量の一例である。
例えば、物体検出部121は、撮影画像191に映っている物体の形状を表すエッジを抽出し、抽出したエッジによって囲まれた物体領域を検出する。つまり、物体検出部121は、抽出したエッジが境界線になる物体領域を検出する。
例えば、物体検出部121は、撮影画像191に映っている物体の形状を表すエッジを抽出し、抽出したエッジによって囲まれた物体領域を検出する。つまり、物体検出部121は、抽出したエッジが境界線になる物体領域を検出する。
物体特定部122は、物体検出部121によって検出された物体の種別を特定する。また、物体特定部122は、物体検出部121によって検出された物体の種別を表す種別情報を取得する。
例えば、種別情報はJSON形式で記述される。JSONはJavaScript Object Notationの略称である。JavaおよびJavaScriptは登録商標である。
例えば、種別情報はJSON形式で記述される。JSONはJavaScript Object Notationの略称である。JavaおよびJavaScriptは登録商標である。
例えば、物体特定部122は、撮影画像191(図3参照)から検出された物体の形状、文字盤、時針、分針および秒針などに基づいて、検出された物体が時計310であると特定する。
例えば、マーカー方式によって物体が検出された場合、物体特定部122は、物体の種別情報をマーカーから読み取る。
例えば、マーカーレス方式によって物体が検出された場合、物体特定部122は、検出された物体の特徴量を用いて、物体の種別情報を種別情報データベースから取得する。種別情報データベースは、物体の特徴量に物体の種別情報を関連付けたデータベースである。種別情報データベースは、物体の特徴量を機械学習することによって生成される。種別情報データベースは、別のコンピュータが備える外部のデータベースとAR装置100が備える内部のデータベースとのいずれであっても構わない。
重畳情報収集部123は、物体特定部122によって特定された物体の種別に基づいて、物体に関する物体情報を重畳情報192として取得する。例えば、物体情報はJSON形式で記述される。
但し、重畳情報収集部123は、物体情報以外の情報を重畳情報192として取得しても構わない。例えば、重畳情報収集部123は、現在の日時、位置、気候などに関する情報を重畳情報192として取得しても構わない。
但し、重畳情報収集部123は、物体情報以外の情報を重畳情報192として取得しても構わない。例えば、重畳情報収集部123は、現在の日時、位置、気候などに関する情報を重畳情報192として取得しても構わない。
例えば、マーカー方式によって物体が検出された場合、重畳情報収集部123は、物体情報をマーカーから読み取る。
例えば、マーカーレス方式によって物体が検出された場合、重畳情報収集部123は、物体の種別情報を用いて、物体情報またはURIを物体情報データベースから取得する。物体情報データベースは、種別情報に物体情報またはURIを関連付けたデータベースである。物体情報データベースは、外部のデータベースと内部のデータベースとのいずれであっても構わない。URIはUniform Resource Identifierの略称である。URIはURL(Uniform Resource Locator)と読み替えても構わない。
物体情報データベースからURIが取得された場合、重畳情報収集部123は、URIが示す記憶領域から物体情報を取得する。URIが示す記憶領域は別のコンピュータが備える記憶装置とAR装置100が備える記憶装置とのいずれの記憶装置に備わる記憶領域であっても構わない。
物体情報データベースからURIが取得された場合、重畳情報収集部123は、URIが示す記憶領域から物体情報を取得する。URIが示す記憶領域は別のコンピュータが備える記憶装置とAR装置100が備える記憶装置とのいずれの記憶装置に備わる記憶領域であっても構わない。
実施の形態2により、撮影画像191に映った物体に関する重畳情報を取得することができる。
実施の形態3.
重畳情報取得部120が、表示領域に表示されている情報処理画像に関する情報を重畳情報192として取得する形態について説明する。
以下、実施の形態1および実施の形態2で説明していない事項について主に説明する。説明を省略する事項については実施の形態1または実施の形態2と同様である。
重畳情報取得部120が、表示領域に表示されている情報処理画像に関する情報を重畳情報192として取得する形態について説明する。
以下、実施の形態1および実施の形態2で説明していない事項について主に説明する。説明を省略する事項については実施の形態1または実施の形態2と同様である。
図10は、実施の形態3における重畳情報取得部120の機能構成図である。
実施の形態3における重畳情報取得部120の機能構成について、図10に基づいて説明する。但し、重畳情報取得部120の機能構成は図10と異なる機能構成であっても構わない。
実施の形態3における重畳情報取得部120の機能構成について、図10に基づいて説明する。但し、重畳情報取得部120の機能構成は図10と異なる機能構成であっても構わない。
重畳情報取得部120は、実施の形態2(図9参照)で説明した機能に加えて、不可領域解析部124を備える。
不可領域解析部124は、不可領域情報193に基づいて、不可領域390に映っている情報処理画像300を解析する。
例えば、不可領域解析部124は、情報処理画像300を解析することによって、アイコンを情報処理画像300から検出する。
アイコンは電子ファイル(アプリケーションプログラムを含む)にリンクされる。アイコンはリンクされた電子ファイルの内容を表す絵であり、その絵に文字列が付記される場合もある。
例えば、不可領域解析部124は、情報処理画像300を解析することによって、アイコンを情報処理画像300から検出する。
アイコンは電子ファイル(アプリケーションプログラムを含む)にリンクされる。アイコンはリンクされた電子ファイルの内容を表す絵であり、その絵に文字列が付記される場合もある。
重畳情報収集部123は、情報処理画像300の解析結果に基づいて、情報処理画像300に関する情報を重畳情報192として収集する。
例えば、重畳情報収集部123は、情報処理画像300から検出されたアイコンによって識別される電子ファイルに関する情報を重畳情報192として収集する。アプリケーションプログラムは電子ファイルの一例である。
例えば、重畳情報収集部123は、アイコンにアプリケーション情報を関連付けたアプリケーション情報データベースから、アプリケーション情報を収集する。アプリケーション名およびバージョン番号は、アプリケーション情報に含まれる情報の一例である。アプリケーション情報データベースは、情報処理装置200に備わるデータベースと、AR装置100に備わるデータベースと、その他のコンピュータに備わるデータベースとのいずれであっても構わない。
例えば、重畳情報収集部123は、情報処理画像300から検出されたアイコンによって識別される電子ファイルに関する情報を重畳情報192として収集する。アプリケーションプログラムは電子ファイルの一例である。
例えば、重畳情報収集部123は、アイコンにアプリケーション情報を関連付けたアプリケーション情報データベースから、アプリケーション情報を収集する。アプリケーション名およびバージョン番号は、アプリケーション情報に含まれる情報の一例である。アプリケーション情報データベースは、情報処理装置200に備わるデータベースと、AR装置100に備わるデータベースと、その他のコンピュータに備わるデータベースとのいずれであっても構わない。
図11は、実施の形態3におけるAR画像194の一例を示す図である。
図11において、AR画像194は、アプリケーション情報およびアップデート情報を重畳情報192として示す情報図321を含んでいる。アップデート情報はアプリケーションプログラムのアップデートの有無を示す情報である。
例えば、不可領域解析部124は、情報処理画像300から四角形のアイコンを検出する。
そして、重畳情報収集部123は、検出されたアイコンによって識別されるアプリケーションプログラムに関するアプリケーション情報をアプリケーション情報データベースから取得する。さらに、重畳情報収集部123は、取得したアプリケーション情報に含まれるアプリケーション名およびバージョン番号を用いて、アプリケーション管理サーバからアップデート情報を取得する。アプリケーション管理サーバはアプリケーションプログラムを管理するためのサーバである。
図11において、AR画像194は、アプリケーション情報およびアップデート情報を重畳情報192として示す情報図321を含んでいる。アップデート情報はアプリケーションプログラムのアップデートの有無を示す情報である。
例えば、不可領域解析部124は、情報処理画像300から四角形のアイコンを検出する。
そして、重畳情報収集部123は、検出されたアイコンによって識別されるアプリケーションプログラムに関するアプリケーション情報をアプリケーション情報データベースから取得する。さらに、重畳情報収集部123は、取得したアプリケーション情報に含まれるアプリケーション名およびバージョン番号を用いて、アプリケーション管理サーバからアップデート情報を取得する。アプリケーション管理サーバはアプリケーションプログラムを管理するためのサーバである。
実施の形態3により、被写体の表示デバイスの表示領域に表示されている画像に関する重畳情報192を取得することができる。
実施の形態4.
AR装置100の不可領域選択部130について説明する。
以下、実施の形態1から実施の形態3で説明していない事項について主に説明する。説明を省略する事項については実施の形態1から実施の形態3と同様である。
AR装置100の不可領域選択部130について説明する。
以下、実施の形態1から実施の形態3で説明していない事項について主に説明する。説明を省略する事項については実施の形態1から実施の形態3と同様である。
図12は、実施の形態4における不可領域選択部130の機能構成図である。
実施の形態4における不可領域選択部130の機能構成について、図12に基づいて説明する。但し、不可領域選択部130の機能構成は図12と異なる機能構成であっても構わない。
実施の形態4における不可領域選択部130の機能構成について、図12に基づいて説明する。但し、不可領域選択部130の機能構成は図12と異なる機能構成であっても構わない。
不可領域選択部130は、表示領域選択部131と、不可領域情報生成部138とを備える。
表示領域選択部131は、撮影画像191から表示領域201を選択する。
不可領域情報生成部138は、不可領域390として表示領域201を示す不可領域情報193を生成する。複数の表示領域201がある場合、不可領域情報生成部138は、表示領域201毎に不可領域情報193を生成する。
表示領域選択部131は、撮影画像191から表示領域201を選択する。
不可領域情報生成部138は、不可領域390として表示領域201を示す不可領域情報193を生成する。複数の表示領域201がある場合、不可領域情報生成部138は、表示領域201毎に不可領域情報193を生成する。
例えば、表示領域選択部131は、以下のように表示領域201を選択する。
液晶ディスプレイをデジタルカメラで撮影した場合、液晶ディスプレイの表示領域201が映った部分には干渉縞が発生する。干渉縞は周期的な明暗から成る縞模様である。干渉縞はモアレともいう。
干渉縞が発生する理由は、液晶ディスプレイの解像度とデジタルカメラの解像度との間にずれが発生するためである。
そこで、表示領域選択部131は、干渉縞が映っている領域を表示領域201として選択する。例えば、表示領域選択部131は、干渉縞の明暗を表すフーリエ変換式を用いて、表示領域201を選択する。
液晶ディスプレイをデジタルカメラで撮影した場合、液晶ディスプレイの表示領域201が映った部分には干渉縞が発生する。干渉縞は周期的な明暗から成る縞模様である。干渉縞はモアレともいう。
干渉縞が発生する理由は、液晶ディスプレイの解像度とデジタルカメラの解像度との間にずれが発生するためである。
そこで、表示領域選択部131は、干渉縞が映っている領域を表示領域201として選択する。例えば、表示領域選択部131は、干渉縞の明暗を表すフーリエ変換式を用いて、表示領域201を選択する。
例えば、表示領域選択部131は、以下のように表示領域201を選択する。
多くの表示デバイスは、表示領域201の視認性を高めるために、バックライトと呼ばれる発光機能を備えている。そのため、何かしらが表示領域201に表示されているときには、表示領域201の輝度は高い。
そこで、表示領域選択部131は、輝度閾値より輝度が高い領域を表示領域201として選択する。
多くの表示デバイスは、表示領域201の視認性を高めるために、バックライトと呼ばれる発光機能を備えている。そのため、何かしらが表示領域201に表示されているときには、表示領域201の輝度は高い。
そこで、表示領域選択部131は、輝度閾値より輝度が高い領域を表示領域201として選択する。
例えば、表示領域選択部131は、以下のように表示領域201を選択する。
ブラウン管が用いられた表示デバイスは走査線毎に表示処理を行う。そして、カメラのシャッターが開いている時間に表示された走査線は撮影画像191に明るく映るが、残りの走査線は撮影画像191に暗く映る。そのため、明るい走査線と暗い走査線とから成る縞模様が撮影画像191に現れる。
また、カメラのシャッターが開いている時間は走査線の表示周期と同期していないため、明るい走査線および暗い走査線のそれぞれの位置が撮影の度に変わる。つまり、撮影画像191に現れる縞模様の位置は撮影の度に変わる。そのため、連続して撮影された複数の撮影画像191には、表示デバイスの表示領域201を移動する縞模様が現れる。
そこで、表示領域選択部131は、連続して撮影された複数の撮影画像191を用いて、縞模様が移動する領域を、それぞれの撮影画像191から選択する。選択した領域が表示領域201である。
ブラウン管が用いられた表示デバイスは走査線毎に表示処理を行う。そして、カメラのシャッターが開いている時間に表示された走査線は撮影画像191に明るく映るが、残りの走査線は撮影画像191に暗く映る。そのため、明るい走査線と暗い走査線とから成る縞模様が撮影画像191に現れる。
また、カメラのシャッターが開いている時間は走査線の表示周期と同期していないため、明るい走査線および暗い走査線のそれぞれの位置が撮影の度に変わる。つまり、撮影画像191に現れる縞模様の位置は撮影の度に変わる。そのため、連続して撮影された複数の撮影画像191には、表示デバイスの表示領域201を移動する縞模様が現れる。
そこで、表示領域選択部131は、連続して撮影された複数の撮影画像191を用いて、縞模様が移動する領域を、それぞれの撮影画像191から選択する。選択した領域が表示領域201である。
例えば、表示領域選択部131は、以下のように表示領域201を選択する。
内容が変化する動画が表示デバイスに表示されている場合、表示デバイスの表示領域201に表示される画像は、撮影画像191の撮影の度に変わる。
そこで、表示領域選択部131は、連続して撮影された複数の撮影画像191を用いて、変化している領域を、それぞれの撮影画像191から選択する。選択した領域が表示領域201である。なお、表示領域選択部131は、表示領域201に表示される画像の変化と、AR装置100の動きによる撮影画像191の変化とを切り分けるため、ジャイロセンサによってAR装置100の動きを検出する。
内容が変化する動画が表示デバイスに表示されている場合、表示デバイスの表示領域201に表示される画像は、撮影画像191の撮影の度に変わる。
そこで、表示領域選択部131は、連続して撮影された複数の撮影画像191を用いて、変化している領域を、それぞれの撮影画像191から選択する。選択した領域が表示領域201である。なお、表示領域選択部131は、表示領域201に表示される画像の変化と、AR装置100の動きによる撮影画像191の変化とを切り分けるため、ジャイロセンサによってAR装置100の動きを検出する。
実施の形態4により、被写体の表示デバイスの表示領域を不可領域として選択することができる。
実施の形態5.
AR装置100の不可領域選択部130について説明する。
以下、実施の形態1から実施の形態4で説明していない事項について主に説明する。説明を省略する事項については実施の形態1から実施の形態4と同様である。
AR装置100の不可領域選択部130について説明する。
以下、実施の形態1から実施の形態4で説明していない事項について主に説明する。説明を省略する事項については実施の形態1から実施の形態4と同様である。
図13は、実施の形態5における不可領域選択部130の機能構成図である。
実施の形態5における不可領域選択部130の機能構成について、図13に基づいて説明する。但し、不可領域選択部130の機能構成は図13と異なる機能構成であっても構わない。
実施の形態5における不可領域選択部130の機能構成について、図13に基づいて説明する。但し、不可領域選択部130の機能構成は図13と異なる機能構成であっても構わない。
不可領域選択部130は、領域条件情報139に基づいて、不可領域情報193を生成する。
不可領域選択部130は、オブジェクト領域選択部132と、不可領域決定部133と、不可領域情報生成部138とを備える。
不可領域情報生成部138は、不可領域390を示す不可領域情報193を生成する。不可領域390が複数ある場合、不可領域情報生成部138は、複数の不可領域情報193を生成する。
不可領域選択部130は、オブジェクト領域選択部132と、不可領域決定部133と、不可領域情報生成部138とを備える。
不可領域情報生成部138は、不可領域390を示す不可領域情報193を生成する。不可領域390が複数ある場合、不可領域情報生成部138は、複数の不可領域情報193を生成する。
領域条件情報139は、オブジェクトが表示されたオブジェクト領域391の条件を示す情報である。ここで、オブジェクトは、情報処理装置200の表示領域201に表示されるものである。例えば、アイコン330およびウィンドウ340はオブジェクトの一例である。領域条件情報139は装置記憶部190に記憶されるデータの一例である。
例えば、領域条件情報139は、オブジェクト領域391の条件として、以下のような内容を示す。
一般的な情報処理装置200は、電子ファイル(アプリケーションプログラムを含む)にリンクされた複数のアイコン330をGUIとして表示領域201に表示する。GUIはグラフィカルユーザインタフェースの略称である。アイコン330はリンクされた電子ファイルの内容を表す絵である。アイコン330の絵には文字列が付記される場合もある。
図14は、実施の形態5における表示領域201に表示される複数のアイコン330の一例を示す図である。図14において、破線で囲んだ6つのオブジェクトがアイコン330である。
図14に示すように、通常、複数のアイコン330は規則性を持って整列される。例えば、複数のアイコン330は、互いに重ならないように、一定の間隔で整列される。
そこで、領域条件情報139は、オブジェクト領域391の条件として、アイコン330に関する情報を示す。例えば、領域条件情報139はアイコン330として用いられる複数の画像である。また例えば、領域条件情報139は、アイコン330のサイズの閾値、アイコン330間の距離の閾値および絵のサイズと文字列のサイズとの比率の閾値などを示す情報である。
一般的な情報処理装置200は、電子ファイル(アプリケーションプログラムを含む)にリンクされた複数のアイコン330をGUIとして表示領域201に表示する。GUIはグラフィカルユーザインタフェースの略称である。アイコン330はリンクされた電子ファイルの内容を表す絵である。アイコン330の絵には文字列が付記される場合もある。
図14は、実施の形態5における表示領域201に表示される複数のアイコン330の一例を示す図である。図14において、破線で囲んだ6つのオブジェクトがアイコン330である。
図14に示すように、通常、複数のアイコン330は規則性を持って整列される。例えば、複数のアイコン330は、互いに重ならないように、一定の間隔で整列される。
そこで、領域条件情報139は、オブジェクト領域391の条件として、アイコン330に関する情報を示す。例えば、領域条件情報139はアイコン330として用いられる複数の画像である。また例えば、領域条件情報139は、アイコン330のサイズの閾値、アイコン330間の距離の閾値および絵のサイズと文字列のサイズとの比率の閾値などを示す情報である。
例えば、領域条件情報139は、オブジェクト領域391の条件として、以下のような内容を示す。
一般的な情報処理装置200は、特定のアプリケーションプログラムを起動したときに、ウィンドウ340と呼ばれる画面を表示領域201に表示する。文章作成ソフトウェアおよびフォルダ閲覧ソフトウェアは、ウィンドウ340が表示されるアプリケーションプログラムの一例である。ウィンドウ340はGUIの一例である。
図15は、実施の形態5におけるウィンドウ340の一例を示す図である。
図15に示すように、通常、ウィンドウ340の形状は四角形である。ウィンドウ340は、何らかの情報が表示される表示部342と、表示部342を囲むウィンドウ枠341とを備える。表示部342はメニューバー343を上部に備える。
ここで、ウィンドウ枠341の上部、下部、左側部および右側部を枠上部341U、枠下部341D、枠左部341Lおよび枠右部341Rと呼ぶ。
枠上部341Uは、ウィンドウ枠341の他の部分よりも厚みがあり、タイトル344およびボタンオブジェクト345などが付記される。最小化ボタン、最大化ボタンおよび終了ボタンなどはボタンオブジェクト345の一例である。
そこで、領域条件情報139は、オブジェクト領域391の条件として、ウィンドウ枠341の特徴を示す。例えば、ウィンドウ枠341の特徴とは、形状が四角形、枠上部341Uが他の部分よりも厚い、他の部分の厚みが同じ、枠上部341Uに文字列がある、枠上部311にボタンオブジェクト345がある等である。但し、枠上部341Uは、枠下部341D、枠左部341Lまたは枠右部341Rに置き換えても構わない。
一般的な情報処理装置200は、特定のアプリケーションプログラムを起動したときに、ウィンドウ340と呼ばれる画面を表示領域201に表示する。文章作成ソフトウェアおよびフォルダ閲覧ソフトウェアは、ウィンドウ340が表示されるアプリケーションプログラムの一例である。ウィンドウ340はGUIの一例である。
図15は、実施の形態5におけるウィンドウ340の一例を示す図である。
図15に示すように、通常、ウィンドウ340の形状は四角形である。ウィンドウ340は、何らかの情報が表示される表示部342と、表示部342を囲むウィンドウ枠341とを備える。表示部342はメニューバー343を上部に備える。
ここで、ウィンドウ枠341の上部、下部、左側部および右側部を枠上部341U、枠下部341D、枠左部341Lおよび枠右部341Rと呼ぶ。
枠上部341Uは、ウィンドウ枠341の他の部分よりも厚みがあり、タイトル344およびボタンオブジェクト345などが付記される。最小化ボタン、最大化ボタンおよび終了ボタンなどはボタンオブジェクト345の一例である。
そこで、領域条件情報139は、オブジェクト領域391の条件として、ウィンドウ枠341の特徴を示す。例えば、ウィンドウ枠341の特徴とは、形状が四角形、枠上部341Uが他の部分よりも厚い、他の部分の厚みが同じ、枠上部341Uに文字列がある、枠上部311にボタンオブジェクト345がある等である。但し、枠上部341Uは、枠下部341D、枠左部341Lまたは枠右部341Rに置き換えても構わない。
オブジェクト領域選択部132は、領域条件情報139に基づいて、オブジェクト領域391を撮影画像191から選択する。
領域条件情報139がアイコン330に関する情報を示す場合、オブジェクト領域選択部132は、撮影画像191に映っているアイコン330毎に、アイコン330が映っている領域をオブジェクト領域391として選択する。
図16は、実施の形態5における撮影画像191の一例の一部を示す図である。
図16において、撮影画像191には7つのアイコン330が映っている。この場合、オブジェクト領域選択部132は7つのオブジェクト領域391を選択する。
図16は、実施の形態5における撮影画像191の一例の一部を示す図である。
図16において、撮影画像191には7つのアイコン330が映っている。この場合、オブジェクト領域選択部132は7つのオブジェクト領域391を選択する。
領域条件情報139がウィンドウ枠341の特徴を示す場合、オブジェクト領域選択部132は、撮影画像191に映っているウィンドウ340毎に、ウィンドウ340が映っている領域をオブジェクト領域391として選択する。
例えば、オブジェクト領域選択部132は、撮影画像191に含まれる四角形のエッジをウィンドウ枠341として検出する。
例えば、オブジェクト領域選択部132は、ウィンドウ枠341の色に基づいて、ウィンドウ枠341およびボタンオブジェクト345を検出する。
例えば、オブジェクト領域選択部132は、撮影画像191に含まれる四角形のエッジをウィンドウ枠341として検出する。
例えば、オブジェクト領域選択部132は、ウィンドウ枠341の色に基づいて、ウィンドウ枠341およびボタンオブジェクト345を検出する。
図17は、実施の形態5における撮影画像191の一例の一部を示す図である。
図17において、撮影画像191には3つのウィンドウ340が映っている。この場合、オブジェクト領域選択部132は3つのオブジェクト領域391を選択する。
図17において、撮影画像191には3つのウィンドウ340が映っている。この場合、オブジェクト領域選択部132は3つのオブジェクト領域391を選択する。
不可領域決定部133は、オブジェクト領域391に基づいて、不可領域390を決定する。
このとき、不可領域決定部133は、オブジェクト領域391間の距離に基づいてオブジェクト領域391をグループ分けし、オブジェクト領域391のグループ毎に不可領域390を決定する。
このとき、不可領域決定部133は、オブジェクト領域391間の距離に基づいてオブジェクト領域391をグループ分けし、オブジェクト領域391のグループ毎に不可領域390を決定する。
図18は、実施の形態5における不可領域390の一例を示す図である。
例えば、撮影画像191(図16参照)は7つのオブジェクト領域391を含んでいる。左側の6つの互いの距離は距離閾値より短い。一方。右側の1つと左側の6つとの距離は距離閾値より長い。
この場合、不可領域決定部133は、左側の6つのオブジェクト領域391を囲んだ四角形の枠に囲まれた領域を不可領域390に決定する(図18参照)。また、不可領域決定部133は、右側の1つのオブジェクト領域391を不可領域390に決定する。
右側の不可領域390と左側の不可領域390とは、異なる表示デバイスの表示領域201を表していると考えられる。
例えば、撮影画像191(図16参照)は7つのオブジェクト領域391を含んでいる。左側の6つの互いの距離は距離閾値より短い。一方。右側の1つと左側の6つとの距離は距離閾値より長い。
この場合、不可領域決定部133は、左側の6つのオブジェクト領域391を囲んだ四角形の枠に囲まれた領域を不可領域390に決定する(図18参照)。また、不可領域決定部133は、右側の1つのオブジェクト領域391を不可領域390に決定する。
右側の不可領域390と左側の不可領域390とは、異なる表示デバイスの表示領域201を表していると考えられる。
図19は、実施の形態5における不可領域390の一例を示す図である。
例えば、図17の撮影画像191は3つのオブジェクト領域391を含んでいる。3つのオブジェクト領域391の互いの距離は距離閾値より短い。
この場合、不可領域決定部133は、図19に示すように、3つのオブジェクト領域391を囲んだ四角形の枠内の領域を不可領域390に決定する。
3つのオブジェクト領域391は、一つの表示デバイスの表示領域201に含まれると考えられる。
例えば、図17の撮影画像191は3つのオブジェクト領域391を含んでいる。3つのオブジェクト領域391の互いの距離は距離閾値より短い。
この場合、不可領域決定部133は、図19に示すように、3つのオブジェクト領域391を囲んだ四角形の枠内の領域を不可領域390に決定する。
3つのオブジェクト領域391は、一つの表示デバイスの表示領域201に含まれると考えられる。
図20は、実施の形態5における不可領域決定部133の不可領域決定処理を示すフローチャートである。
実施の形態5における不可領域決定部133の不可領域決定処理について、図20に基づいて説明する。但し、不可領域決定処理は図20と異なる処理であっても構わない。
実施の形態5における不可領域決定部133の不可領域決定処理について、図20に基づいて説明する。但し、不可領域決定処理は図20と異なる処理であっても構わない。
S1321において、不可領域決定部133は、複数のオブジェクト領域391のそれぞれのサイズを算出し、それぞれのサイズに基づいてオブジェクト領域391のサイズ閾値を算出する。
例えば、不可領域決定部133は、複数のオブジェクト領域391のサイズの平均値、または、その平均値にサイズ係数を乗じた値をサイズ閾値として算出する。オブジェクト領域391がアイコン330の領域である場合、アイコン330の縦、横または斜めの長さは、オブジェクト領域391のサイズの一例である。オブジェクト領域391がウィンドウ340の領域である場合、ウィンドウ枠341の枠上部341Uの厚みは、オブジェクト領域391のサイズの一例である。
S1321の後、処理はS1322に進む。
例えば、不可領域決定部133は、複数のオブジェクト領域391のサイズの平均値、または、その平均値にサイズ係数を乗じた値をサイズ閾値として算出する。オブジェクト領域391がアイコン330の領域である場合、アイコン330の縦、横または斜めの長さは、オブジェクト領域391のサイズの一例である。オブジェクト領域391がウィンドウ340の領域である場合、ウィンドウ枠341の枠上部341Uの厚みは、オブジェクト領域391のサイズの一例である。
S1321の後、処理はS1322に進む。
S1322において、不可領域決定部133は、サイズ閾値よりも小さいオブジェクト領域391を、複数のオブジェクト領域391から削除する。削除されるオブジェクト領域391は、オブジェクト領域391ではないが誤って選択されたノイズの領域であると考えられる。
例えば、アイコン330のサイズ閾値が0.5cm(センチメートル)である場合、縦の長さが1cmのオブジェクト領域391に映っているものは、アイコン330であると考えられる。一方、縦の長さが0.1cmのオブジェクト領域391に映っているものは、アイコン330ではないと考えられる。そのため、不可領域決定部133は、縦の長さが0.1cmのオブジェクト領域391を削除する。
S1322の後、処理はS1323に進む。
例えば、アイコン330のサイズ閾値が0.5cm(センチメートル)である場合、縦の長さが1cmのオブジェクト領域391に映っているものは、アイコン330であると考えられる。一方、縦の長さが0.1cmのオブジェクト領域391に映っているものは、アイコン330ではないと考えられる。そのため、不可領域決定部133は、縦の長さが0.1cmのオブジェクト領域391を削除する。
S1322の後、処理はS1323に進む。
S1323以降の処理において、複数のオブジェクト領域391は、S1322で削除されたオブジェクト領域391を含まない。
S1323において、不可領域決定部133は、複数のオブジェクト領域391の互いの距離を算出し、互いの距離に基づいて距離閾値を算出する。
例えば、不可領域決定部133は、オブジェクト領域391毎にオブジェクト領域391の隣に位置するオブジェクト領域391を選択し、選択したオブジェクト領域391間の距離を算出する。そして、不可領域決定部133は、オブジェクト領域391間の距離の平均値、または、その平均値に距離係数を乗じた値を距離閾値として算出する。
S1323の後、処理はS1324に進む。
例えば、不可領域決定部133は、オブジェクト領域391毎にオブジェクト領域391の隣に位置するオブジェクト領域391を選択し、選択したオブジェクト領域391間の距離を算出する。そして、不可領域決定部133は、オブジェクト領域391間の距離の平均値、または、その平均値に距離係数を乗じた値を距離閾値として算出する。
S1323の後、処理はS1324に進む。
S1324において、不可領域決定部133は、第一のオブジェクト領域391として選択していない一つのオブジェクト領域391を複数のオブジェクト領域391から選択する。
以下、S1324で選択されたオブジェクト領域391を第一のオブジェクト領域391という。
S1324の後、処理はS1325に進む。
以下、S1324で選択されたオブジェクト領域391を第一のオブジェクト領域391という。
S1324の後、処理はS1325に進む。
S1325において、不可領域決定部133は、第一のオブジェクト領域391の隣に位置するオブジェクト領域391を複数のオブジェクト領域391から選択する。例えば、不可領域決定部133は、第一のオブジェクト領域391に最も近いオブジェクト領域391を選択する。
以下、S1325で選択されたオブジェクト領域391を第二のオブジェクト領域391という。
S1325の後、処理はS1326に進む。但し、第二のオブジェクト領域391が無い場合、つまり、第一のオブジェクト領域391の他にオブジェクト領域391が残っていない場合、不可領域決定処理は終了する(図示省略)。
以下、S1325で選択されたオブジェクト領域391を第二のオブジェクト領域391という。
S1325の後、処理はS1326に進む。但し、第二のオブジェクト領域391が無い場合、つまり、第一のオブジェクト領域391の他にオブジェクト領域391が残っていない場合、不可領域決定処理は終了する(図示省略)。
S1326において、不可領域決定部133は、第一のオブジェクト領域391と第二のオブジェクト領域391との領域間距離を算出し、算出した領域間距離と距離閾値とを比較する。
領域間距離が距離閾値未満である場合(YES)、処理はS1327に進む。
領域間距離が距離閾値以上である場合(NO)、処理はS1328に進む。
領域間距離が距離閾値未満である場合(YES)、処理はS1327に進む。
領域間距離が距離閾値以上である場合(NO)、処理はS1328に進む。
S1327において、不可領域決定部133は、第一のオブジェクト領域391と第二のオブジェクト領域391とを合成することによって、新たなオブジェクト領域391を生成する。つまり、第一のオブジェクト領域391と第二のオブジェクト領域391とが無くなる代わりに、新たなオブジェクト領域391が生成される。新たなオブジェクト領域391は、第一のオブジェクト領域391と第二のオブジェクト領域391とを囲んだ四角形の枠内の領域である。例えば、新たなオブジェクト領域391は、第一のオブジェクト領域391と第二のオブジェクト領域391とを含んだ最小の矩形領域である。
S1327の後、処理はS1328に進む。
S1327の後、処理はS1328に進む。
S1328において、不可領域決定部133は、第一のオブジェクト領域391として選択していない未選択のオブジェクト領域391があるか判定する。S1327で生成された新たなオブジェクト領域391は未選択のオブジェクト領域391である。
未選択のオブジェクト領域391がある場合(YES)、処理はS1324に戻る。
未選択のオブジェクト領域391がない場合(NO)、不可領域決定処理は終了する。
未選択のオブジェクト領域391がある場合(YES)、処理はS1324に戻る。
未選択のオブジェクト領域391がない場合(NO)、不可領域決定処理は終了する。
不可領域決定処理の後に残ったオブジェクト領域391が不可領域390である。
不可領域決定部133は、S1322で削除したオブジェクト領域391を対象にして、不可領域決定処理を新たに実行しても構わない。AR装置100から遠く離れたところに表示デバイスが存在する場合、この表示デバイスの表示領域201に表示されたアイコン330などの領域がノイズ領域であると判断されて、削除される可能性があるためである。
これにより、AR装置100の近くにある表示デバイスの表示領域201が一回目の不可領域決定処理で不可領域390に決定され、AR装置100から遠く離れた表示デバイスの表示領域201が二回目以降の不可領域決定処理で不可領域390に決定される。
これにより、AR装置100の近くにある表示デバイスの表示領域201が一回目の不可領域決定処理で不可領域390に決定され、AR装置100から遠く離れた表示デバイスの表示領域201が二回目以降の不可領域決定処理で不可領域390に決定される。
実施の形態5により、被写体の表示デバイスの表示領域のうちのオブジェクトが表示されたオブジェクト領域を不可領域として選択することができる。そして、オブジェクト領域以外の表示領域に重畳情報を重畳することができる。つまり、重畳情報を重畳することができる画像領域を広げることができる。
実施の形態6.
表示デバイスのベゼルに基づいて表示領域201を決定する形態について説明する。
以下、実施の形態1から実施の形態5で説明していない事項について主に説明する。説明を省略する事項については実施の形態1から実施の形態5と同様である。
表示デバイスのベゼルに基づいて表示領域201を決定する形態について説明する。
以下、実施の形態1から実施の形態5で説明していない事項について主に説明する。説明を省略する事項については実施の形態1から実施の形態5と同様である。
図21は、実施の形態6における不可領域選択部130の機能構成図である。
実施の形態6における不可領域選択部130の機能構成について、図21に基づいて説明する。但し、不可領域選択部130の機能構成は図21と異なる機能構成であっても構わない。
実施の形態6における不可領域選択部130の機能構成について、図21に基づいて説明する。但し、不可領域選択部130の機能構成は図21と異なる機能構成であっても構わない。
不可領域選択部130は、オブジェクト領域選択部132と、不可領域決定部133と、不可領域情報生成部138とを備える。
オブジェクト領域選択部132および不可領域情報生成部138は、実施の形態5(図13参照)と同様である。
不可領域決定部133は、候補領域決定部134と、ベゼル部検出部135と、候補領域編集部136とを備える。
オブジェクト領域選択部132および不可領域情報生成部138は、実施の形態5(図13参照)と同様である。
不可領域決定部133は、候補領域決定部134と、ベゼル部検出部135と、候補領域編集部136とを備える。
候補領域決定部134は、実施の形態5で説明した不可領域決定処理(図20参照)によって、不可領域390の候補を決定する。以下、不可領域390の候補を候補領域392という。
ベゼル部検出部135は、表示デバイスのベゼルに相当するベゼル部393を撮影画像191から検出する。ベゼルは表示領域201を囲んだ枠である。
例えば、ベゼル部検出部135は、四角形のエッジをベゼル部393として検出する。ベゼル部検出部135は、卓上に設置された表示デバイスを支える首部分をエッジ検出によって検出し、検出した首部分の上にある四角形のエッジをベゼル部393として検出してもよい。
例えば、ベゼル部検出部135は、ベゼルの3次元形状を表す3次元モデルに合致する部分をベゼル部393として検出する。3次元モデルは、装置記憶部190に記憶されるデータの一例である。
例えば、ベゼル部検出部135は、四角形のエッジをベゼル部393として検出する。ベゼル部検出部135は、卓上に設置された表示デバイスを支える首部分をエッジ検出によって検出し、検出した首部分の上にある四角形のエッジをベゼル部393として検出してもよい。
例えば、ベゼル部検出部135は、ベゼルの3次元形状を表す3次元モデルに合致する部分をベゼル部393として検出する。3次元モデルは、装置記憶部190に記憶されるデータの一例である。
候補領域編集部136は、ベゼル部393に基づいて候補領域392を編集することによって、不可領域390を決定する。
このとき、候補領域編集部136は、ベゼル部393毎にベゼル部393に囲まれている候補領域392を選択し、ベゼル部393に囲まれている候補領域392を合成することによって、不可領域390を決定する。
このとき、候補領域編集部136は、ベゼル部393毎にベゼル部393に囲まれている候補領域392を選択し、ベゼル部393に囲まれている候補領域392を合成することによって、不可領域390を決定する。
図22は、実施の形態6におけるベゼル部393の一例を示す図である。
図23は、実施の形態6における不可領域390の一例を示す図である。
図22において、1つのベゼル部393が撮影画像191から検出され、そのベゼル部393は2つの候補領域392を囲んでいる。
この場合、候補領域編集部136は、2つの候補領域392を含んだ四角形の不可領域390をベゼル部393の中に生成する(図23参照)。
図23は、実施の形態6における不可領域390の一例を示す図である。
図22において、1つのベゼル部393が撮影画像191から検出され、そのベゼル部393は2つの候補領域392を囲んでいる。
この場合、候補領域編集部136は、2つの候補領域392を含んだ四角形の不可領域390をベゼル部393の中に生成する(図23参照)。
図24は、実施の形態6におけるベゼル部393の一例を示す図である。
図25は、実施の形態6における不可領域390の一例を示す図である。
図24において、2つのベゼル部393が撮影画像191から検出され、それぞれのベゼル部393は候補領域392を1つずつ囲んでいる。
この場合、候補領域編集部136は、それぞれの候補領域392を不可領域390に決定する(図25参照)。
図25は、実施の形態6における不可領域390の一例を示す図である。
図24において、2つのベゼル部393が撮影画像191から検出され、それぞれのベゼル部393は候補領域392を1つずつ囲んでいる。
この場合、候補領域編集部136は、それぞれの候補領域392を不可領域390に決定する(図25参照)。
図26は、実施の形態6におけるベゼル部393の一例を示す図である。
図27は、実施の形態6における不可領域390の一例を示す図である。
図26において、一部が重なった2つのベゼル部393が撮影画像191から検出され、一方のベゼル部393は候補領域392の一部を囲み、他方のベゼル部393は候補領域392の残りの部分を囲んでいる。
この場合、候補領域編集部136は、2つのベゼル部393によって囲まれた候補領域392を不可領域390に決定する(図27参照)。
また、候補領域編集部136は、いずれのベゼル部393にも囲まれていない候補領域392を不可領域390に決定しない。但し、候補領域編集部136は、その候補領域392を不可領域390に決定してもよい。
図27は、実施の形態6における不可領域390の一例を示す図である。
図26において、一部が重なった2つのベゼル部393が撮影画像191から検出され、一方のベゼル部393は候補領域392の一部を囲み、他方のベゼル部393は候補領域392の残りの部分を囲んでいる。
この場合、候補領域編集部136は、2つのベゼル部393によって囲まれた候補領域392を不可領域390に決定する(図27参照)。
また、候補領域編集部136は、いずれのベゼル部393にも囲まれていない候補領域392を不可領域390に決定しない。但し、候補領域編集部136は、その候補領域392を不可領域390に決定してもよい。
候補領域編集部136は、候補領域392の全部または一部を囲んでいるベゼル部393に囲まれる画像領域の全体を不可領域390に決定してもよい。
実施の形態6により、表示デバイスのベゼルに基づいて表示領域201を決定することができる。これにより、より適切な不可領域を選択することができる。
実施の形態7.
AR装置100のAR画像生成部140について説明する。
以下、実施の形態1から実施の形態6で説明していない事項について主に説明する。説明を省略する事項については実施の形態1から実施の形態6と同様である。
AR装置100のAR画像生成部140について説明する。
以下、実施の形態1から実施の形態6で説明していない事項について主に説明する。説明を省略する事項については実施の形態1から実施の形態6と同様である。
図28は、実施の形態7におけるAR画像生成部140の機能構成図である。
実施の形態7におけるAR画像生成部140の機能構成について、図28に基づいて説明する。但し、AR画像生成部140の機能構成は図28と異なる機能構成であっても構わない。
実施の形態7におけるAR画像生成部140の機能構成について、図28に基づいて説明する。但し、AR画像生成部140の機能構成は図28と異なる機能構成であっても構わない。
AR画像生成部140は、情報画像生成部141と、情報画像重畳部146とを備える。
情報画像生成部141は、重畳情報192が記された情報図320を含んだ情報画像329を生成する。
情報画像重畳部146は、情報画像329を撮影画像191に重畳することによって、AR画像194を生成する。
情報画像生成部141は、重畳情報192が記された情報図320を含んだ情報画像329を生成する。
情報画像重畳部146は、情報画像329を撮影画像191に重畳することによって、AR画像194を生成する。
情報画像生成部141は、情報部分生成部142と、情報部分配置判定部143と、引き出し部分生成部144と、情報図配置部145とを備える。
情報部分生成部142は、情報図320のうちの重畳情報192を示す情報部分図322を生成する。
情報部分配置判定部143は、不可領域情報193に基づいて、不可領域390を避けて情報部分図322を撮影画像191に配置することができるか判定する。不可領域390を避けて情報部分図322を撮影画像191に配置することができない場合、情報部分生成部142は情報部分図322を生成し直す。
引き出し部分生成部144は、重畳情報192に関連する物体が映っている物体領域に情報部分図322を関連付ける図である引き出し図323を生成する。
情報図配置部145は、情報部分図322と引き出し図323とを含んだ情報図320が不可領域390を避けて配置された情報画像329を生成する。
情報部分生成部142は、情報図320のうちの重畳情報192を示す情報部分図322を生成する。
情報部分配置判定部143は、不可領域情報193に基づいて、不可領域390を避けて情報部分図322を撮影画像191に配置することができるか判定する。不可領域390を避けて情報部分図322を撮影画像191に配置することができない場合、情報部分生成部142は情報部分図322を生成し直す。
引き出し部分生成部144は、重畳情報192に関連する物体が映っている物体領域に情報部分図322を関連付ける図である引き出し図323を生成する。
情報図配置部145は、情報部分図322と引き出し図323とを含んだ情報図320が不可領域390を避けて配置された情報画像329を生成する。
図29は、実施の形態7におけるAR画像生成部140のAR画像生成処理を示すフローチャートである。
実施の形態7におけるAR画像生成部140のAR画像生成処理について、図29に基づいて説明する。但し、AR画像生成処理は図29と異なる処理であっても構わない。
実施の形態7におけるAR画像生成部140のAR画像生成処理について、図29に基づいて説明する。但し、AR画像生成処理は図29と異なる処理であっても構わない。
S141において、情報部分生成部142は、重畳情報192の内容を表す図である情報部分図322を生成する。複数の重畳情報192がある場合、情報部分生成部142は、重畳情報192毎に情報部分図322を生成する。
S141の後、処理はS142に進む。
S141の後、処理はS142に進む。
図30は、実施の形態7における情報部分図322の一例を示す図である。
例えば、情報部分生成部142は、図30に示すような情報部分図322を生成する。情報部分図322は、重畳情報192の内容を表す文字列を枠で囲ったものである。
図29に戻り、S142から説明を続ける。
例えば、情報部分生成部142は、図30に示すような情報部分図322を生成する。情報部分図322は、重畳情報192の内容を表す文字列を枠で囲ったものである。
図29に戻り、S142から説明を続ける。
S142において、情報部分配置判定部143は、不可領域情報193に基づいて、不可領域390を避けて情報部分図322を撮影画像191に配置することができるか判定する。複数の情報部分図322がある場合、情報部分配置判定部143は情報部分図322毎に判定を行う。
情報部分図322を撮影画像191のどこに配置しても情報部分図322が不可領域390に重なってしまう場合、不可領域390を避けて情報部分図322を撮影画像191に配置することはできない。
不可領域390を避けて情報部分図322を撮影画像191に配置することができる場合(YES)、処理はS143に進む。
不可領域390を避けて情報部分図322を撮影画像191に配置することができない場合(NO)、処理はS141に戻る。
情報部分図322を撮影画像191のどこに配置しても情報部分図322が不可領域390に重なってしまう場合、不可領域390を避けて情報部分図322を撮影画像191に配置することはできない。
不可領域390を避けて情報部分図322を撮影画像191に配置することができる場合(YES)、処理はS143に進む。
不可領域390を避けて情報部分図322を撮影画像191に配置することができない場合(NO)、処理はS141に戻る。
処理がS141に戻った場合、情報部分生成部142は情報部分図322を生成し直す。
例えば、情報部分生成部142は、情報部分図322を変形、または、情報部分図322を縮小する。
例えば、情報部分生成部142は、情報部分図322を変形、または、情報部分図322を縮小する。
図31は、実施の形態7における情報部分図322の変更例を示す図である。
例えば、情報部分生成部142は、情報部分図322(図30参照)を図31の(1)から(4)に示すように生成し直す。
図31の(1)において、情報部分生成部142は、情報部分図322の縦横の比率を変更することによって、情報部分図322を変形する。
図31の(2)において、情報部分生成部142は、文字列の周囲の空白(情報部分図322に含まれる空白)を削除することによって、情報部分図322を縮小する。
図31の(3)において、情報部分生成部142は、文字列の一部を変更または削除することによって、情報部分図322を縮小する。
図31の(4)において、情報部分生成部142は、文字列の文字のサイズを小さくすることによって、情報部分図322を縮小する。
情報部分図322が3次元で表現された図である場合、情報部分生成部142は、情報部分図322を2次元の図に変更することによって、情報部分図322を縮小してもよい。例えば、情報部分図322が影付きの図である場合、情報部分生成部142は、情報部分図322から影の部分を削除する。
図29に戻り、S143から説明を続ける。
例えば、情報部分生成部142は、情報部分図322(図30参照)を図31の(1)から(4)に示すように生成し直す。
図31の(1)において、情報部分生成部142は、情報部分図322の縦横の比率を変更することによって、情報部分図322を変形する。
図31の(2)において、情報部分生成部142は、文字列の周囲の空白(情報部分図322に含まれる空白)を削除することによって、情報部分図322を縮小する。
図31の(3)において、情報部分生成部142は、文字列の一部を変更または削除することによって、情報部分図322を縮小する。
図31の(4)において、情報部分生成部142は、文字列の文字のサイズを小さくすることによって、情報部分図322を縮小する。
情報部分図322が3次元で表現された図である場合、情報部分生成部142は、情報部分図322を2次元の図に変更することによって、情報部分図322を縮小してもよい。例えば、情報部分図322が影付きの図である場合、情報部分生成部142は、情報部分図322から影の部分を削除する。
図29に戻り、S143から説明を続ける。
S143において、情報部分配置判定部143は、情報部分図322を配置することができる配置領域を示す配置領域情報を生成する。複数の情報部分図322がある場合、情報部分配置判定部143は、情報部分図322毎に配置領域情報を生成する。
情報部分図322を配置することができる配置領域の候補が複数ある場合、情報部分配置判定部143は、物体領域情報に基づいて、配置領域を選択する。
物体領域情報は、情報部分図322に関連する物体が映っている物体領域を示す情報である。物体領域情報は、重畳情報取得部120の物体検出部121によって生成することができる。
例えば、情報部分配置判定部143は、物体領域情報が示す物体領域に最も近い配置領域の候補を配置領域として選択する。
例えば、複数の情報部分図322が存在する場合、情報部分配置判定部143は、情報部分図322毎に、他の情報部分図322と重ならない配置領域の候補を配置領域として選択する。
S143の後、処理はS144に進む。
情報部分図322を配置することができる配置領域の候補が複数ある場合、情報部分配置判定部143は、物体領域情報に基づいて、配置領域を選択する。
物体領域情報は、情報部分図322に関連する物体が映っている物体領域を示す情報である。物体領域情報は、重畳情報取得部120の物体検出部121によって生成することができる。
例えば、情報部分配置判定部143は、物体領域情報が示す物体領域に最も近い配置領域の候補を配置領域として選択する。
例えば、複数の情報部分図322が存在する場合、情報部分配置判定部143は、情報部分図322毎に、他の情報部分図322と重ならない配置領域の候補を配置領域として選択する。
S143の後、処理はS144に進む。
S144において、引き出し部分生成部144は、配置領域情報と物体領域情報とに基づいて、情報部分図322を物体領域に関連付ける図である引き出し図323を生成する。
これにより、情報部分図322と引き出し図323とを含んだ情報図320が生成される。
S144の後、処理はS145に進む。
これにより、情報部分図322と引き出し図323とを含んだ情報図320が生成される。
S144の後、処理はS145に進む。
図32は、実施の形態7における情報図320の一例を示す図である。
例えば、引き出し部分生成部144は、引き出し図323を生成することによって、図32に示すような情報図320を生成する。
引き出し部分生成部144は、情報部分図322と引き出し図323との境が分からないように、引き出し図323を情報部分図322と一体に生成しても構わない。
引き出し図323の形状は三角形に限られず、矢印または単なる線(直線、曲線)などであっても構わない。
例えば、引き出し部分生成部144は、引き出し図323を生成することによって、図32に示すような情報図320を生成する。
引き出し部分生成部144は、情報部分図322と引き出し図323との境が分からないように、引き出し図323を情報部分図322と一体に生成しても構わない。
引き出し図323の形状は三角形に限られず、矢印または単なる線(直線、曲線)などであっても構わない。
引き出し部分生成部144は、物体領域と配置領域との距離が引き出し閾値未満である場合、引き出し図323を生成しなくても構わない。つまり、配置領域が物体領域に近い場合、引き出し部分生成部144は引き出し図323を生成しなくても構わない。この場合、情報図320は引き出し図323を含まない。
図29に戻り、S145から説明を続ける。
図29に戻り、S145から説明を続ける。
S145において、情報図配置部145は、情報図320を配置領域に配置した情報画像329を生成する。
S145の後、処理はS146に進む。
S145の後、処理はS146に進む。
図33は、実施の形態7における情報画像329の一例を示す図である。
例えば、情報図配置部145は、図33に示すように、情報図320が配置された情報画像329を生成する。
図29に戻り、S146から説明を続ける。
例えば、情報図配置部145は、図33に示すように、情報図320が配置された情報画像329を生成する。
図29に戻り、S146から説明を続ける。
S146において、情報画像重畳部146は、情報画像329を撮影画像191に重畳することによって、AR画像194を生成する。
例えば、情報画像重畳部146は、情報画像329(図33参照)を撮影画像191(図3参照)に重畳することによって、AR画像194(図5参照)を生成する。
S146の後、AR画像生成処理は終了する。
例えば、情報画像重畳部146は、情報画像329(図33参照)を撮影画像191(図3参照)に重畳することによって、AR画像194(図5参照)を生成する。
S146の後、AR画像生成処理は終了する。
実施の形態7により、不可領域を避けて重畳情報を撮影画像に重畳表示することができる。
実施の形態8.
検出済みの表示領域201を除外して撮影画像191から新たな表示領域201を選択する形態について説明する。
以下、実施の形態1から実施の形態7で説明していない事項について主に説明する。説明を省略する事項については実施の形態1から実施の形態7と同様である。
検出済みの表示領域201を除外して撮影画像191から新たな表示領域201を選択する形態について説明する。
以下、実施の形態1から実施の形態7で説明していない事項について主に説明する。説明を省略する事項については実施の形態1から実施の形態7と同様である。
図34は、実施の形態8におけるAR装置100の機能構成図である。
実施の形態8におけるAR装置100の機能構成について、図34に基づいて説明する。但し、AR装置100の機能構成は図34と異なる構成であっても構わない。
実施の形態8におけるAR装置100の機能構成について、図34に基づいて説明する。但し、AR装置100の機能構成は図34と異なる構成であっても構わない。
AR装置100は、実施の形態1(図1参照)で説明した機能に加えて、除外領域選択部160と表示領域モデル生成部170とを備える。
表示領域モデル生成部170は、撮影情報195と不可領域情報193とに基づいて、表示領域201を三次元で表した表示領域モデル197を生成する。表示領域モデル197は、三次元モデルまたは三次元平面モデルともいう。
撮影情報195は、撮影画像191が撮影されたときのカメラの位置情報、方位情報および撮影範囲情報などを含んだ情報である。位置情報はカメラの位置を示す情報である。方位情報はカメラの向きを示す情報である。撮影範囲情報は、画角または焦点距離など、撮像範囲を示す情報である。撮影情報195は、撮影画像取得部110によって撮影画像191と共に取得される。
撮影情報195は、撮影画像191が撮影されたときのカメラの位置情報、方位情報および撮影範囲情報などを含んだ情報である。位置情報はカメラの位置を示す情報である。方位情報はカメラの向きを示す情報である。撮影範囲情報は、画角または焦点距離など、撮像範囲を示す情報である。撮影情報195は、撮影画像取得部110によって撮影画像191と共に取得される。
除外領域選択部160は、撮影情報195に基づいて、表示領域モデル197が表す表示領域201を新たな撮影画像191から選択する。選択された表示領域201は、不可領域選択部130の処理から除外される除外領域398である。
除外領域選択部160は、除外領域398を示す除外領域情報196を生成する。
除外領域選択部160は、除外領域398を示す除外領域情報196を生成する。
不可領域選択部130は、除外領域情報196に基づいて新たな撮影画像191から除外領域398を除外し、残りの画像部分から新たな不可領域390を選択し、新たな不可領域情報193を生成する。
AR画像生成部140は、除外領域情報196と新たな不可領域情報193とに基づいて、AR画像194を生成する。
図35は、実施の形態8におけるAR装置100のAR処理を示すフローチャートである。
実施の形態8におけるAR装置100のAR処理について、図35に基づいて説明する。但し、AR処理は図35と異なる処理であっても構わない。
実施の形態8におけるAR装置100のAR処理について、図35に基づいて説明する。但し、AR処理は図35と異なる処理であっても構わない。
S110において、撮影画像取得部110は、他の実施の形態と同様に、撮影画像191を取得する。
但し、撮影画像取得部110は、撮影画像191と共に、撮影情報195を取得する。
例えば、撮影画像取得部110は、撮影画像191が撮影されたときのカメラ808の位置情報、方位情報および撮影範囲情報を、GPS、磁気センサおよびカメラ808から取得する。GPSおよび磁気センサは、AR装置100が備えるセンサ810の一例である。
S110の後、処理はS120に進む。
但し、撮影画像取得部110は、撮影画像191と共に、撮影情報195を取得する。
例えば、撮影画像取得部110は、撮影画像191が撮影されたときのカメラ808の位置情報、方位情報および撮影範囲情報を、GPS、磁気センサおよびカメラ808から取得する。GPSおよび磁気センサは、AR装置100が備えるセンサ810の一例である。
S110の後、処理はS120に進む。
S120において、重畳情報取得部120は、他の実施の形態と同様に、重畳情報192を取得する。
S120の後、処理はS191に進む。但し、S190は、S191が実行されるときからS140が実行されるときまでの間に実行されても構わない。
S120の後、処理はS191に進む。但し、S190は、S191が実行されるときからS140が実行されるときまでの間に実行されても構わない。
S190において、除外領域選択部160は、撮影情報195と表示領域モデル197とに基づいて、除外領域情報196を生成する。
S190の後、処理はS130に進む。
S190の後、処理はS130に進む。
図36は、実施の形態8における除外領域398の位置関係を示す図である。
図36において、除外領域選択部160は、撮影情報195に示されるカメラ808の位置、向きおよび画角に基づいて、画像平面399を生成する。画像平面399は、カメラ808の撮影範囲に含まれる平面である。撮影画像191は、物体が射影された画像平面399に相当するものである。
除外領域選択部160は、表示領域モデル197に基づいて、表示領域201を画像平面399に射影する。
そして、除外領域選択部160は、画像平面399に投影された表示領域201を除外領域398として示す除外領域情報196を生成する。
図35に戻り、S130から説明を続ける。
図36において、除外領域選択部160は、撮影情報195に示されるカメラ808の位置、向きおよび画角に基づいて、画像平面399を生成する。画像平面399は、カメラ808の撮影範囲に含まれる平面である。撮影画像191は、物体が射影された画像平面399に相当するものである。
除外領域選択部160は、表示領域モデル197に基づいて、表示領域201を画像平面399に射影する。
そして、除外領域選択部160は、画像平面399に投影された表示領域201を除外領域398として示す除外領域情報196を生成する。
図35に戻り、S130から説明を続ける。
S130において、不可領域選択部130は、他の実施の形態と同様に、不可領域情報193を生成する。
但し、不可領域選択部130は、除外領域情報196に基づいて撮影画像191から除外領域398を除外し、残りの画像部分から不可領域390を選択し、選択した不可領域390を示す不可領域情報193を生成する。
S130の後、処理はS191に進む。
但し、不可領域選択部130は、除外領域情報196に基づいて撮影画像191から除外領域398を除外し、残りの画像部分から不可領域390を選択し、選択した不可領域390を示す不可領域情報193を生成する。
S130の後、処理はS191に進む。
S191において、表示領域モデル生成部170は、撮影情報195と不可領域情報193とに基づいて、撮影範囲に存在する表示領域201を三次元で表す表示領域モデル197を生成する。
例えば、表示領域モデル生成部170は、今回の撮影情報195と前回以前の撮影情報195とを用いて、SFMという技術によって、表示領域モデル197を生成する。SFMは、複数の画像を用いて、画像に映っている物体の3次元の形状およびカメラとの位置関係を同時に復元する技術である。SFMは、Structure from Motionの略称である。
例えば、表示領域モデル生成部170は、非特許文献1に開示されている技術を用いて、表示領域モデル197を生成する。
S191の後、処理はS140に進む。
例えば、表示領域モデル生成部170は、今回の撮影情報195と前回以前の撮影情報195とを用いて、SFMという技術によって、表示領域モデル197を生成する。SFMは、複数の画像を用いて、画像に映っている物体の3次元の形状およびカメラとの位置関係を同時に復元する技術である。SFMは、Structure from Motionの略称である。
例えば、表示領域モデル生成部170は、非特許文献1に開示されている技術を用いて、表示領域モデル197を生成する。
S191の後、処理はS140に進む。
S140において、AR画像生成部140は、他の実施の形態と同様に、重畳情報192と不可領域情報193とに基づいてAR画像194を生成する。
S140の後、処理はS150に進む。
S140の後、処理はS150に進む。
S150において、AR画像表示部150は、他の実施の形態と同様に、AR画像194を表示する。
S150の後、1つの撮影画像191に対するAR処理は終了する。
S150の後、1つの撮影画像191に対するAR処理は終了する。
実施の形態8により、検出済みの表示領域201を除外して撮影画像191から新たな表示領域201を選択することができる。つまり、検出済みの表示領域201を処理の対象外にして処理負荷を軽減することができる。
各実施の形態は、AR装置100の形態の一例である。
つまり、AR装置100は、各実施の形態で説明した構成要素の一部を備えなくても構わない。また、AR装置100は、各実施の形態で説明していない構成要素を備えても構わない。さらに、AR装置100は、各実施の形態の構成要素の一部または全てを組み合わせたものであっても構わない。
つまり、AR装置100は、各実施の形態で説明した構成要素の一部を備えなくても構わない。また、AR装置100は、各実施の形態で説明していない構成要素を備えても構わない。さらに、AR装置100は、各実施の形態の構成要素の一部または全てを組み合わせたものであっても構わない。
各実施の形態においてフローチャート等を用いて説明した処理手順は、各実施の形態に係る方法およびプログラムの処理手順の一例である。各実施の形態に係る方法およびプログラムは、各実施の形態で説明した処理手順と一部異なる処理手順で実現されても構わない。
各実施の形態において「〜部」は「〜処理」「〜工程」「〜プログラム」「〜装置」と読み替えることができる。各実施の形態において、図中の矢印はデータまたは処理の流れを主に表している。
100 AR装置、110 撮影画像取得部、120 重畳情報取得部、121 物体検出部、122 物体特定部、123 重畳情報収集部、124 不可領域解析部、130 不可領域選択部、131 表示領域選択部、132 オブジェクト領域選択部、133 不可領域決定部、134 候補領域決定部、135 ベゼル部検出部、136 候補領域編集部、138 不可領域情報生成部、139 領域条件情報、140 AR画像生成部、141 情報画像生成部、142 情報部分生成部、143 情報部分配置判定部、144 引き出し部分生成部、145 情報図配置部、146 情報画像重畳部、150 AR画像表示部、160 除外領域選択部、170 表示領域モデル生成部、190 装置記憶部、191 撮影画像、192 重畳情報、193 不可領域情報、194 AR画像、195 撮影情報、196 除外領域情報、197 表示領域モデル、200 情報処理装置、201 表示領域、300 情報処理画像、310 時計、320 情報図、321 情報図、322 情報部分図、323 引き出し図、329 情報画像、330 アイコン、340 ウィンドウ、341 ウィンドウ枠、341U 枠上部、341D 枠下部、341L 枠左部、341R 枠右部、342 表示部、343 メニューバー、344 タイトル、345 ボタンオブジェクト、390 不可領域、391 オブジェクト領域、392 候補領域、393 ベゼル部、398 除外領域、399 画像平面、801 バス、802 メモリ、803 ストレージ、804 通信インタフェース、805 CPU、806 GPU、807 表示デバイス、808 カメラ、809 ユーザインタフェースデバイス、810 センサ。
Claims (23)
- 表示領域として情報処理表示領域を有する情報処理表示デバイスを映した撮影画像に重畳情報が重畳された情報重畳画像を、表示領域として本体表示領域を有する本体表示デバイスの前記本体表示領域に表示する情報重畳画像表示部を備え、
前記情報重畳画像は、前記撮影画像から前記情報処理表示デバイスの前記情報処理表示領域が映った部分を避けて選択された画像領域に前記情報が重畳された画像である
ことを特徴とする情報重畳画像表示装置。 - 前記撮影画像を取得する撮影画像取得部と、
前記重畳情報を取得する重畳情報取得部と、
前記撮影画像取得部によって取得された前記撮影画像から、前記情報処理表示領域が映った部分を不可領域として選択する不可領域選択部と、
前記重畳情報取得部によって取得された前記重畳情報を、前記不可領域選択部によって選択された前記不可領域を避けて、前記撮影画像に重畳することによって、前記情報重畳画像を生成する情報重畳画像生成部と
を備えることを特徴とする請求項1に記載の情報重畳画像表示装置。 - 前記不可領域選択部は、前記撮影画像から縞模様を検出し、縞模様が検出された画像領域を前記不可領域として選択する
ことを特徴とする請求項2に記載の情報重畳画像表示装置。 - 前記不可領域選択部は、前記撮影画像から輝度閾値よりも輝度が高い画像領域を前記不可領域として選択する
ことを特徴とする請求項2に記載の情報重畳画像表示装置。 - 前記撮影画像取得部は、連続して撮影された複数の撮影画像を取得し、
前記不可領域選択部は、撮影画像毎に、他の撮影画像と比較して変化している変化領域を前記不可領域として選択する
ことを特徴とする請求項2に記載の情報重畳画像表示装置。 - 前記不可領域選択部は、前記情報処理表示領域に表示されたアイコンを前記撮影画像から検出し、検出した前記アイコンが映っている画像領域に基づいて前記不可領域を選択する
ことを特徴とする請求項2に記載の情報重畳画像表示装置。 - 前記不可領域選択部は、整列条件に従って整列した複数のオブジェクトを複数のアイコンとして検出し、検出した前記複数のアイコンが映っている画像領域に基づいて前記不可領域を選択する
ことを特徴とする請求項6に記載の情報重畳画像表示装置。 - 前記不可領域選択部は、1つ以上のアイコンから成る複数のアイコングループを検出し、距離閾値よりも距離が短い2つ以上のアイコングループを1つのアイコングループに合成し、合成して得られたアイコングループ毎にアイコングループに含まれるアイコンが映っている画像領域に基づいて前記不可領域を選択する
ことを特徴とする請求項6に記載の情報重畳画像表示装置。 - 前記情報処理表示デバイスはデバイス枠を有し、
前記不可領域選択部は、1つ以上のアイコンから成る複数のアイコングループを検出し、前記情報処理表示デバイスの前記デバイス枠が形成する枠形状の条件を満たす画像領域をベゼル領域として検出し、前記ベゼル領域に囲まれた2つ以上のアイコングループを1つのアイコングループに合成し、合成して得られたアイコングループ毎にアイコングループに含まれるアイコンが映っている画像領域に基づいて前記不可領域を選択する
ことを特徴とする請求項6に記載の情報重畳画像表示装置。 - 前記情報処理表示デバイスはデバイス枠を有し、
前記不可領域選択部は、前記情報処理表示デバイスの前記デバイス枠が形成する枠形状の条件を満たす画像領域をベゼル領域として検出し、前記アイコンを囲んでいるベゼル領域を選択し、選択した前記ベゼル領域に囲われた画像領域を前記不可領域として選択する
ことを特徴とする請求項6に記載の情報重畳画像表示装置。 - 前記不可領域選択部は、アプリケーションプログラム用に前記情報処理表示領域に表示されたウィンドウを前記撮影画像から検出し、検出した前記ウィンドウが映っている画像領域に基づいて前記不可領域を選択する
ことを特徴とする請求項2に記載の情報重畳画像表示装置。 - 前記ウィンドウは四角形のウィンドウ枠を有し、
前記不可領域選択部は、4つの辺のうちの1つの辺に位置する枠の厚みが他の3つの辺に位置する枠よりも厚い四角形の枠を前記ウィンドウ枠として検出する
ことを特徴とする請求項11に記載の情報重畳画像表示装置。 - 前記不可領域選択部は、複数のウィンドウを検出し、検出した前記複数のウィンドウが映っている画像領域に基づいて前記不可領域を選択する
ことを特徴とする請求項11に記載の情報重畳画像表示装置。 - 前記不可領域選択部は、複数のウィンドウを検出し、距離閾値よりも距離が短い2つ以上のウィンドウをウィンドウグループに合成し、合成して得られたウィンドウグループ毎にウィンドウグループに含まれるウィンドウが映っている画像領域に基づいて前記不可領域を選択する
ことを特徴とする請求項11に記載の情報重畳画像表示装置。 - 前記情報処理表示デバイスはデバイス枠を有し、
前記不可領域選択部は、複数のウィンドウを前記撮影画像から検出し、前記情報処理表示デバイスの前記デバイス枠が形成する枠形状の条件を満たす画像領域をベゼル領域として検出し、前記ベゼル領域に囲まれた2つ以上のウィンドウをウィンドウグループに合成し、合成して得られたウィンドウグループ毎にウィンドウグループに含まれるウィンドウが映っている画像領域に基づいて前記不可領域を選択する
ことを特徴とする請求項11に記載の情報重畳画像表示装置。 - 前記情報処理表示デバイスはデバイス枠を有し、
前記不可領域選択部は、前記情報処理表示デバイスの前記デバイス枠が形成する枠形状の条件を満たす画像領域をベゼル領域として検出し、前記ウィンドウを囲んでいるベゼル領域を選択し、選択した前記ベゼル領域に囲われた画像領域を前記不可領域として選択する
ことを特徴とする請求項11に記載の情報重畳画像表示装置。 - 前記不可領域選択部は、
第一の情報処理表示領域が映っている第一の撮影画像が取得された場合、前記第一の撮影画像から前記第一の情報処理表示領域を第一の不可領域として選択し、
前記第一の撮影画像が取得された後に前記第一の情報処理表示領域と第二の情報処理表示領域とが映っている第二の撮影画像が取得された場合、前記第二の撮影画像から前記第一の情報処理表示領域を除外し、前記第二の撮影画像から前記第二の情報処理表示領域を第二の不可領域として選択する
ことを特徴とする請求項2に記載の情報重畳画像表示装置。 - 前記第一の撮影画像に映った第一の撮影範囲を特定する第一の撮影情報に基づいて、前記第一の撮影範囲に存在する前記第一の情報処理表示領域を三次元で表した第一の表示領域モデルを生成する表示領域モデル生成部と、
前記表示領域モデル生成部によって生成された前記第一の表示領域モデルと、前記第二の撮影画像に映っている撮影範囲を特定する第二の撮影情報とに基づいて、前記第二の撮影画像から前記第一の情報処理表示領域を除外領域として選択する除外領域選択部と
を備えることを特徴とする請求項17に記載の情報重畳画像表示装置。 - 前記重畳情報取得部は、前記不可領域に映っている画像を解析し、解析結果に基づいて前記重畳情報を取得する
ことを特徴とする請求項2に記載の情報重畳画像表示装置。 - 前記重畳情報取得部は、前記不可領域を解析することによって前記不可領域に映っているアイコンを検出し、検出した前記アイコンの情報を前記重畳情報として取得する
ことを特徴とする請求項19に記載の情報重畳画像表示装置。 - 前記情報重畳画像生成部は、前記重畳情報が記された情報図を生成し、前記不可領域を除いた画像領域から前記重畳情報が重畳される重畳領域を選択し、選択した前記重畳領域に前記情報図を配置することによって前記情報重畳画像を生成する
ことを特徴とする請求項2に記載の情報重畳画像表示装置。 - 前記情報重畳画像生成部は、前記情報図を前記不可領域に重ねずに配置することができない場合、前記情報図の形状と前記情報図の大きさとの少なくともいずれかを変更する
ことを特徴とする請求項21に記載の情報重畳画像表示装置。 - 表示領域として情報処理表示領域を有する情報処理表示デバイスを映した撮影画像に重畳情報が重畳された情報重畳画像を、表示領域として本体表示領域を有する本体表示デバイスの前記本体表示領域に表示する情報重畳画像表示処理を、コンピュータに実行させるための情報重畳画像表示プログラムであって、
前記情報重畳画像は、前記撮影画像から前記情報処理表示デバイスの前記情報処理表示領域が映った部分を避けて選択された画像領域に前記情報が重畳された画像である
ことを特徴とする情報重畳画像表示プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2014/065684 WO2015189972A1 (ja) | 2014-06-13 | 2014-06-13 | 情報重畳画像表示装置および情報重畳画像表示プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5955491B2 JP5955491B2 (ja) | 2016-07-20 |
JPWO2015189972A1 true JPWO2015189972A1 (ja) | 2017-04-20 |
Family
ID=54833100
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016518777A Expired - Fee Related JP5955491B2 (ja) | 2014-06-13 | 2014-06-13 | 情報重畳画像表示装置および情報重畳画像表示プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20170169595A1 (ja) |
JP (1) | JP5955491B2 (ja) |
CN (1) | CN106463001B (ja) |
DE (1) | DE112014006670T5 (ja) |
WO (1) | WO2015189972A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6561906B2 (ja) * | 2016-04-28 | 2019-08-21 | 京セラドキュメントソリューションズ株式会社 | 画像形成システム |
US10223067B2 (en) * | 2016-07-15 | 2019-03-05 | Microsoft Technology Licensing, Llc | Leveraging environmental context for enhanced communication throughput |
US11269405B2 (en) * | 2017-08-31 | 2022-03-08 | Tobii Ab | Gaze direction mapping |
WO2020054067A1 (ja) * | 2018-09-14 | 2020-03-19 | 三菱電機株式会社 | 画像情報処理装置、画像情報処理方法、及び画像情報処理プログラム |
JP6699709B2 (ja) * | 2018-11-13 | 2020-05-27 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
US10761694B2 (en) * | 2018-12-12 | 2020-09-01 | Lenovo (Singapore) Pte. Ltd. | Extended reality content exclusion |
US11893698B2 (en) * | 2020-11-04 | 2024-02-06 | Samsung Electronics Co., Ltd. | Electronic device, AR device and method for controlling data transfer interval thereof |
US20220261336A1 (en) * | 2021-02-16 | 2022-08-18 | Micro Focus Llc | Building, training, and maintaining an artificial intellignece-based functionl testing tool |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006267604A (ja) * | 2005-03-24 | 2006-10-05 | Canon Inc | 複合情報表示装置 |
JP2008217590A (ja) * | 2007-03-06 | 2008-09-18 | Fuji Xerox Co Ltd | 情報共有支援システム、情報処理装置及び制御プログラム |
JP2009192710A (ja) * | 2008-02-13 | 2009-08-27 | Sharp Corp | 機器設定装置、機器設定システム及び表示装置 |
NL1035303C2 (nl) * | 2008-04-16 | 2009-10-19 | Virtual Proteins B V | Interactieve virtuele reality eenheid. |
JP5216834B2 (ja) * | 2010-11-08 | 2013-06-19 | 株式会社エヌ・ティ・ティ・ドコモ | オブジェクト表示装置及びオブジェクト表示方法 |
US9424765B2 (en) * | 2011-09-20 | 2016-08-23 | Sony Corporation | Image processing apparatus, image processing method, and program |
-
2014
- 2014-06-13 WO PCT/JP2014/065684 patent/WO2015189972A1/ja active Application Filing
- 2014-06-13 CN CN201480079694.0A patent/CN106463001B/zh not_active Expired - Fee Related
- 2014-06-13 DE DE112014006670.2T patent/DE112014006670T5/de not_active Withdrawn
- 2014-06-13 JP JP2016518777A patent/JP5955491B2/ja not_active Expired - Fee Related
- 2014-06-13 US US15/311,812 patent/US20170169595A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
WO2015189972A1 (ja) | 2015-12-17 |
DE112014006670T5 (de) | 2017-02-23 |
US20170169595A1 (en) | 2017-06-15 |
CN106463001B (zh) | 2018-06-12 |
CN106463001A (zh) | 2017-02-22 |
JP5955491B2 (ja) | 2016-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5955491B2 (ja) | 情報重畳画像表示装置および情報重畳画像表示プログラム | |
AU2020202551B2 (en) | Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor | |
JP5724543B2 (ja) | 端末装置、オブジェクト制御方法及びプログラム | |
JP6143958B2 (ja) | 情報処理装置、情報重畳画像表示装置、マーカー表示プログラム、情報重畳画像表示プログラム、マーカー表示方法および情報重畳画像表示方法 | |
KR101266198B1 (ko) | 증강현실 객체정보의 가시성을 높이는 디스플레이 장치 및 디스플레이 방법 | |
JP6176541B2 (ja) | 情報表示装置、情報表示方法及びプログラム | |
Dostal et al. | SpiderEyes: designing attention-and proximity-aware collaborative interfaces for wall-sized displays | |
EP2814000B1 (en) | Image processing apparatus, image processing method, and program | |
JP6022732B2 (ja) | コンテンツ作成ツール | |
EP3276951A1 (en) | Image processing system, image processing method, and program | |
US20160063671A1 (en) | A method and apparatus for updating a field of view in a user interface | |
US20140129990A1 (en) | Interactive input system having a 3d input space | |
JP7032451B2 (ja) | デジタルマップ上のインジケータの視覚的なプロパティを動的に変更すること | |
JP2017505933A (ja) | 実在の物体上に固定された仮想画像を生成する方法及びシステム | |
US20140002348A1 (en) | Measuring device and measuring method | |
US20160349972A1 (en) | Data browse apparatus, data browse method, and storage medium | |
US10817054B2 (en) | Eye watch point tracking via binocular and stereo images | |
US20160062486A1 (en) | Mobile device and method of projecting image by using the mobile device | |
US20150145771A1 (en) | Transparent Display Field of View Region Determination | |
US20180150957A1 (en) | Multi-spectrum segmentation for computer vision | |
JP2016208079A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JPWO2015141214A1 (ja) | 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法 | |
WO2015189974A1 (ja) | 画像表示装置および画像表示プログラム | |
JP4983757B2 (ja) | 画像生成装置、方法及びプログラム | |
KR20180071492A (ko) | 키넥트 센서를 이용한 실감형 콘텐츠 서비스 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20160511 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160517 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160614 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5955491 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |