JPWO2015189973A1 - 情報処理装置、情報重畳画像表示装置、マーカー表示プログラム、情報重畳画像表示プログラム、マーカー表示方法および情報重畳画像表示方法 - Google Patents

情報処理装置、情報重畳画像表示装置、マーカー表示プログラム、情報重畳画像表示プログラム、マーカー表示方法および情報重畳画像表示方法 Download PDF

Info

Publication number
JPWO2015189973A1
JPWO2015189973A1 JP2016527582A JP2016527582A JPWO2015189973A1 JP WO2015189973 A1 JPWO2015189973 A1 JP WO2015189973A1 JP 2016527582 A JP2016527582 A JP 2016527582A JP 2016527582 A JP2016527582 A JP 2016527582A JP WO2015189973 A1 JPWO2015189973 A1 JP WO2015189973A1
Authority
JP
Japan
Prior art keywords
information
marker
window
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016527582A
Other languages
English (en)
Other versions
JP6143958B2 (ja
Inventor
淳平 羽藤
淳平 羽藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2015189973A1 publication Critical patent/JPWO2015189973A1/ja
Application granted granted Critical
Publication of JP6143958B2 publication Critical patent/JP6143958B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

情報処理装置(200)は表示領域(201)の目印になるマーカー(202)を表示領域に表示する。AR装置(100)は、情報処理装置が映った撮影画像からマーカーを検出し、検出したマーカーに基づいて情報処理装置の表示領域を撮影画像から選択する。そして、AR装置は、情報処理装置の表示領域を避けて情報図(320)を撮影画像に重畳することによって、AR画像(194)を表示する。ARは拡張現実の略称である。

Description

本発明は、撮影画像に情報を重畳して表示する技術に関するものである。
現実世界または現実世界を映した映像にコンピュータによって生成したCGを重畳表示させるAR技術が普及してきている。CGはコンピュータグラフィックスの略称であり、ARは拡張現実の略称である。
例えば、ユーザが向いている方向に存在する建造物にCGをプロジェクターから投影する方法がある。また、スマートフォン、タブレット端末またはウェアラブル端末等の情報端末が備えるカメラで撮影した映像をその情報端末の画面に表示する際に、CGを重畳表示する方法がある。
これらの技術は、周辺の建築物を説明する情報を観光客向けに表示する観光支援システム、または、目的地までの道順をCGで表示するナビゲーションシステムなどの用途に用いることができる。
ところで、現実世界にCGを重畳表示した場合、重畳表示した部分に存在する現実世界が見えない状況、または、見難い状況となる。その状況は、CGが重畳された部分の現実世界を見なくてよい場合には問題とならないが、現実世界を見たい場合にはユーザビリティの観点で課題となる。
また、現実世界には、AR技術によってCGを重畳表示する情報処理端末の他にも、ユーザに有益な情報を発信する表示デバイスが存在する。そのため、表示デバイスが表示された部分にCGを重畳表示した場合、表示デバイスから発信される情報が遮断され、ユーザの利益が損なわれる。
特許文献1は、CGを重畳表示しないCG除去領域を指定することによって、CG除去領域にCGが重畳表示されることを防ぐ技術を開示している。
但し、ユーザは、CG除去フレーム、電子ペンまたは自身の手を用いて、CG除去領域を明示的に指定する必要がある。
そのため、CG除去領域の位置およびサイズを調整する労力が生じる。また、CG除去領域にCGが重畳表示されなくなるため、重畳表示すべきCGの一部が欠落する可能性がある。また、CG除去領域が必要以上に大きい場合、CGが全く表示されない可能性がある。したがって、効果的な情報発信が行えなくなることが予想される。
一方、CGが表示デバイスに重畳表示される場合、ユーザは表示デバイスに表示されている情報を認知することが困難になる。
特開2004−178554号公報
金澤 靖、"移動単眼カメラによる道路上の障害物の計測"、[online]、2012年7月10日、[2014年4月7日検索]、インターネット(URL:http://jstshingi.jp/abst/p/12/1216/toyohashi04.pdf)
本発明は、撮影画像に映った表示デバイスの表示領域を隠さずに撮影画像に情報を重畳表示できるようにすることを目的とする。
本発明の情報処理装置は、
表示領域を有する表示デバイスが映った撮影画像を取得したコンピュータに前記撮影画像から前記表示領域を選択させるために決められたマーカーを、前記表示デバイスの前記表示領域に表示するマーカー表示部を備える。
本発明によれば、撮影画像に映った表示デバイスの表示領域を表示領域に表示されたマーカーに基づいて選択することができる。
そして、撮影画像に映った表示デバイスの表示領域を選択できるため、撮影画像に映った表示デバイスの表示領域を隠さずに撮影画像に情報を重畳表示することができる。
実施の形態1におけるARシステム109の概要図である。 実施の形態1における情報処理装置200の機能構成図である。 実施の形態1における情報処理装置200のマーカー表示処理を示すフローチャートである。 実施の形態1におけるマーカー画像291の一例を示す図である。 実施の形態1におけるマーカー画像291の一例を示す図である。 実施の形態1におけるマーカー画像291の一例を示す図である。 実施の形態1におけるマーカー画像291の一例を示す図である。 実施の形態1におけるマーカー2021の拡大図である。 実施の形態1におけるマーカー2025の拡大図である。 実施の形態1におけるマーカー画像291の一例を示す図である。 実施の形態1におけるマーカー2021(二次元コード)の拡大図である。 実施の形態1におけるマーカー2025(二次元コード)の拡大図である。 実施の形態1における情報処理画像292の一例を示す図である。 実施の形態1におけるマーカー重畳画像293の一例を示す図である。 実施の形態1における情報処理装置200のハードウェア構成図である。 従来技術におけるAR画像194の一例を示す図である。 実施の形態2における情報処理装置200の機能構成図である。 実施の形態2における情報処理装置200のマーカー表示処理を示すフローチャートである。 実施の形態2における情報処理画像292の一例を示す図である。 実施の形態2におけるマーカー画像291の一例を示す図である。 実施の形態2におけるマーカー重畳画像293の一例を示す図である。 実施の形態3における情報処理装置200の機能構成図である。 実施の形態3における情報処理装置200のマーカー表示処理を示すフローチャートである。 実施の形態3における情報処理画像292の一例を示す図である。 実施の形態3におけるマーカー画像291の一例を示す図である。 実施の形態3におけるマーカー重畳画像293の一例を示す図である。 実施の形態4における情報処理装置200の機能構成図である。 実施の形態4における情報処理装置200のマーカー表示処理を示すフローチャートである。 実施の形態4における情報処理画像292の一例を示す図である。 実施の形態4における合成領域350の一例を示す図である。 実施の形態4におけるマーカー画像291の一例を示す図である。 実施の形態4におけるマーカー重畳画像293の一例を示す図である。 実施の形態4におけるウィンドウ合成処理(S260)を示すフローチャートである。 実施の形態4における合成領域350の一例を示す図である。 実施の形態5における情報処理装置200の機能構成図である。 実施の形態5における情報処理装置200のマーカー表示処理を示すフローチャートである。 実施の形態6におけるAR装置100の機能構成図である。 実施の形態6におけるAR装置100のAR処理を示すフローチャートである。 実施の形態6における撮影画像191の一例を示す図である。 実施の形態6における撮影画像191に含まれる不可領域390の一例を示す図である。 実施の形態6における撮影画像191に含まれる不可領域390の一例を示す図である。 実施の形態6における不可領域390の一例を示す図である。 実施の形態6におけるAR画像194の一例を示す図である。 実施の形態6におけるAR装置100のハードウェア構成図である。 実施の形態8における重畳情報取得部120の機能構成図である。 実施の形態8におけるAR画像194の一例を示す図である。 実施の形態9におけるAR画像生成部140の機能構成図である。 実施の形態9におけるAR画像生成部140のAR画像生成処理を示すフローチャートである。 実施の形態9における情報部分図322の一例を示す図である。 実施の形態9における情報部分図322の変更例を示す図である。 実施の形態9における情報図320の一例を示す図である。 実施の形態9における情報画像329の一例を示す図である。 実施の形態10におけるAR装置100の機能構成図である。 実施の形態10におけるAR装置100のAR処理を示すフローチャートである。 実施の形態10における除外領域398の位置関係を示す図である。 実施の形態11におけるAR装置100の機能構成図である。 実施の形態11における情報処理装置200の機能構成図である。
実施の形態1.
撮影画像に映った表示デバイスの表示領域を隠さずに撮影画像に情報を重畳表示する形態について説明する。
図1は、実施の形態1におけるARシステム109の概要図である。ARは拡張現実の略称である。
実施の形態1におけるARシステム109の概要について、図1に基づいて説明する。
ARシステム109(情報重畳画像表示システムの一例)は、AR画像194を表示するためのシステムである。AR画像194は、撮影画像に情報が重畳された情報重畳画像である。以下、撮影画像に重畳される情報を重畳情報という。
ARシステム109は、AR装置100(情報重畳画像表示装置の一例)と、情報処理装置200とを備える。
情報処理装置200は表示デバイスを備える。表示デバイスはケーブルなどを介して情報処理装置200に接続されたものであっても構わない。タブレット型のコンピュータ、スマートフォンおよびデスクトップ型のコンピュータは情報処理装置200の一例である。以下、情報処理装置200が備える表示デバイスを表示デバイス又は情報処理表示デバイスという。
情報処理表示デバイスは、AR装置100が備えるカメラによって撮影される。
情報処理装置200は、情報処理表示デバイスの表示領域201にマーカー202を表示する。
マーカー202は、情報処理表示デバイスが映った撮影画像を取得したAR装置100に撮影画像から表示領域201を選択させるための目印として決められた図である。
AR装置100は、撮影画像を生成するカメラと、AR画像194を表示する表示デバイスとを備える。カメラおよび表示デバイスはケーブルなどを介してAR装置100に接続されたものであっても構わない。タブレット型のコンピュータ、スマートフォンおよびデスクトップ型のコンピュータはAR装置100の一例である。以下、AR装置100が備える表示デバイスを表示デバイス又はAR表示デバイスという。
AR装置100は、撮影画像に映っているマーカー202に基づいて、不可領域を選択する。不可領域は、情報処理表示デバイスの表示領域201が映っている画像領域である。
AR装置100は、情報処理表示デバイスの表示領域201を避けて撮影画像に情報図320を重畳することによって、AR画像194を生成する。情報図320は重畳情報が記された図である。撮影画像に映っている時計310が示す時刻に関するスケジュール情報は重畳情報の一例である。
AR装置100は、AR表示デバイスが有する表示領域101に、AR画像194を表示する。
AR装置100の詳細については、別の実施の形態で説明する。
図2は、実施の形態1における情報処理装置200の機能構成図である。
実施の形態1における情報処理装置200の機能構成について、図2に基づいて説明する。但し、情報処理装置200の機能構成は図2と異なる機能構成であっても構わない。
情報処理装置200は、マーカー画像生成部210(マーカー生成部の一例)と、情報処理画像生成部220と、マーカー重畳画像生成部230と、マーカー重畳画像表示部240(マーカー表示部の一例)と、情報処理記憶部290とを備える。
マーカー画像生成部210は、表示領域201の目印であるマーカー202を示すマーカー画像291を生成する。
情報処理画像生成部220は、表示領域201に表示される情報処理画像292を生成する。情報処理装置200のスタート画面、情報処理装置200のメニュー画面またはアプリケーションプログラム用のウィンドウを表す画像は情報処理画像292の一例である。
マーカー重畳画像生成部230は、情報処理画像292にマーカー202を重畳したマーカー重畳画像293を生成する。
マーカー重畳画像表示部240は、マーカー重畳画像293を表示領域201に表示する。
情報処理記憶部290は、情報処理装置200が使用、生成または入出力するデータを記憶する。
例えば、情報処理記憶部290は、マーカー画像291、情報処理画像292およびマーカー重畳画像293などを記憶する。
AR装置100の機能構成については、別の実施の形態で説明する。
図3は、実施の形態1における情報処理装置200のマーカー表示処理を示すフローチャートである。
実施の形態1における情報処理装置200のマーカー表示処理について、図3に基づいて説明する。但し、マーカー表示処理は図3と異なる処理であっても構わない。
S210において、マーカー画像生成部210は、表示領域201の目印であるマーカー202を示すマーカー画像291を生成する。
S210の後、処理はS220に進む。
図4、図5、図6および図7は、実施の形態1におけるマーカー画像291の一例を示す図である。
図4において、マーカー画像生成部210は、四角形の表示領域201に表示されるマーカー画像291を生成する。但し、表示領域201の形状は四角形に限られず、表示領域201の形状は四角形以外の多角形または円形などであっても構わない。
マーカー画像291は、表示領域201の角に配置されたマーカー2021〜2024(角マーカーの一例)と、表示領域201の辺の中間に配置されたマーカー2025〜2028(辺マーカーの一例)との8つのマーカーを含んでいる。
8つのマーカー2021〜2028によって、表示領域201は特定される。表示領域201は、8つのマーカー2021〜2028を囲んで8つのマーカー2021〜2028に接する矩形の枠に囲まれる領域である。つまり、表示領域201は、8つのマーカー2021〜2028を囲む最小の矩形の枠に囲まれる領域である。
但し、マーカー画像291は、8つのマーカー2021〜2028の全てではなく、8つのマーカー2021〜2028のうちの1つ又は複数を含んでも構わない。1つのマーカーがあれば、表示領域201の中心部分が存在する方向を特定することができる。
また、マーカー画像291は、9つ以上のマーカーを含んでも構わない。
例えば、マーカー画像生成部210は、表示領域201の大きさに基づいて、マーカーの数および配置を決定する。マーカー画像291は、表示領域201が大きいほど、多くのマーカーを含む。表示領域201の大きさは、情報処理表示デバイスのディスプレイサイズおよび解像度に基づいて決まる。マーカー画像生成部210は、表示領域201の形状に基づいて、マーカーの数および配置を決定しても構わない。
また、マーカー画像291は、長さ閾値よりも長い辺の中間に複数のマーカーを備えても構わない。例えば、マーカー画像291は、マーカー2026及びマーカー2028を2つずつ備えても構わない。
マーカー画像291に含めるマーカーの数を増やすことにより、マーカー画像291から表示領域201をより正確に特定することができる。
図5において、マーカー画像生成部210は、表示領域201の角に配置された4つのマーカー2021〜2024を含んだマーカー画像291を生成する。
図6において、マーカー画像生成部210は、表示領域201の辺の中間に配置された4つのマーカー2025〜2028を含んだマーカー画像291を生成する。
図7において、マーカー画像生成部210は、左上の角に配置されたマーカー2021と、右下の角に配置されたマーカー2023と、左辺の中間に配置されたマーカー2025と、右辺の中間に配置されたマーカー2027とを含んだマーカー画像291を生成する。
図5から図7において、表示領域201は、4つのマーカー202によって特定される。表示領域201は、4つのマーカー202を囲んで4つのマーカー202に接する枠に囲まれる領域である。つまり、表示領域201は、4つのマーカー202を囲む最小の矩形の枠に囲まれる領域である。
図8は、実施の形態1におけるマーカー2021の拡大図である。
実施の形態1におけるマーカー2021について、図8に基づいて説明する。
マーカー2021は直角三角形を成している。
マーカー2021は、直角三角形の黒領域203と、黒領域203の直角を形成する二辺に接するL字形の白領域204とを有する。
黒領域203は、表示領域201の中心部分(中心を含む部分)が位置する方向を示す。表示領域201の中心部分は、マーカー2021の直角の頂点を基点にして、黒領域203の斜辺と直交する垂線ベクトル205の方向に位置する。垂線ベクトル205は、黒領域203の直角の頂点と、黒領域203の斜辺の中心点とを通るベクトルである。
白領域204は、表示領域201の辺、つまり、表示領域201の境界線を示す。表示領域201の境界線は、マーカー2021の直角の頂点を基点にして、白領域204の辺を延長した延長線206に位置する。
表示領域201の角に配置される他の3つのマーカー2022〜2024は、マーカー2021と同様の構成である。
マーカー2021を時計と反対回りに90度回転させたものがマーカー2022である。
マーカー2021を時計回りに180度回転させたものがマーカー2023である。
マーカー2021を時計回りに90度回転させたものがマーカー2024である。
図9は、実施の形態1におけるマーカー2025の拡大図である。
実施の形態1におけるマーカー2025について、図9に基づいて説明する。
マーカー2025は二等辺三角形を成している。
マーカー2025は、二等辺三角形の黒領域203と、黒領域203の底辺に接する直線状の白領域204とを有する。
黒領域203は、表示領域201の中心部分(中心を含む部分)が位置する方向を示す。表示領域201の中心部分は、マーカー2025の底辺の中心を基点にして、黒領域203の底辺と直交する垂線ベクトル205の方向に位置する。垂線ベクトル205は、黒領域203の底辺の中心点と、黒領域203の頂点とを通るベクトルである。
白領域204は、表示領域201の辺、つまり、表示領域201の境界線を示す。表示領域201の境界線は、マーカー2025の底辺を含む白領域204の辺を延長した延長線206に位置する。
表示領域201の辺の中間に配置される他の3つのマーカー2026〜2028は、マーカー2025と同様の構成である。
マーカー2025を時計と反対回りに90度回転させたものがマーカー2026である。
マーカー2025を時計回りに180度回転させたものがマーカー2027である。
マーカー2025を時計回りに90度回転させたものがマーカー2028である。
マーカー2021〜2028の形状は、三角形でなくても構わない。例えば、マーカー2021〜2028の形状は三角形以外の多角形または円形などであっても構わない。
マーカー2021〜2028の黒領域203は、黒以外の色が着色された領域であっても構わない。マーカー2021〜2028の白領域204は、白以外の色が着色された領域であっても構わない。
マーカー2021〜2028は、形状および色以外の形式で、表示領域201を特定しても構わない。例えば、マーカー2021〜2028は、表示領域201を特定する情報を含んだ二次元コードであっても構わない。
図10は、実施の形態1におけるマーカー画像291の一例を示す図である。
図10に示すように、マーカー画像291は、表示領域201の角および表示領域201の辺の中間に、マーカー2021〜2028を含んでいる。
マーカー2021〜2028は、表示領域201を特定する情報を含んだ二次元コードである。
例えば、マーカー2021は、表示領域201の左上の角に配置されていることを示す「左上」という情報を含んでいる。同様に、マーカー2022〜2024は「左下」「右下」「右上」という情報を含んでいる。
例えば、マーカー2025は、表示領域201の左辺の中間に配置されていることを示す「左辺」という情報を含んでいる。同様に、マーカー2026〜2028は「下辺」「右辺」「上辺」という情報を含んでいる。
上述したように、マーカー画像291は、7つ以下のマーカー又は9つ以上のマーカーを含んでも構わない。
図11は、実施の形態1におけるマーカー2021(二次元コード)の拡大図である。
実施の形態1におけるマーカー2021(二次元コード)について、図11に基づいて説明する。
マーカー2021(角マーカーの一例)は、表示領域201の左上の角に配置されていることを示す「左上」という情報を含んでいる。
表示領域201の中心部分は、マーカー2021の左上の頂点を基点にして、マーカー2021の右下の頂点を通る対角線ベクトル207の方向に位置する。
表示領域201の上側の境界線は、マーカー2021の左上の頂点を基点にして、マーカー2021の上辺を延長した延長線206に位置する。
表示領域201の左側の境界線は、マーカー2021の左上の頂点を基点にして、マーカー2021の左辺を延長した延長線206に位置する。
表示領域201の角に配置される他の3つのマーカー2022〜2024は、マーカー2021と同様に、表示領域201を特定する。
つまり、表示領域201の中心部分は、マーカー2022の左下の頂点からマーカー2022の右上の頂点を通る対角線ベクトルの方向に位置する。同様に、表示領域201の中心部分は、マーカー2023の右下の頂点からマーカー2023の左上の頂点を通る対角線ベクトルの方向およびマーカー2024の右上の頂点からマーカー2024の左下の頂点を通る対角線ベクトルの方向に位置する。
つまり、表示領域201の左側の境界線は、マーカー2022の左下の頂点からマーカー2022の左辺を延長した延長線に位置する。表示領域201の下側の境界線は、マーカー2022の左下の頂点からマーカー2022の下辺を延長した延長線およびマーカー2023の右下の頂点からマーカー2023の下辺を延長した延長線に位置する。表示領域201の右側の境界線は、マーカー2023の右下の頂点からマーカー2023の左辺を延長した延長線およびマーカー2024の右上の頂点からマーカー2024の右辺を延長した延長線に位置する。表示領域201の上側の境界線は、マーカー2024の右上の頂点からマーカー2024の上辺を延長した延長線に位置する。
図12は、実施の形態1におけるマーカー2025(二次元コード)の拡大図である。
実施の形態1におけるマーカー2025について、図12に基づいて説明する。
マーカー2025(辺マーカーの一例)は、表示領域201の左辺の中間に配置されていることを示す「左辺」いう情報を含んでいる。
表示領域201の中心部分は、マーカー2025の左辺の中心を基点にしてマーカー2025の右辺と直交する垂線ベクトル205の方向に位置する。
表示領域201の左側の境界線は、マーカー2025の左辺を延長した延長線に位置する。
表示領域201の辺の中間に配置される他の3つのマーカー2026〜2028は、マーカー2025と同様に、表示領域201を特定する。
つまり、表示領域201の中心部分は、マーカー2026の下辺の中心を基点にしてマーカー2026の上辺と直交する垂線ベクトルの方向に位置する。同様に、表示領域201の中心部分は、マーカー2027の右辺の中心を基点にしてマーカー2027の左辺と直交する垂線ベクトルの方向およびマーカー2028の上辺の中心を基点にしてマーカー2028の下辺と直交する垂線ベクトルの方向に位置する。
つまり、表示領域201の下側の境界線は、マーカー2026の下辺を延長した延長線に位置する。同様に、表示領域201の右側の境界線はマーカー2027の右辺を延長した延長線に位置し、表示領域201の上側の境界線はマーカー2028の上辺を延長した延長線に位置する。
図3に戻り、S220から説明を続ける。
S220において、情報処理画像生成部220は、情報処理画像292を生成する。
情報処理装置200のスタート画面、情報処理装置200のメニュー画面またはアプリケーションプログラム用のウィンドウを表す画像は情報処理画像292の一例である。
S220の後、処理はS230に進む。
図13は、実施の形態1における情報処理画像292の一例を示す図である。
例えば、情報処理画像生成部220は、複数のアイコンが整列したメニュー画面を表す情報処理画像292を生成する(図13参照)。情報処理画像292に含まれる正方形はアイコンを表している。
図3に戻り、S230から説明を続ける。
S230において、マーカー重畳画像生成部230は、情報処理画像292にマーカー画像291を重畳することによって、マーカー重畳画像293を生成する。
S230の後、処理はS240に進む。
図14は、実施の形態1におけるマーカー重畳画像293の一例を示す図である。
例えば、マーカー重畳画像生成部230は、情報処理画像292(図13参照)にマーカー画像291(図4参照)を重畳することによって、図14に示すようなマーカー重畳画像293を生成する。
図3に戻り、S240から説明を続ける。
S240において、マーカー重畳画像表示部240は、マーカー重畳画像293を情報処理表示デバイスの表示領域201に表示する。
例えば、マーカー重畳画像表示部240は、図14に示すようにマーカー重畳画像293を表示領域201に表示する。
S240の後、マーカー表示処理は終了する。
図15は、実施の形態1における情報処理装置200のハードウェア構成図である。
実施の形態1における情報処理装置200のハードウェア構成について、図15に基づいて説明する。但し、情報処理装置200のハードウェア構成は図15に示す構成と異なる構成であってもよい。
情報処理装置200はコンピュータである。
情報処理装置200は、バス801と、メモリ802と、ストレージ803と、通信インタフェース804と、CPU805と、GPU806とを備える。
さらに、情報処理装置200は、表示デバイス807と、ユーザインタフェースデバイス809と、センサ810とを備える。
バス801は、情報処理装置200のハードウェアがデータを交換するために用いるデータ転送路である。
メモリ802は、情報処理装置200のハードウェアによってデータが書き込まれ、または、データが読み出される揮発性の記憶装置である。但し、メモリ802は不揮発性の記憶装置であっても構わない。メモリ802は主記憶装置ともいう。
ストレージ803は、情報処理装置200のハードウェアによってデータが書き込まれ、または、データが読み出される不揮発性の記憶装置である。ストレージ803は補助記憶装置ともいう。
通信インタフェース804は、情報処理装置200が外部のコンピュータとデータを交換するために用いる通信装置である。
CPU805は、情報処理装置200が行う処理(例えば、マーカー表示処理)を実行する演算装置である。CPUはCentral Processing Unitの略称である。
GPU806は、コンピュータグラフィックス(CG)に関する処理を実行する演算装置である。但し、CGに関する処理はCPU805によって実行されても構わない。マーカー画像291、情報処理画像292およびマーカー重畳画像293はCGの技術によって生成されるデータの一例である。GPUはGraphics Processing Unitの略称である。
表示デバイス807は、CGのデータを光学的な出力に変換する装置である。つまり、表示デバイス807はCGを表示する表示装置である。
ユーザインタフェースデバイス809は、情報処理装置200を利用するユーザが情報処理装置200を操作するために用いる入力装置である。デスクトップ型のコンピュータが備えるキーボードおよびポインティングデバイスはユーザインタフェースデバイス809の一例である。マウスおよびトラックボールはポインティングデバイスの一例である。また、スマートフォンまたはタブレット型のコンピュータが備えるタッチパネルおよびマイクはユーザインタフェースデバイス809の一例である。
センサ810は、情報処理装置200または周辺の状況を検出するための計測装置である。位置を計測するGPS、加速度を計測する加速度センサ、角速度を計測するジャイロセンサ、方位を計測する磁気センサ、近接する物の有無を検出する近接センサおよび照度を計測する照度センサは、センサ810の一例である。
「〜部」として説明している機能を実現するためのプログラムは、ストレージ803に記憶され、ストレージ803からメモリ802にロードされ、CPU805によって実行される。
「〜の判断」、「〜の判定」、「〜の抽出」、「〜の検知」、「〜の設定」、「〜の登録」、「〜の選択」、「〜の生成」、「〜の入力」、「〜の出力」等の処理の結果を示す情報、データ、ファイル、信号値または変数値がメモリ802またはストレージ803に記憶される。
図16は、従来技術におけるAR画像194の一例を示す図である。
従来技術の場合、情報図320は情報処理装置200の表示領域201に重畳される可能性がある(図16参照)。
この場合、情報処理装置200の表示領域201に表示された情報処理画像292は、情報図320に隠れて見えなくなってしまう。
そのため、有益な情報が情報処理画像292に含まれる場合、ユーザはその有益な情報をAR画像194から得ることができなくなってしまう。情報処理画像292を見たい場合は、ユーザはAR画像194の表示デバイスから情報処理装置200の表示デバイスに視線を移さなければならない。
一方、実施の形態1において、情報処理装置200が表示領域201にマーカー202を表示するため、AR装置100は情報処理装置200の表示領域201を避けて情報図320を表示することができる(図1参照)。
図1において、情報図320は、情報処理装置200のベゼルに重なっているが、表示領域201には重なっていない。また、情報図320は、情報処理装置200の周辺機器に重なることがあっても、表示領域201には重ならない。
そのため、ユーザは、情報図320に記される情報と情報処理画像292に記される情報との両方を、AR画像194から得ることができる。
実施の形態1により、情報処理装置200は、情報処理表示デバイスの表示領域201に表示領域201の目印になるマーカー202を表示することができる。
AR装置100は、撮影画像191に映った情報処理表示デバイスの表示領域201を表示領域201に表示されたマーカー202に基づいて選択することができる。
そして、AR装置100は、撮影画像191に映った情報処理表示デバイスの表示領域201を選択できるため、撮影画像191に映った情報処理表示デバイスの表示領域201を隠さずに、撮影画像191に情報を重畳表示することができる。
実施の形態2.
アプリケーションプログラム用のウィンドウが表示されるウィンドウ領域にマーカーを表示する形態について説明する。
以下、実施の形態1で説明していない事項について主に説明する。説明を省略する事項については実施の形態1と同様である。
図17は、実施の形態2における情報処理装置200の機能構成図である。
実施の形態2における情報処理装置200の機能構成について、図17に基づいて説明する。但し、情報処理装置200の機能構成は図17と異なる機能構成であっても構わない。
情報処理装置200は、実施の形態1(図2参照)で説明した機能に加えて、ウィンドウ情報取得部250を備える。
ウィンドウ情報取得部250は、情報処理画像生成部220(ウィンドウ生成部の一例)がアプリケーションプログラム用にウィンドウを生成した場合に、情報処理画像生成部220からウィンドウ情報294を取得する。
ウィンドウ情報294は、ウィンドウ領域を示すウィンドウ領域情報、ウィンドウの重要度、ウィンドウを識別するウィンドウハンドルなどを含む。ウィンドウはアプリケーションプログラムの実行画面である。ウィンドウ領域は表示領域201のうちのウィンドウが表示される領域である。ウィンドウの重要度はウィンドウを使用するアプリケーションプログラムの重要度を意味する。
マーカー画像生成部210は、ウィンドウ情報取得部250によって取得されたウィンドウ情報294に基づいて、ウィンドウ領域を特定するマーカー202を含んだマーカー画像291を生成する。
図18は、実施の形態2における情報処理装置200のマーカー表示処理を示すフローチャートである。
実施の形態2における情報処理装置200のマーカー表示処理について、図18に基づいて説明する。但し、マーカー表示処理は図18と異なる処理であっても構わない。
S2011において、情報処理画像生成部220は、ウィンドウ340を含んだ情報処理画像292を生成する。
また、情報処理画像生成部220は、ウィンドウ領域情報を含んだウィンドウ情報294を生成する。ウィンドウ340が複数ある場合、情報処理画像生成部220は、ウィンドウ340毎にウィンドウ情報294を生成する。
情報処理画像生成部220は、ウィンドウ340の重要度を含んだウィンドウ情報294を生成してもよい。例えば、情報処理画像生成部220は、ウィンドウ340を使用するアプリケーションプログラムのプログラム識別子に対応付けられた重要度を重要度テーブルから取得する。重要度テーブルは情報処理記憶部290に記憶されるデータの一例である。
S2011の後、処理はS2021に進む。
図19は、実施の形態2における情報処理画像292の一例を示す図である。
例えば、情報処理画像生成部220は、ウィンドウ340が中央に配置された情報処理画像292(図19参照)を生成する。
図18に戻り、S2021から説明を続ける。
S2021において、ウィンドウ情報取得部250は、情報処理画像生成部220からウィンドウ情報294を取得する。
S2021の後、処理はS2101に進む。
S2101において、マーカー画像生成部210は、ウィンドウ情報取得部250からウィンドウ情報294を取得する。
マーカー画像生成部210は、ウィンドウ情報294に含まれるウィンドウ領域情報に基づいて、マーカー画像291を生成する。マーカー画像291は、ウィンドウ領域にウィンドウ領域を特定するマーカー202が配置された画像である。
マーカー画像生成部210は、ウィンドウ情報294に含まれるウィンドウ340の重要度に基づいて、マーカー202の形状とマーカー202の色との少なくともいずれかを決定してもよい。
S2101の後、処理はS230に進む。
図20は、実施の形態2におけるマーカー画像291の一例を示す図である。
例えば、マーカー画像生成部210は、図20に示すようなマーカー画像291を生成する。このマーカー画像291は、ウィンドウ340(図19参照)が表示されるウィンドウ領域に8つのマーカー2021〜2028が配置された画像である。
マーカー2021〜2028は二次元コード(図11、図12参照)であっても構わない。
図18に戻り、S230から説明を続ける。
S230において、マーカー重畳画像生成部230は、情報処理画像292にマーカー画像291を重畳することによって、マーカー重畳画像293を生成する。
S230の後、処理はS240に進む。
図21は、実施の形態2におけるマーカー重畳画像293の一例を示す図である。
例えば、マーカー重畳画像生成部230は、情報処理画像292(図19参照)にマーカー画像291(図20参照)を重畳することによって、図21に示すようなマーカー重畳画像293を生成する。
図18に戻り、S240から説明を続ける。
S240において、マーカー重畳画像表示部240は、マーカー重畳画像293を情報処理表示デバイスの表示領域201に表示する。
例えば、マーカー重畳画像表示部240は、図21に示すようにマーカー重畳画像293を表示領域201に表示する。
S240の後、マーカー表示処理は終了する。
実施の形態2により、情報処理装置200は、アプリケーションプログラム用のウィンドウが表示されるウィンドウ領域にマーカーを表示することができる。つまり、情報処理装置200は、情報が重畳されない不可領域をウィンドウ領域に限定して、不可領域を不必要に広げる状況を回避することができる。
AR装置100は、ウィンドウが表示されていない表示領域(例えば、デスクトップ画面)が映っている画像領域に、情報を重畳表示することができる。
実施の形態3.
複数のウィンドウのうちの重要なウィンドウが表示されるウィンドウ領域にマーカーを表示する形態について説明する。
以下、実施の形態1および実施の形態2で説明していない事項について主に説明する。説明を省略する事項については実施の形態1または実施の形態2と同様である。
図22は、実施の形態3における情報処理装置200の機能構成図である。
実施の形態3における情報処理装置200の機能構成について、図22に基づいて説明する。但し、情報処理装置200の機能構成は図22と異なる機能構成であっても構わない。
情報処理装置200は、実施の形態1(図2参照)で説明した機能に加えて、重要ウィンドウ選択部251と、ウィンドウ管理部252とを備える。
重要ウィンドウ選択部251は、重要度テーブル295とウィンドウ別のウィンドウ情報294とに基づいて重要なウィンドウを選択し、重要なウィンドウを示す重要ウィンドウリスト296を生成する。重要ウィンドウ選択部251は、重要でないウィンドウを示すリストを生成しても構わない。
重要度テーブル295は、アプリケーションプログラムの重要度を示す。
ウィンドウ情報294は、ウィンドウ領域を示すウィンドウ領域情報、ウィンドウの重要度、ウィンドウを識別するウィンドウハンドルなどを含む。ウィンドウの重要度はウィンドウを使用するアプリケーションプログラムの重要度を意味する。
重要なウィンドウはマーカー202が表示されるウィンドウである。重要でないウィンドウはマーカー202が表示されないウィンドウである。
ウィンドウ管理部252はウィンドウを管理する。
例えば、ウィンドウ管理部252は、ウィンドウハンドルの生成、ウィンドウ領域の決定、ウィンドウの外観の決定、ウィンドウの画像の生成などの処理を行う。
図23は、実施の形態3における情報処理装置200のマーカー表示処理を示すフローチャートである。
実施の形態3における情報処理装置200のマーカー表示処理について、図23に基づいて説明する。但し、マーカー表示処理は図23と異なる処理であっても構わない。
S2012において、情報処理画像生成部220は、ウィンドウ管理部252を利用することによって、情報処理画像292とウィンドウ情報294とを生成する。
情報処理画像292は複数のウィンドウ340を含んでいる。
ウィンドウ情報294は、ウィンドウ340毎に、ウィンドウハンドル、ウィンドウ領域およびアプリケーションプログラムの重要度などを含む。
例えば、情報処理画像生成部220は、ウィンドウハンドルとウィンドウ領域とをウィンドウ管理部252から取得する。
例えば、情報処理画像生成部220は、ウィンドウ340毎に、ウィンドウ340を使用するアプリケーションプログラムを識別するプログラム識別子に対応付けられた重要度を重要度テーブル295から取得する。
S2012の後、処理はS2022に進む。
図24は、実施の形態3における情報処理画像292の一例を示す図である。
例えば、情報処理画像生成部220は、アプリケーションプログラム(1)用のウィンドウ3401と、アプリケーションプログラム(2)用のウィンドウ3402とを含んだ情報処理画像292を生成する。
図23に戻り、S2022から説明を続ける。
S2022において、重要ウィンドウ選択部251は、ウィンドウ340別のウィンドウ情報294を情報処理画像生成部220から取得する。
そして、重要ウィンドウ選択部251は、ウィンドウ340別のウィンドウ情報294に含まれる重要度に基づいて、重要ウィンドウリスト296を生成する。重要ウィンドウリスト296は、重要なウィンドウ340のウィンドウハンドルを含む。
例えば、重要ウィンドウ選択部251は、以下の少なくともいずれかの処理によってウィンドウ情報294を選択する。そして、重要ウィンドウ選択部251は、選択したウィンドウ情報294からウィンドウハンドルを取得し、取得したウィンドウハンドルを重要ウィンドウリスト296に設定する。
重要ウィンドウ選択部251は、重要度閾値よりも高い重要度を含んだウィンドウ情報294を選択する。
重要ウィンドウ選択部251は、重要度が高い順にウィンドウ選択数と同じ数のウィンドウ情報294を選択する。
重要度が高いウィンドウ340が新たに生成された場合、重要なウィンドウ340は、新たなウィンドウ340を含む他のウィンドウ340に比較して重要ではないウィンドウ340になる可能性がある。また、重要なウィンドウ340が閉じられた場合、重要ではなかったウィンドウが重要なウィンドウになる可能性がある。
そのため、新たなウィンドウ340が生成され、または、既存のウィンドウ340が閉じられた場合、重要ウィンドウ選択部251は重要ウィンドウリスト296を更新する。
S2022の後、処理はS2102に進む。
S2102において、マーカー画像生成部210は、重要ウィンドウ選択部251からウィンドウ情報294と重要ウィンドウリスト296とを取得する。
マーカー画像生成部210は、重要ウィンドウリスト296に含まれるウィンドウハンドルと同じウィンドウハンドルを含んだウィンドウ情報294を選択する。
そして、マーカー画像生成部210は、選択したウィンドウ情報294に基づいて、マーカー画像291を生成する。マーカー画像291は、重要なウィンドウ340が表示されるウィンドウ領域にウィンドウ領域の目印になるマーカー202が配置された画像である。
重要ウィンドウリスト296が更新された場合、マーカー画像生成部210は、更新された重要ウィンドウリスト296に基づいて、マーカー画像291を更新する。
マーカー画像生成部210は、ウィンドウ情報294に含まれるウィンドウ340の重要度に基づいて、マーカー202の形状とマーカー202の色との少なくともいずれかを決定してもよい。
S2102の後、処理はS230に進む。
図25は、実施の形態3におけるマーカー画像291の一例を示す図である。
重要ウィンドウリスト296がウィンドウ3401(図24参照)のウィンドウハンドルを示す場合、マーカー画像生成部210は、図25に示すようなマーカー画像291を生成する。マーカー画像291は、ウィンドウ3401が表示されるウィンドウ領域にマーカー2021〜2027が配置された画像である。マーカー2021〜2027は二次元コード(図11、図12参照)であっても構わない。
重要ウィンドウリスト296がウィンドウ3401とウィンドウ3402とのそれぞれのウィンドウハンドルを示す場合、マーカー画像生成部210は、ウィンドウ3401とウィンドウ3402とのそれぞれのウィンドウ領域にマーカー202が配置されたマーカー画像291を生成する。
図23に戻り、S230から説明を続ける。
S230において、マーカー重畳画像生成部230は、情報処理画像292にマーカー画像291を重畳することによってマーカー重畳画像293を生成する。
S230の後、処理はS240に進む。
図26は、実施の形態3におけるマーカー重畳画像293の一例を示す図である。
例えば、マーカー重畳画像生成部230は、情報処理画像292(図24参照)にマーカー画像291(図25参照)を重畳することによって、図26に示すようなマーカー重畳画像293を生成する。
図23に戻り、S240から説明を続ける。
S240において、マーカー重畳画像表示部240は、マーカー重畳画像293を情報処理表示デバイスの表示領域201に表示する。
例えば、マーカー重畳画像表示部240は、図26に示すようにマーカー重畳画像293を表示領域201に表示する。
S240の後、マーカー表示処理は終了する。
実施の形態3により、情報処理装置200は、複数のウィンドウのうちの重要なウィンドウが表示されるウィンドウ領域にマーカーを表示することができる。
実施の形態4.
一部が重なる複数のウィンドウ領域を合成した合成領域にマーカーを表示する形態について説明する。
以下、実施の形態1から実施の形態3で説明していない事項について主に説明する。説明を省略する事項については実施の形態1から実施の形態3と同様である。
図27は、実施の形態4における情報処理装置200の機能構成図である。
実施の形態4における情報処理装置200の機能構成について、図27に基づいて説明する。但し、情報処理装置200の機能構成は図27と異なる機能構成であっても構わない。
情報処理装置200は、実施の形態2(図17参照)で説明した機能に加えて、ウィンドウ合成部260を備える。
ウィンドウ合成部260は、ウィンドウ別のウィンドウ情報294に基づいて合成領域を算出し、算出した合成領域を示す合成領域情報を含んだ合成情報297を生成する。合成領域は、一部が重なる複数のウィンドウ領域を含んだ領域である。但し、合成領域は、重なっていない複数のウィンドウ領域を含んだ領域であっても構わない。
合成情報297は、合成領域を示す合成領域情報、および、合成領域に含まれるウィンドウ340のウィンドウハンドルなどを含む。
マーカー画像生成部210は、合成情報297に基づいて、合成領域に合成領域を特定するマーカー202が配置されたマーカー画像291を生成する。
図28は、実施の形態4における情報処理装置200のマーカー表示処理を示すフローチャートである。
実施の形態4における情報処理装置200のマーカー表示処理について、図28に基づいて説明する。但し、マーカー表示処理は図28と異なる処理であっても構わない。
S2013において、情報処理画像生成部220は、複数のウィンドウ340を含んだ情報処理画像292を生成し、生成したウィンドウ340毎にウィンドウ情報294を生成する。
S2013の後、処理はS2023に進む。
図29は、実施の形態4における情報処理画像292の一例を示す図である。
例えば、情報処理画像生成部220は、アプリケーションプログラム(1)用のウィンドウ3401と、このウィンドウ3401に一部が重なったアプリケーションプログラム(2)用のウィンドウ3402と、を含む情報処理画像292(図29参照)を生成する。
図28に戻り、S2023から説明を続ける。
S2023において、ウィンドウ情報取得部250は、情報処理画像生成部220からウィンドウ340別のウィンドウ情報294を取得する。
S2023の後、処理はS260に進む。
S260において、ウィンドウ合成部260は、ウィンドウ情報取得部250からウィンドウ340別のウィンドウ情報294を取得する。ウィンドウ情報294はウィンドウ領域情報を含む。
ウィンドウ合成部260は、ウィンドウ340別のウィンドウ領域情報に基づいて合成領域350を算出し、算出した合成領域350を示す合成領域情報を含んだ合成情報297を生成する。合成領域350が複数ある場合、ウィンドウ合成部260は合成領域350毎に合成情報297を生成する。
合成情報297は、合成領域350を示す合成領域情報、および、合成領域350に含まれるウィンドウ340のウィンドウハンドルなどを含む。
ウィンドウ合成処理(S260)の詳細については後述する。
S260の後、処理はS2103に進む。
図30は、実施の形態4における合成領域350の一例を示す図である。
例えば、ウィンドウ合成部260は、ウィンドウ3401が表示されるウィンドウ領域とウィンドウ3402が表示されるウィンドウ領域とを含む最小の矩形領域を、合成領域350(図30参照)として算出する。破線の枠に囲まれた領域が合成領域350である。
図28に戻り、S2103から説明を続ける。
S2103において、マーカー画像生成部210は、ウィンドウ合成部260から合成情報297を取得する。
マーカー画像生成部210は、合成情報297に含まれる合成領域情報に基づいて、マーカー画像291を生成する。マーカー画像291は、合成領域350に合成領域350を特定するマーカー202が配置された画像である。
マーカー画像生成部210は、ウィンドウ合成部260からウィンドウ別のウィンドウ情報294を取得し、合成領域350に表示されないウィンドウ340のウィンドウ領域を特定するマーカー202をマーカー画像291に含めてもよい。
この場合、マーカー画像生成部210は、合成情報297に含まれるウィンドウハンドルと異なるウィンドウハンドルを含んだウィンドウ情報294を選択し、選択したウィンドウ情報294からウィンドウ領域情報を取得する。そして、マーカー画像生成部210は、取得したウィンドウ領域情報が示すウィンドウ領域を特定するマーカー202を生成し、生成したマーカー202をマーカー画像291に含める。
S2103の後、処理はS230に進む。
図31は、実施の形態4におけるマーカー画像291の一例を示す図である。
例えば、マーカー画像生成部210は、図31に示すようなマーカー画像291を生成する。このマーカー画像291は、合成領域350に4つのマーカー2021〜2027が配置された画像である。マーカー2021〜2027は二次元コード(図11、図12参照)であっても構わない。
例えば、マーカー画像生成部210は、合成領域350に表示されるウィンドウ3401・3402(図30参照)のそれぞれのウィンドウ領域に基づいて、マーカー202の数および配置を決定する。
例えば、マーカー画像生成部210は、合成領域350の4つの角のうち、ウィンドウ3401に接する左上の角と、ウィンドウ3402に接する右下の角との2つの角に、マーカー2021・2023を配置する。
例えば、マーカー画像生成部210は、合成領域350の4つの辺のうち、ウィンドウ3401に接する左辺と、ウィンドウ3402に接する右辺との2つの辺の中間部分に、マーカー2025・2027を配置する。
マーカー画像生成部210は、1つから3つのマーカー202または5つ以上のマーカー202が配置されたマーカー画像291を生成しても構わない。
図28に戻り、S230から説明を続ける。
S230において、マーカー重畳画像生成部230は、情報処理画像292にマーカー画像291を重畳することによって、マーカー重畳画像293を生成する。
S230の後、処理はS240に進む。
図32は、実施の形態4におけるマーカー重畳画像293の一例を示す図である。
例えば、マーカー重畳画像生成部230は、情報処理画像292(図29参照)にマーカー画像291(図31参照)を重畳することによって、図32に示すようなマーカー重畳画像293を生成する。
図28に戻り、S240から説明を続ける。
S240において、マーカー重畳画像表示部240は、マーカー重畳画像293を情報処理デバイスの表示領域201に表示する。
例えば、マーカー重畳画像表示部240は、図32に示すようにマーカー重畳画像293を表示領域201に表示する。
S240の後、マーカー表示処理は終了する。
図33は、実施の形態4におけるウィンドウ合成処理(S260)を示すフローチャートである。
実施の形態4におけるウィンドウ合成処理(S260)について、図33に基づいて説明する。但し、ウィンドウ合成処理(S260)は図33と異なる処理であっても構わない。
S261において、ウィンドウ合成部260は、候補領域のウィンドウ情報294として選択していないウィンドウ情報294を一つ選択する。候補領域は、合成領域350に含まれるウィンドウ領域の候補を意味する。
S261の後、処理はS262に進む。
S262において、ウィンドウ合成部260は、候補領域のウィンドウ情報294と他のウィンドウ情報294とのそれぞれに含まれるウィンドウ領域情報に基づいて、重なり領域のウィンドウ情報294があるか判定する。重なり領域は、候補領域と少なくとも一部が重なるウィンドウ領域である。
重なり領域のウィンドウ情報294がある場合(YES)、処理はS263に進む。
重なり領域のウィンドウ情報294がない場合(NO)、処理はS264に進む。
S263において、ウィンドウ合成部260は、候補領域のウィンドウ情報294と重なり領域のウィンドウ情報294とに基づいて、ダミーのウィンドウ情報294を生成する。
ダミーのウィンドウ情報294は、ダミーのウィンドウ領域情報、候補領域のウィンドウハンドルおよび重なり領域のウィンドウハンドルなどを含む。
ダミーのウィンドウ領域情報は、候補領域と重なり領域とを合成した暫定の合成領域を示す。ウィンドウ合成部260は、候補領域のウィンドウ領域情報と重なり領域のウィンドウ領域情報とに基づいて、暫定の合成領域を算出する。例えば、ウィンドウ合成部260は、候補領域と重なり領域とを含む最小の矩形領域を暫定の合成領域として算出する。
ウィンドウ合成処理(S260)において、ダミーのウィンドウ情報294が生成された後、候補領域のウィンドウ情報294および重なり領域のウィンドウ情報294は、ダミーのウィンドウ情報294に置き換えられる。
S263の後、処理はS264に進む。
S264において、ウィンドウ合成部260は、候補領域のウィンドウ情報294として選択されていない未選択のウィンドウ情報294があるか判定する。S263で生成されたダミーのウィンドウ情報294は未選択のウィンドウ情報294である。
未選択のウィンドウ情報294がある場合(YES)、処理はS261に戻る。
未選択のウィンドウ情報294がない場合(NO)、ウィンドウ合成処理(S260)は終了する。
ウィンドウ合成処理(S260)の後に残ったダミーのウィンドウ情報294が合成情報297になる。つまり、ダミーのウィンドウ領域情報が合成領域情報になる。また、ダミーのウィンドウ情報294に含まれるウィンドウハンドルは、合成領域350に含まれるウィンドウ340を識別する。
図34は、実施の形態4における合成領域350の一例を示す図である。
図34の上段において、ウィンドウ3401のウィンドウ領域とウィンドウ3402のウィンドウ領域とが重なっているものとする。この場合、ウィンドウ合成部260は、ウィンドウ3401とウィンドウ3402とのそれぞれのウィンドウ領域を含む暫定の合成領域350を算出する。暫定の合成領域350はダミーのウィンドウ領域を意味する。
このダミーのウィンドウ領域(暫定の合成領域350)とウィンドウ3403のウィンドウ領域とが重なる場合、ウィンドウ合成部260は、ダミーのウィンドウ領域とウィンドウ3403のウィンドウ領域とを含む合成領域350を算出する(図34の下段参照)。
ウィンドウ合成部260は、ウィンドウ3401とウィンドウ3402とウィンドウ3403とのいずれもが互いに重なっていない場合に、ウィンドウ3401とウィンドウ3402とウィンドウ3403とを含む合成領域350を算出しても構わない。
実施の形態4により、情報処理装置200は、一部が重なる複数のウィンドウ領域を合成した合成領域にマーカーを表示することができる。
実施の形態5.
一部が重なる複数のウィンドウ領域を合成した合成領域にマーカーを表示する形態について説明する。
以下、実施の形態1から実施の形態4で説明していない事項について主に説明する。説明を省略する事項については実施の形態1から実施の形態4と同様である。
図35は、実施の形態5における情報処理装置200の機能構成図である。
実施の形態5における情報処理装置200の機能構成について、図35に基づいて説明する。但し、情報処理装置200の機能構成は図35と異なる機能構成であっても構わない。
情報処理装置200は、実施の形態3(図22参照)で説明した機能に加えて、ウィンドウ合成部260を備える。
ウィンドウ合成部260は、実施の形態4(図27、図33等を参照)で説明した機能と同様である。
図36は、実施の形態5における情報処理装置200のマーカー表示処理を示すフローチャートである。
実施の形態5における情報処理装置200のマーカー表示処理について、図36に基づいて説明する。但し、マーカー表示処理は図36と異なる処理であっても構わない。
S2014において、情報処理画像生成部220は、ウィンドウ管理部252を利用することによって、情報処理画像292とウィンドウ情報294とを生成する(図23のS2012と同様)。
S2014の後、処理はS2024に進む。
S2024において、重要ウィンドウ選択部251は、ウィンドウ340別のウィンドウ情報294に含まれる重要度に基づいて、重要ウィンドウリスト296を生成する(図23のS2024と同様)。
S2024の後、処理はS2601に進む。
S2601において、ウィンドウ合成部260は、重要ウィンドウリスト296に含まれるウィンドウハンドルと同じウィンドウハンドルを含んだウィンドウ情報294を選択する。
そして、ウィンドウ合成部260は、選択したウィンドウ情報294に含まれるウィンドウ領域に基づいて合成領域350算出し、算出した合成領域350を示す合成領域情報を含んだ合成情報297を生成する。合成領域350を算出する方法および合成情報297を生成する方法は実施の形態4(図28のS260参照)と同様である。
S2601により、図30に示すような合成領域350が算出される。
S2601の後、処理はS2104に進む。
S2104において、マーカー画像生成部210は、合成情報297に基づいてマーカー画像291を生成する(図28のS2103と同様)。
S2104により、図31に示すようなマーカー画像291が生成される。
S2104の後、処理はS230に進む。
S230において、マーカー重畳画像生成部230は、情報処理画像292にマーカー画像291を重畳することによって、マーカー重畳画像293を生成する。
S230により、図32に示すようなマーカー重畳画像293が生成される。
S230の後、処理はS240に進む。
S240において、マーカー重畳画像表示部240は、マーカー重畳画像293を情報処理デバイスの表示領域201に表示する。
S240により、図32に示すようにマーカー重畳画像293が表示領域201に表示される。
S240の後、マーカー表示処理は終了する。
実施の形態5により、一部が重なる複数のウィンドウ領域を合成した合成領域にマーカーを表示することができる。
実施の形態6.
AR装置100の詳細について説明する。
以下、実施の形態1から実施の形態5で説明していない事項について主に説明する。説明を省略する事項については実施の形態1から実施の形態5と同様である。
図37は、実施の形態6におけるAR装置100の機能構成図である。
実施の形態6におけるAR装置100の機能構成について、図37に基づいて説明する。但し、AR装置100の機能構成は図37と異なる機能構成であっても構わない。
AR装置100(情報重畳画像表示装置の一例)は、AR装置100が備えるAR表示デバイスの表示領域にAR画像194を表示する装置である。
AR装置100は、撮影画像取得部110と、重畳情報取得部120と、不可領域選択部130と、AR画像生成部140(情報重畳画像生成部の一例)と、AR画像表示部150(情報重畳画像表示部の一例)と、装置記憶部190とを備える。
撮影画像取得部110は、カメラによって生成される撮影画像191を取得する。撮影画像191は情報処理表示デバイスが存在する撮影範囲を映している。情報処理表示デバイスは表示領域に表示領域の目印になるマーカー202を表示している。
重畳情報取得部120は、撮影画像191に重畳される重畳情報192を取得する。
不可領域選択部130は、撮影画像191に映っているマーカー202に基づいて撮影画像191から情報処理表示デバイスの表示領域が映っている画像領域を選択し、選択した画像領域を不可領域として示す不可領域情報193を生成する。
AR画像生成部140は、重畳情報192と不可領域情報193とに基づいて、AR画像194を生成する。AR画像194は、重畳情報192が不可領域以外の画像領域に重畳された撮影画像191である。
AR画像表示部150は、AR画像194をAR表示デバイスに表示する。
装置記憶部190は、AR装置100によって使用、生成または入出力されるデータを記憶する。
例えば、装置記憶部190は、撮影画像191、重畳情報192、不可領域情報193およびAR画像194などを記憶する。
図38は、実施の形態6におけるAR装置100のAR処理を示すフローチャートである。
実施の形態6におけるAR装置100のAR処理について、図38に基づいて説明する。但し、AR処理は図38と異なる処理であっても構わない。
図38に示すAR処理は、AR装置100のカメラによって撮影画像191が生成される毎に実行される。
S110において、撮影画像取得部110は、AR装置100のカメラによって生成された撮影画像191を取得する。
撮影画像191は、情報処理デバイスの表示領域にマーカー202を表示している情報処理デバイスを映している。
S110の後、処理はS120に進む。
図39は、実施の形態6における撮影画像191の一例を示す図である。
例えば、撮影画像取得部110は、図39に示すような撮影画像191を取得する。
撮影画像191は、タブレット型の情報処理装置200と時計310とを含んだ撮影範囲を映している。
タブレット型の情報処理装置200は表示デバイスを備えている。情報処理装置200の表示デバイスはマーカー202が表示される表示領域201を備えている。
図38に戻り、S120から説明を続ける。
S120において、重畳情報取得部120は、撮影画像191に重畳する重畳情報192を取得する。
例えば、重畳情報取得部120は、撮影画像191(図39参照)から時計310を検出し、時計310に関連する重畳情報192を取得する。
重畳情報取得処理(S120)の詳細については、別の実施の形態で説明する。
S120の後、処理はS130に進む。但し、S120はS130の後に実行されても構わない。また、S120は、S130と並列に実行されても構わない。
S130において、不可領域選択部130は、撮影画像191からマーカー202を検出する。
不可領域選択部130は、検出したマーカー202の位置、形状および色などに基づいて、撮影画像191から情報処理装置200の表示領域201が映っている画像領域を不可領域390として選択する。
そして、不可領域選択部130は、不可領域を示す不可領域情報193を生成する。
ウィンドウ340が表示されているウィンドウ領域にマーカー202が表示されている場合(図21参照)、不可領域選択部130は、ウィンドウ340が映っている画像領域を不可領域390として選択する。
例えば、不可領域選択部130は、撮影画像191(図39参照)からマーカー2021〜2028を検出し、検出したマーカー2021〜2028の形状および色に基づいて表示領域201を不可領域390として選択する。
表示領域201に表示されたマーカー2021〜2028のうちの一部のマーカーしか検出することができない場合、不可領域選択部130は、検出した一部のマーカーに基づいて不可領域390を選択する。
検出した一部のマーカーで閉じた画像領域を求めることができない場合、不可領域選択部130は、検出した一部のマーカーに基づいて不可領域390を選択しなくてもよい。
マーカー202が二次元コードである場合、不可領域選択部130は二次元コードに含まれる情報を読み取り、読み取った情報に基づいて不可領域390を選択する。
情報処理記憶部290は、マーカー202に基づいて不可領域390を選択するための選択規則を示す選択規則ファイルを記憶してもよい。
この場合、不可領域選択部130は、マーカー202と選択規則ファイルとに基づいて、不可領域390を選択する。
S130の後、処理はS140に進む。
図40は、実施の形態6における撮影画像191に含まれる不可領域390の一例を示す図である。
不可領域選択部130は、撮影画像191(図39参照)に映っているマーカー2021〜2028に基づいて情報処理装置200の表示領域201(網掛け部分)を不可領域390として選択する。
図41は、実施の形態6における撮影画像191に含まれる不可領域390の一例を示す図である。
撮影画像191から表示領域201に左上に表示されたマーカー2021しか検出することができない場合(図41の上段参照)、不可領域選択部130は、マーカー2021から撮影画像191の端までの画像領域(網掛け部分)を不可領域390として選択する(図41の下段参照)。
但し、不可領域選択部130は、マーカー2021だけで閉じた画像領域を求めることはできないため、マーカー2021を無視し、不可領域390を選択しなくてもよい。
図42は、実施の形態6における不可領域390の一例を示す図である。
図42において、マーカー2021Aとマーカー2023Aとが閉領域3941を形成し、マーカー2021Bとマーカー2023Bとが閉領域3942を形成している。さらに、マーカー2021Aとマーカー2023Bとが閉領域3943を形成している。
このように、マーカー202から複数の閉領域394が求まる場合、不可領域選択部130は、小さな個々の閉領域3941・3942を不可領域390として選択してもよいし、個々の閉領域3941・3942を含む大きな閉領域3943を不可領域390として選択してもよい。
図38に戻り、S140から説明を続ける。
S140において、AR画像生成部140は、重畳情報192と不可領域情報193とに基づいて、AR画像194を生成する。
AR画像194は、重畳情報192が不可領域を避けて重畳された撮影画像191である。
AR画像生成処理(S140)の詳細については、別の実施の形態で説明する。
S140の後、処理はS150に進む。
図43は、実施の形態6におけるAR画像194の一例を示す図である。
例えば、AR画像生成部140は、図43に示すようなAR画像194を生成する。
AR画像194は吹き出し形状の情報図320を含んでいる。情報図320は、時計310が示す現在時刻に近い時刻のスケジュール情報を重畳情報192として示している。情報図320はCG(コンピュータグラフィックス)である。
図38に戻り、S150から説明を続ける。
S150において、AR画像表示部150は、AR装置100の表示デバイスにAR画像194を表示する。
例えば、AR画像表示部150は、図1に示すようにAR装置100が備える表示デバイスの表示領域101に表示する。
S150の後、1つの撮影画像191に対するAR処理は終了する。
図44は、実施の形態6におけるAR装置100のハードウェア構成図である。
実施の形態6におけるAR装置100のハードウェア構成について、図44に基づいて説明する。但し、AR装置100のハードウェア構成は図44に示す構成と異なる構成であってもよい。
AR装置100は、情報処理装置200(図15参照)が備えるハードウェアと同様のハードウェアを備える。
バス801は、AR装置100のハードウェアがデータを交換するために用いるデータ転送路である。
メモリ802は、AR装置100のハードウェアによってデータが書き込まれ、または、データが読み出される揮発性の記憶装置である。
ストレージ803は、AR装置100のハードウェアによってデータが書き込まれ、または、データが読み出される不揮発性の記憶装置である。
通信インタフェース804は、AR装置100が外部のコンピュータとデータを交換するために用いる通信装置である。
CPU805は、AR装置100が行う処理(例えば、AR処理)を実行する演算装置である。
GPU806は、コンピュータグラフィックス(CG)に関する処理を実行する演算装置である。
表示デバイス807は、CGのデータを光学的な出力に変換する装置である。
ユーザインタフェースデバイス809は、AR装置100を利用するユーザがAR装置100を操作するために用いる入力装置である。
センサ810は、AR装置100または周辺の状況を検出するための計測装置である。
さらに、AR装置100はカメラ808を備える。
カメラ808は、光学的な入力をデータに変換する装置である。つまり、カメラ808は、撮影によって画像を生成する撮影装置である。一つの画像は静止画という。また、時系列に連続する複数の静止画を動画または映像という。
「〜部」として説明している機能を実現するためのプログラムは、ストレージ803に記憶され、ストレージ803からメモリ802にロードされ、CPU805によって実行される。
「〜の判断」、「〜の判定」、「〜の抽出」、「〜の検知」、「〜の設定」、「〜の登録」、「〜の選択」、「〜の生成」、「〜の入力」、「〜の出力」等の処理の結果を示す情報、データ、ファイル、信号値または変数値がメモリ802またはストレージ803に記憶される。
実施の形態6により、撮影画像191に映った情報処理装置200の表示領域201を隠さずに撮影画像191に重畳情報192を表示することができる。
実施の形態7.
マーカーが表すウィンドウの重要度に基づいてウィンドウ領域を不可領域として選択するか判定する形態について説明する。
以下、実施の形態1から実施の形態6で説明していない事項について主に説明する。説明を省略する事項については実施の形態1から実施の形態6と同様である。
AR装置100の機能構成は、実施の形態6(図37参照)と同様である。
但し、重畳情報取得部120は、重畳情報192と共に重畳情報192の重要度を取得する。
また、不可領域選択部130は、不可領域390毎に、不可領域390に映っているウィンドウ340に重畳されているマーカー202の形状および色などに基づいて、ウィンドウ340の重要度を特定する。
そして、AR画像生成部140は、重畳情報192毎に、重畳情報192の重要度よりも高い重要度のウィンドウ340が映っている不可領域390を避けて、重畳情報192を撮影画像191に重畳する。つまり、AR画像生成部140は、重畳情報192の重要度よりも低い重要度のウィンドウ340が映っている不可領域390に、重畳情報192を重畳しても構わない。
実施の形態7により、重要な重畳情報192を重要でないウィンドウ340が示す情報よりも優先して表示することができる。例えば、重要でないウィンドウ340が映っている画像領域を避けた結果、重要な重畳情報192を表示することができる画像領域が見つからず、重要な重畳情報192を表示することができない、といった事象を防ぐができる。
実施の形態8.
重畳情報取得部120が、表示領域に表示されている情報処理画像に関する情報を重畳情報192として取得する形態について説明する。
以下、実施の形態1から実施の形態7で説明していない事項について主に説明する。説明を省略する事項については実施の形態1から実施の形態7と同様である。
図45は、実施の形態8における重畳情報取得部120の機能構成図である。
実施の形態8における重畳情報取得部120の機能構成について、図45に基づいて説明する。但し、重畳情報取得部120の機能構成は図45と異なる機能構成であっても構わない。
重畳情報取得部120は、物体検出部121と、物体特定部122と、重畳情報収集部123と、不可領域解析部124とを備える。
物体検出部121は、撮影画像191に映っている物体を撮影画像191から検出する。言い換えると、物体検出部121は、物体が映っている物体領域を撮影画像191から検出する。
例えば、物体検出部121は、撮影画像191(図39参照)に映っている時計310を、撮影画像191から検出する。
例えば、物体検出部121は、マーカー方式またはマーカーレス方式によって、撮影画像191から物体を検出する。
マーカー方式は、物体(物体の画像を含む)に付加されたマーカーを撮影画像191から検出することによって、マーカーが付加された物体を検出する方式である。マーカーは、バーコードのような特殊な図柄である。マーカーは物体に関する物体情報に基づいて生成される。物体情報は物体の種別を表す種別情報、物体の位置を表す座標値および物体の大きさを表すサイズ情報などを含む。
マーカーレス方式は、幾何学的または光学的な特徴量を撮影画像191から抽出し、抽出した特徴量に基づいて物体を検出する方式である。物体の形状、色彩および輝度を表す量は、物体の特徴を表す特徴量の一例である。また、物体に記された文字および記号は、物体の特徴を表す特徴量の一例である。
例えば、物体検出部121は、撮影画像191に映っている物体の形状を表すエッジを抽出し、抽出したエッジによって囲まれた物体領域を検出する。つまり、物体検出部121は、抽出したエッジが境界線になる物体領域を検出する。
物体特定部122は、物体検出部121によって検出された物体の種別を特定する。また、物体特定部122は、物体検出部121によって検出された物体の種別を表す種別情報を取得する。
例えば、種別情報はJSON形式で記述される。JSONはJavaScript Object Notationの略称である。JavaおよびJavaScriptは登録商標である。
例えば、物体特定部122は、撮影画像191(図39参照)から検出された物体の形状、文字盤、時針、分針および秒針などに基づいて、検出された物体が時計310であると特定する。
例えば、マーカー方式によって物体が検出された場合、物体特定部122は、物体の種別情報をマーカーから読み取る。
例えば、マーカーレス方式によって物体が検出された場合、物体特定部122は、検出された物体の特徴量を用いて、物体の種別情報を種別情報データベースから取得する。種別情報データベースは、物体の特徴量に物体の種別情報を関連付けたデータベースである。種別情報データベースは、物体の特徴量を機械学習することによって生成される。種別情報データベースは、別のコンピュータが備える外部のデータベースとAR装置100が備える内部のデータベースとのいずれであっても構わない。
重畳情報収集部123は、物体特定部122によって特定された物体の種別に基づいて、物体に関する物体情報を重畳情報192として取得する。例えば、物体情報はJSON形式で記述される。
但し、重畳情報収集部123は、物体情報以外の情報を重畳情報192として取得しても構わない。例えば、重畳情報収集部123は、現在の日時、位置、気候などに関する情報を重畳情報192として取得しても構わない。
例えば、マーカー方式によって物体が検出された場合、重畳情報収集部123は、物体情報をマーカーから読み取る。
例えば、マーカーレス方式によって物体が検出された場合、重畳情報収集部123は、物体の種別情報を用いて、物体情報またはURIを物体情報データベースから取得する。物体情報データベースは、種別情報に物体情報またはURIを関連付けたデータベースである。物体情報データベースは、外部のデータベースと内部のデータベースとのいずれであっても構わない。URIはUniform Resource Identifierの略称である。URIはURL(Uniform Resource Locator)と読み替えても構わない。
物体情報データベースからURIが取得された場合、重畳情報収集部123は、URIが示す記憶領域から物体情報を取得する。URIが示す記憶領域は別のコンピュータが備える記憶装置とAR装置100が備える記憶装置とのいずれの記憶装置に備わる記憶領域であっても構わない。
不可領域解析部124は、不可領域情報193に基づいて、不可領域390に映っている情報処理画像300を解析する。
例えば、不可領域解析部124は、情報処理画像300を解析することによって、アイコンを情報処理画像300から検出する。
アイコンは電子ファイル(アプリケーションプログラムを含む)にリンクされる。アイコンはリンクされた電子ファイルの内容を表す絵であり、その絵に文字列が付記される場合もある。
重畳情報収集部123は、情報処理画像300の解析結果に基づいて、情報処理画像300に関する情報を重畳情報192として収集する。
例えば、重畳情報収集部123は、情報処理画像300から検出されたアイコンによって識別される電子ファイルに関する情報を重畳情報192として収集する。アプリケーションプログラムは電子ファイルの一例である。
例えば、重畳情報収集部123は、アイコンにアプリケーション情報を関連付けたアプリケーション情報データベースから、アプリケーション情報を収集する。アプリケーション名およびバージョン番号は、アプリケーション情報に含まれる情報の一例である。アプリケーション情報データベースは、情報処理装置200に備わるデータベースと、AR装置100に備わるデータベースと、その他のコンピュータに備わるデータベースとのいずれであっても構わない。
図46は、実施の形態8におけるAR画像194の一例を示す図である。
図46において、AR画像194は、アプリケーション情報およびアップデート情報を重畳情報192として示す情報図321を含んでいる。アップデート情報はアプリケーションプログラムのアップデートの有無を示す情報である。
例えば、不可領域解析部124は、情報処理画像300から四角形のアイコンを検出する。
そして、重畳情報収集部123は、検出されたアイコンによって識別されるアプリケーションプログラムに関するアプリケーション情報をアプリケーション情報データベースから取得する。さらに、重畳情報収集部123は、取得したアプリケーション情報に含まれるアプリケーション名およびバージョン番号を用いて、アプリケーション管理サーバからアップデート情報を取得する。アプリケーション管理サーバはアプリケーションプログラムを管理するためのサーバである。
実施の形態8により、被写体の表示デバイスの表示領域に表示されている画像に関する重畳情報192を取得することができる。
実施の形態9.
AR装置100のAR画像生成部140について説明する。
以下、実施の形態1から実施の形態8で説明していない事項について主に説明する。説明を省略する事項については実施の形態1から実施の形態8と同様である。
図47は、実施の形態9におけるAR画像生成部140の機能構成図である。
実施の形態9におけるAR画像生成部140の機能構成について、図47に基づいて説明する。但し、AR画像生成部140の機能構成は図47と異なる機能構成であっても構わない。
AR画像生成部140は、情報画像生成部141と、情報画像重畳部146とを備える。
情報画像生成部141は、重畳情報192が記された情報図320を含んだ情報画像329を生成する。
情報画像重畳部146は、情報画像329を撮影画像191に重畳することによって、AR画像194を生成する。
情報画像生成部141は、情報部分生成部142と、情報部分配置判定部143と、引き出し部分生成部144と、情報図配置部145とを備える。
情報部分生成部142は、情報図320のうちの重畳情報192を示す情報部分図322を生成する。
情報部分配置判定部143は、不可領域情報193に基づいて、不可領域390を避けて情報部分図322を撮影画像191に配置することができるか判定する。不可領域390を避けて情報部分図322を撮影画像191に配置することができない場合、情報部分生成部142は情報部分図322を生成し直す。
引き出し部分生成部144は、重畳情報192に関連する物体が映っている物体領域に情報部分図322を関連付ける図である引き出し図323を生成する。
情報図配置部145は、情報部分図322と引き出し図323とを含んだ情報図320が不可領域390を避けて配置された情報画像329を生成する。
図48は、実施の形態9におけるAR画像生成部140のAR画像生成処理を示すフローチャートである。
実施の形態9におけるAR画像生成部140のAR画像生成処理について、図48に基づいて説明する。但し、AR画像生成処理は図48と異なる処理であっても構わない。
S141において、情報部分生成部142は、重畳情報192の内容を表す図である情報部分図322を生成する。複数の重畳情報192がある場合、情報部分生成部142は、重畳情報192毎に情報部分図322を生成する。
S141の後、処理はS142に進む。
図49は、実施の形態9における情報部分図322の一例を示す図である。
例えば、情報部分生成部142は、図49に示すような情報部分図322を生成する。情報部分図322は、重畳情報192の内容を表す文字列を枠で囲ったものである。
図48に戻り、S142から説明を続ける。
S142において、情報部分配置判定部143は、不可領域情報193に基づいて、不可領域390を避けて情報部分図322を撮影画像191に配置することができるか判定する。複数の情報部分図322がある場合、情報部分配置判定部143は情報部分図322毎に判定を行う。
情報部分図322を撮影画像191のどこに配置しても情報部分図322が不可領域390に重なってしまう場合、不可領域390を避けて情報部分図322を撮影画像191に配置することはできない。
但し、情報部分配置判定部143は、重畳情報192の重要度よりも重要度が低いウィンドウ340が映っている不可領域390を除いて、残りの不可領域390を避けて情報部分図322を撮影画像191に配置することができるか判定してもよい。
不可領域390を避けて情報部分図322を撮影画像191に配置することができる場合(YES)、処理はS143に進む。
不可領域390を避けて情報部分図322を撮影画像191に配置することができない場合(NO)、処理はS141に戻る。
処理がS141に戻った場合、情報部分生成部142は情報部分図322を生成し直す。
例えば、情報部分生成部142は、情報部分図322を変形、または、情報部分図322を縮小する。
図50は、実施の形態9における情報部分図322の変更例を示す図である。
例えば、情報部分生成部142は、情報部分図322(図49参照)を図50の(1)から(4)に示すように生成し直す。
図50の(1)において、情報部分生成部142は、情報部分図322の縦横の比率を変更することによって、情報部分図322を変形する。
図50の(2)において、情報部分生成部142は、文字列の周囲の空白(情報部分図322に含まれる空白)を削除することによって、情報部分図322を縮小する。
図50の(3)において、情報部分生成部142は、文字列の一部を変更または削除することによって、情報部分図322を縮小する。
図50の(4)において、情報部分生成部142は、文字列の文字のサイズを小さくすることによって、情報部分図322を縮小する。
情報部分図322が3次元で表現された図である場合、情報部分生成部142は、情報部分図322を2次元の図に変更することによって、情報部分図322を縮小してもよい。例えば、情報部分図322が影付きの図である場合、情報部分生成部142は、情報部分図322から影の部分を削除する。
図48に戻り、S143から説明を続ける。
S143において、情報部分配置判定部143は、情報部分図322を配置することができる配置領域を示す配置領域情報を生成する。複数の情報部分図322がある場合、情報部分配置判定部143は、情報部分図322毎に配置領域情報を生成する。
情報部分図322を配置することができる配置領域の候補が複数ある場合、情報部分配置判定部143は、物体領域情報に基づいて、配置領域を選択する。
物体領域情報は、情報部分図322に関連する物体が映っている物体領域を示す情報である。物体領域情報は、重畳情報取得部120の物体検出部121によって生成することができる。
例えば、情報部分配置判定部143は、物体領域情報が示す物体領域に最も近い配置領域の候補を配置領域として選択する。
例えば、複数の情報部分図322が存在する場合、情報部分配置判定部143は、情報部分図322毎に、他の情報部分図322と重ならない配置領域の候補を配置領域として選択する。
S143の後、処理はS144に進む。
S144において、引き出し部分生成部144は、配置領域情報と物体領域情報とに基づいて、情報部分図322を物体領域に関連付ける図である引き出し図323を生成する。
これにより、情報部分図322と引き出し図323とを含んだ情報図320が生成される。
S144の後、処理はS145に進む。
図51は、実施の形態9における情報図320の一例を示す図である。
例えば、引き出し部分生成部144は、引き出し図323を生成することによって、図51に示すような情報図320を生成する。
引き出し部分生成部144は、情報部分図322と引き出し図323との境が分からないように、引き出し図323を情報部分図322と一体に生成しても構わない。
引き出し図323の形状は三角形に限られず、矢印または単なる線(直線、曲線)などであっても構わない。
引き出し部分生成部144は、物体領域と配置領域との距離が引き出し閾値未満である場合、引き出し図323を生成しなくても構わない。つまり、配置領域が物体領域に近い場合、引き出し部分生成部144は引き出し図323を生成しなくても構わない。この場合、情報図320は引き出し図323を含まない。
図48に戻り、S145から説明を続ける。
S145において、情報図配置部145は、情報図320を配置領域に配置した情報画像329を生成する。
S145の後、処理はS146に進む。
図52は、実施の形態9における情報画像329の一例を示す図である。
例えば、情報図配置部145は、図52に示すように、情報図320が配置された情報画像329を生成する。
図48に戻り、S146から説明を続ける。
S146において、情報画像重畳部146は、情報画像329を撮影画像191に重畳することによって、AR画像194を生成する。
例えば、情報画像重畳部146は、情報画像329(図52参照)を撮影画像191(図39参照)に重畳することによって、AR画像194(図43参照)を生成する。
S146の後、AR画像生成処理は終了する。
実施の形態9により、不可領域(例えば、重要なウィンドウが映っている不可領域)を避けて重畳情報を撮影画像に重畳表示することができる。
実施の形態10.
検出済みの表示領域201を除外して撮影画像191から新たな表示領域201を選択する形態について説明する。
以下、実施の形態1から実施の形態9で説明していない事項について主に説明する。説明を省略する事項については実施の形態1から実施の形態9と同様である。
図53は、実施の形態10におけるAR装置100の機能構成図である。
実施の形態10におけるAR装置100の機能構成について、図53に基づいて説明する。但し、AR装置100の機能構成は図53と異なる構成であっても構わない。
AR装置100は、実施の形態6(図37参照)で説明した機能に加えて、除外領域選択部160と表示領域モデル生成部170とを備える。
表示領域モデル生成部170は、撮影情報195と不可領域情報193とに基づいて、表示領域201を三次元で表した表示領域モデル197を生成する。表示領域モデル197は、三次元モデルまたは三次元平面モデルともいう。
撮影情報195は、撮影画像191が撮影されたときのカメラの位置情報、方位情報および撮影範囲情報などを含んだ情報である。位置情報はカメラの位置を示す情報である。方位情報はカメラの向きを示す情報である。撮影範囲情報は、画角または焦点距離など、撮像範囲を示す情報である。撮影情報195は、撮影画像取得部110によって撮影画像191と共に取得される。
除外領域選択部160は、撮影情報195に基づいて、表示領域モデル197が表す表示領域201を新たな撮影画像191から選択する。選択された表示領域201は、不可領域選択部130の処理から除外される除外領域398である。
除外領域選択部160は、除外領域398を示す除外領域情報196を生成する。
不可領域選択部130は、除外領域情報196に基づいて新たな撮影画像191から除外領域398を除外し、残りの画像部分から新たな不可領域390を選択し、新たな不可領域情報193を生成する。
AR画像生成部140は、除外領域情報196と新たな不可領域情報193とに基づいて、AR画像194を生成する。
図54は、実施の形態10におけるAR装置100のAR処理を示すフローチャートである。
実施の形態10におけるAR装置100のAR処理について、図54に基づいて説明する。但し、AR処理は図54と異なる処理であっても構わない。
S110において、撮影画像取得部110は、他の実施の形態と同様に、撮影画像191を取得する。
但し、撮影画像取得部110は、撮影画像191と共に、撮影情報195を取得する。
例えば、撮影画像取得部110は、撮影画像191が撮影されたときのカメラ808の位置情報、方位情報および撮影範囲情報を、GPS、磁気センサおよびカメラ808から取得する。GPSおよび磁気センサは、AR装置100が備えるセンサ810の一例である。
S110の後、処理はS120に進む。
S120において、重畳情報取得部120は、他の実施の形態と同様に、重畳情報192を取得する。
S120の後、処理はS191に進む。但し、S190は、S191が実行されるときからS140が実行されるときまでの間に実行されても構わない。
S190において、除外領域選択部160は、撮影情報195と表示領域モデル197とに基づいて、除外領域情報196を生成する。
S190の後、処理はS130に進む。
図55は、実施の形態10における除外領域398の位置関係を示す図である。
図55において、除外領域選択部160は、撮影情報195に示されるカメラ808の位置、向きおよび画角に基づいて、画像平面399を生成する。画像平面399は、カメラ808の撮影範囲に含まれる平面である。撮影画像191は、物体が射影された画像平面399に相当するものである。
除外領域選択部160は、表示領域モデル197に基づいて、表示領域201を画像平面399に射影する。
そして、除外領域選択部160は、画像平面399に投影された表示領域201を除外領域398として示す除外領域情報196を生成する。
図54に戻り、S130から説明を続ける。
S130において、不可領域選択部130は、他の実施の形態と同様に、不可領域情報193を生成する。
但し、不可領域選択部130は、除外領域情報196に基づいて撮影画像191から除外領域398を除外し、残りの画像部分から不可領域390を選択し、選択した不可領域390を示す不可領域情報193を生成する。
S130の後、処理はS191に進む。
S191において、表示領域モデル生成部170は、撮影情報195と不可領域情報193とに基づいて、撮影範囲に存在する表示領域201を三次元で表す表示領域モデル197を生成する。
例えば、表示領域モデル生成部170は、今回の撮影情報195と前回以前の撮影情報195とを用いて、SFMという技術によって、表示領域モデル197を生成する。SFMは、複数の画像を用いて、画像に映っている物体の3次元の形状およびカメラとの位置関係を同時に復元する技術である。SFMは、Structure from Motionの略称である。
例えば、表示領域モデル生成部170は、非特許文献1に開示されている技術を用いて、表示領域モデル197を生成する。
S191の後、処理はS140に進む。
S140において、AR画像生成部140は、他の実施の形態と同様に、重畳情報192と不可領域情報193とに基づいてAR画像194を生成する。
S140の後、処理はS150に進む。
S150において、AR画像表示部150は、他の実施の形態と同様に、AR画像194を表示する。
S150の後、1つの撮影画像191に対するAR処理は終了する。
実施の形態10により、検出済みの表示領域201を除外して撮影画像191から新たな表示領域201を選択することができる。つまり、検出済みの表示領域201を処理の対象外にして処理負荷を軽減することができる。
実施の形態11.
情報処理装置200が、AR装置100によって検出されたマーカー202を表示領域201から消去する形態について説明する。
以下、実施の形態1から実施の形態10で説明していない事項について主に説明する。説明を省略する事項については実施の形態1から実施の形態10と同様である。
図56は、実施の形態11におけるAR装置100の機能構成図である。
実施の形態11におけるAR装置100の機能構成について、図56に基づいて説明する。但し、AR装置100の機能構成は図56と異なる機能構成であっても構わない。
AR装置100は、実施の形態10(図53参照)で説明した機能に加えて、マーカー不要通知部180を備える。
表示領域モデル生成部170が表示領域モデル197を生成した後、表示領域201に表示されているマーカー202はAR装置100にとって不要になる。
そこで、マーカー不要通知部180は、表示領域モデル生成部170が表示領域モデル197を生成した後、マーカー不要通知を情報処理装置200に送信する。
図57は、実施の形態11における情報処理装置200の機能構成図である。
実施の形態11における情報処理装置200の機能構成について、図57に基づいて説明する。但し、情報処理装置200の機能構成は図57と異なる機能構成であっても構わない。
情報処理装置200は、実施の形態1(図2参照)で説明した機能に加えて、マーカー消去部270を備える。
なお、情報処理装置200は、他の実施の形態で説明したように、ウィンドウ情報取得部250(図17参照)、重要ウィンドウ選択部251(図22参照)、ウィンドウ管理部252(図22参照)、ウィンドウ合成部260(図27、図35参照)を備えてもよい。
マーカー消去部270は、AR装置100から送信されたマーカー不要通知を受信した後、マーカー重畳画像293からマーカー202を消去する。
つまり、マーカー消去部270は、マーカー重畳画像293の代わりに情報処理画像292を表示する。
但し、情報処理装置200の周囲に情報処理装置200を映した撮影画像を表示している複数のAR装置100が存在する可能性がある。
そこで、マーカー消去部270は、情報処理装置200の周囲に存在する全てのAR装置100からマーカー不要通知を受信した後に、マーカー202を消去してもよい。例えば、マーカー消去部270は、無線通信の通信範囲内に存在する全てのAR装置100からマーカー不要通知を受信した後に、マーカー202を消去する。
実施の形態11により、情報処理装置200は、不要になったマーカー202を消去して、表示領域201の視認性を向上させることができる。
各実施の形態は、情報処理装置200およびAR装置100の形態の一例である。
つまり、情報処理装置200およびAR装置100は、各実施の形態で説明した構成要素の一部を備えなくても構わない。また、情報処理装置200およびAR装置100は、各実施の形態で説明していない構成要素を備えても構わない。さらに、情報処理装置200およびAR装置100は、各実施の形態の構成要素の一部または全てを組み合わせたものであっても構わない。
各実施の形態においてフローチャート等を用いて説明した処理手順は、各実施の形態に係る方法およびプログラムの処理手順の一例である。各実施の形態に係る方法およびプログラムは、各実施の形態で説明した処理手順と一部異なる処理手順で実現されても構わない。
各実施の形態において「〜部」は「〜処理」「〜工程」「〜プログラム」「〜装置」と読み替えることができる。各実施の形態において、図中の矢印はデータまたは処理の流れを主に表している。
100 AR装置、101 表示領域、109 ARシステム、110 撮影画像取得部、120 重畳情報取得部、121 物体検出部、122 物体特定部、123 重畳情報収集部、124 不可領域解析部、130 不可領域選択部、140 AR画像生成部、141 情報画像生成部、142 情報部分生成部、143 情報部分配置判定部、144 引き出し部分生成部、145 情報図配置部、146 情報画像重畳部、150 AR画像表示部、160 除外領域選択部、170 表示領域モデル生成部、180 マーカー不要通知部、190 装置記憶部、191 撮影画像、192 重畳情報、193 不可領域情報、194 AR画像、195 撮影情報、196 除外領域情報、197 表示領域モデル、200 情報処理装置、201 表示領域、202 マーカー、203 黒領域、204 白領域、205 垂線ベクトル、206 延長線、207 対角線ベクトル、210 マーカー画像生成部、220 情報処理画像生成部、230 マーカー重畳画像生成部、240 マーカー重畳画像表示部、250 ウィンドウ情報取得部、251 重要ウィンドウ選択部、252 ウィンドウ管理部、260 ウィンドウ合成部、270 マーカー消去部、290 情報処理記憶部、291 マーカー画像、292 情報処理画像、293 マーカー重畳画像、294 ウィンドウ情報、295 重要度テーブル、296 重要ウィンドウリスト、297 合成情報、310 時計、320 情報図、321 情報図、322 情報部分図、323 引き出し図、329 情報画像、340 ウィンドウ、350 合成領域、390 不可領域、394 閉領域、398 除外領域、399 画像平面、801 バス、802 メモリ、803 ストレージ、804 通信インタフェース、805 CPU、806 GPU、807 表示デバイス、808 カメラ、809 ユーザインタフェースデバイス、810 センサ。

Claims (17)

  1. 表示領域を有する表示デバイスが映った撮影画像を取得したコンピュータに前記撮影画像から前記表示領域を選択させるために決められたマーカーを、前記表示デバイスの前記表示領域に表示するマーカー表示部
    を備えることを特徴とする情報処理装置。
  2. 前記表示領域は多角形の領域であり、
    前記表示領域の角に配置されるマーカーを角マーカーとして生成するマーカー生成部を備える
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記マーカー生成部は、第一の色で着色されて前記表示領域の角に接するL字形の図と、前記L字形の図に接する二つの辺を有して第二の色で着色される多角形の図と、を含んだマーカーを前記角マーカーとして生成する
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記マーカー生成部は、前記表示領域が有するいずれかの角に配置されて配置される角を特定する情報を含んだ二次元コードを前記角マーカーとして生成する
    ことを特徴とする請求項2に記載の情報処理装置。
  5. 前記表示領域は多角形の領域であり、
    前記表示領域の辺に沿って配置されるマーカーを辺マーカーとして生成するマーカー生成部を備える
    ことを特徴とする請求項1に記載の情報処理装置。
  6. 前記マーカー生成部は、第一の色で着色されて前記表示領域の辺に接する線形状の図と、前記線形状の図に接する辺を有して第二の色で着色される多角形の図と、を含んだマーカーを前記辺マーカーとして生成する
    ことを特徴とする請求項5に記載の情報処理装置。
  7. 前記マーカー生成部は、前記表示領域が有するいずれかの辺に接して接する辺を特定する情報を含んだ二次元コードを前記辺マーカーとして生成する
    ことを特徴とする請求項5に記載の情報処理装置。
  8. 前記表示領域の大きさに基づいて前記マーカーの個数と前記マーカーが配置される位置とを決定するマーカー生成部を備える
    ことを特徴とする請求項1に記載の情報処理装置。
  9. 前記情報処理装置は、前記表示領域に表示されるウィンドウを生成するウィンドウ生成部を備え、
    前記マーカー表示部は、前記ウィンドウ生成部によって生成される前記ウィンドウが表示されるウィンドウ領域の縁に沿って、前記ウィンドウ領域に前記マーカーを表示する
    ことを特徴とする請求項1に記載の情報処理装置。
  10. 前記情報処理装置は、重要ウィンドウ選択部を備え、
    前記ウィンドウ生成部は、重要度が対応付けられた複数のウィンドウを生成し、
    前記重要ウィンドウ選択部は、前記ウィンドウ生成部によって生成された前記複数のウィンドウから、少なくともいずれかのウィンドウを、前記複数のウィンドウのそれぞれの重要度に基づいて重要ウィンドウとして選択し、
    前記マーカー表示部は、前記重要ウィンドウ選択部によって選択された前記重要ウィンドウが表示される領域を前記ウィンドウ領域として、前記ウィンドウ領域に前記マーカーを表示する
    ことを特徴とする請求項9に記載の情報処理装置。
  11. 前記ウィンドウ生成部によって生成される前記ウィンドウの重要度を表す図を前記マーカーとして生成するマーカー生成部を備える
    ことを特徴とする請求項9に記載の情報処理装置。
  12. 前記情報処理装置は、
    前記表示領域に表示される複数のウィンドウを生成するウィンドウ生成部と、
    前記ウィンドウ生成部によって生成された前記複数のウィンドウのそれぞれが表示されるウィンドウ領域を含んだ合成領域を算出するウィンドウ合成部とを備え、
    前記マーカー表示部は、前記ウィンドウ合成部によって算出された前記合成領域の縁に沿って、前記合成領域に前記マーカーを表示する
    ことを特徴とする請求項1に記載の情報処理装置。
  13. 前記コンピュータから送信されるマーカー不要通知を受信した場合に前記表示デバイスの前記表示領域から消去するマーカー消去部を備える
    ことを特徴とする請求項1に記載の情報処理装置。
  14. 目印になるマーカーが表示される情報処理表示領域を有する情報処理表示デバイスを映した撮影画像を取得する撮影画像取得部と、
    前記撮影画像取得部によって取得された前記撮影画像に重畳する情報を重畳情報として取得する重畳情報取得部と、
    前記撮影画像取得部によって取得された前記撮影画像に映った前記マーカーに基づいて、前記撮影画像から前記情報処理表示領域を不可領域として選択する不可領域選択部と、
    前記重畳情報取得部によって取得された前記重畳情報を、前記不可領域選択部によって選択された前記不可領域を避けて、前記撮影画像に重畳することによって、情報重畳画像を生成する情報重畳画像生成部と、
    前記情報重畳画像生成部によって生成された前記情報重畳画像を、表示領域として本体表示領域を有する本体表示デバイスの前記本体表示領域に表示する情報重畳画像表示部と
    を備えることを特徴とする情報重畳画像表示装置。
  15. 前記情報処理表示デバイスは、前記情報処理表示領域のうちのウィンドウが表示されるウィンドウ領域に、前記ウィンドウの重要度を表す図を前記マーカーとして表示し、
    前記重畳情報取得部は、前記重畳情報の重要度を取得し、
    前記情報重畳画像生成部は、前記重畳情報の重要度と前記マーカーが表す前記ウィンドウの重要度とに基づいて、前記マーカーに基づいて選択された前記不可領域を避けて前記重畳情報を重畳するか判定する
    ことを特徴とする請求項14に記載の情報重畳画像表示装置。
  16. 表示領域を有する表示デバイスが映った撮影画像を取得したコンピュータに前記撮影画像から前記表示領域を選択させるために、前記表示領域の目印として決められたマーカーを、前記表示デバイスの前記表示領域に表示するマーカー表示処理
    をコンピュータに実行させるためのマーカー表示プログラム。
  17. 目印になるマーカーが表示される情報処理表示領域を有する情報処理表示デバイスを映した撮影画像を取得する撮影画像取得処理と、
    前記撮影画像取得処理によって取得された前記撮影画像に重畳する情報を重畳情報として取得する重畳情報取得処理と、
    前記撮影画像取得処理によって取得された前記撮影画像に映った前記マーカーに基づいて、前記撮影画像から前記情報処理表示領域を不可領域として選択する不可領域選択処理と、
    前記重畳情報取得処理によって取得された前記重畳情報を、前記不可領域選択処理によって選択された前記不可領域を避けて、前記撮影画像に重畳することによって、情報重畳画像を生成する情報重畳画像生成処理と、
    前記情報重畳画像生成処理によって生成された前記情報重畳画像を、表示領域として本体表示領域を有する本体表示デバイスの前記本体表示領域に表示する情報重畳画像表示処理と
    をコンピュータに実行させるための情報重畳画像表示プログラム。
JP2016527582A 2014-06-13 2014-06-13 情報処理装置、情報重畳画像表示装置、マーカー表示プログラム、情報重畳画像表示プログラム、マーカー表示方法および情報重畳画像表示方法 Expired - Fee Related JP6143958B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/065685 WO2015189973A1 (ja) 2014-06-13 2014-06-13 情報処理装置、情報重畳画像表示装置、マーカー表示プログラムおよび情報重畳画像表示プログラム

Publications (2)

Publication Number Publication Date
JPWO2015189973A1 true JPWO2015189973A1 (ja) 2017-04-20
JP6143958B2 JP6143958B2 (ja) 2017-06-07

Family

ID=54833101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016527582A Expired - Fee Related JP6143958B2 (ja) 2014-06-13 2014-06-13 情報処理装置、情報重畳画像表示装置、マーカー表示プログラム、情報重畳画像表示プログラム、マーカー表示方法および情報重畳画像表示方法

Country Status (5)

Country Link
US (1) US10229543B2 (ja)
JP (1) JP6143958B2 (ja)
CN (1) CN106463000A (ja)
DE (1) DE112014006745T5 (ja)
WO (1) WO2015189973A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107065164B (zh) * 2017-04-20 2019-09-20 深圳市元征科技股份有限公司 图像展示方法及装置
KR102338900B1 (ko) * 2018-02-13 2021-12-13 삼성전자주식회사 전자 장치 및 그 동작 방법
CN112639816A (zh) * 2018-09-14 2021-04-09 三菱电机株式会社 图像信息处理装置、图像信息处理方法和图像信息处理程序
KR20200039982A (ko) * 2018-10-08 2020-04-17 현대자동차주식회사 멀티 디바이스 시스템 및 그 제어방법
JP7364686B2 (ja) * 2019-11-15 2023-10-18 マクセル株式会社 表示装置、および表示方法
US11893698B2 (en) * 2020-11-04 2024-02-06 Samsung Electronics Co., Ltd. Electronic device, AR device and method for controlling data transfer interval thereof
JP2022137622A (ja) * 2021-03-09 2022-09-22 キヤノン株式会社 ウェアラブル端末、その制御方法及びプログラム
JPWO2022269753A1 (ja) * 2021-06-22 2022-12-29

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003140832A (ja) * 2001-11-05 2003-05-16 Tamura Seisakusho Co Ltd 画面位置指示装置およびその方法と画像システム
WO2011004612A1 (ja) * 2009-07-10 2011-01-13 パナソニック株式会社 マーカ表示制御装置、集積回路、及び、マーカ表示制御方法
JP2011258120A (ja) * 2010-06-11 2011-12-22 Nintendo Co Ltd 画像処理システム、画像処理プログラム、画像処理装置および画像処理方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4298407B2 (ja) 2002-09-30 2009-07-22 キヤノン株式会社 映像合成装置及び映像合成方法
JP4380376B2 (ja) 2004-03-17 2009-12-09 日本電信電話株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP4537104B2 (ja) * 2004-03-31 2010-09-01 キヤノン株式会社 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法
JP4061379B2 (ja) 2004-11-29 2008-03-19 国立大学法人広島大学 情報処理装置、携帯端末、情報処理方法、情報処理プログラム、およびコンピュータ読取可能な記録媒体
JP2006267604A (ja) 2005-03-24 2006-10-05 Canon Inc 複合情報表示装置
JP2008217590A (ja) 2007-03-06 2008-09-18 Fuji Xerox Co Ltd 情報共有支援システム、情報処理装置及び制御プログラム
JP2009192710A (ja) 2008-02-13 2009-08-27 Sharp Corp 機器設定装置、機器設定システム及び表示装置
NL1035303C2 (nl) 2008-04-16 2009-10-19 Virtual Proteins B V Interactieve virtuele reality eenheid.
JP2011071746A (ja) 2009-09-25 2011-04-07 Ntt Docomo Inc 映像出力装置及び映像出力方法
JP2012003598A (ja) 2010-06-18 2012-01-05 Riso Kagaku Corp 拡張現実感表示システム
JP5216834B2 (ja) 2010-11-08 2013-06-19 株式会社エヌ・ティ・ティ・ドコモ オブジェクト表示装置及びオブジェクト表示方法
JP5170223B2 (ja) 2010-12-07 2013-03-27 カシオ計算機株式会社 情報表示システム、情報表示装置、情報提供装置、および、プログラム
US9424765B2 (en) 2011-09-20 2016-08-23 Sony Corporation Image processing apparatus, image processing method, and program
JP5542116B2 (ja) 2011-12-16 2014-07-09 ヤフー株式会社 地図出力装置、地図出力方法、及び地図出力プログラム
JP2013130930A (ja) 2011-12-20 2013-07-04 Nec Corp 画像処理システム、画像処理方法および画像処理用プログラム
JP2013210793A (ja) 2012-03-30 2013-10-10 Ntt Data Corp Ar表示最適化のためのシステム、方法、およびプログラム
JP2015114424A (ja) * 2013-12-10 2015-06-22 株式会社東芝 電子機器、表示装置、方法、及びプログラム
US9613448B1 (en) * 2014-03-14 2017-04-04 Google Inc. Augmented display of information in a device view of a display screen

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003140832A (ja) * 2001-11-05 2003-05-16 Tamura Seisakusho Co Ltd 画面位置指示装置およびその方法と画像システム
WO2011004612A1 (ja) * 2009-07-10 2011-01-13 パナソニック株式会社 マーカ表示制御装置、集積回路、及び、マーカ表示制御方法
JP2011258120A (ja) * 2010-06-11 2011-12-22 Nintendo Co Ltd 画像処理システム、画像処理プログラム、画像処理装置および画像処理方法

Also Published As

Publication number Publication date
WO2015189973A1 (ja) 2015-12-17
CN106463000A (zh) 2017-02-22
US10229543B2 (en) 2019-03-12
US20170092010A1 (en) 2017-03-30
DE112014006745T5 (de) 2017-05-18
JP6143958B2 (ja) 2017-06-07

Similar Documents

Publication Publication Date Title
JP6143958B2 (ja) 情報処理装置、情報重畳画像表示装置、マーカー表示プログラム、情報重畳画像表示プログラム、マーカー表示方法および情報重畳画像表示方法
AU2020202551B2 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
JP5955491B2 (ja) 情報重畳画像表示装置および情報重畳画像表示プログラム
JP5724543B2 (ja) 端末装置、オブジェクト制御方法及びプログラム
US11698268B2 (en) Street-level guidance via route path
ES2771399T3 (es) Sistema informático para hacer panorámicas oblicuas continuas
US8553942B2 (en) Reimaging based on depthmap information
KR20210047278A (ko) Ar 장면 이미지 처리 방법, 장치, 전자 기기 및 저장 매체
US9135513B2 (en) Image processing apparatus and method for obtaining position and orientation of imaging apparatus
US20130162665A1 (en) Image view in mapping
KR101759415B1 (ko) 실제 세계 분석론 시각화
JP2017505923A (ja) 画像のジオロケーションのためのシステムおよび方法
CN105934775A (zh) 用于构建锚定在真实世界物体上的虚拟图像的方法和系统
GB2540032A (en) Data browse apparatus, data browse method, program, and storage medium
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
CN108280425A (zh) 一种基于屏下式光学指纹传感器的快速测光实现方法
JP5513806B2 (ja) 連携表示装置、連携表示方法、及びプログラム
JP2013092888A (ja) データ処理装置
Mulloni et al. Enhancing handheld navigation systems with augmented reality
CN111506280A (zh) 用于指示屏幕外兴趣点的图形用户界面
Asiminidis Augmented and Virtual Reality: Extensive Review
JP2017103607A (ja) 画像処理装置、画像処理方法及びプログラム
Раиса et al. The method of visualization of 3D objects using augmented reality technology based on the marker
Magalhães Augmented reality over maps
Acharya IMAGE TAGGED INTUITIVE AUGMENTED REALITY

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170509

R150 Certificate of patent or registration of utility model

Ref document number: 6143958

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees