JP2013210793A - System, method, and program for optimizing ar display - Google Patents
System, method, and program for optimizing ar display Download PDFInfo
- Publication number
- JP2013210793A JP2013210793A JP2012079968A JP2012079968A JP2013210793A JP 2013210793 A JP2013210793 A JP 2013210793A JP 2012079968 A JP2012079968 A JP 2012079968A JP 2012079968 A JP2012079968 A JP 2012079968A JP 2013210793 A JP2013210793 A JP 2013210793A
- Authority
- JP
- Japan
- Prior art keywords
- content
- area
- display
- marker
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、AR表示最適化のためのシステム、方法、およびプログラムに関する。より詳細には、ARコンテンツを背景画像の情報に基づき調整して重畳表示するためのシステム、方法、およびプログラムに関する。 The present invention relates to a system, method, and program for optimizing AR display. More specifically, the present invention relates to a system, a method, and a program for adjusting and displaying an AR content based on background image information.
従来、AR(Augmented Reality)と呼ばれる、ディスプレイに表示された現実世界の画像の上に、文字や3次元画像などの付加情報(以下、ARコンテンツという)を重畳表示させる技術が開発されている。特に、現実世界の画像に含まれる対象物の説明文などを重畳表示させるといった事例が見受けられる。また、ARを始めとする現実世界と仮想世界を融合する技術分野において、仮想世界のコンテンツが現実世界の画像表示の妨げとならないように、仮想世界のコンテンツの表示位置を調整する技術が開発されている。例えば、特許文献1〜3に記載されるような技術が開発されている。 2. Description of the Related Art Conventionally, a technique called AR (Augmented Reality) has been developed to superimpose and display additional information (hereinafter referred to as AR content) such as characters and three-dimensional images on a real-world image displayed on a display. In particular, there are cases where explanatory texts of objects included in real-world images are superimposed and displayed. Also, in the technical field that fuses the real world and the virtual world, such as AR, a technology to adjust the display position of the virtual world content has been developed so that the virtual world content does not interfere with the display of the real world image. ing. For example, techniques as described in Patent Documents 1 to 3 have been developed.
しかしながら、これらの技術では、コンテンツの表示位置を調整するだけであって、コンテンツそのものの調整は行なっていない。すなわち、ARにおいて、背景画像である現実世界の画像の情報に基づいて、ARコンテンツの表示位置を調整するだけである。ARコンテンツそのものの調整は行なわれないので、ARコンテンツの形状が表示される領域の形状に適さない場合や表示される領域が狭い場合は、ARコンテンツの一部が欠落したり、ARコンテンツが表示領域からはみ出て、背景画像である現実世界の画像の一部を隠してしまうという問題があった。また、ARコンテンツと表示される領域との色合いが似ている場合は、ARコンテンツが見えにくくなるという問題もあった。 However, these techniques only adjust the display position of the content, and do not adjust the content itself. That is, in AR, the display position of the AR content is only adjusted based on the information of the real world image that is the background image. Since the AR content itself is not adjusted, when the shape of the AR content is not suitable for the shape of the displayed area or when the displayed area is narrow, a part of the AR content is lost or the AR content is displayed. There is a problem in that a part of the real-world image that is the background image is hidden from the area. In addition, when the AR content and the displayed area are similar in color, there is also a problem that the AR content becomes difficult to see.
本発明は、このような問題に鑑みてなされたもので、その目的とするところは、ARコンテンツの表示位置を調整した上で、さらに、ARコンテンツが表示される領域の形状、大きさ、および色合いなどを考慮して、背景画像の情報に基づいたARコンテンツの調整を行なうシステム、方法、およびプログラムを提供することにある。 The present invention has been made in view of such a problem. The object of the present invention is to adjust the display position of the AR content, and further, the shape, size, and size of the area where the AR content is displayed. To provide a system, method, and program for adjusting AR content based on background image information in consideration of hue and the like.
本発明は、このような目的を達成するために、請求項1に記載の発明は、ARコンテンツを表示するためのシステムであって、撮像された画像を取得する画像取得部と、前記画像内における前記ARコンテンツの表示可能領域を識別する領域判定部と、前記表示可能領域に内接する最大の矩形領域を、前記ARコンテンツを表示できる最大表示領域と決定するARコンテンツ決定部と、前記決定された最大表示領域に前記ARコンテンツを表示する表示部とを含むことを特徴とする。 In order to achieve the above object, the present invention provides a system for displaying AR content, wherein an image acquisition unit that acquires a captured image, An area determination unit that identifies a displayable area of the AR content, an AR content determination unit that determines a maximum rectangular area inscribed in the displayable area as a maximum display area in which the AR content can be displayed, and And a display unit for displaying the AR content in a maximum display area.
以上説明したように、本発明によれば、表示可能領域の情報に基づいた調整が行なわれたARコンテンツを表示することが可能となる。 As described above, according to the present invention, it is possible to display AR content that has been adjusted based on information in the displayable area.
以下、図面を参照しながら本発明の実施形態について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の一実施形態に係るシステム構成図を示している。
このシステムは、AR処理端末101およびARマーカー・ARコンテンツ管理サーバ102を含む。また、AR処理端末101およびARマーカー・ARコンテンツ管理サーバ102は、ネットワーク103に接続されている。AR処理端末101およびARマーカー・ARコンテンツ管理サーバ102については、図2および図3を参照しながら詳細に述べる。
FIG. 1 shows a system configuration diagram according to an embodiment of the present invention.
This system includes an
図2は、AR処理端末101の構成図を示している。
AR処理端末101は、カメラ部で撮像した画像にARコンテンツを重畳表示してディスプレイ部に出力する端末である。また、AR処理端末101には、カメラ201、画像取得部202、ARマーカー検出部203、ARコンテンツ表示領域判定部204、ARコンテンツ決定部205、ARコンテンツ表示部206、ディスプレイ207、ARマーカー・ARコンテンツ取得部208が含まれる。
FIG. 2 shows a configuration diagram of the
The
それぞれで行なわれる処理については、図4を参照しながら詳細に述べる。 The processing performed in each will be described in detail with reference to FIG.
なお、本明細書および図面では、カメラ201は、AR処理端末101に内蔵されたカメラとして記載されているが、AR処理端末101とは別の端末であってもよい。すなわち、AR処理端末101とは別の端末であるカメラで撮像された画像を、画像取得部202が取得して、本発明を実施することも可能である。
In the present specification and drawings, the
また、本明細書および図面においてAR処理端末101に含まれている、画像取得部202、ARマーカー検出部203、ARコンテンツ表示領域判定部204、ARコンテンツ決定部205、ARコンテンツ表示部206の一部または全部は、ARマーカー・ARコンテンツ管理サーバ102に含まれてもよい。
Also, one of the
図3は、ARマーカー・ARコンテンツ管理サーバ102の構成図を示している。
ARマーカー・ARコンテンツ管理サーバ102は、ARマーカーやARコンテンツに関するデータを管理し、AR処理端末101からの要求に応じて、AR処理端末101へデータを送信するサーバである。ARマーカー・ARコンテンツ管理サーバ102には、データセット3010を有するARマーカー・ARコンテンツフォルダ301が含まれる。さらに、データセット3010には、ARマーカー検出データ3011、ARコンテンツデータ3012、デザイン情報3013、デフォルト表示位置情報3014が含まれる。
FIG. 3 shows a configuration diagram of the AR marker / AR
The AR marker / AR
なお、本明細書および図面では、データセット3010がARマーカー・ARコンテンツ管理サーバ102に格納されるよう記載されているが、データセット3010は、AR処理端末101に格納されていてもよいし、AR処理端末101とは別の端末であるカメラ端末に格納されていてもよい。
In the present specification and drawings, it is described that the data set 3010 is stored in the AR marker / AR
ARマーカー検出データ3011は、カメラ部で撮像した画像内にARマーカーが存在するかを検出するために用いられるデータである。ARマーカー検出データ3011には、検出用の特徴点データなどが含まれる。なお、マッチング方式によって、ARマーカー検出データ3011には、さまざまなデータが含まれうる。
The AR
なお、ARマーカーは、ARコンテンツを表示するための基準となる情報である。すなわち、AR処理端末101は、ARマーカーを含む画像を取得すると、ディスプレイ上にARコンテンツを表示することが可能となる。ARマーカーには、AR専用のマーカーのほかに、人物の顔や雑誌の表紙などのデータも含まれる。
The AR marker is information serving as a reference for displaying the AR content. That is, when the
ARコンテンツデータ3012は、カメラ部で撮像された画像に重畳表示されるコンテンツのデータである。ARコンテンツデータ3012には、HTMLデータ、テキストデータ、画像データなどが含まれる。また、ARコンテンツデータ3012は、ARマーカーに対応付けられている。すなわち、あるARマーカーが取得されると、このARマーカーに対応するARコンテンツが表示される。
The
デザイン情報3013は、ARコンテンツをどのように表示するかを示す情報である。デザイン情報3013には、CSSなどのスタイルシート、ARコンテンツを表示する大きさ(例えば、縦・横のピクセル数など)、アスペクト比などが含まれる。
The
デフォルト表示位置情報3014は、ARコンテンツをARマーカーに対してどの位置に表示するかのデフォルト値を示す情報である。デフォルト表示位置情報3014には、例えば、ARマーカーから右に100ピクセル、上に50ピクセルといった情報が含まれる。なお、本発明を利用してARコンテンツの表示位置を決定できなかった場合は、このデフォルト表示位置情報3014に基づき、ARコンテンツが表示される。
The default
図4は、本発明の一実施形態に係るフローチャートを示している。 FIG. 4 shows a flowchart according to an embodiment of the present invention.
ステップ401において、ARマーカー・ARコンテンツ管理サーバ102にて、ARマーカー検出データ3011が作成される。さらに、ARマーカーに対応付けられたARコンテンツ3012が作成される。これらのARマーカー検出データ3011およびARコンテンツ3012を含むデータセット3010は、ARマーカー・ARコンテンツフォルダ301に記録される。別の実施形態では、ARマーカー・ARコンテンツ管理サーバ102は、予め作成されたデータセット3010をARマーカー・ARコンテンツフォルダ301に記録してもよい。
In
ステップ402において、AR処理端末101は、データセット3010を取得する。この取得は、AR処理端末101の起動時に行なうこともできるし、起動後の任意の時に行なうこともできる。別の実施形態では、AR処理端末101は、ARマーカー検出データ3011のみを取得しておいて、ARマーカーを含む画像を取得した後に、そのARマーカーに対応付けられたARコンテンツデータ3012、デザイン情報3013、デフォルト表示位置情報3014を取得するようにしてもよい。さらに別の実施形態では、AR処理端末101に含まれるアプリケーション内に、データセット3010を組み込んでおいてもよい。したがって、本発明においては、あらかじめデータセット3010が格納されている場所、AR処理端末101がデータセット3010を取得するタイミングについては問わない。
In
このステップ402は、AR処理端末101のARマーカー・ARコンテンツ取得部208で実行される。
This
ステップ403において、AR処理端末101は、カメラ201を介して、画像を取得する。この画像は、カメラ201で撮像された、ARコンテンツが重畳表示される背景画像である。なお、この画像には、静止画および動画が含まれる。
In
このステップ403は、画像取得部202で実行される。
This
ステップ404において、AR処理端末101は、ARマーカーを検出する。具体的には、ステップ403において取得した画像内から、ステップ402において取得したARマーカー検出データ3011を用いてARマーカーを探索して、そのARマーカーの位置情報を取得する。ARマーカーの位置情報には、検出番号(1、2、3…、nなど)、検出ARマーカー(マーカー1、マーカー2など)、検出したARマーカーの位置座標((120,30)、(40,150)など)が含まれる。
In
このステップ404は、ARマーカー検出部203で実行される。
This
ステップ405において、AR処理端末101は、ARコンテンツの表示領域を判定する。具体的には、ステップ403において取得した画像を複数の領域に分割して、分割された各領域をARコンテンツ表示可能領域と表示不可領域とに分類する。さらに具体的な処理については、図5を参照しながら詳細に述べる。
In
このステップ405は、ARコンテンツ表示領域判定部204で実行される。
This
ステップ406において、AR処理端末101は、ARコンテンツの表示位置・内容を決定する。具体的には、ステップ404において検出されたARマーカーごとに、ARコンテンツの最大表示領域を決定して、ARコンテンツの調整をする。すなわち、ステップ404において取得されたARマーカーの位置情報に基づき、ARマーカーと表示可能領域との距離を算出して、最も近い表示可能領域を選択する。この選択後、選択された表示可能領域の形状、大きさ、および色合いに合わせて、表示可能領域に内接する最大表示領域を決定して、さらにARコンテンツの表示量および表示色の調整を行なう。さらに具体的な処理については、図6を参照しながら詳細に述べる。
In
このステップ406は、ARコンテンツ決定部205で実行される。
This
ステップ407において、AR処理端末101は、ディスプレイ207を介して、ARコンテンツを表示する。具体的には、ARコンテンツは、ステップ406において決定されたARコンテンツの最大表示領域に表示される。また、このARコンテンツは、ステップ406において決定された表示量・表示色で表示される。
In
このステップ407は、ARコンテンツ表示部206で実行される。
This
図5は、本発明の一実施形態に係るAR表示領域の判定のフローチャートを示している。 FIG. 5 shows a flowchart of the determination of the AR display area according to an embodiment of the present invention.
ステップ501において、AR処理端末101は、カメラで撮像された画像を複数の領域に分割する。この分割には、分割統合法、領域成長法、特徴空間でのクラスタリングといった任意の手法を用いることが可能である。例えば、分割統合法を用いた場合は、画像を4分割して、分割された各部分画像の均一性を評価する。この評価の結果、不均一であると判定された場合、判定された部分画像をさらに4分割する。これらの処理を分割処理が発生しなくなるまで(すなわち、不均一であると判定されなくなるまで)実行し、画像を木構造に分割する。その後、木構造の終端ノードに対応する隣接部分画像の類似性を評価する。この評価の結果、類似すると判定された場合、判定された部分画像を統合する。これらの処理を統合処理が発生しなくなるまで(すなわち、類似すると判定されなくなるまで)実行する。
In
ステップ502において、AR処理端末101は、ラベル付けを行なう。例えば、ステップ501における領域分割の結果、画像がn個の領域に分割されたとすると、各領域に、1、2、3…、nとラベリングを行なう。さらに、ステップ502において、AR処理端末101は、ラベリングされた各領域の中心座標を算出する。この中心座標は、ステップ601において、ARマーカーと各領域との距離を算出するために各領域の位置座標として用いられる。さらに、この中心座標は、ステップ602において、ARコンテンツの最大表示領域を算出するための初期点の座標として用いられる。
In
ステップ503において、AR処理端末101は、ステップ502においてラベリングされた各領域の画素数を算出する。
In
ステップ504において、AR処理端末101は、ステップ502においてラベリングされた各領域内に含まれるエッジ、つまり領域内の画像からエッジを抽出する。このエッジ抽出には、微分フィルタ、Prewitt filter、Sobel filterといった任意の手法を用いることが可能である。さらに、ステップ504において、AR処理端末101は、抽出されたエッジの画素数を算出する。
In
ステップ505において、AR処理端末101は、ステップ502においてラベリングされた各領域のエッジ密度を算出する。具体的には、式:エッジ密度=抽出されたエッジの画素数(a)/各領域の画素数(b)、で算出する。なお、抽出されたエッジの画素数(a)は、ステップ504において算出されたものである。また、各領域の画素数(b)は、ステップ503において算出されたものである。
In
ステップ506において、AR処理端末101は、各領域を表示可能領域と表示不可領域とに分類する。具体的には、ステップ503において算出された各領域の画素数が閾値よりも多く、かつ、ステップ505において算出されたエッジ密度が閾値より低い領域を表示可能領域と設定する。また、それ以外の領域を表示不可領域と設定する。なお、いずれの閾値もそれぞれ予め設定されているものとする。また、ARコンテンツ表示領域判定部204は、表示可能領域データを作成する。この表示可能領域データには、ラベル番号(1、2、3…、nなど)、中心座標((x1c、x1c)など)、構成画素情報(画素1(x11,y11)、画素2(x12,y12)、画素3(x13,y13)など)などが含まれる。
In
図6は、本発明の一実施形態に係るARコンテンツの表示位置・内容の決定のフローチャートを示している。 FIG. 6 shows a flowchart of determining the display position / content of AR content according to an embodiment of the present invention.
ステップ601において、AR処理端末101は、ステップ404において検出されたARマーカーごとに、ARコンテンツ表示可能領域を決定する。具体的には、ステップ404において取得されたARマーカーの位置情報およびステップ502において算出された各領域の中心座標に基づき、ARマーカーと各表示可能領域との距離を算出して、最も近い表示可能領域を選択する。
In
ステップ602において、AR処理端末101は、ARコンテンツの最大表示領域を決定する。すなわち、ステップ601において決定された表示可能領域内で、ARコンテンツの表示に適した最大部分を決定する。というのも、表示可能領域の形状によっては、表示可能領域のすべてにARコンテンツを表示すると、ARコンテンツが見えにくくなる場合がある。したがって、凹凸を有する表示可能領域に内接する最大の四角形を算出して、この四角形内にARコンテンツを表示する。以下で、図7を参照しながら詳細に述べる。
In
図7は、ARコンテンツの最大表示領域の算出方法を示している。
ステップ701において、初期点(例えば、決定された表示可能領域の中心座標)を設定する。ステップ702において、この初期点から上下左右に最大表示領域を拡張する。この拡張は、デザイン情報3013に含まれるアスペクト比に基づいて行なわれる。例えば、アスペクト比が3:4であれば、縦3ピクセル、横4ピクセルずつ拡張することとなる。ステップ703において、表示可能領域のエッジ(領域の枠)に接触すると、ステップ704において、接触した箇所とは反対方向に、エッジに接触するまで最大表示領域を拡張する。ステップ705において、確定した最大表示領域の中心点を算出する。また、ディスプレイ207の縦・横のピクセル数に基づいて、ステップ705において、最大表示領域の大きさ(画素数など)を算出する。
FIG. 7 shows a method for calculating the maximum display area of AR content.
In
なお、1つの表示可能領域内に、複数の最大表示領域を設定することも可能である。この場合、上記のステップ705において最大表示領域を算出後、残った表示可能領域(すなわち、表示可能領域から算出された最大表示領域を除いた領域)内で初期点を設定し、上記のステップ701〜705と同様の処理を行なうことによって、複数の最大表示領域を設定することができる。
A plurality of maximum display areas can be set in one displayable area. In this case, after calculating the maximum display area in the
図6に戻り、ステップ603において、AR処理端末101は、ARコンテンツの表示量を決定する。すなわち、最大表示領域の大きさによって、表示するARコンテンツの内容を調整して、ARコンテンツを見えやすくする。例えば、最大表示領域が狭い場合は、表示するARコンテンツの内容を要約して表示量を減らす。
Returning to FIG. 6, in
ARコンテンツの表示量の決定方法としては、いくつかの方法が考えられる。例えば、第1の実施例として、サマリを記述する方法について説明する。まず、ARコンテンツを、サマリ部と通常部とに分けて記述して格納しておく。サマリ部は、通常部の記述を要約したものである。ステップ603において、ARコンテンツの最大表示領域の大きさ(画素数など)が、閾値以上であれば通常部、閾値より小さければサマリ部を表示するよう決定する。
Several methods are conceivable as a method for determining the display amount of the AR content. For example, as a first embodiment, a method for describing a summary will be described. First, AR content is described and stored in a summary part and a normal part. The summary part summarizes the description of the normal part. In
第2の実施例として、コンテンツレベルを設定する方法について説明する。まず、ARコンテンツを複数に分けて記述して格納しておく。これらの複数に分けられた記述には、それぞれレベルが設定されている。ステップ603において、ARコンテンツの最大表示領域の大きさ(画素数など)に応じたレベルの記述を表示するよう決定する。例えば、画素数が0〜1000の範囲である場合、レベルAのコンテンツを表示、画素数が1000〜5000の範囲である場合、レベルBのコンテンツを表示、画素数が5000〜20000の範囲である場合、レベルCのコンテンツを表示といった設定をすることができる。
As a second embodiment, a method for setting a content level will be described. First, AR content is divided into a plurality of descriptions and stored. Each of these divided descriptions has a level set. In
第3の実施例として、階層情報を設定したタグを利用する方法について説明する。まず、ARコンテンツを階層情報を設定したタグを利用して記述して格納しておく。ステップ603において、ARコンテンツの最大表示領域の大きさ(画素数など)に応じたタグまでの記述を表示するよう決定する。例えば、画素数が0〜1000の範囲である場合、タグ1まで表示、画素数が1000〜5000の範囲である場合、タグ2まで表示、画素数が5000〜20000の範囲である場合、タグ3まで表示といった設定をすることができる。
As a third embodiment, a method of using a tag in which hierarchical information is set will be described. First, AR content is described and stored using tags set with hierarchical information. In
第4の実施例として、HTMLのタグレベルを設定する方法について説明する。まず、ARコンテンツをHTMLによって記述して格納しておく。ステップ603において、ARコンテンツの最大表示領域の大きさ(画素数など)に応じたHTMLタグまでの記述を表示するよう決定する。例えば、画素数が0〜1000の範囲である場合、HTMLタグ<h1>まで表示、画素数が1000〜5000の範囲である場合、HTMLタグ<h2>まで表示、画素数が5000〜20000の範囲である場合、HTMLタグ<h3>まで表示といった設定をすることができる。
As a fourth embodiment, a method for setting the HTML tag level will be described. First, AR content is described and stored in HTML. In
ステップ604において、AR処理端末101は、ARコンテンツの表示色を決定する。すなわち、最大表示領域の色合いによって、表示するARコンテンツの色合いを調整して、ARコンテンツを見えやすくする。具体的には、ARコンテンツの色を、最大表示領域の色(例えば青色)の補色(例えば黄色)へと変換する。
In
ARコンテンツの表示色の決定方法について説明する。まず、最大表示領域の平均画素値を算出する。次に、最大表示領域はすべて、この平均画素値で占められているとみなす。次に、この平均画素値の補色を算出する。次に、この算出された補色をARコンテンツの表示色と決定して、ARコンテンツの色をこの決定色へ変換する。 A method for determining the display color of the AR content will be described. First, the average pixel value of the maximum display area is calculated. Next, it is considered that all the maximum display areas are occupied by this average pixel value. Next, a complementary color of the average pixel value is calculated. Next, the calculated complementary color is determined as the display color of the AR content, and the color of the AR content is converted to the determined color.
なお、補色の算出方法としては、いくつかの方法が考えられる。例えば、まず、R、G、Bの値のうちの最大値および最小値を求める(R102,G153,B51であれば、最大値153・最小値51)。次に、この最大値と最小値とを加算する(最大値153と最小値51とを加算して204)。次に、この加算した値から、元のRGB値をそれぞれ引くことによって(R:204−102,G:204−153,B:204−51)、補色を算出することができる(補色:R102,G51,B153)。 There are several methods for calculating the complementary color. For example, first, the maximum value and the minimum value among the values of R, G, and B are obtained (if R102, G153, and B51, the maximum value 153 and the minimum value 51). Next, the maximum value and the minimum value are added (maximum value 153 and minimum value 51 are added 204). Next, by subtracting the original RGB values from the added values (R: 204-102, G: 204-153, B: 204-51), a complementary color can be calculated (complementary color: R102, G51, B153).
さらに、ARコンテンツに含まれる文字の色を変更することも可能である。例えば、算出された補色の色の輝度値に応じて、文字の色を白または黒に設定することができる。具体的には、輝度値が127以下の場合は、文字の色を白色に設定して、輝度値が128以上の場合は、文字の色を黒色に設定することができる。 Furthermore, it is possible to change the color of characters included in the AR content. For example, the character color can be set to white or black according to the calculated luminance value of the complementary color. Specifically, when the luminance value is 127 or less, the character color can be set to white, and when the luminance value is 128 or more, the character color can be set to black.
また、文字の色の設定方法としては、背景色と文字のコントラストから見やすさを算出する方法を使用することもできる。まず、前景および背景のそれぞれの色のRGB値を0〜255の10進数で表わす(それぞれR、G、Bとする)。次に、明るさを計算式:((R×299)+(G×587)+(B×144))/1000で算出する。次に、輝度L1、L2を計算式:R’×.2126+G’×.7152+B’×.0722で算出する。ただし、R’、G’、B’は、Rならば(R/255)^2.2sR=R/255; R’=(sR<=0.03928)?sR/12.92:((sR+0.055)/1.055)^2.4;としてガンマ補正したリニア化RGBの値とし、L1は前景、背景のうち輝度の大きい方の値、L2は小さい方の値とする。ここで、前景、背景色の明るさの差は 125 以上あることを基準とする。また、色の差を計算式:(max(Rb,Rf)−min(Rb,Rf))+(max(Gb,Gf)−min(Gb,Gf))+(max(Bb,Bf)−min(Bb,Bf))で算出する(Rbは背景色のR、Gfは前景色のGなど)。輝度比は(L1+.05)/(L2+.05)で表し、4.5以上(文字サイズが18ポイント以上、あるいは太字で14ポイント以上なら3以上)あることを基準とする。色差は500以上あることを基準とする。以上の条件を満たす色を、文字の色として設定することも可能である。 Further, as a method for setting the character color, a method for calculating the visibility from the contrast between the background color and the character can also be used. First, the RGB values of the foreground and background colors are represented by decimal numbers from 0 to 255 (respectively R, G, and B). Next, the brightness is calculated by a calculation formula: ((R × 299) + (G × 587) + (B × 144)) / 1000. Next, the luminances L1 and L2 are calculated using the formula: R ′ ×. 2126 + G ′ ×. 7152 + B ′ ×. It is calculated by 0722. However, if R ′, G ′, and B ′ are R, (R / 255) ^ 2.2 sR = R / 255; R ′ = (sR <= 0.03928)? sR / 12.92: ((sR + 0.055) /1.055) ^ 2.4; gamma-corrected linearized RGB values, L1 is the foreground and background of the higher luminance, and L2 is small The value of the direction. Here, the standard is that the difference in brightness between the foreground and background colors is 125 or more. The color difference is calculated by the formula: (max (Rb, Rf) −min (Rb, Rf)) + (max (Gb, Gf) −min (Gb, Gf)) + (max (Bb, Bf) −min (Bb, Bf)) (Rb is the background color R, Gf is the foreground color G, etc.). The luminance ratio is represented by (L1 + .05) / (L2 + .05), and is 4.5 or more (3 or more if the character size is 18 points or more, or 14 points or more in bold). The color difference is based on 500 or more. It is also possible to set a color satisfying the above conditions as a character color.
ステップ605において、AR処理端末101は、ステップ602において決定した最大表示領域に、ステップ603において決定した量、ステップ604において決定した色で、ARコンテンツを画像に重畳させて表示する。ステップ602、603、604において決定された、ARコンテンツの最大表示領域、量、色の情報に基づいて、データセットを調整することによって、表示データセットが生成される。表示データセットについては、以下で図8を参照しながら詳細に述べる。
In
図8は、ARコンテンツの表示データセットを示している。
表示データセット801には、調整済みのARコンテンツデータ802、調整済みのデザイン情報803、表示位置情報804が含まれる。
FIG. 8 shows a display data set of AR content.
The display data set 801 includes adjusted
調整済みのARコンテンツデータ802は、ステップ603において決定されたARコンテンツの量に基づいて、ARコンテンツ決定部205によって生成される。また、調整済みのARコンテンツデータ802は、データセットに含まれるARコンテンツデータを調整することによって生成される。
The adjusted
調整済みのデザイン情報803は、ステップ604において決定されたARコンテンツの色に基づいて、ARコンテンツ決定部205によって生成される。また、調整済みのデザイン情報803は、データセットに含まれるデザイン情報を調整することによって生成される。
The adjusted
表示位置情報804は、ステップ601および/またはステップ602において決定されたARコンテンツを表示する位置情報を示す。
The
図9は、本発明の一実施形態例を示している。
本システムには、カメラ901、AR重畳済み画像表示クライアント902、ARマーカー・ARコンテンツ管理サーバ903が含まれる。カメラ901、AR重畳済み画像表示クライアント902、ARマーカー・ARコンテンツ管理サーバ903は、ネットワークに接続されている。
FIG. 9 illustrates an example embodiment of the present invention.
This system includes a
カメラ901は、AR重畳済み画像表示クライアント902によって操作されることが可能である。また、カメラ901は、ロボットに内蔵されていてもよい。AR重畳済み画像表示クライアント902は、上記で説明したディスプレイ207を含む。ARマーカー・ARコンテンツ管理サーバ903は、上記で説明した画像取得部202、ARマーカー検出部203、ARコンテンツ表示領域判定部204、ARコンテンツ決定部205、ARコンテンツ表示部206、ARマーカー・ARコンテンツ取得部208を含む。さらに、ARマーカー・ARコンテンツ管理サーバ903は、データセット3010を含む。
The
すなわち、AR重畳済み画像表示クライアント902は、カメラ901を操作することによって、このカメラを介して撮像を行なうことができる。ARマーカー・ARコンテンツ管理サーバ903は、カメラ901で撮像された画像およびARコンテンツを、AR重畳済み画像表示クライアント902上で表示させることができる。
That is, the AR superimposed
なお、本明細書では、ARマーカーに基づきARコンテンツを表示させる実施形態について説明したが、GPSなどから取得した位置情報に基づきARコンテンツを表示させる実施形態においても、本発明を利用することができる。 In the present specification, the embodiment in which the AR content is displayed based on the AR marker has been described. However, the present invention can also be used in the embodiment in which the AR content is displayed based on position information acquired from GPS or the like. .
以上説明したように、本発明によると、表示可能領域の情報に基づいた調整が行なわれたARコンテンツを表示することが可能となる。 As described above, according to the present invention, it is possible to display AR content that has been adjusted based on the information of the displayable area.
101 AR処理端末
102 ARマーカー・ARコンテンツ管理サーバ
103 ネットワーク
901 カメラ
902 AR重畳済み画像表示クライアント
903 ARマーカー・ARコンテンツ管理サーバ
101
Claims (5)
撮像された画像を取得する画像取得部と、
前記画像内における前記ARコンテンツの表示可能領域を識別する領域判定部と、
前記表示可能領域に内接する最大の矩形領域を、前記ARコンテンツを表示できる最大表示領域と決定するARコンテンツ決定部と、
前記決定された最大表示領域に前記ARコンテンツを表示する表示部と
を含むことを特徴とするシステム。 A system for displaying AR content,
An image acquisition unit for acquiring a captured image;
An area determination unit for identifying a displayable area of the AR content in the image;
An AR content determination unit that determines a maximum rectangular area inscribed in the displayable area as a maximum display area in which the AR content can be displayed;
And a display unit for displaying the AR content in the determined maximum display area.
撮像された画像を取得するステップと、
前記画像内における前記ARコンテンツの表示可能領域を識別するステップと、
前記表示可能領域に内接する最大の矩形領域を、前記ARコンテンツを表示できる最大表示領域と決定するステップと、
前記決定された最大表示領域に前記ARコンテンツを表示するステップと
を含むことを特徴とする方法。 A method for displaying AR content, comprising:
Obtaining a captured image; and
Identifying a displayable area of the AR content in the image;
Determining a maximum rectangular area inscribed in the displayable area as a maximum display area capable of displaying the AR content;
Displaying the AR content in the determined maximum display area.
撮像された画像を取得するステップと、
前記画像内における前記ARコンテンツの表示可能領域を識別するステップと、
前記表示可能領域に内接する最大の矩形領域を、前記ARコンテンツを表示できる最大表示領域と決定するステップと、
前記決定された最大表示領域に前記ARコンテンツを表示するステップと
を含むことを特徴とするプログラム。 A program for causing a computer to execute a method of displaying AR content, the method comprising:
Obtaining a captured image; and
Identifying a displayable area of the AR content in the image;
Determining a maximum rectangular area inscribed in the displayable area as a maximum display area capable of displaying the AR content;
Displaying the AR content in the determined maximum display area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012079968A JP2013210793A (en) | 2012-03-30 | 2012-03-30 | System, method, and program for optimizing ar display |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012079968A JP2013210793A (en) | 2012-03-30 | 2012-03-30 | System, method, and program for optimizing ar display |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013210793A true JP2013210793A (en) | 2013-10-10 |
Family
ID=49528575
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012079968A Pending JP2013210793A (en) | 2012-03-30 | 2012-03-30 | System, method, and program for optimizing ar display |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013210793A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015153169A (en) * | 2014-02-14 | 2015-08-24 | 富士通株式会社 | Terminal device, information processing device, display control method, and display control program |
JP2016004292A (en) * | 2014-06-13 | 2016-01-12 | 富士通株式会社 | Terminal device, information processing system, and display control program |
US10229543B2 (en) | 2014-06-13 | 2019-03-12 | Mitsubishi Electric Corporation | Information processing device, information superimposed image display device, non-transitory computer readable medium recorded with marker display program, non-transitory computer readable medium recorded with information superimposed image display program, marker display method, and information-superimposed image display method |
JP2021120901A (en) * | 2019-07-03 | 2021-08-19 | 株式会社東芝 | Wearable terminal, system, and method |
US11741811B2 (en) | 2015-09-01 | 2023-08-29 | Kabushiki Kaisha Toshiba | Electronic apparatus and method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08305867A (en) * | 1995-04-28 | 1996-11-22 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for displaying and printing character image composite data |
JPH1026967A (en) * | 1996-07-12 | 1998-01-27 | Toshiba Corp | Picture processor |
JP2002163670A (en) * | 2000-11-24 | 2002-06-07 | Mixed Reality Systems Laboratory Inc | Device for presenting combined sense of reality and its controlling method |
JP2008046806A (en) * | 2006-08-14 | 2008-02-28 | Nippon Telegr & Teleph Corp <Ntt> | Image processing method, image processor, and program |
JP2012033073A (en) * | 2010-07-30 | 2012-02-16 | Dainippon Printing Co Ltd | Additional information service system and image pickup device |
-
2012
- 2012-03-30 JP JP2012079968A patent/JP2013210793A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08305867A (en) * | 1995-04-28 | 1996-11-22 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for displaying and printing character image composite data |
JPH1026967A (en) * | 1996-07-12 | 1998-01-27 | Toshiba Corp | Picture processor |
JP2002163670A (en) * | 2000-11-24 | 2002-06-07 | Mixed Reality Systems Laboratory Inc | Device for presenting combined sense of reality and its controlling method |
JP2008046806A (en) * | 2006-08-14 | 2008-02-28 | Nippon Telegr & Teleph Corp <Ntt> | Image processing method, image processor, and program |
JP2012033073A (en) * | 2010-07-30 | 2012-02-16 | Dainippon Printing Co Ltd | Additional information service system and image pickup device |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015153169A (en) * | 2014-02-14 | 2015-08-24 | 富士通株式会社 | Terminal device, information processing device, display control method, and display control program |
JP2016004292A (en) * | 2014-06-13 | 2016-01-12 | 富士通株式会社 | Terminal device, information processing system, and display control program |
US10229543B2 (en) | 2014-06-13 | 2019-03-12 | Mitsubishi Electric Corporation | Information processing device, information superimposed image display device, non-transitory computer readable medium recorded with marker display program, non-transitory computer readable medium recorded with information superimposed image display program, marker display method, and information-superimposed image display method |
US10430655B2 (en) | 2014-06-13 | 2019-10-01 | Fujitsu Limited | Augmented reality information processing system and augmented reality display control method with space information conversion and display control features |
US11741811B2 (en) | 2015-09-01 | 2023-08-29 | Kabushiki Kaisha Toshiba | Electronic apparatus and method |
JP2021120901A (en) * | 2019-07-03 | 2021-08-19 | 株式会社東芝 | Wearable terminal, system, and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Grasset et al. | Image-driven view management for augmented reality browsers | |
EP3745339A1 (en) | Method for implanting advertisements in video, and computer device | |
TWI669956B (en) | Method, device, display terminal, and storage medium for processing augumented reality | |
TWI533027B (en) | Color channels and optical markers | |
US9454836B2 (en) | Object display device and object display method | |
JP5325267B2 (en) | Object display device, object display method, and object display program | |
JP5793260B1 (en) | Information processing apparatus, information processing method, and information processing program | |
JP4724247B2 (en) | House change judgment method, house change judgment program, house change judgment image generation method, and house change judgment image | |
KR20140017527A (en) | Image processing apparatus, display control method and program | |
CN109408008B (en) | Image identification system and information display method thereof | |
JP2013203374A (en) | Display device for vehicle, control method therefor, and program | |
JP2013210793A (en) | System, method, and program for optimizing ar display | |
CN111104608A (en) | Webpage data processing method and related device | |
US9177528B2 (en) | Screen inspection device, screen inspection method, and program | |
WO2017215156A1 (en) | Wallpaper processing method and device | |
CN116563570B (en) | Color recognition method and device, electronic equipment and storage medium | |
US11308344B2 (en) | Image processing apparatus, image forming apparatus, display apparatus, image processing method, and storage medium | |
US9361708B2 (en) | Image processing device, image processing method | |
CN109885160B (en) | Method and device for unfolding label in virtual space | |
CN111107264A (en) | Image processing method, image processing device, storage medium and terminal | |
CN102663665A (en) | Display method and edit method of stereo image graphic label with adaptive depth | |
CN107526489B (en) | Picture adjusting method and device | |
US20150379750A1 (en) | Image processing device, image processing method, information storage medium, and program | |
JP2015125543A (en) | Line-of-sight prediction system, line-of-sight prediction method, and line-of-sight prediction program | |
CN102611906A (en) | Method for displaying and editing stereoscopic video image-text label with adaptive depth |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140828 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150707 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150907 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150929 |