JP5937128B2 - 拡張現実感提供システム、方法及びプログラム - Google Patents

拡張現実感提供システム、方法及びプログラム Download PDF

Info

Publication number
JP5937128B2
JP5937128B2 JP2014053543A JP2014053543A JP5937128B2 JP 5937128 B2 JP5937128 B2 JP 5937128B2 JP 2014053543 A JP2014053543 A JP 2014053543A JP 2014053543 A JP2014053543 A JP 2014053543A JP 5937128 B2 JP5937128 B2 JP 5937128B2
Authority
JP
Japan
Prior art keywords
color
unit
image
augmented reality
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014053543A
Other languages
English (en)
Other versions
JP2015176450A (ja
Inventor
正志 藏之下
正志 藏之下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2014053543A priority Critical patent/JP5937128B2/ja
Priority to US14/624,866 priority patent/US9639991B2/en
Publication of JP2015176450A publication Critical patent/JP2015176450A/ja
Application granted granted Critical
Publication of JP5937128B2 publication Critical patent/JP5937128B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

この発明は、現実空間を撮像する撮像部と、この撮像部による撮像で得た撮像画像の上に仮想物体を示す物体画像を重ねて表示する表示部とを有する拡張現実感提供システム、方法及びプログラムに関する。
近時、現実空間の画像上に仮想物体を重ねて表示するAR(Augmented Reality)表示を含む、拡張現実感提供システムが開発されている。例えば、仮想物体の現実感及び存在感を高めるべく、オブジェクト画像に対して適切な色調整を行う画像処理方法が種々提案されている。
特許文献1では、AR表示を発現するマーカに描かれた模様の色彩から変換パラメータを計算し、該変換パラメータに基づいてオブジェクト画像の色を補正する方法が提案されている。
特許文献2では、現実空間を示す画像全体の色調に関する特徴量を抽出し、該特徴量に基づいてオブジェクト画像の色を補正する方法が提案されている。
特開2010−170316号公報 特開2013−025329号公報
ところで、非透光性の物体に向けて光を照射する場合、物体及び光源の相対的な位置・姿勢に応じた明暗及び影(本明細書では、総称して「シェーディング効果」という)が発生する。すなわち、観察者は、このシェーディング効果の存在を「通常の見え方」として認識している。
しかしながら、特許文献1及び2で提案された方法によれば、オブジェクト画像全体の色バランスを考慮しているにすぎず、上記したシェーディング効果について何ら考慮されていない。その結果、ユーザは、現実空間内での照明状態によって仮想物体の見え方に違和感を覚えることがあった。
本発明は上記した課題を解決するためになされたものであり、現実空間内での照明状態にかかわらず、ごく自然な表現形態にて仮想物体を表示可能な拡張現実感提供システム、方法及びプログラムを提供することを目的とする。
本発明に係る拡張現実感提供システムは、現実空間を撮像する撮像部と、上記撮像部による撮像で得た撮像画像の上に仮想物体を示す物体画像を重ねて表示する表示部とを有するシステムであって、同色である複数の特徴部位を有する対象物を含む上記撮像画像の中から複数の上記特徴部位を抽出する特徴部位抽出部と、上記特徴部位抽出部により抽出された複数の上記特徴部位における色値の関係から、上記対象物に照射される光の配光特性を推定する配光特性推定部と、上記仮想物体を示す原物体画像の色を補正することで、上記配光特性推定部により推定された上記配光特性に従って上記仮想物体に上記光を照射する視覚効果が付与された上記物体画像を得る画像補正部を備える。
このように、抽出された複数の特徴部位における色値の関係から、対象物に照射される光の配光特性を推定する配光特性推定部と、推定された配光特性に従って仮想物体に光を照射する視覚効果が付与された物体画像を得る画像補正部を設けたので、実存する対象物にて実際に発生しているシェーディング効果と同等の視覚効果を仮想物体に付与可能になり、その結果、現実空間内での照明状態にかかわらず、ごく自然な表現形態にて仮想物体を表示できる。
また、複数の上記特徴部位の位置及び/又は形状を特定する特徴量を取得する特徴量取得部を更に備え、上記特徴部位抽出部は、上記特徴量取得部により取得された上記特徴量を用いて複数の上記特徴部位を抽出することが好ましい。
また、上記撮像画像の中にある上記対象物の位置を含む周辺の位置を、上記画像補正部により得られた上記物体画像の配置位置として決定する配置決定部を更に備えることが好ましい。
また、上記対象物は、2つ以上のカラーパッチを有するカラーチャートであり、上記特徴部位は、2つ以上の上記カラーパッチに含まれる複数の同色パッチであり、上記特徴部位抽出部は、上記対象物を含む上記撮像画像の中から複数の上記同色パッチを抽出することが好ましい。
また、上記画像補正部は、2つ以上の上記カラーパッチのうち複数の上記同色パッチを除く残余のカラーパッチを用いて上記原物体画像の色を補正することが好ましい。
本発明に係る拡張現実感提供方法は、現実空間を撮像する撮像部と、上記撮像部による撮像で得た撮像画像の上に仮想物体を示す物体画像を重ねて表示する表示部とを有するシステムを用いた方法であって、同色である複数の特徴部位を有する対象物を含む上記撮像画像の中から複数の上記特徴部位を抽出する抽出ステップと、抽出された複数の上記特徴部位における色値の関係から、上記対象物に照射される光の配光特性を推定する推定ステップと、上記仮想物体を示す原物体画像の色を補正することで、推定された上記配光特性に従って上記仮想物体に上記光を照射する視覚効果が付与された上記物体画像を得る補正ステップを備える。
本発明に係る拡張現実感提供プログラムは、現実空間を撮像する撮像部と、上記撮像部による撮像で得た撮像画像の上に仮想物体を示す物体画像を重ねて表示する表示部とを有する拡張現実感提供システムに、同色である複数の特徴部位を有する対象物を含む上記撮像画像の中から複数の上記特徴部位を抽出する抽出ステップと、抽出された複数の上記特徴部位における色値の関係から、上記対象物に照射される光の配光特性を推定する推定ステップと、上記仮想物体を示す原物体画像の色を補正することで、推定された上記配光特性に従って上記仮想物体に上記光を照射する視覚効果が付与された上記物体画像を得る補正ステップを実行させる。
本発明に係る拡張現実感提供システム、方法及びプログラムによれば、抽出された複数の特徴部位における色値の関係から、対象物に照射される光の配光特性を推定し、この配光特性に従って仮想物体に光を照射する視覚効果が付与された物体画像を得るので、実存する対象物にて実際に発生しているシェーディング効果と同等の視覚効果を仮想物体に付与可能になり、その結果、現実空間内での照明状態にかかわらず、ごく自然な表現形態にて仮想物体を表示できる。
この実施形態に係る拡張現実感提供システムの全体概略図である。 図1に示す携帯端末装置の電気的なブロック図である。 図1に示す情報提供サーバの電気的なブロック図である。 図1に示す拡張現実感提供システムの動作説明に供されるフローチャートである。 撮像で得た撮像画像を表示する表示部の概略正面図である。 図1に示す対象物の平面図である。 図6のカラーチャートに照射される光の二次元分布を示す模式図である。 図1に示す現実空間の俯瞰図である。 合成画像を表示する表示部の概略正面図である。 第1変形例に係る拡張現実感提供システムの電気的なブロック図である。 第2変形例に係る対象物の平面図である。
以下、本発明に係る拡張現実感提供方法について、それを実施する拡張現実感提供システム及び拡張現実感提供プログラムとの関係において好適な実施形態を挙げ、添付の図面を参照しながら詳細に説明する。
[拡張現実感提供システム10の全体構成]
図1は、この実施形態に係る拡張現実感提供システム10の全体構成図である。このシステムは、現実空間20の画像上に仮想物体(例えば、家具)を重ねるAR(Augmented Reality)表示を行うことで、家具のバーチャルカタログサービスを提供する。
拡張現実感提供システム10は、図示しないユーザに携行される携帯端末装置12と、中継装置14と、インターネット等のネットワーク16を介して接続された情報提供サーバ18とから構成される。
携帯端末装置12は、有線又は無線により外部装置と相互に通信可能な装置であり、例えば、スマートフォンを含む携帯電話機、タブレット端末等で構成される。携帯端末装置12は、現実空間20を撮像する撮像部22と、撮像部22による撮像で得た画像(以下、撮像画像)を表示する表示部24とを備える。本図例では、現実空間20内(室内)の床26の上に、AR表示を発現する対象物28が配置されている。対象物28として、任意の形状及び材質からなる物体を採用し得るが、後述するように特定の模様を有する点に留意する。
中継装置14は、携帯端末装置12と情報提供サーバ18との間の通信を中継する装置である。携帯端末装置12が携帯電話機である場合、中継装置14は基地局に相当する。また、携帯端末装置12がタブレット端末である場合、中継装置14は無線LAN(Local Area Network)のアクセスポイントに相当する。
情報提供サーバ18は、携帯端末装置12からの要求に応じて、AR表示に必要なデータ(例えば、物体画像信号48;図2及び図3参照)を携帯端末装置12に提供する。
[携帯端末装置12の電気的なブロック図]
図2は、図1に示す携帯端末装置12の電気的なブロック図である。携帯端末装置12は、撮像部22及び表示部24の他、端末側通信部30と、端末側制御部32と、端末側メモリ34(記憶媒体)とを備える。
撮像部22は、例えばカメラで構成され、1つのカラーチャンネルからなるモノクロ画像、又は、複数のカラーチャンネルからなるカラー画像を撮像する。撮像部22は、単眼カメラであってもよいし、複眼カメラ(いわゆるステレオカメラ)であってもよい。
表示部24は、カラー画像又はモノクロ画像を表示する表示パネル36と、表示パネル36上のタッチ位置を検出するタッチセンサ38とを有する。表示パネル36は、例えば、液晶パネル、有機EL(Electro-Luminescence)パネル、無機ELパネル等で構成される。タッチセンサ38の検出方式として、抵抗膜方式、静電容量方式、赤外線方式、電磁誘導方式、静電結合方式等を含む種々の方式を用いてもよい。
端末側通信部30は、例えば、高周波数帯域の電波を入出力可能なRF(Radio Frequency)モジュールで構成されており、外部装置からの電気信号を送受信する機能を有する。
端末側制御部32は、例えば、マイクロプロセッサ(MPU)で構成され、端末側メモリ34等に格納されたプログラムを読み出し実行することで、各構成要素の制御動作を実行する。端末側制御部32は、対象物検知部40、配置決定部42、及び表示用データ作成部44の各機能を実現する。
端末側メモリ34は、例えば、RAM(Random Access Memory)等の記憶媒体で構成され、端末側制御部32が各構成要素を制御するのに必要なプログラム及びデータ等を記憶している。本図例では、端末側メモリ34には、撮像画像80(図5参照)を示す撮像信号46、及び物体画像108(図9参照)を示す物体画像信号48が格納されている。
この記憶媒体は、非一過性であり、且つ、コンピュータ読み取り可能であってもよい。ここで、コンピュータ読み取り可能な記憶媒体は、光磁気ディスク、ROM、CD−ROM、フラッシュメモリ等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、この記憶媒体は、短時間に且つ動的にプログラムを保持するものであっても、一定時間プログラムを保持するものであってもよい。
[情報提供サーバ18の電気的なブロック図]
図3は、図1に示す情報提供サーバ18の電気的なブロック図である。情報提供サーバ18は、サーバ側通信部50と、サーバ側制御部52と、サーバ側メモリ54と、仮想物体データベース(以下、仮想物体DB56)とを備える。
サーバ側通信部50は、有線又は無線によって外部装置(例えば、図1の携帯端末装置12)と送受信するインターフェースである。
サーバ側制御部52は、サーバ側メモリ54に格納されたプログラムを読み出して実行することで、特徴量取得部58、特徴部位抽出部60、配光特性推定部62、原物体画像取得部64、及び画像補正部66の各機能を実現する。
サーバ側メモリ54は、端末側メモリ34(図2)と同様に構成され、サーバ側制御部52が各構成要素を制御するのに必要なプログラム及びデータ等を記憶している。本図例では、サーバ側メモリ54には、物体画像108(図9参照)を示す物体画像信号48が格納されている。
仮想物体DB56は、仮想物体を示す物体画像のテンプレート(以下、「原物体画像」という)を、後述する発現マーク92(図6)の種類と対応付けて蓄積するデータベースである。ここでは、原物体画像として、三次元モデルで表現した画像を想定する。
[拡張現実感提供システム10の動作]
この実施形態に係る拡張現実感提供システム10は、以上のように構成される。続いて、図1の拡張現実感提供システム10の動作について、図4のフローチャートを主に参照しながら説明する。なお、インストールされたアプリケーション・ソフトウェアを実行することで、図2の携帯端末装置12及び図3の情報提供サーバ18を協働させることができる。
ステップS1において、携帯端末装置12を用いて、対象物28を含む現実空間20を撮像する。先ず、ユーザは、現実空間20内にて家具を配置してみたい位置を特定し、その位置(床26の上)に対象物28を配置する。そして、ユーザは、撮像範囲に対象物28が含まれるように携帯端末装置12を把持した状態下に、所定の撮像操作を行う。その後、撮像部22からの出力信号は、撮像信号46として端末側メモリ34に一時的に格納される。
図5は、撮像で得た撮像画像80を表示する表示部24の概略正面図である。撮像画像80は、下半分を占める矩形状の床領域82と、上半分を占める矩形状の壁領域84とから主に構成される。なお、床領域82の中央下部には、対象物28の投影像を示す対象物領域86が存在する。
ステップS2において、携帯端末装置12の対象物検知部40は、ステップS1で得た撮像画像80の中から対象物28(すなわち、対象物領域86)を検知する。
図6は、図1に示す対象物28の平面図であると共に、図5における対象物領域86の描画内容に相当する。対象物28は、印刷媒体88上に画像が形成された印刷物である。具体的には、印刷媒体88上に、複数のカラーパッチを有するカラーチャート90と、AR表示の発現マーク92とが描画されている。
対象物検知部40は、公知の画像認識手法を用いて、撮像画像80の中に発現マーク92が存在するか否かを判別する。例えば、発現マーク92を示すテンプレートを予め準備しておき、撮像画像80の中にある任意の部分領域との間の一致度を求め、この一致度が閾値よりも高い場合に発現マーク92が存在すると判別してもよい。なお、判別精度を向上させるため、撮像画像80に対してアフィン変換を含む前処理を施してもよい。
発現マーク92が存在すると判別された場合、携帯端末装置12は、端末側メモリ34から読み出した撮像信号46を、端末側通信部30を介して情報提供サーバ18に向けて送信する。その後、情報提供サーバ18は、中継装置14及びネットワーク16を介して撮像信号46を受信する。携帯端末装置12は、別の操作を介して仮想物体の種類(例えば、製品の型番、識別番号)が入力・指定された場合は、この情報を併せて送信してもよい。
ステップS3において、情報提供サーバ18の特徴量取得部58は、撮像画像80に含まれる複数の特徴部位(ここでは、同色パッチ96a〜96h)に関する特徴量を取得する。具体的には、特徴量取得部58は、発現マーク92の種類に紐付けられたカラーチャート90の、描画形態に関するデータセット(特徴量を含む)を取得する。この特徴量として、同色パッチ96a〜96hの形状及び位置を特定するための種々の値を用いることができる。
図6に示すように、カラーチャート90は、格子状に配置されたカラーパッチの集合体であるパッチ群94と、パッチ群94の周辺に配置された8個の同色パッチ96a〜96hを有する。パッチ群94はいずれも異なる色になるように、同色パッチ96a〜96hはすべて同じ色(例えば、無彩色)になるように設計されている。
同色パッチ96a、96b、96c、並びに、同色パッチ96e、96f、96gはそれぞれ等間隔(Lx)で配置されている。同色パッチ96c、96d、96e、並びに、同色パッチ96g、96h、96aはそれぞれ等間隔(Ly)で配置されている。
このとき、位置を特定する特徴量としてパッチ間隔Lx、Lyを採用することができる。或いは、カラーチャート90がなす平面上にて任意の座標系を定義し、この座標系における各同色パッチ96a〜96hの位置であってもよい。色を特定する特徴量として、任意の表色系で表現した色値(例えば、CMYK値、L***値)であってもよいし、色値に関連する情報(例えば、色見本の識別情報)であってもよい。
ステップS4において、情報提供サーバ18の特徴部位抽出部60は、ステップS3で取得された特徴量に基づいて、撮像画像80の中から複数の特徴部位を抽出する。図5に示す撮像画像80の例では、8個の同色パッチ96a〜96hに相当する画像部位がそれぞれ抽出される。
なお、特徴部位抽出部60は、特徴部位として、同色パッチ96a〜96hのように別個の平網領域を抽出してもよいし、1つの平網領域(大きいサイズのカラーパッチ)内における複数の部分領域を抽出してもよい。
ステップS5において、情報提供サーバ18の配光特性推定部62は、ステップS4で抽出された8個の同色パッチ96a〜96hにおける色値の関係から、対象物28に照射される光102の配光特性を推定する。推定処理に先立ち、配光特性推定部62は、各同色パッチ96a〜96hにおける代表的な画素値(例えば、平均値)をそれぞれ算出し、色の明るさに相関する輝度値に換算する。
図7は、図6のカラーチャート90に照射される光102の二次元分布を示す模式図である。ここでは、矩形状のカラーチャート90が有する4つの頂点のうち、発現マーク92(図6)に最も近い頂点を原点Oとする。また、カラーチャート90の長手方向をX軸とし、カラーチャート90の短手方向をY軸とし、輝度値(単位は任意)をZ軸とする。
例えば、単一の光源100が、所定の配光特性に従って光102を照射(或いは、放射)する場合を想定する。光の拡散現象を考慮すると、光源100との距離が短くなるにつれて到達光量が増加し、この距離が長くなるにつれて到達光量が減少する傾向がある。その結果、観察者は、同色の特徴部位であってもこれらの位置関係によって異なる色(特に、明るさ)として知覚することがある。
本図の柱状グラフは、携帯端末装置12の位置及び撮像方向を基準として、光源100が対象物28の左奥側に存在する場合の二次元分布を示す。このグラフから理解されるように、左奥側にある同色パッチ96eの輝度値が最も大きく、右手前側にある同色パッチ96aの輝度値が最も小さくなっている。
配光特性推定部62は、ここで得られた輝度値の絶対値(又は相対値)を用いて、対象物28に照射される光102の配光特性を推定する。ここで「配光特性」とは、光102の強度及び/又は向きに関する特性を意味する。例えば、光源100の位置・姿勢を含む直接的な特性であってもよいし、対象物28に到達した光102の二次元分布を含む間接的な特性であってもよい。
ステップS6において、情報提供サーバ18の原物体画像取得部64は、仮想物体DB56を検索・参照することで、発現マーク92の種類に応じた仮想物体(例えば、椅子)を示す原物体画像を取得する。ここで、原物体画像は、三次元モデルで表現した椅子の画像である。
ステップS7において、情報提供サーバ18の画像補正部66は、ステップS6で取得された原物体画像の色を補正する。この補正は、ステップS5で推定された配光特性に従って、仮想物体に光102を照射する視覚効果を付与することで実現される。具体的には、画像補正部66は、公知の陰影処理(狭義のシェーディング処理)及び/又は付影処理(シャドーイング処理)を施すことで、原物体画像とは異なる物体画像108(図9)を得る。
なお、画像補正部66は、2つ以上のカラーパッチのうち、同色パッチ96a〜96hを除く残余のカラーパッチ(パッチ群94)を用いて原物体画像の色を補正してもよい。1つの色のみならず、複数の色における測色結果を考慮することで、表示部24の広い色範囲にて色再現特性が保証できるからである。
また、画像補正部66は、撮像画像80の中における対象物領域86との相対的大小関係を保つように、原物体画像のサイズを更に補正してもよい。これにより、サイズの観点で仮想物体のリアリティが一層増大する。
この物体画像108を示す信号は、物体画像信号48としてサーバ側メモリ54に一時的に格納される。情報提供サーバ18は、サーバ側メモリ54から読み出した物体画像信号48を、サーバ側通信部50を介して携帯端末装置12に向けて送信する。その後、携帯端末装置12は、ネットワーク16及び中継装置14を介して物体画像信号48を受信する。
ステップS8において、携帯端末装置12は、ステップS7で色補正がなされた物体画像108を、撮像画像80の上に重ねて表示する。表示に先立ち、配置決定部42は、撮像画像80の中にある対象物28の周辺の位置(対象物28の位置を含む)を、物体画像108の配置位置104として決定する。
図8は、図1に示す現実空間20の俯瞰図である。床26の上には対象物28が配置されている。本図例では、配置位置104は、対象物28の位置に重なっている。ここで、対象物28及び物体画像108の相対的位置関係は任意に設定可能であり、例えば、携帯端末装置12を用いた操作を介して調整自在に構成されてもよい。
表示用データ作成部44は、撮像信号46及び物体画像信号48を合成した画像(以下、合成画像106)の表示用データを作成し、該表示用データを表示部24に向けて出力する。これにより、表示部24には合成画像106が表示される。
図9は、合成画像106を表示する表示部24の概略正面図である。椅子の正面図を示す物体画像108が、床領域82、壁領域84及び対象物領域86を跨ぐ位置に重ねて表示されている。物体画像108は、椅子自体を示す本体部110と、椅子の影を示す影部112とが結合された画像である。また、本体部110の暗領域114は、残余の部位と比べて相対的に暗い色で構成されている。
このようにして、拡張現実感提供システム10の動作が完了する。ユーザは、このAR表示を視認することで、椅子の現物が存在しなくとも、その色合い及びサイズを一見して把握できる。しかも、物体画像108にはシェーディング効果が付与されているので、ユーザは違和感を覚えない。
[この実施形態による効果]
以上のように、拡張現実感提供システム10は、現実空間20を撮像する撮像部22と、撮像で得た撮像画像80の上に仮想物体を示す物体画像108を重ねて表示する表示部24を有する。
そして、このシステムは、同色である複数の同色パッチ96a〜96hを有する対象物28を含む撮像画像80の中から複数の同色パッチ96a〜96hを抽出する特徴部位抽出部60と、複数の同色パッチ96a〜96hにおける色値の関係から、対象物28に照射される光102の配光特性を推定する配光特性推定部62と、仮想物体を示す原物体画像の色を補正することで、配光特性に従って仮想物体に光102を照射する視覚効果が付与された物体画像108を得る画像補正部66を備える。
このように構成したので、実存する対象物28にて実際に発生しているシェーディング効果と同等の視覚効果を仮想物体に付与可能になり、その結果、現実空間20内での照明状態にかかわらず、ごく自然な表現形態にて仮想物体を表示できる。
[変形例]
続いて、本実施形態に係る拡張現実感提供システム10の変形例について、図10及び図11を参照しながら説明する。なお、本実施形態と同様の構成については、同一の参照符号を付すると共にその説明を省略する。
<第1変形例>
図10は、第1変形例に係る拡張現実感提供システム120の電気的なブロック図である。この拡張現実感提供システム120は、単体の装置で構成されている点が本実施形態(図1の拡張現実感提供システム10)と異なっている。
拡張現実感提供システム120は、制御部122と、通信部124と、撮像部22と、表示部24と、仮想物体DB56と、メモリ126(記憶媒体)とを備える。
制御部122は、メモリ126に格納されたプログラムを読み出して実行することで、対象物検知部40、配置決定部42、表示用データ作成部44、特徴量取得部58、特徴部位抽出部60、配光特性推定部62、原物体画像取得部64、及び画像補正部66の各機能を実現する。
通信部124は、有線又は無線によって外部装置と送受信するインターフェースである。メモリ126は、制御部122が各構成要素を制御するのに必要なプログラム及びデータ等を記憶している。
このように構成しても、本実施形態と同様の作用効果が得られる。拡張現実感提供システム120は単体の装置で構成されているので、中継装置14及びネットワーク16(図1)を介したデータ通信処理が不要である点に留意する。
<第2変形例>
図11は、第2変形例に係る対象物128の平面図である。この対象物128は、本実施形態(図6の対象物28)と比べて描画内容が異なっている。
対象物128は、印刷媒体88上に画像が形成された印刷物である。具体的には、印刷媒体88上に、複数のカラーパッチを有するカラーチャート130と、AR表示の発現マーク92とが描画されている。
カラーチャート130は、カラーパッチが二次元的に配置されたパッチ群132a、132b、132c、132dを組み合わせて構成される。パッチ群132a〜132dはいずれも同じ描画内容である一方、これらの配置の向きのみが異なっている。具体的には、パッチ群132a及びパッチ群132bは、左右対称の向きに配置されている。また、パッチ群132a及びパッチ群132cは、左右・上下対称の向きに配置されている。また、パッチ群132a及びパッチ群132dは、上下対称の向きに配置されている。
すなわち、シングルハッチングを付した矩形領域は第1グループに属する同色パッチ134a、134c、134e、134gであり、複数の特徴部位に相当する。また、ダブルハッチングを付した矩形領域は第2グループに属する同色パッチ134b、134d、134f、134hであり、複数の特徴部位に相当する。
例えば、第1グループに属する同色パッチ134a、134c、134e、134gを用いて配光特性を推定することができる。また、複数セットの特徴部位(第1グループ、第2グループ、‥)を準備することで、色味の違いを更に反映させた配光特性を推定できる。
[補足]
なお、この発明は、上述した実施形態に限定されるものではなく、この発明の主旨を逸脱しない範囲で自由に変更できることは勿論である。
この実施形態では、対象物28にカラーチャート90とは別の発現マーク92を設けているが、この形態に限られることなく、カラーチャート90自体にAR表示の発現機能を付与してもよい。この場合、対象物検知部40は、パッチ群94及び/又は同色パッチ96a〜96hの色、形状、位置、姿勢等の組み合わせから、対象物28の存否及び種類を検知する。
この実施形態では、撮像画像80が静止画像であることを前提に説明したが、例えば、図4のフローチャートを順次実行することで動画像にも適用できることは言うまでもない。
10、120…拡張現実感提供システム 12…携帯端末装置
18…情報提供サーバ 20…現実空間
22…撮像部 24…表示部
28、128…対象物 40…対象物検知部
42…配置決定部 44…表示用データ作成部
46…撮像信号 48…物体画像信号
58…特徴量取得部 60…特徴部位抽出部
62…配光特性推定部 64…原物体画像取得部
66…画像補正部 80…撮像画像
90、130…カラーチャート 92…発現マーク
94、132a〜132d…パッチ群
96a〜96h、134a〜134h…同色パッチ
100…光源 102…光
104…配置位置 106…合成画像
108…物体画像 110…本体部
112…影部 114…暗領域

Claims (6)

  1. 現実空間を撮像する撮像部と、前記撮像部による撮像で得た撮像画像の上に仮想物体を示す物体画像を重ねて表示する表示部とを有する拡張現実感提供システムであって、
    同色である複数の特徴部位を有する対象物を含む前記撮像画像の中から複数の前記特徴部位を抽出する特徴部位抽出部と、
    前記特徴部位抽出部により抽出された複数の前記特徴部位における色値の関係から、前記対象物に照射される光の配光特性を推定する配光特性推定部と、
    前記仮想物体を示す原物体画像の色を補正することで、前記配光特性推定部により推定された前記配光特性に従って前記仮想物体に前記光を照射する視覚効果が付与された前記物体画像を得る画像補正部と
    を備え
    前記対象物は、2つ以上のカラーパッチを有するカラーチャートであり、
    前記特徴部位は、2つ以上の前記カラーパッチに含まれる複数の同色パッチであり、
    前記特徴部位抽出部は、前記対象物を含む前記撮像画像の中から複数の前記同色パッチを抽出することを特徴とする拡張現実感提供システム。
  2. 請求項1記載のシステムにおいて、
    複数の前記特徴部位の位置及び/又は形状を特定する特徴量を取得する特徴量取得部を更に備え、
    前記特徴部位抽出部は、前記特徴量取得部により取得された前記特徴量を用いて複数の前記特徴部位を抽出する
    ことを特徴とする拡張現実感提供システム。
  3. 請求項1又は2に記載のシステムにおいて、
    前記撮像画像の中にある前記対象物の位置を含む周辺の位置を、前記画像補正部により得られた前記物体画像の配置位置として決定する配置決定部を更に備えることを特徴とする拡張現実感提供システム。
  4. 請求項1〜3のいずれか1項に記載のシステムにおいて、
    前記画像補正部は、2つ以上の前記カラーパッチのうち複数の前記同色パッチを除く残余のカラーパッチを用いて前記原物体画像の色を補正することを特徴とする拡張現実感提供システム。
  5. 現実空間を撮像する撮像部と、前記撮像部による撮像で得た撮像画像の上に仮想物体を示す物体画像を重ねて表示する表示部とを有するシステムを用いた拡張現実感提供方法であって、
    同色である複数の特徴部位を有する対象物を含む前記撮像画像の中から複数の前記特徴部位を抽出する抽出ステップと、
    抽出された複数の前記特徴部位における色値の関係から、前記対象物に照射される光の配光特性を推定する推定ステップと、
    前記仮想物体を示す原物体画像の色を補正することで、推定された前記配光特性に従って前記仮想物体に前記光を照射する視覚効果が付与された前記物体画像を得る補正ステップと
    を備え
    前記対象物は、2つ以上のカラーパッチを有するカラーチャートであり、
    前記特徴部位は、2つ以上の前記カラーパッチに含まれる複数の同色パッチであり、
    前記抽出ステップでは、前記対象物を含む前記撮像画像の中から複数の前記同色パッチを抽出することを特徴とする拡張現実感提供方法。
  6. 現実空間を撮像する撮像部と、前記撮像部による撮像で得た撮像画像の上に仮想物体を示す物体画像を重ねて表示する表示部とを有する拡張現実感提供システムに、
    同色である複数の特徴部位を有する対象物を含む前記撮像画像の中から複数の前記特徴部位を抽出する抽出ステップと、
    抽出された複数の前記特徴部位における色値の関係から、前記対象物に照射される光の配光特性を推定する推定ステップと、
    前記仮想物体を示す原物体画像の色を補正することで、推定された前記配光特性に従って前記仮想物体に前記光を照射する視覚効果が付与された前記物体画像を得る補正ステップと
    を実行させ
    前記対象物は、2つ以上のカラーパッチを有するカラーチャートであり、
    前記特徴部位は、2つ以上の前記カラーパッチに含まれる複数の同色パッチであり、
    前記抽出ステップでは、前記対象物を含む前記撮像画像の中から複数の前記同色パッチを抽出することを特徴とする拡張現実感提供プログラム。
JP2014053543A 2014-03-17 2014-03-17 拡張現実感提供システム、方法及びプログラム Active JP5937128B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014053543A JP5937128B2 (ja) 2014-03-17 2014-03-17 拡張現実感提供システム、方法及びプログラム
US14/624,866 US9639991B2 (en) 2014-03-17 2015-02-18 Augmented reality provision system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014053543A JP5937128B2 (ja) 2014-03-17 2014-03-17 拡張現実感提供システム、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2015176450A JP2015176450A (ja) 2015-10-05
JP5937128B2 true JP5937128B2 (ja) 2016-06-22

Family

ID=54069424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014053543A Active JP5937128B2 (ja) 2014-03-17 2014-03-17 拡張現実感提供システム、方法及びプログラム

Country Status (2)

Country Link
US (1) US9639991B2 (ja)
JP (1) JP5937128B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106558103A (zh) * 2015-09-24 2017-04-05 鸿富锦精密工业(深圳)有限公司 扩增实境图像处理系统及扩增实境图像处理方法
US10950039B2 (en) 2016-06-16 2021-03-16 Sony Interactive Entertainment Inc. Image processing apparatus
US10134191B2 (en) 2016-07-18 2018-11-20 Disney Enterprises, Inc. Systems and methods for generating a virtual space based on a physical layout of objects
US10002454B2 (en) 2016-09-16 2018-06-19 International Business Machines Corporation Reactive overlays of multiple representations using augmented reality
US9898871B1 (en) * 2016-10-05 2018-02-20 Disney Enterprises, Inc. Systems and methods for providing augmented reality experience based on a relative position of objects
JP6888435B2 (ja) * 2017-06-16 2021-06-16 コニカミノルタ株式会社 印刷システム、表示装置、表示装置の制御方法及びプログラム
DK180470B1 (en) 2017-08-31 2021-05-06 Apple Inc Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments
US10922878B2 (en) * 2017-10-04 2021-02-16 Google Llc Lighting for inserted content
AU2019212150B2 (en) * 2018-01-24 2021-12-16 Apple, Inc. Devices, methods, and graphical user interfaces for system-wide behavior for 3D models
TWI675583B (zh) 2018-07-23 2019-10-21 緯創資通股份有限公司 擴增實境系統及其色彩補償方法
CN111445583B (zh) * 2020-03-18 2023-08-01 Oppo广东移动通信有限公司 增强现实处理方法及装置、存储介质和电子设备
CN114067085A (zh) * 2021-09-30 2022-02-18 北京市商汤科技开发有限公司 一种虚拟对象的显示方法及装置、电子设备和存储介质
CN114399425A (zh) * 2021-12-23 2022-04-26 北京字跳网络技术有限公司 一种图像处理方法、视频处理方法、装置、设备及介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003264740A (ja) * 2002-03-08 2003-09-19 Cad Center:Kk 展望鏡
US20050285878A1 (en) * 2004-05-28 2005-12-29 Siddharth Singh Mobile platform
JP4273108B2 (ja) * 2005-09-12 2009-06-03 キヤノン株式会社 色処理方法、色処理装置及び記憶媒体
JP4834116B2 (ja) * 2009-01-22 2011-12-14 株式会社コナミデジタルエンタテインメント 拡張現実表示装置、拡張現実表示方法、ならびに、プログラム
US8405658B2 (en) * 2009-09-14 2013-03-26 Autodesk, Inc. Estimation of light color and direction for augmented reality applications
JP5325267B2 (ja) * 2011-07-14 2013-10-23 株式会社エヌ・ティ・ティ・ドコモ オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム

Also Published As

Publication number Publication date
JP2015176450A (ja) 2015-10-05
US9639991B2 (en) 2017-05-02
US20150262427A1 (en) 2015-09-17

Similar Documents

Publication Publication Date Title
JP5937128B2 (ja) 拡張現実感提供システム、方法及びプログラム
JP5397190B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US9916676B2 (en) 3D model rendering method and apparatus and terminal device
JP5132754B2 (ja) 画像処理装置、方法およびそのプログラム
JP2015180987A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US9489751B2 (en) Image processing apparatus and image processing method for color correction based on pixel proximity and color similarity
US20130120451A1 (en) Image processing device, image processing method, and program
WO2018119406A4 (en) Image processing to determine center of balance in a digital image
JP2013235537A (ja) 画像作成装置、画像作成プログラム、及び記録媒体
JP7140209B2 (ja) 検出装置、情報処理装置、検出方法、及び情報処理プログラム
CN112509117A (zh) 手部三维模型的重建方法、装置、电子设备及存储介质
US10055824B2 (en) Image correction device, image correction method and storage medium
WO2010067486A1 (ja) 画像処理装置及び画像処理方法
CN113657357B (zh) 图像处理方法、装置、电子设备及存储介质
JP6447706B1 (ja) 校正用データ生成装置、校正用データ生成方法、キャリブレーションシステム、及び制御プログラム
US8908994B2 (en) 2D to 3d image conversion
CN107609946B (zh) 一种显示控制方法及计算设备
JP5862635B2 (ja) 画像処理装置、立体データ生成方法、及びプログラム
WO2019150431A1 (ja) 情報処理装置
US11043019B2 (en) Method of displaying a wide-format augmented reality object
US9628672B2 (en) Content processing apparatus, content processing method, and storage medium
KR101488647B1 (ko) 모바일 단말의 가상 조명 동작방법 및 장치
KR101893793B1 (ko) 컴퓨터 그래픽 영상의 실감도 증강을 위한 장치 및 방법
CN111034185B (zh) 影像处理装置、影像处理方法、程序和远程通信系统
CN104981841B (zh) 3d图像数据分割的方法和装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160511

R150 Certificate of patent or registration of utility model

Ref document number: 5937128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250