JP6323040B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP6323040B2
JP6323040B2 JP2014024936A JP2014024936A JP6323040B2 JP 6323040 B2 JP6323040 B2 JP 6323040B2 JP 2014024936 A JP2014024936 A JP 2014024936A JP 2014024936 A JP2014024936 A JP 2014024936A JP 6323040 B2 JP6323040 B2 JP 6323040B2
Authority
JP
Japan
Prior art keywords
marker
virtual object
augmented reality
user
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014024936A
Other languages
English (en)
Other versions
JP2015153046A (ja
Inventor
多聞 貞末
多聞 貞末
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014024936A priority Critical patent/JP6323040B2/ja
Priority to US14/611,450 priority patent/US9846966B2/en
Priority to EP15154658.7A priority patent/EP2908239A1/en
Publication of JP2015153046A publication Critical patent/JP2015153046A/ja
Application granted granted Critical
Publication of JP6323040B2 publication Critical patent/JP6323040B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。
現実世界に仮想物体を追加して現実以上の情報を提示するAR(拡張現実感)技術が知られている。AR技術を実現するポピュラーな手法として、用紙等に印刷されたARマーカをカメラで撮影し、ARマーカに対するカメラの相対位置および姿勢を解析して、撮像画像中に仮想物体を追加する手法が知られている。
ARマーカを用いるAR技術は、携帯端末のような演算パワーの少ない機器においても容易に実現することができる。なお、ARマーカとカメラとの相対位置および姿勢を検出する方法は、『「拡張現実感システム構築ツールARToolKitの開発」電子情報通信学会技術研究会,pp79~86,2002-02』等に記載されている。
ARマーカを用いるAR技術の処理は、概略、入力処理と、ディスプレイへの出力処理とに分けられる。入力処理は、カメラから取得した撮像画像からARマーカの領域を抽出して3次元空間上の位置を推定し、ARマーカを解析することで得られるIDを用いてARマーカの大きさおよびARマーカにより特定される仮想物体のデータを取得する。ディスプレイの出力処理では、入力処理で取得した仮想物体のデータを用いて3次元空間上に配置し、3次元空間に配置したデータを3次元グラフィックスプロセッサ等により描画してディスプレイに表示する。
このようなAR技術は、例えば小型の車両および恐竜等の物理的に作ることが困難な物を、あたかもその場所に存在するように見せたり、購入する前の家具を自宅の好きな場所に仮想的に配置したりすることにより、ユーザに疑似体験をさせることができる。また、このようなAR技術は、時間または利用ユーザ等によって異なる仮想物体を表示することで、物理的な背景を作り変えずに、ユーザに様々な体験をさせることができる。
AR技術による描画結果を表示する装置は、一例として、携帯電話である。これ以外にも、PCのディスプレイ、タブレットと呼ばれる液晶パネルディスプレイを備えた小型端末等であってもよい。また、ヘッドマウントディスプレイと呼ばれる、頭部等に固定し、目に近接したディスプレイを持つデバイス等であってもよい。なお、ここで、近接とは、ディスプレイから目に入る光の経路中にミラーおよびハーフミラーを設置した場合も含む。ヘッドマウントディスプレイを用いた場合は、携帯電話等と比較して、ユーザが端末を手に持つ必要が無いので、両手が自由になるというメリットがある。
印刷されたARマーカは、仮想物体を描画する位置を検出するために使用される。従って、ARマーカが印刷された紙自体を動かしたり回転させたりすることにより、その動きに同期してディスプレイ中の描画される位置が変わる。このため、ARマーカを用いるAR技術では、仮想物体に対して、人間の操作によるインタラクションを一部実現することができる。しかし、例えば仮想物体として表示された本のページをめくったり、仮想物体として表示された箱を開けたりといった細かなインタラクションを実現することはできない。すなわち、従来のARマーカを用いるAR技術では、単に仮想物体そのものを動かすことができるのみである。
そこで、AR技術によってディスプレイに重畳表示される仮想物体に対してユーザがより細かな操作を行い、インタラクションが可能となれば、ユーザに対してよりバリエーション豊かな仮想的体験を提供することが可能となる。
例えば、特許文献1に記載された技術では、カメラで撮影した物体オブジェクトに基づいて仮想物体を撮像画像に重畳表示する場合、静止画を切り出して仮想物体を表示させ続ける。そして、ユーザによるタッチ操作またはキー操作等によって、仮想物体の表示を変化させる。しかし、このような技術では、ユーザの操作を検出するためにカメラ以外にタッチパネル等のデバイスが必要となってしまう。
また、実現手段として、カメラによる撮影動画から、ジェスチャと呼ばれる人間の手などの動きを認識することで、ユーザの操作を認識する装置が考えられる。しかし、この場合、タッチパネルのようなデバイスが不要となるが、どういった操作がユーザにできるか、どういったジェスチャがシステムによって認識されるのか、ユーザにとって分かりにくい。また、ジェスチャの認識は比較的に精度が低い。
本発明は、上記に鑑みてなされたものであって、カメラによる撮像画像を用いてAR技術を実現する場合に、ユーザの操作によるインタラクションを容易に実現する画像処理装置、画像処理方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、撮像画像から、仮想物体を表示させることを示す拡張現実マーカを検出する拡張現実マーカ検出部と、前記撮像画像から、前記拡張現実マーカに対応して設けられた操作用マーカの領域を検出する操作用マーカ検出部と、前記操作用マーカの領域から、前記操作用マーカに対するユーザ操作を検出する操作検出部と、前記拡張現実マーカに応じた仮想物体を前記ユーザ操作に応じて変形する仮想物体制御部と、前記変形した前記仮想物体を前記撮像画像に重畳して描画する描画部と、を備え、前記操作検出部は、複数の前記撮像画像における前記操作用マーカの領域のそれぞれに対しての前記ユーザ操作に基づき、前記操作用マーカに対するユーザの時間的な動きを検出し、前記仮想物体制御部は、前記ユーザの時間的な動きに応じて、前記仮想物体を変形させる
本発明によれば、カメラによる撮像画像を用いてAR技術を実現する場合に、ユーザの操作によるインタラクションを容易に実現することができる。
図1は、実施形態に係る端末装置の構成図である。 図2は、マーカの第1例を示す図である。 図3は、マーカの第2例を示す図である。 図4は、実施形態に係る端末装置の処理手順を示す図である。 図5は、グローバル(マーカ)座標系からスクリーン座標系への変換処理を示す図である。 図6は、仮想物体を表示した端末装置の外観を示す図である。 図7は、操作用マーカに対するユーザ操作の一例を示す図である。 図8は、ユーザ操作に応じて変形した仮想物体を表示した端末装置の外観を示す図である。 図9は、第1変形例に係る操作用マーカの一例を示す図である。 図10は、第1変形例に係る端末装置の操作手順を示す図である。 図11は、第2変形例に係る操作用マーカの一例を示す図である。 図12は、実施形態に係る端末装置のハードウェア構成を示す図である。
以下に添付図面を参照して、本発明に係る画像処理装置の実施の形態として、端末装置10を詳細に説明する。
図1は、実施形態に係る端末装置10の構成図である。端末装置10は、撮像機能、画像処理機能および表示機能を備えた携帯型の装置であって、例えば、携帯電話、タブレット端末等の手持ちタイプの携帯端末またはヘッドマウントディスプレイ等である。
端末装置10は、マーカ30を含む被写体をカメラで撮影し、撮影画像を解析してマーカ30に対するカメラの相対位置および姿勢を検出し、検出した相対位置および姿勢に応じて配置された仮想物体を撮像画像に重畳して表示する。さらに、端末装置10は、撮像画像からユーザ操作を検出した場合、ユーザ操作に応じて仮想物体を変形する。
マーカ30は、用紙等の物体に印刷された2次元情報であり、現実の空間に配置される。マーカ30は、一例として、モノクロームで記載された2次元情報である。マーカ30は、モノクロームに限らず、カラーであってもよい。
マーカ30は、図2に示すように、ARマーカ31(拡張現実マーカ)と、少なくとも1つの操作用マーカ32(32−1,32−2,32−3,32−4)とを含む。
ARマーカ31は、表示すべき仮想物体、並びに、仮想物体を重畳する撮像画像内における位置および姿勢を特定するための情報である。ARマーカ31は、外枠部33と、ID記述領域34とを含む。外枠部33は、撮像画像の中から、ARマーカ31の画像部分を切り出すための領域である。外枠部33は、予め定められた外形状の図形であり、内部にID記述領域34を記載するための空間を有する。本例では、10cm×10cmの正方形の枠形状である。ARマーカ31は、このような形状であることにより、ARマーカ31に対すカメラの相対位置および姿勢を端末装置10に特定させることができる。なお、ARマーカ31は、予め定められた形状であれば、正方形に限らずどのような形状であってもよい。
ID記述領域34は、予め定められたパターンの図形または文字等が記載される。これにより、ID記述領域34は、端末装置10に、予め登録された画像パターンとの間でのパターンマッチングをさせて、ARマーカ31のIDを取得させることができる。また、ID記述領域34は、図3に示すように、N個(Nは2以上の整数)×N個の格子状の配列領域を形成し、それぞれの領域を0、1に対応した白または黒の領域としてもよい。この場合、ID記述領域34には、IDを表す2進数配列(0、1により構成されるデータ列)における、例えば0を黒に、1を白に置き換えた配列パターンが、N個×N個の格子領域に形成される。これにより、ID記述領域34は、端末装置10に、白領域と黒領域の配列パターンを検出させて、ARマーカ31のIDを取得させることができる。
それぞれの操作用マーカ32は、仮想物体を変形させることを指示するユーザ操作を検出するための情報である。それぞれの操作用マーカ32は、ARマーカ31に対応して設けられる。本例では、それぞれの操作用マーカ32は、ARマーカ31に対して予め定められた位置に配置される。例えば、図2および図3の例においては、4つの操作用マーカ32(32−1,32−2,32−3,32−4)は、正方形のARマーカ31の下側の一辺から予め定められた距離離間した位置に、下側の辺に添って並んで配置されている。
また、それぞれの操作用マーカ32には、仮想物体をどのように変形するかが予め割り当てられている。例えば、図2および図3の例では、4つの操作用マーカ32のそれぞれに、互いに異なる動きが割り当てられている。これにより、それぞれの操作用マーカ32は、ユーザ操作がされた場合(例えば、ユーザが指等により触れた場合)、端末装置10に、ARマーカ31に応じて表示されている仮想物体を、割り当てられた動きに応じて変形させることができる。
図1に示すように、端末装置10は、撮像部11と、マーカ情報記憶部12と、ARマーカ検出部13(拡張現実マーカ検出部)と、操作情報記憶部14と、操作用マーカ検出部15と、操作検出部16と、仮想物体制御部17と、描画部18と、表示部19とを備える。
撮像部11は、カメラであって、ユーザによる操作に応じてマーカ30を含む被写体を撮像する。マーカ情報記憶部12は、ARマーカ31のIDに対応させて、表示する仮想物体を特定する情報およびARマーカ31の大きさ等を記憶する。
ARマーカ検出部13は、撮像部11により撮像された撮像画像から、ARマーカ31を検出する。より具体的には、ARマーカ検出部13は、撮像画像の中からARマーカ31の領域を検出して、ARマーカ31のIDを取得する。さらに、ARマーカ検出部13は、ARマーカ31に対する、撮像部11であるカメラの相対位置および姿勢を検出する。
操作情報記憶部14は、ARマーカ31に対応して設けられた操作用マーカ32に関する情報を記憶する。より具体的には、操作情報記憶部14は、ARマーカ31とそれぞれの操作用マーカ32との位置関係、それぞれの操作用マーカ32の画像パターン(参照画像)、および、それぞれの操作用マーカ32に割り当てられている動き等を記憶する。
操作用マーカ検出部15は、撮像部11により撮像された撮像画像から、それぞれの操作用マーカ32の領域を検出する。より具体的には、操作用マーカ検出部15は、撮像画像中におけるARマーカ31の位置と、ARマーカ31と操作用マーカ32との位置関係とに基づき、撮像画像中における操作用マーカ32の領域を検出する。
操作検出部16は、操作用マーカ検出部15により検出された操作用マーカ32の領域から、操作用マーカ32に対してされたユーザ操作を検出する。操作検出部16は、一例として、撮像画像から検出された操作用マーカ32の領域の部分画像と、操作情報記憶部14に記憶された操作用マーカ32の画像パターン(参照画像)とを比較することにより、その操作用マーカ32に対してユーザ操作がされたかを判断する。より具体的には、操作検出部16は、撮像画像における操作用マーカ32の領域の部分画像と、予め記憶された操作用マーカ32の参照画像との差分を検出し、差分が所定の閾値より大きい場合に、対応する操作用マーカ32に対してユーザ操作がされたと判断する。また、操作検出部16は、撮像画像における操作用マーカ32の領域に、人間の身体の一部分を検出した場合に、対応する操作用マーカ32に対してユーザ操作がされたと判断してもよい。そして、操作検出部16は、何れかの操作用マーカ32に対してユーザ操作がされたと判定した場合には、そのユーザ操作がされた操作用マーカ32に割り当てられている動きの情報を仮想物体制御部17に与える。
仮想物体制御部17は、ARマーカ検出部13により検出されたIDから、撮像画像に重畳して描画すべき仮想物体を特定する。また、仮想物体制御部17は、ARマーカ検出部13により検出されたARマーカ31とカメラとの相対位置および姿勢を特定する。さらに、仮想物体制御部17は、ARマーカ検出部13により検出されたIDから、ARマーカ31の大きさを特定する。そして、仮想物体制御部17は、特定した各情報に基づき、3次元座標上に仮想物体の3次元モデルを配置する。また、さらに、仮想物体制御部17は、操作検出部16によりユーザ操作に応じた動きの情報が与えられた場合には、3次元座標上に配置した仮想物体の3次元モデルを、与えられた動きの情報に応じて変形する。
描画部18は、仮想物体制御部17により3次元座標上に配置された仮想物体の3次元モデルを、撮像画像に対応する2次元座標系(スクリーン座標系)に投影する。そして、描画部18は、撮像部11により撮像された撮像画像に、スクリーン座標系に投影された仮想物体を重畳して描画する。この場合において、描画部18は、仮想物体がユーザ操作に応じて変形されている場合には、変形した仮想物体を撮像画像に重畳して描画する。
表示部19は、ディスプレイであって、描画部18により仮想物体が重畳して描画された撮像画像を表示する。
図4は、実施形態に係る端末装置10の処理手順を示す図である。端末装置10は、操作用マーカ32に対してユーザ操作がされていない場合、図4のステップS11からステップS17を実行して、仮想物体を重畳した撮像画像を表示する。さらに、端末装置10は、操作用マーカ32に対してユーザ操作がされた場合、ステップS11からステップS17に加えて、ステップS18およびステップS19の処理を実行して、変形した仮想物体を重畳した撮像画像を表示する。
まず、ユーザ操作がされていない場合の処理(ステップS11からステップS17)について説明する。
ステップS11において、撮像部11は、撮像画像を入力する。撮像部11は、フレーム毎に連続的に撮像する。端末装置10は、撮像部11が撮像画像を入力する毎に(フレーム毎に)、以下のステップS12からステップS17の処理を実行する。
続いて、ステップS12において、ARマーカ検出部13は、撮像画像からARマーカ31の領域を検出する。例えば、ARマーカ31がモノクローム画像で作成され、正方形の場合、ARマーカ検出部13は、以下のように、ARマーカ31の領域を検出する。
まず、ARマーカ検出部13は、撮像画像の全体を白色と黒色に二値化する。次に、ARマーカ検出部13は、二値化した撮像画像を、ラベリングと呼ばれる処理を行って白画素もしくは黒画素のかたまりに分離する。次に、ARマーカ検出部13は、得られた黒画像のかたまり毎に、輪郭から4つの頂点を検出する。ARマーカ検出部13は、一例として、直線の折れ曲がった点を頂点とする。操作情報記憶部14は、頂点が4つでないものは、ARマーカ31の領域の候補から外し、残った候補をARマーカ31の領域とする。
続いて、ステップS13において、ARマーカ検出部13は、ID記述領域34に対してパターンマッチングまたは白黒パターン検出をして、IDを取得する。
続いて、ステップS14において、ARマーカ検出部13は、ARマーカ31の領域、例えば4つの頂点から、ARマーカ31に対するカメラの相対位置および姿勢、大きさを算出する。すなわち、ARマーカ検出部13は、3次元のマーカ座標系(グローバル座標系)に配置した仮想物体の3次元モデルを、カメラにより撮像された撮像画像上の2次元座標系(スクリーン座標系)へ投影するための座標変換式(回転、平行移動および拡大率を表す式)を算出する。
ARマーカ検出部13は、一例として、次のように算出する。まず、図5に示されるように、3次元のマーカ座標系においてARマーカ31の中心を(x,y,z)=(0,0,0)とすると、4隅の頂点が同一平面であるので、4隅の座標は以下のように表される。マーカ座標系は、ARマーカ31が配置された空間を表す3次元の座標系(グローバル座標系)であってもよい。
M0=(−a,−a,0)
M1=(a,−a,0)
M2=(−a,a,0)
M3=(a,a,0)
この4つの座標に対して、回転および平行移動の3次元の座標変換を施すと、3次元のカメラ座標系の座標に変換される。そして、3次元のカメラ座標系から、撮像画像の撮像面に対応する2次元の仮想スクリーンへの透視投影を行うことで、2次元の座標で表された4つの頂点(M0´,M1´,M2´,M3´)が算出される。このときの、回転および平行移動の3次元の座標変換式が、カメラの相対位置および姿勢に対応する。また、撮像画像中の画素の大きさと、ARマーカ31から取得したIDの大きさとの比率から、3次元のマーカ座標系と3次元のカメラ座標系との拡大率が算出される。このように、ARマーカ検出部13は、マーカ座標系(グローバル座標系)に配置した仮想物体の3次元モデルを、カメラにより撮像された撮像画像上の2次元座標系(スクリーン座標系)へ投影するための座標変換式(回転、平行移動および拡大率を表す式)を算出することができる。
続いて、ステップS15において、仮想物体制御部17は、仮想物体を3次元空間に配置する。より具体的には、仮想物体制御部17は、ARマーカ31のIDに対応する仮想物体の3次元モデルを取得する。仮想物体制御部17は、一例として、マーカ情報記憶部12に記憶された情報、プログラムに予め登録された情報、または、サーバに記憶された情報を読み出して3次元モデルを取得する。3次元モデルは、一例として、3DプログラミングAPI(Application Programming Interface)で扱うことができるデータの集まりであり、ポリゴンと呼ばれる三角形平面を表現する点座標の集合、テクスチャ画像データ、および、配置位置等を含む。そして、仮想物体制御部17は、このような3次元モデルを、マーカ座標系(グローバル座標系)の所定の位置に配置する。これにより、仮想物体制御部17は、仮想物体を3次元空間に配置することができる。
続いて、ステップS16において、描画部18は、仮想物体を撮像画像に重畳描画する。具体的には、描画部18は、3次元空間に配置した仮想物体を、ステップS14で算出したARマーカ31に対するカメラの相対位置および姿勢および大きさ(すなわち、座標変換式)により、撮像画像の撮像面に対応する2次元の仮想スクリーンへの透視投影を行い、撮像画像の背景としてレンダリングする。仮想スクリーンへの透視投影によるレンダリングは、例えば、3次元グラフィックス専用のGPUもしくはCPUを用い、3DプログラミングAPIを用いて行う。
最後に、ステップS17において、表示部19は、図6に示されるように、仮想物体40が重畳描画された撮像画像を表示する。
つぎに、ユーザ操作がされた場合の処理(ステップS18からステップS19)について説明する。
ステップS18において、操作用マーカ検出部15は、操作用マーカ32に対するユーザ操作を検出する。本例においては、操作用マーカ検出部15は、図7に示すように、操作用マーカ32がユーザの指等により触れられた場合、操作用マーカ32に対してユーザ操作がされたと判断する。
具体的には、操作用マーカ検出部15は、次のような処理によりユーザ操作がされたかを判断する。まず、ステップS14までの処理により、撮像画像中におけるARマーカ31の領域が検出され、ARマーカ31に対するカメラの相対位置および姿勢が算出されている。操作用マーカ32は、ARマーカ31に対する位置関係を知っている。従って、操作用マーカ検出部15は、操作情報記憶部14に予め記憶されている操作用マーカ32の3次元モデルを用い、ステップS14において算出された座標変換式により、仮想スクリーンへの透視投影を行う。そして、投影した結果の画像を参照画像として、実際に撮像されている操作用マーカ32の領域の部分画像と比較して、操作用マーカ32に対してユーザ操作がされたか否かを判断する。
操作用マーカ検出部15は、一例として、画素の輝度値の差を使って非類似度を計算し、非類似度がある閾値より小さければ、操作用マーカ32が検出された(すなわち、操作用マーカ32がユーザによって隠されていない)と判別する。反対に、操作用マーカ検出部15は、非類似度がある閾値以上であれば、操作用マーカ32が検出されていない(すなわち、操作用マーカ32をユーザが押しているもしくは触っている)と判別する。
また、操作用マーカ検出部15は、他の方法として、ARマーカ31に対する予め定められた相対位置に操作用マーカ32が存在することを利用し、撮像画像における、本来、操作用マーカ32が写っている領域を特定する。操作用マーカ検出部15は、例えば最初に撮像した撮像画像における、操作用マーカ32が写っている領域の部分画像を参照画像として記憶する。そして、記憶した参照画像と、その後の撮像画像から取得した操作用マーカ32の領域の部分画像とを比較して、ユーザ操作がされたか否かを判断してもよい。
また、非類似度の計算は、例えばグレースケールに変換した後の、画素の輝度値の差の二乗和を用いてもよい。この場合、仮想スクリーンは、多少実際の撮影画像とずれている可能性がある。そこで、操作用マーカ検出部15は、比較する画像位置を数画素ほど動かして、最も二乗和の小さい値と閾値とを比較してもよい。
例えば、操作用マーカ検出部15は、下記の式を満たす場合には、ユーザ操作がされていないと判定し、満たさない場合には、ユーザ操作がされたと判定する。なお、Thは閾値である。操作用マーカ検出部15は、dx,dyをある大きさの範囲で動かすことにより、比較する画像位置を数画素ほど動かした判断をすることができる。
Figure 0006323040
また、操作用マーカ検出部15は、撮像画像における操作用マーカ32の領域に、人間の身体の一部分を検出した場合に、対応する操作用マーカ32に対してユーザ操作がされたと判断してもよい。例えば、操作用マーカ検出部15は、操作用マーカ32があるべき画像中の領域に、人間の肌色が含まれているかどうかを検出してもよい。
続いて、ステップS19において、仮想物体制御部17は、ユーザの操作に応じて、仮想物体を変形する。仮想物体制御部17は、操作用マーカ32に対してユーザ操作がされた場合、ユーザ操作がされた操作用マーカ32に対応する動きで、3次元空間に配置された仮想物体の3次元モデルを変形させる。例えば、仮想物体制御部17は、図8に示すように、ライトが点灯していない状態の車の3次元モデルに、ライトの光の3次元モデルを追加することにより仮想物体40を変形する。仮想物体制御部17は、このように変化させる3次元モデルを、マーカ情報記憶部12、プログラムまたはサーバ等から取得する。また、仮想物体制御部17は、既に配置されている仮想物体の3次元モデルのデータ(例えばポリゴンの点座標データ)を変化させてもよい。これにより、仮想物体制御部17は、箱の蓋が開くように仮想物体を変形することができる。また、仮想物体制御部17は、3次元モデルを、1秒以内にスムーズに変化させれば、アニメーション表現をすることもできる。
以上のように、本実施形態に係る端末装置10によれば、カメラによる撮像画像を用いてAR技術を実現する場合に、ユーザの操作によるインタラクションを容易に実現することができる。
つぎに、本実施形態の変形例について説明する。なお、変形例は、本実施形態に係る端末装置10と略同一の機能および構成を有するので、以下、略同一の構成要素については同一の符号を付けて相違点を除き説明を省略する。
図9は、第1変形例に係る操作用マーカ32の一例を示す図である。第1変形例に係る操作用マーカ32は、対応するARマーカ31とは独立して検出可能となっている。すなわち、第1変形例に係る操作用マーカ32は、ARマーカ31と同様に外枠部33を有する。
図10は、第1変形例に係る端末装置10の操作手順を示す図である。第1変形例では、ユーザ操作がされた場合において、端末装置10は、ステップS18の処理の前に、ステップS21を実行する。
ステップS21において、操作用マーカ検出部15は、操作用マーカ32の領域を、ARマーカ31とは独立に検出する。操作用マーカ検出部15は、一例として、ARマーカ31の検出処理と同様に、操作用マーカ32の領域を検出する。なお、操作用マーカ検出部15は、一度、操作用マーカ32の検出に成功した後は、操作用マーカ32の3次元位置を記憶しておき、以後、記憶した3次元位置の情報に基づき、操作用マーカ32に対してユーザが触れたことを検出する。この場合、操作用マーカ検出部15は、操作用マーカ32の3次元位置を、ARマーカ31との相対位置で記憶してもよい。これにより、操作用マーカ検出部15は、ARマーカ31と操作用マーカ32との相対位置が予め定められている場合と同様に処理を実行することができる。
このように第1変形例では、操作用マーカ32は、ARマーカ31に対して予め定められた位置に設けられていなくてよい。従って、第1変形例に係る端末装置10によれば、例えば、ARマーカ31と操作用マーカ32とを立体物の異なる側面に貼り付けるといったように、操作用マーカ32の貼り付け位置の自由度を高くすることができる。
図11は、第2変形例に係る操作用マーカ32の一例を示す図である。第2変形例において、操作用マーカ検出部15は、複数の撮像画像における操作用マーカ32の領域のそれぞれに対してのユーザ操作に基づき、操作用マーカ32に対するユーザの時間的な動きを検出する。そして、仮想物体制御部17は、ユーザの時間的な動きに応じて、仮想物体を変形させる。
第2変形例に係る操作用マーカ32は、例えば、予め定められた方向に並んだ複数の小領域を含む。それぞれの小領域は、例えば、ユーザの指等により隠される程度の大きさである。しかし、複数の小領域の全体は、ユーザの指では全部が隠れない程度の大きさである。
操作用マーカ検出部15は、複数の小さい領域中における隠れている領域を検出し、連続する撮像画像中において、隠れている領域が左から右に移動していれば、ユーザの指が操作用マーカ32を左から右へとなぞったと判定する。また、操作用マーカ検出部15は、連続する撮像画像中において、隠れている領域が右から左に移動していれば、ユーザの指が操作用マーカ32を右から左へとなぞったと判定する。
そして、仮想物体制御部17は、ユーザの指が操作用マーカ32を左から右へとなぞったと判断する場合には、例えば、仮想物体である本のページを左から右にめくるように変形させる。また、仮想物体制御部17は、ユーザの指が操作用マーカ32を右から左へとなぞったと判断する場合には、例えば、仮想物体である本のページを右から左にめくるように変形させる。さらに、この場合において、仮想物体制御部17は、ユーザの時間的な動きに応じた内容のアニメーションで、仮想物体を動作させてもよい。
このように第2変形例に係る端末装置10によれば、ユーザの動きをユーザ操作として検出して、ユーザの動きに応じて仮想物体の動作を変更することができる。
図12は、実施形態に係る端末装置10のハードウェアブロック図である。端末装置10は、カメラ101と、ディスプレイ102と、CPU(Central Processing Unit)103と、ROM(Read Only Memory)104と、RAM(Random Access Memory)105と、記憶装置106と、通信装置107とを備える。各部は、バスにより接続される。
カメラ101は、レンズ等の光学系、撮像素子および信号処理回路等を備え、被写体を撮像して画像データを出力する。カメラ101は、撮像部11に対応するハードウェアである。
ディスプレイ102は、LCD(Liquid Crystal Display)等の表示装置である。ディスプレイ102は、CPU103からの表示信号に基づいて情報を表示する。ディスプレイ102は、表示部19に対応するハードウェアである。
CPU103は、RAM105の所定領域を作業領域として、ROM104または記憶装置106に予め記憶された各種プログラムとの協働により各種処理を実行し、端末装置10を構成する各部の動作を統括的に制御する。また、CPU103は、ROM104または記憶装置106に予め記憶されたプログラムとの協働により、カメラ101、ディスプレイ102および通信装置107等を制御する。
ROM104は、不揮発性メモリであって、端末装置10の制御に用いられるプログラムおよび各種情報を記憶する。RAM105は、揮発性のメモリであって、CPU103の作業領域として機能する。
記憶装置106は、フラッシュメモリ等の半導体による記憶媒体、磁気的または光学的に記録可能な記憶媒体等の書き換え可能な記録装置である。記憶装置106は、端末装置10の制御に用いられるプログラムおよび各種情報等を記憶する。通信装置107は、外部の機器と通信して、各種の情報の入力および出力等に用いられる。
本実施形態の端末装置10で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、本実施形態の端末装置10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態の端末装置10で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、本実施形態の端末装置10で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
本実施形態の端末装置10で実行されるプログラムは、上述した端末装置10の各処理部(ARマーカ検出部13、操作用マーカ検出部15、操作検出部16、仮想物体制御部17および描画部18)を含むモジュール構成となっており、CPU103(プロセッサ)が記憶媒体等からプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、端末装置10の各部(ARマーカ検出部13、操作用マーカ検出部15、操作検出部16、仮想物体制御部17および描画部18)が主記憶装置上に生成されるようになっている。なお、端末装置10の一部または全部がハードウェアにより構成されていてもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能である。
10 端末装置
11 撮像部
12 マーカ情報記憶部
13 ARマーカ検出部
14 操作情報記憶部
15 操作用マーカ検出部
16 操作検出部
17 仮想物体制御部
18 描画部
19 表示部
30 マーカ
31 ARマーカ
32 操作用マーカ
33 外枠部
34 ID記述領域
40 仮想物体
101 カメラ
102 ディスプレイ
103 CPU
104 ROM
105 RAM
106 記憶装置
107 通信装置
特開2012−212343号公報 特許4977725号公報

Claims (14)

  1. 撮像画像から、仮想物体を表示させることを示す拡張現実マーカを検出する拡張現実マーカ検出部と、
    前記撮像画像から、前記拡張現実マーカに対応して設けられた操作用マーカの領域を検出する操作用マーカ検出部と、
    前記操作用マーカの領域から、前記操作用マーカに対するユーザ操作を検出する操作検出部と、
    前記拡張現実マーカに応じた仮想物体を前記ユーザ操作に応じて変形する仮想物体制御部と、
    前記変形した前記仮想物体を前記撮像画像に重畳して描画する描画部と、
    を備え
    前記操作検出部は、複数の前記撮像画像における前記操作用マーカの領域のそれぞれに対しての前記ユーザ操作に基づき、前記操作用マーカに対するユーザの時間的な動きを検出し、
    前記仮想物体制御部は、前記ユーザの時間的な動きに応じて、前記仮想物体を変形させる
    画像処理装置。
  2. 撮像画像から、仮想物体を表示させることを示す拡張現実マーカを検出する拡張現実マーカ検出部と、
    前記撮像画像から、前記拡張現実マーカに対応して設けられた操作用マーカの領域を検出する操作用マーカ検出部と、
    前記操作用マーカの領域から、前記操作用マーカに対するユーザ操作を検出する操作検出部と、
    前記拡張現実マーカに応じた仮想物体を前記ユーザ操作に応じて変形する仮想物体制御部と、
    前記変形した前記仮想物体を前記撮像画像に重畳して描画する描画部と、
    を備え、
    前記操作用マーカ検出部は、複数の前記撮像画像における前記操作用マーカの領域のそれぞれに対しての前記ユーザ操作に基づき、前記操作用マーカに対するユーザの時間的な動きを検出し、
    前記仮想物体制御部は、前記ユーザの時間的な動きに応じた内容のアニメーションで、前記仮想物体を動作させる
    画像処理装置。
  3. 撮像画像から、仮想物体を表示させることを示す拡張現実マーカを検出する拡張現実マーカ検出部と、
    前記撮像画像から、前記拡張現実マーカに対応して設けられた操作用マーカの領域を検出する操作用マーカ検出部と、
    前記操作用マーカの領域から、前記操作用マーカに対するユーザ操作を検出する操作検出部と、
    前記拡張現実マーカに応じた仮想物体を前記ユーザ操作に応じて変形する仮想物体制御部と、
    前記変形した前記仮想物体を前記撮像画像に重畳して描画する描画部と、
    を備え、
    前記操作用マーカ検出部は、複数の前記撮像画像における前記操作用マーカの領域のそれぞれに対しての、人間の身体の一部分の時間的な動きを前記ユーザ操作として検出し、
    前記仮想物体制御部は、前記人間の身体の一部分の時間的な動きに応じて前記仮想物体を変形させる
    画像処理装置。
  4. 前記操作用マーカは、前記拡張現実マーカに対して予め定められた位置に配置され、
    前記操作用マーカ検出部は、前記拡張現実マーカの領域の位置に基づき、前記撮像画像における前記操作用マーカの領域を検出する
    請求項1から3の何れか1項に記載の画像処理装置。
  5. 前記操作用マーカは、前記拡張現実マーカとは独立して検出可能であり、
    前記操作用マーカ検出部は、前記撮像画像から、前記拡張現実マーカとは独立に前記操作用マーカの領域を検出する
    請求項1から3の何れか1項に記載の画像処理装置。
  6. 前記操作検出部は、前記撮像画像における前記操作用マーカの領域の部分画像と、予め記憶された前記操作用マーカの参照画像との差分を検出し、前記差分が所定の閾値より大きい場合に、対応する前記操作用マーカに対して前記ユーザ操作がされたと判断する
    請求項1からの何れか1項に記載の画像処理装置。
  7. 前記操作検出部は、前記撮像画像における前記操作用マーカの領域に、人間の身体の一部分を検出した場合に、対応する前記操作用マーカに対してユーザ操作がされたと判断する
    請求項1からの何れか1項に記載の画像処理装置。
  8. 前記仮想物体制御部によって、前記仮想物体が重畳された前記撮像画像を表示する表示部
    をさらに備える請求項1から7の何れか1項に記載の画像処理装置。
  9. 撮像画像から、仮想物体を表示させることを示す拡張現実マーカを検出する拡張現実マーカ検出ステップと、
    前記撮像画像から、前記拡張現実マーカに対応して設けられた操作用マーカの領域を検出する操作用マーカ検出ステップと、
    前記操作用マーカの領域から、前記操作用マーカに対するユーザ操作を検出する操作検出ステップと、
    前記拡張現実マーカに応じた仮想物体を前記ユーザ操作に応じて変形する仮想物体制御ステップと、
    前記変形した前記仮想物体を前記撮像画像に重畳して描画する描画ステップと、
    を含み、
    前記操作検出ステップにおいて、複数の前記撮像画像における前記操作用マーカの領域のそれぞれに対しての前記ユーザ操作に基づき、前記操作用マーカに対するユーザの時間的な動きを検出し、
    前記仮想物体制御ステップにおいて、前記ユーザの時間的な動きに応じて、前記仮想物体を変形させる
    画像処理方法。
  10. 撮像画像から、仮想物体を表示させることを示す拡張現実マーカを検出する拡張現実マーカ検出ステップと、
    前記撮像画像から、前記拡張現実マーカに対応して設けられた操作用マーカの領域を検出する操作用マーカ検出ステップと、
    前記操作用マーカの領域から、前記操作用マーカに対するユーザ操作を検出する操作検出ステップと、
    前記拡張現実マーカに応じた仮想物体を前記ユーザ操作に応じて変形する仮想物体制御ステップと、
    前記変形した前記仮想物体を前記撮像画像に重畳して描画する描画ステップと、
    を含み、
    前記操作用マーカ検出ステップにおいて、複数の前記撮像画像における前記操作用マーカの領域のそれぞれに対しての前記ユーザ操作に基づき、前記操作用マーカに対するユーザの時間的な動きを検出し、
    前記仮想物体制御ステップにおいて、前記ユーザの時間的な動きに応じた内容のアニメーションで、前記仮想物体を動作させる
    画像処理方法。
  11. 撮像画像から、仮想物体を表示させることを示す拡張現実マーカを検出する拡張現実マーカ検出ステップと、
    前記撮像画像から、前記拡張現実マーカに対応して設けられた操作用マーカの領域を検出する操作用マーカ検出ステップと、
    前記操作用マーカの領域から、前記操作用マーカに対するユーザ操作を検出する操作検出ステップと、
    前記拡張現実マーカに応じた仮想物体を前記ユーザ操作に応じて変形する仮想物体制御ステップと、
    前記変形した前記仮想物体を前記撮像画像に重畳して描画する描画ステップと、
    を含み、
    前記操作用マーカ検出ステップにおいて、複数の前記撮像画像における前記操作用マーカの領域のそれぞれに対しての、人間の身体の一部分の時間的な動きを検出し、
    前記仮想物体制御ステップにおいて、前記人間の身体の一部分の時間的な動きに応じて前記仮想物体を変形させる
    画像処理方法。
  12. コンピュータを、画像処理装置として機能させるためのプログラムであって、
    前記コンピュータを、
    撮像画像から、仮想物体を表示させることを示す拡張現実マーカを検出する拡張現実マーカ検出部と、
    前記撮像画像から、前記拡張現実マーカに対応して設けられた操作用マーカの領域を検出する操作用マーカ検出部と、
    前記操作用マーカの領域から、前記操作用マーカに対するユーザ操作を検出する操作検出部と、
    前記拡張現実マーカに応じた仮想物体を前記ユーザ操作に応じて変形する仮想物体制御部と、
    前記変形した前記仮想物体を前記撮像画像に重畳して描画する描画部
    として機能させ
    前記操作検出部は、複数の前記撮像画像における前記操作用マーカの領域のそれぞれに対しての前記ユーザ操作に基づき、前記操作用マーカに対するユーザの時間的な動きを前記ユーザ操作として検出し、
    前記仮想物体制御部は、前記ユーザの時間的な動きに応じて、前記仮想物体を変形させる
    プログラム。
  13. コンピュータを、画像処理装置として機能させるためのプログラムであって、
    前記コンピュータを、
    撮像画像から、仮想物体を表示させることを示す拡張現実マーカを検出する拡張現実マーカ検出部と、
    前記撮像画像から、前記拡張現実マーカに対応して設けられた操作用マーカの領域を検出する操作用マーカ検出部と、
    前記操作用マーカの領域から、前記操作用マーカに対するユーザ操作を検出する操作検出部と、
    前記拡張現実マーカに応じた仮想物体を前記ユーザ操作に応じて変形する仮想物体制御部と、
    前記変形した前記仮想物体を前記撮像画像に重畳して描画する描画部、
    として機能させ、
    前記操作用マーカ検出部は、複数の前記撮像画像における前記操作用マーカの領域のそれぞれに対しての前記ユーザ操作に基づき、前記操作用マーカに対するユーザの時間的な動きを検出し、
    前記仮想物体制御部は、前記ユーザの時間的な動きに応じた内容のアニメーションで、前記仮想物体を動作させる
    プログラム。
  14. コンピュータを、画像処理装置として機能させるためのプログラムであって、
    前記コンピュータを、
    撮像画像から、仮想物体を表示させることを示す拡張現実マーカを検出する拡張現実マーカ検出部と、
    前記撮像画像から、前記拡張現実マーカに対応して設けられた操作用マーカの領域を検出する操作用マーカ検出部と、
    前記操作用マーカの領域から、前記操作用マーカに対するユーザ操作を検出する操作検出部と、
    前記拡張現実マーカに応じた仮想物体を前記ユーザ操作に応じて変形する仮想物体制御部と、
    前記変形した前記仮想物体を前記撮像画像に重畳して描画する描画部、
    として機能させ、
    前記操作用マーカ検出部は、複数の前記撮像画像における前記操作用マーカの領域のそれぞれに対しての、人間の身体の一部分の時間的な動きを前記ユーザ操作として検出し、
    前記仮想物体制御部は、前記人間の身体の一部分の時間的な動きに応じて前記仮想物体を変形させる
    プログラム。
JP2014024936A 2014-02-12 2014-02-12 画像処理装置、画像処理方法およびプログラム Active JP6323040B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014024936A JP6323040B2 (ja) 2014-02-12 2014-02-12 画像処理装置、画像処理方法およびプログラム
US14/611,450 US9846966B2 (en) 2014-02-12 2015-02-02 Image processing device, image processing method, and computer program product
EP15154658.7A EP2908239A1 (en) 2014-02-12 2015-02-11 Image processing device, image processing method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014024936A JP6323040B2 (ja) 2014-02-12 2014-02-12 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2015153046A JP2015153046A (ja) 2015-08-24
JP6323040B2 true JP6323040B2 (ja) 2018-05-16

Family

ID=52472196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014024936A Active JP6323040B2 (ja) 2014-02-12 2014-02-12 画像処理装置、画像処理方法およびプログラム

Country Status (3)

Country Link
US (1) US9846966B2 (ja)
EP (1) EP2908239A1 (ja)
JP (1) JP6323040B2 (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9552674B1 (en) * 2014-03-26 2017-01-24 A9.Com, Inc. Advertisement relevance
DE102014009303B4 (de) * 2014-06-26 2020-07-23 Audi Ag Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
US10198865B2 (en) 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
USD780768S1 (en) * 2014-10-06 2017-03-07 National Comprehensive Cancer Network Display screen or portion thereof with icon
USD772889S1 (en) 2014-10-06 2016-11-29 National Comprehensive Cancer Network Display screen or portion thereof with graphical user interface for clinical practice guidelines
USD770469S1 (en) * 2014-10-06 2016-11-01 National Comprehensive Cancer Network Display screen or portion thereof with icon
USD770468S1 (en) 2014-10-06 2016-11-01 National Comprehensive Cancer Network Display screen or portion thereof with graphical user interface for clinical practice guidelines
JP5812550B1 (ja) * 2014-10-10 2015-11-17 ビーコア株式会社 画像表示装置、画像表示方法及びプログラム
US20160232714A1 (en) * 2015-02-06 2016-08-11 Liberty Procurement Co. Inc. Apparatus, method and system for providing interactive multimedia content based on print media
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
DE102016105496A1 (de) * 2015-03-26 2016-09-29 Faro Technologies Inc. System zur Prüfung von Objekten mittels erweiterter Realität
US10192133B2 (en) 2015-06-22 2019-01-29 Seiko Epson Corporation Marker, method of detecting position and pose of marker, and computer program
JP2017016466A (ja) * 2015-07-02 2017-01-19 富士通株式会社 端末制御方法、画像生成方法、端末制御プログラム、及び端末
US10192361B2 (en) 2015-07-06 2019-01-29 Seiko Epson Corporation Head-mounted display device and computer program
US9652896B1 (en) 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
US10347048B2 (en) * 2015-12-02 2019-07-09 Seiko Epson Corporation Controlling a display of a head-mounted display device
US10163198B2 (en) * 2016-02-26 2018-12-25 Samsung Electronics Co., Ltd. Portable image device for simulating interaction with electronic device
US10981060B1 (en) 2016-05-24 2021-04-20 Out of Sight Vision Systems LLC Collision avoidance system for room scale virtual reality system
US10650591B1 (en) 2016-05-24 2020-05-12 Out of Sight Vision Systems LLC Collision avoidance system for head mounted display utilized in room scale virtual reality system
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
WO2018037666A1 (ja) 2016-08-24 2018-03-01 日本電気株式会社 情報処理装置、制御方法、及びプログラム
DE102016121281A1 (de) * 2016-11-08 2018-05-09 3Dqr Gmbh Verfahren und Vorrichtung zum Überlagern eines Abbilds einer realen Szenerie mit virtuellen Bild- und Audiodaten und ein mobiles Gerät
US10387730B1 (en) * 2017-04-20 2019-08-20 Snap Inc. Augmented reality typography personalization system
KR102428921B1 (ko) * 2017-09-22 2022-08-04 삼성전자주식회사 Ar 서비스를 제공하는 방법 및 디바이스
US11232636B2 (en) * 2018-02-08 2022-01-25 Edx Technologies, Inc. Methods, devices, and systems for producing augmented reality
US10528998B2 (en) * 2018-04-11 2020-01-07 Trivver, Inc. Systems and methods for presenting information related to products or services being shown on a second display device on a first display device using augmented reality technology
US11455750B2 (en) 2018-04-30 2022-09-27 Hewlett-Packard Development Company, L.P. Operator characteristic-based visual overlays
WO2020030156A1 (zh) * 2018-08-10 2020-02-13 广东虚拟现实科技有限公司 图像处理方法、终端设备及计算机可读介质
US10699488B1 (en) * 2018-09-07 2020-06-30 Facebook Technologies, Llc System and method for generating realistic augmented reality content
JP6535801B1 (ja) * 2018-10-16 2019-06-26 株式会社九州コーユー 拡張現実表示システム、拡張現実表示方法及びプログラム
US10983672B2 (en) * 2019-02-12 2021-04-20 Caterpilar Inc. Augmented reality model alignment
USD941835S1 (en) * 2019-06-21 2022-01-25 Sony Corporation Portion of display panel or screen with graphical user interface
EP3798986A1 (en) * 2019-09-27 2021-03-31 Apple Inc. Location aware visual markers
CN111654688B (zh) * 2020-05-29 2022-03-29 亮风台(上海)信息科技有限公司 一种获取目标控制参数的方法与设备
CN112927349B (zh) * 2021-02-22 2024-03-26 北京市商汤科技开发有限公司 三维虚拟特效的生成方法、装置、计算机设备及存储介质

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005242854A (ja) * 2004-02-27 2005-09-08 Nippon Telegr & Teleph Corp <Ntt> 3次元データの表示方法・装置およびプログラム
JP4902499B2 (ja) 2007-11-05 2012-03-21 株式会社リコー 画像表示装置、画像表示方法、および画像表示システム
JP2009118148A (ja) 2007-11-06 2009-05-28 Ricoh Co Ltd 画像表示装置、画像表示方法、画像表示プログラム及び記憶媒体
KR100927009B1 (ko) 2008-02-04 2009-11-16 광주과학기술원 증강 현실에서의 햅틱 상호 작용 방법 및 그 시스템
JP5413080B2 (ja) 2009-09-15 2014-02-12 株式会社リコー 画像処理装置及び画像処理方法
JP5423405B2 (ja) 2010-01-08 2014-02-19 株式会社リコー 画像処理システムおよび画像処理方法
EP2537141B1 (en) * 2010-06-10 2016-03-30 Sartorius Stedim Biotech GmbH Assembling method, operating method, augmented reality system and computer program product
JP5769392B2 (ja) * 2010-08-26 2015-08-26 キヤノン株式会社 情報処理装置およびその方法
JP5671349B2 (ja) * 2011-01-06 2015-02-18 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP5704963B2 (ja) * 2011-02-25 2015-04-22 任天堂株式会社 情報処理システム、情報処理方法、情報処理装置、及び情報処理プログラム
JP5765019B2 (ja) 2011-03-31 2015-08-19 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
JP4764957B1 (ja) * 2011-03-31 2011-09-07 株式会社Csk 電子書籍閲覧装置及び電子書籍閲覧プログラム
JP2012248096A (ja) * 2011-05-30 2012-12-13 Brother Ind Ltd 端末装置のプログラム、端末装置および端末装置の制御方法
US8749396B2 (en) * 2011-08-25 2014-06-10 Satorius Stedim Biotech Gmbh Assembling method, monitoring method, communication method, augmented reality system and computer program product
JP5791433B2 (ja) * 2011-08-31 2015-10-07 任天堂株式会社 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
JP5948842B2 (ja) * 2011-12-14 2016-07-06 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2013190950A (ja) 2012-03-13 2013-09-26 Ricoh Co Ltd 制御装置、及び起動方法
GB2500416B8 (en) * 2012-03-21 2017-06-14 Sony Computer Entertainment Europe Ltd Apparatus and method of augmented reality interaction
JP6048020B2 (ja) 2012-09-13 2016-12-21 株式会社リコー 情報処理装置
JP6194711B2 (ja) 2013-09-11 2017-09-13 株式会社リコー 画像形成装置、印刷方法及びプログラム
JP6364952B2 (ja) * 2014-05-23 2018-08-01 富士通株式会社 情報処理装置、情報処理システムおよび情報処理方法

Also Published As

Publication number Publication date
US9846966B2 (en) 2017-12-19
US20150228122A1 (en) 2015-08-13
JP2015153046A (ja) 2015-08-24
EP2908239A1 (en) 2015-08-19

Similar Documents

Publication Publication Date Title
JP6323040B2 (ja) 画像処理装置、画像処理方法およびプログラム
US10761612B2 (en) Gesture recognition techniques
US11308347B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
TW202119199A (zh) 虛擬鍵盤
Cruz et al. Kinect and rgbd images: Challenges and applications
JP6090140B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6007497B2 (ja) 画像投影装置ならびに画像投影制御装置およびプログラム
US10133342B2 (en) Human-body-gesture-based region and volume selection for HMD
JP5773944B2 (ja) 情報処理装置および情報処理方法
CN107992188B (zh) 虚拟现实交互方法、装置与系统
JP6723814B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
US10372229B2 (en) Information processing system, information processing apparatus, control method, and program
CN102460373A (zh) 表面计算机用户交互
WO2009054619A2 (en) Augmented reality computer device
CN112088348A (zh) 经由头部姿态远程控制显示设备的方法、系统和计算机程序
US10558850B2 (en) Body information analysis apparatus and method of simulating face shape by using same
JP2014029656A (ja) 画像処理装置および画像処理方法
Sharma et al. Air-swipe gesture recognition using OpenCV in Android devices
CN116917949A (zh) 根据单目相机输出来对对象进行建模
CN116686006A (zh) 基于可变形模型的三维扫描配准
Okamoto et al. Assembly assisted by augmented reality (A 3 R)
JP5348027B2 (ja) 動画像処理プログラム、及び動画像処理装置
KR101211178B1 (ko) 증강 현실 컨텐츠 재생 시스템 및 방법
Sobota et al. Mixed reality: a known unknown
JP6762544B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180326

R151 Written notification of patent or utility model registration

Ref document number: 6323040

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151