JP6600113B1 - Ar用の画像処理装置、画像処理システム及びプログラム - Google Patents

Ar用の画像処理装置、画像処理システム及びプログラム Download PDF

Info

Publication number
JP6600113B1
JP6600113B1 JP2019068670A JP2019068670A JP6600113B1 JP 6600113 B1 JP6600113 B1 JP 6600113B1 JP 2019068670 A JP2019068670 A JP 2019068670A JP 2019068670 A JP2019068670 A JP 2019068670A JP 6600113 B1 JP6600113 B1 JP 6600113B1
Authority
JP
Japan
Prior art keywords
image
mark
unit
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019068670A
Other languages
English (en)
Other versions
JP2020166741A (ja
Inventor
将次 江畑
娟 羅
Original Assignee
スターティアラボ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by スターティアラボ株式会社 filed Critical スターティアラボ株式会社
Priority to JP2019068670A priority Critical patent/JP6600113B1/ja
Application granted granted Critical
Publication of JP6600113B1 publication Critical patent/JP6600113B1/ja
Publication of JP2020166741A publication Critical patent/JP2020166741A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ARにおいて、オブジェクトを精度良く表示させる。【解決手段】画像処理装置は、オブジェクトを表示させる位置となる目印を示す目印画像を入力する目印画像入力部と、複数の時点で撮像して複数の入力画像を生成する撮像部と、それぞれの前記入力画像に対してフィルタ処理を行って第1画像を生成するフィルタ部と、前記第1画像における前記目印の特徴点を抽出する抽出部と、前記時点の変化に対して、前記特徴点を追跡する追跡部と、前記第1画像から、前記目印を含む範囲を切り出して第2画像を生成する切出部と、前記第2画像及び前記目印画像に基づいて、変換行列を生成する変換行列生成部と、前記変換行列に基づいて、前記入力画像に前記オブジェクトを合成して表示する表示部とを含む。【選択図】図3

Description

本発明は、AR用の画像処理装置、画像処理システム及びプログラムに関する。
AR(Augmented Reality、拡張現実)の技術により、撮像した画像等に、あらかじめ用意するオブジェクトを合成して表示する方法が知られている。
例えば、情報処理装置が、ARにより、現実空間を示す画像に対して仮想オブジェクトを適切に重畳して表示する方法等が知られている。この方法では、まず、情報処理装置は、入力画像を意味的な領域に分割する。次に、情報処理装置は、直前のフレームの入力画像及び現在のフレームの入力画像に対してオプティカルフロー(Optical Flow)を行う。このように、オプティカルフローを用いることで、情報処理装置は、実オブジェクトの次の移動を予測する。そして、情報処理装置は、仮想オブジェクトの表示領域を中心とする位置マップを作成する。次に、情報処理装置は、仮想オブジェクトの表示領域における表示領域内のスコアを重要度マップ等に基づいて総和計算する。このようにして、情報処理装置は、仮想オブジェクトを表示する位置を決定する。以上のような処理を行うことで、情報処理装置は、実オブジェクトの時間変化も考慮して仮想オブジェクトをより適切に表示させる。このような方法等が知られている(例えば、特許文献1等を参照)。
特開2016−95579号公報
しかし、従来技術による方法では、オブジェクトを精度良く表示させるのが難しい場合がある。具体的には、ARでは、画像処理装置は、あらかじめオブジェクトを表示させる目印となる文字、図形、記号、立体的形状、色彩又はこれらの組み合わせ(以下単に「目印」という。)に対して、オブジェクトを合成して表示する。すなわち、画像処理装置は、目印を示す画像をあらかじめ入力すること等で目印を認識し、目印を認識した位置等に基づいてオブジェクトを合成して表示する。これに対して、従来技術による方法では、目印に対して、オブジェクトが精度良く表示されない場合がある。
本発明は、上記課題に鑑み、ARにおいて、オブジェクトを精度良く表示させる画像処理装置、画像処理システム及びプログラム等を提供することを目的とする。
上記課題に鑑み、本発明の一実施形態に係る画像処理装置等は、
オブジェクトを表示させる位置となる目印を示す目印画像を入力する目印画像入力部と、
複数の時点で撮像して複数の入力画像を生成する撮像部と、
それぞれの前記入力画像に対してフィルタ処理を行って第1画像を生成するフィルタ部と、
前記第1画像における前記目印の特徴点を抽出する抽出部と、
前記時点の変化に対して、前記特徴点を追跡する追跡部と、
前記第1画像から、前記目印を含む範囲を切り出して第2画像を生成する切出部と、
前記第2画像及び前記目印画像に基づいて、変換行列を生成する変換行列生成部と、
前記変換行列に基づいて、前記入力画像に前記オブジェクトを合成して表示する表示部と
を含み、
前記変換行列に基づいて、前記第2画像を変換して変換画像を生成し、
前記目印画像と前記変換画像を比較して前記変換画像に前記目印があると判断すると、前記表示部は、前記オブジェクト及び前記目印の両方を前記変換行列の逆行列でそれぞれ変換して合成する
ARにおいて、オブジェクトを精度良く表示させる画像処理装置、画像処理システム及びプログラム等を提供できる。
画像処理装置の使用例を示す概要図である。 画像処理装置のハードウェア構成例を示すブロック図である。 画像処理装置が行う画像処理方法の例を示すフローチャートである。 画像処理方法の処理結果例を示す図である。 フィルタの例を示す図である。 フィルタ処理の第1変形例を示す図である。 フィルタ処理の第2変形例を示す図である。 特徴点の抽出例を示す図である。 特徴点の追跡例を示す図である。 切り出し例を示す図である。 変換行列を生成する処理例を示す図である。 目印画像と変換画像の比較例及び比較結果の例を示す図である。 出力画像の生成例を示す図である。 画像処理装置の機能構成例を示す機能ブロック図である。
以下、添付する図面を参照しながら、本発明の一実施形態に係る具体例を説明する。なお、図面では、同一の構成には同一の符号を付し、重複する説明を省略する。
<全体構成例>
図1は、画像処理装置の使用例を示す概要図である。以下、図示するように、画像処理装置がスマートフォン10である場合の例で説明する。スマートフォン10のハードウェア構成等は後述する。
この例のように、ユーザURは、スマートフォン10を使用してAR表示となる出力画像IMGVを画面上等に表示させる。一方で、ユーザURは、スマートフォン10が有する撮像装置を用いて、被写体11等を撮像する。なお、撮像は、シャッタを切る操作による静止画の形式でもよいし、連続して撮像する動画の形式でもよい。
以下、図示するようにスマートフォン10で目印を有する被写体11を撮像する場合を例に説明する。
<画像処理装置のハードウェア構成例>
図2は、画像処理装置のハードウェア構成例を示すブロック図である。例えば、画像処理装置は、図示するように、CPU(Central Processing Unit、以下「CPU10HW1」という。)、記憶装置10HW2、インタフェース10HW3、入出力装置10HW4、通信装置10HW5及び撮像装置10HW6等を含むハードウェア構成である。
CPU10HW1は、演算装置及び制御装置の例である。すなわち、CPU10HW1は、プログラム等に基づいて、処理を実行するため、演算又はハードウェア資源の制御等を行う。
記憶装置10HW2は、主記憶装置及び補助記憶装置等の例である。
インタフェース10HW3は、有線又は無線によって、外部装置又は記録媒体等と接続する。
入出力装置10HW4は、例えば、タッチパネル等である。すなわち、入出力装置10HW4は、ユーザURより操作を受け付ける入力装置である。また、入出力装置10HW4は、画像又は処理結果等を出力する出力装置である。
通信装置10HW5は、有線又は無線等により、ネットワークを介して外部装置とデータを送受信する装置である。例えば、通信装置10HW5は、アンテナ及び電子回路等である。
撮像装置10HW6は、例えば、光センサ及び光学部品等である。したがって、撮像装置10HW6は、ユーザURの操作等に基づいて撮像を行い、画像を生成する。
なお、ハードウェア構成は、図示するハードウェア構成に限られない。例えば、画像処理装置は、演算装置、制御装置、記憶装置、入力装置及び出力装置といった他のハードウェア資源を更に有する構成でもよい。一方で、撮像装置及び入出力装置等は、外部装置等でもよい。
また、画像処理装置は、他の種類の情報処理装置でもよい。例えば、画像処理装置は、PC(Personal Computer)、タブレット、又は、PCとカメラの組み合わせ等といった情報処理装置でもよい。
<画像処理方法の例>
図3は、画像処理装置が行う画像処理方法の例を示すフローチャートである。
<オブジェクト画像の入力例>(ステップS1)
当該ステップでは、画像処理装置は、オブジェクト画像を入力する。以下、オブジェクトを示す画像を「オブジェクト画像IMGO」という。
オブジェクト画像IMGOは、出力の際に、合成して表示するオブジェクトを示す画像である。オブジェクトは、例えば、3D画像、文字、図形、記号、立体的形状、色彩又はこれらの組み合わせ等である。すなわち、オブジェクトは、画像処理装置に画像で入力できる物体等であればよい。また、オブジェクトは、仮想的に表示させる物体等であるため、実在する必要はなく、CAD(Computer Aided Design)又はグラフィックツール等の描画ソフトウェアで生成された仮想的な物体等でもよい。
また、オブジェクト画像IMGOは、例えば、画像ファイル等の形式で入力される。例えば、オブジェクト画像IMGOは、オブジェクトを撮像する、又は、オブジェクトを描画ソフトウェアで生成する等によって生成される。
<目印画像の入力例>(ステップS2)
当該ステップでは、画像処理装置は、目印画像を入力する。以下、目印を示す画像を「目印画像IMGT」という。
目印画像IMGTは、オブジェクトを合成する際に、オブジェクトを表示する位置、姿勢及び範囲等を決める指標となる画像である。目印は、例えば、3D画像、文字、図形、記号、立体的形状、色彩又はこれらの組み合わせ等である。すなわち、目印は、画像処理装置に画像で入力できる物体等であればよい。また、目印は、画像において位置等が把握できれば良いため、実在する必要はなく、CAD又はグラフィックツール等の描画ソフトウェアで生成された仮想的な物体等でもよい。
すなわち、目印は、いわゆるマーカと呼ばれる絵柄等である。
また、目印画像IMGTは、例えば、画像ファイル等の形式で入力される。例えば、目印画像IMGTは、目印が描かれた物体を撮像する、又は、目印を描画ソフトウェアで生成する等によって生成される。
<撮像例>(ステップS3)
当該ステップでは、画像処理装置は、撮像により画像を生成する。以下、撮像によって生成される画像を「入力画像IMGI」という。また、入力画像IMGIは、画像処理装置が複数回、シャッタを切ることで、複数のフレームであるとする。以下、複数生成される入力画像IMGIのうち、最近のフレームを「現フレーム」という場合がある。そして、現フレームより以前となるフレームを「前フレーム」という場合がある。以下の説明では、フレームレートが約15fps(フレーム毎秒)乃至60fps程度であるとする。そして、以下の例では「前フレーム」及び「現フレーム」が連続したフレームである場合を例に説明する。
なお、撮像は、フリッカー(Flicker)対策として、照明が点灯する周波数の倍率からずれたフレームレートであるのが望ましい。具体的には、15fps、30fps又は60fps等のフレームレートであると、60Hz(ヘルツ)等の周波数と同期して撮像される可能性である。したがって、フレームレートは、0.1fps乃至0.5fps程度ずらした値に設定されるのが望ましい。
<フィルタ処理例>(ステップS4)
当該ステップでは、画像処理装置は、入力画像に対してフィルタ処理を行う。フィルタ処理の詳細及び変形例等は後述する。
以下、入力画像IMGIに対してフィルタ処理を行うと生成される画像を「第1画像IMG1」という。
<特徴点の抽出例>(ステップS5)
当該ステップでは、画像処理装置は、第1画像IMG1に対して、特徴点を抽出する処理を行う。特徴点を抽出する処理の詳細は後述する。
以下、特徴点を抽出する処理によって、第1画像IMG1から抽出される特徴点を「特徴点PS」という。なお、特徴点PSは、1フレームの第1画像IMG1から複数抽出されてもよい。
したがって、特徴点の抽出には、一般化ハフ変換等が用いられてもよい。つまり、特徴点は、点(すなわち、1画素分となる。)の単位でなく、円又は線のような複数の特徴点を集めた単位で抽出されてもよい。このような単位で抽出されると、画像処理装置は、より精度よく特徴点を抽出できる。
<特徴点の追跡例>(ステップS6)
当該ステップでは、画像処理装置は、抽出された特徴点を追跡する。特徴点を追跡する処理の詳細は後述する。以下、前フレームの第1画像(以下単に「前フレーム画像IMG11」という。)、及び、現フレームの第1画像(以下単に「現フレーム画像IMG12」という。)に同一の特徴点PSがある場合を例に説明する。
<目印を含む範囲の切り出し例>(ステップS7)
当該ステップでは、画像処理装置は、目印を含む範囲を切り出して画像を生成する。以下、切り出して生成する画像を「第2画像IMG2」という。切り出しの詳細は後述する。
<第2画像及び目印画像に基づく変換行列の生成例>(ステップS8)
当該ステップでは、画像処理装置は、第2画像及び目印画像に基づいて、変換行列を生成する。変換行列の具体例及び変換行列を生成する処理の詳細は後述する。
<変換行列に基づく第2画像の変換例>(ステップS9)
当該ステップでは、画像処理装置は、変換行列に基づいて、第2画像を変換する。以下、変換行列に基づく変換によって生成される画像を「変換画像IMGC」という。変換の詳細は後述する。
<目印画像と変換画像の比較例>(ステップS10)
当該ステップでは、画像処理装置は、目印画像と変換画像を比較する。目印画像と変換画像を比較する処理の詳細は後述する。
<目印があるか否かの判断例>(ステップS11)
当該ステップでは、画像処理装置は、目印画像及び変換画像の比較結果に基づいて、目印があるか否かを判断する。
そして、目印が画像内にあると判断すると(ステップS11でYESに相当する。)、画像処理装置は、ステップS12に進む。一方で、目印が画像内にないと判断すると(ステップS11でNOに相当する。)、画像処理装置は、ステップS3に進む。
<入力画像の目印の箇所へオブジェクトを合成して表示する例>(ステップS12)
当該ステップでは、画像処理装置は、入力画像の目印の箇所へオブジェクトを合成して表示する。以下、オブジェクトを合成した結果を示す画像、すなわち、出力される画像を「出力画像IMGV」という。出力画像IMGV及び合成等の具体例は詳細を後述する。
<終了するか否かの判断例>(ステップS13)
当該ステップでは、画像処理装置は、終了するか否かを判断する。すなわち、画像処理装置は、設定又はスイッチ等に基づいて、次のフレームに進むか否かを判断する。
次に、終了すると判断すると(ステップS13でYESに相当する。)、画像処理装置は、図示する画像処理方法を終了する。一方で、終了しないと判断すると(ステップS13でNOに相当する。)、画像処理装置は、ステップS3に進む。
なお、図示する処理における各ステップは、連続して行われなくともよい。例えば、オブジェクト画像の入力及び目印画像の入力等は、一度行われ、画像が保存された場合には、以降に使い回されてもよい。すなわち、ステップS1及びステップS2等は、省略されてもよい。
また、画像処理方法は、図示する処理の順序に限られない。例えば、ステップS1及びステップS2は、並行、又は、図示する順序とは逆の順序等でもよい。
<画像処理方法の処理結果例>
図4は、画像処理方法の処理結果例を示す図である。図3に示す画像処理方法が行われると、例えば、図示するような処理結果となる。
出力画像IMGVは、図示するように、入力画像IMGIにおいて、目印がある箇所へオブジェクトを合成するようにして生成される。
まず、入力画像IMGIに、第1被写体TG1、第2被写体TG2及び第3被写体TG32という3つの被写体が写る場合の例とする。
また、この例では、ステップS1及びステップS2により、図示するような目印画像IMGT及びオブジェクト画像IMGOが、画像処理装置にあらかじめ入力されるとする。すなわち、この例は、目印画像IMGTが示す目印TG31がある箇所へオブジェクト画像IMGOが示すオブジェクトTG41を合成させて表示する設定となる。
入力画像IMGIには、図示するように、オブジェクトTG41は、被写体としては存在しない。そこで、目印TG31を認識した上で、画像処理装置は、ARによりオブジェクトTG41を合成する。このようにすると、出力画像IMGV上では、画像処理装置は、オブジェクトTG41を表示できる。
具体的には、図示するような入力画像IMGI及び目印画像IMGTである場合には、画像処理装置は、ステップS4乃至ステップS10等を行うと、入力画像IMGIに、目印が含まれていることを認識できる(ステップS11でYESに相当する)。そのため、認識した目印TG31を示す第3被写体TG32に合わせて、画像処理装置は、オブジェクトTG41を合成できる(ステップS12)。
図示するように、画像処理装置は、目印TG31を精度良く認識できるため、入力画像IMGIに、第1被写体TG1及び第2被写体TG2等の目印となる以外の物体等があっても、第3被写体TG32のある箇所にオブジェクトTG41を合成できる。
また、図示する例は、目印TG31と第3被写体TG32の姿勢及び大きさが異なる例である。具体的には、第3被写体TG32は、入力画像IMGIにおいて、目印画像IMGTが示す目印TG31より大きく写っている。さらに、第3被写体TG32は、目印画像IMGTが示す目印TG31に対して、いわゆるPitch角(図において、横方向を軸とした回転方向である。)がある姿勢で写っている。
このように、目印画像IMGTに対して、いわゆるパースがある状態であっても、画像処理装置は、目印TG31を精度良く認識できる。
また、第3被写体TG32の姿勢及び大きさ等を認識できるため、図示するように、画像処理装置は、第3被写体TG32の姿勢及び大きさに合わせて、オブジェクトTG41を変換して、変換オブジェクトTG42を表示させることができる。
<各手順の詳細>
画像処理方法における各手順は、例えば、以下のような処理である。
<フィルタ処理及びフィルタ処理で用いられるフィルタの例>
図5は、フィルタの例を示す図である。上記の画像処理方法におけるステップS4では、例えば、図示するようなフィルタを用いる。
図示する例は、フィルタを3×3とする例である。フィルタの各マスには、例えば、それぞれの画素値に対して乗じる乗数が、図示するような値で設定される。具体的には、画像処理装置は、入力画像が有するそれぞれの画素値に対して、中心となる画素(図では、「41」の乗数が設定される位置にある画素となる。)の画素値を「41」の乗数を乗じる計算を行う。同様に、画像処理装置は、中心となる画素の上下左右に隣接する画素(図では、「−10」の乗数が設定される位置にある画素となる。)の画素値を「−10」の乗数を乗じる計算を行う。そして、画像処理装置は、このように計算される計算結果を総和する。このような処理を画像におけるすべての画素に対して行う、すなわち、いわゆるラスタスキャンのように行うと、画像処理装置は、いわゆるシャープネスの効果を得た第1画像を生成できる。
なお、フィルタは、図示するような種類に限られない。例えば、乗数は、図示する以外の値が用いられてもよい。すなわち、乗数の値を図示する値から変更することで、シャープネスの強度が調整されてもよい。さらに、フィルタ処理は、複数回行われてもよい。すなわち、より強調する場合等には、シャープネス用のフィルタ等を用いて、フィルタ処理が2回以上行われてもよい。
また、フィルタは、3×3のサイズに限られず、5×5以上の大きいサイズのフィルタでもよい。
<フィルタ処理の第1変形例>
図6は、フィルタ処理の第1変形例を示す図である。上記の画像処理方法におけるステップS4は、例えば、図示する処理でもよい。図示するように、第1変形例では、ステップS4のフィルタ処理を第1フィルタ処理及び第2フィルタ処理の2段階とする。
<第1フィルタ処理>(ステップS41)
当該ステップでは、画像処理装置は、ノイズを減らすためのフィルタ処理を行う。具体的には、画像処理装置は、例えば、メディアンフィルタ等を用いて第1フィルタ処理を行う。なお、フィルタは、ノイズを減らすフィルタであればよい。したがって、フィルタは、ローパスフィルタ等でもよい。
撮像によって生成される入力画像IMGIには、ノイズとなる成分が入っている場合が多い。パターンマッチング等の処理では、このようなノイズとなる画素があると、ノイズの画素がマッチングされる等の現象が起きやすい。そのため、マッチング精度が悪くなる等の原因となる。そこで、ノイズを減らすフィルタを用いるフィルタ処理を行うと、フィルタ処理より後段の処理では、パターンマッチング等の認識精度を向上させることができる。
以下、入力画像IMGIに対して第1フィルタ処理を行うことで生成される画像を「第3画像IMG3」という。
<第2フィルタ処理>(ステップS42)
当該処理では、画像処理装置は、RGB色空間におけるG成分を強調させるためのフィルタ処理を行う。まず、第1フィルタ処理によって、第3画像IMG3が生成されると、第3画像IMG3は、RGB色空間において、R成分(赤色の成分となる。)、G成分(緑色の成分となる。)、及び、B成分(青色の成分となる。)の3つのプレーンに分けることができる。
以下、第3画像IMG3のR成分を示すプレーンを「R成分IMG3R」という。同様に、第3画像IMG3のG成分を示すプレーンを「G成分IMG3G」という。さらに、第3画像IMG3のB成分を示すプレーンを「B成分IMG3B」という。なお、R成分IMG3R、G成分IMG3G及びB成分IMG3Bは、例えば、画像と同様のデータ形式等である。したがって、R成分IMG3R、G成分IMG3G及びB成分IMG3Bに対しては、他の画像と同様の方法でフィルタ処理等が可能である。
第2フィルタ処理は、R成分IMG3R、G成分IMG3G及びB成分IMG3Bのうち、G成分IMG3Gに対して行われるのが望ましい。
フィルタ処理(ステップS4)によって生成される第1画像IMG1は、フィルタ処理より後段では、画像の比較、画像に写る被写体を認識する処理、特徴点の抽出及び追跡等の処理が行われる。このような処理では、エッジ成分又は輝度成分等を用いる場合が多い。輝度成分(以下「Y成分」という。)は、RGB成分からすると、例えば、下記(1)式又は下記(2)式のように計算される。

Y=0.299×R+0.587×G+0.114×B (1)

Y=0.2126×R+0.7152×G+0.0722×B (2)

上記(1)式及び上記(2)式に示すように、Y成分(上記(1)式及び上記(2)式における左辺「Y」である。)は、RGB成分からすると、G成分(上記(1)式及び上記(2)式における右辺「G」である。)の割合が5割乃至8割程度となる場合が多い。すなわち、G成分は、Y成分に与える影響が大きい成分である。
そこで、第2フィルタ処理では、画像処理装置は、第1画像IMG1において、Y成分が際立つように、G成分IMG3Gを強調するフィルタ処理を行う。例えば、画像処理装置は、G成分IMG3Gに対してシャープネスフィルタ等を用いる処理を行う。このようにすると、画像処理装置は、G成分を強調した第1画像IMG1を生成できる。
このように、G成分を強調した第1画像IMG1又はG成分を強調した第1画像IMG1に基づいて生成される画像に対して、画像の比較、画像に写る被写体を認識する処理、特徴点の抽出及び追跡等の処理が行われると、エッジ又は特徴点等がはっきりしているため、処理の精度を向上させることができる。
<フィルタ処理の第2変形例>
図7は、フィルタ処理の第2変形例を示す図である。上記の画像処理方法におけるステップS4は、例えば、図示する処理でもよい。第1変形例と比較すると、第2変形例は、第2フィルタ処理が、YUV色空間で行われる点が異なる。以下、第1変形例と同一の構成には、同一の符号を付し、重複する説明を省略して異なる点を中心に説明する。
図示するように、第2変形例では、第3画像IMG3は、YUV色空間において、Y成分(輝度の成分となる。)、U成分(R成分からY成分を除いた、いわゆるCr成分となる。以下「Cr成分」という。)、及び、V成分(B成分からY成分を除いた、いわゆるCb成分となる。以下「Cb成分」という。)の3つのプレーンに分けることができる。
したがって、入力画像IMGI等がRGB色空間のデータ形式である場合には、画像処理装置は、RGBのデータをYUVのデータに変換する処理を行う。例えば、変換式は、PAL(phase alternating line)、SECAM(セカム)、ITU−R BT.601、ITU−R BT.709(1250/50/2:1)、又は、ITU−R BT.709(1125/60/2:1)等で定められる変換式等が用いられる。
以下、第3画像IMG3のY成分を示すプレーンを「Y成分IMG3Y」という。同様に、第3画像IMG3のCr成分を示すプレーンを「Cr成分IMG3CR」という。さらに、第3画像IMG3のCb成分を示すプレーンを「Cb成分IMG3CB」という。なお、Y成分IMG3Y、Cr成分IMG3CR及びCb成分IMG3CBは、例えば、画像と同様のデータ形式等である。したがって、Y成分IMG3Y、Cr成分IMG3CR及びCb成分IMG3CBに対しては、他の画像と同様の方法でフィルタ処理等が可能である。
第2フィルタ処理は、Y成分IMG3Y、Cr成分IMG3CR及びCb成分IMG3CBのうち、Y成分IMG3Yに対して行われるのが望ましい。
第1変形例と同様に、第2変形例のフィルタ処理(ステップS4)によって生成される第1画像IMG1であっても、フィルタ処理より後段では、第1画像IMG1に対して、画像の比較、画像に写る被写体を認識する処理、特徴点の抽出及び追跡等の処理が行われる。そのため、第1画像IMG1は、Y成分が強調されているのが望ましい。
そこで、図示するようなフィルタ処理を行うと、画像処理装置は、Y成分を強調した第1画像IMG1を生成できる。
このように、Y成分を強調した第1画像IMG1又はY成分を強調した第1画像IMG1に基づいて生成される画像に対して、画像の比較、画像に写る被写体を認識する処理、特徴点の抽出及び追跡等の処理が行われると、エッジ又は特徴点等がはっきりしているため、処理の精度を向上させることができる。
また、YUV422又はYUV411等のように、U成分、V成分又は両方の成分をY成分のデータより少なくしたデータ形式にすると、あまり画質を下げずに、データ容量を少なくできる。
そして、U成分及びV成分は、空間分解能が低い、すなわち、データがY成分より間引かれても、人の目における画質にはあまり影響しない場合が多い。そこで、U成分、V成分又は両方の成分に対して、画像処理装置は、更にローパスフィルタ等を用いる処理を行い、ノイズを減らす処理が行ってもよい。
なお、YUV色空間は、YCbCr色空間、YPbPr色空間又はLab色空間等でもよい。すなわち、YUVの成分は、YCbCr、YPbPr又はLabの成分であってもよい。
<特徴点の抽出例>
図8は、特徴点の抽出例を示す図である。上記の画像処理方法におけるステップS5は、例えば、図示するような処理である。
特徴点の抽出は、例えば、KPM(Key Point Matching)等で実現する。すなわち、あらかじめ入力される画像(以下「参照画像」という。)と同一のエッジ又は画素値等があると、画像処理装置は、特徴点として抽出する。そして、図示するように、第1画像IMG1に対して、KPM等の処理が行われると、特徴点PSが抽出される。また、特徴点を抽出すると、画像処理装置は、以降の処理において、抽出されたそれぞれの特徴点PSを認識できる。したがって、特徴点PSを抽出すると、画像処理装置は、特徴点PSの位置及び構成等に基づいて、目印等の第1画像IMG1等に写る被写体を認識できる。そして、特徴点PSの抽出結果により、以降の処理では、画像内に目印の有無又は目印の位置等を認識できる。
なお、特徴点の抽出は、AKAZE(Accelerated KAZE Features)又はORB(Oriented FAST and Rotated BRIEF)のアルゴリズムで抽出を行うのが望ましい。
AKAZEのアルゴリズムであると、画像処理装置は、低周波領域及び高周波領域等において、ORB等より精度良く抽出ができる。
ORBのアルゴリズムであると、画像処理装置は、特徴点を抽出する処理の対象となる画像、すなわち、第1画像IMG1が、参照画像に対して移動、回転、拡大縮小又はこれらの組み合わせがあっても、精度良く抽出ができる。すなわち、ORBのアルゴリズムを用いると、画像処理装置は、移動、回転又は拡大縮小等に対して高いロバスト性を確保できる。また、ORBのアルゴリズムであると、画像処理装置は、高速に処理できる。
なお、特徴点PSは、上記以外の方法で抽出されてもよい。例えば、特徴点PSは、エッジを抽出するフィルタ等で抽出されてもよい。
<特徴点の追跡例>
図9は、特徴点の追跡例を示す図である。上記の画像処理方法におけるステップS6は、例えば、図示するような処理である。
特徴点PSの追跡は、例えば、オプティカルフロー等で実現する。以下、図示するように、第1画像が、前フレーム画像IMG11、現フレーム画像IMG12及び現フレームの次のフレーム画像(以下「次フレーム画像IMG13」という。)という順で撮像されたとする。
オプティカルフローを用いると、図示するように、特徴点PSが前フレーム画像IMG11、現フレーム画像IMG12及び次フレーム画像IMG13の間でどのように移動しているかを追跡できる。したがって、目印の特徴点PSを追跡すると、画像処理装置は、目印となる箇所を追跡できるため、精度良くオブジェクトを目印の位置に合成できる。
例えば、オプティカルフローは、Lucas−Kanade法等で実現する。
なお、オプティカルフローの処理結果に基づいて、出力画像において、オブジェクトを出力するか否かが判断されてもよい。具体的には、オプティカルフローの処理結果に基づいて、目印の特徴点PSを有する被写体が、画像が示す範囲外に移動した場合等がある。いわゆる被写体がフレームアウトした場合等である。このような場合には、画像処理装置は、オプティカルフローの処理結果に基づいて、オブジェクトを出力する等といったステップS7以降の処理を省略して次のフレーム(ステップS3)に進んでもよい。
<切り出し例>
図10は、切り出し例を示す図である。上記の画像処理方法におけるステップS7は、例えば、図示するような処理である。以下、図4と同様の被写体が写る場合であって、目印画像も同様の画像である場合を例に説明する。なお、図示する例では、第1画像IMG1には、フィルタ処理の結果を図面に反映せず、図4に示す入力画像IMGIと同様の画像を第1画像IMG1として説明する。
切り出しの処理では、画像処理装置は、第1画像IMG1に写る第1被写体TG1、第2被写体TG2及び第3被写体TG32の被写体のうち、第3被写体TG32、すなわち、目印の特徴点を含む範囲を切り出して第2画像IMG2を生成する。
すなわち、第2画像IMG2は、例えば、目印の特徴点をすべて含む画像(マージンが設定されてもよい。)又は目印と認識される被写体の画素をすべて含むようなサイズに切り出すことで生成される。
図示するように、第2画像IMG2は、第1画像IMG1等と比較するとサイズが小さい。すなわち、第2画像IMG2は、第1画像IMG1等と比較すると画素が少ない画像である。また、第2画像IMG2は、第1画像IMG1等と比較すると第1被写体TG1等が写っていない画像である。したがって、以降の処理において、第2画像IMG2を用いると、画像処理装置は、第1画像IMG1等を用いる場合と比較して、画素数等が少ないため、計算コストを少なくできる、又は、高速にマッチングの処理を行うことができる。
<変換行列を生成する処理及び変換行列に基づく変換例>
図11は、変換行列を生成する処理例を示す図である。上記の画像処理方法におけるステップS8及びステップS9は、例えば、図示するような処理である。
例えば、変換行列MX1は、図示するように、3行3列の行列である。そして、変換行列MX1は、図示するように、対象となる画像を射影変換させる行列である。
変換行列MX1を用いる変換を行うと、図示するように、第2画像IMG2は、変換画像IMGCとなる。変換画像IMGCは、図示するように、目印画像IMGTが示す被写体(すなわち、目印となる。)と、被写体がほぼ同じ大きさ及び姿勢等となるように変換された画像である。
以下、第2画像IMG2は、第1特徴点PS1、第2特徴点PS2及び第3特徴点PS3の3つの特徴点が抽出されたとする。目印画像IMGTにも、同様に第1特徴点PS1、第2特徴点PS2及び第3特徴点PS3の3つの特徴点があるとする。
そのため、目印画像IMGTにおける第1特徴点PS1、第2特徴点PS2及び第3特徴点PS3が、第2画像IMG2上のどこの画素に位置するかは、第2画像IMG2において、第1特徴点PS1、第2特徴点PS2及び第3特徴点PS3をそれぞれ検索する等によって特定できる。したがって、画像処理装置は、第2画像IMG2上の第1特徴点PS1、第2特徴点PS2及び第3特徴点PS3をどのように変換すると、目印画像IMGTにおける第1特徴点PS1、第2特徴点PS2及び第3特徴点PS3の位置とほぼ同様の位置に変換できるかを計算できる。このような計算結果により、画像処理装置は、変換行列MX1を生成できる。すなわち、画像処理装置は、いわゆるホモグラフィ推定等によって、変換行列MX1を生成する。
次に、生成した変換行列MX1に基づいて、画像処理装置は、第2画像IMG2を変換して変換画像IMGCを生成する。
このように、画像処理装置は、変換行列MX1によって第2画像IMG2を射影変換する。このような変換を行うと、図示するように、第2画像IMG2に写る被写体を引き延ばす等によって、目印画像IMGTと同じような状態の被写体にすることができる。このようにすると、比較等の処理において、第2画像IMG2に写る目印は、目印画像IMGTと同じような位置、大きさ及び姿勢等となる状態となる。そのため、目印画像IMGTが示す目印に対して、拡大縮小、回転及びパース等があまりなく、ORB又はAKAZE等のアルゴリズム等を用いるマッチング精度が高くできる。
<目印画像と変換画像の比較例>
図12は、目印画像と変換画像の比較例及び比較結果の例を示す図である。上記の画像処理方法におけるステップS10は、例えば、図示するような処理である。
図示するように、画像処理装置は、目印画像IMGTと変換画像IMGCを比較する。このように比較すると、画像処理装置は、変換画像IMGCが目印の画像であるか否かを判断できる。
以下、図示するように、変換画像IMGCには、4点の特徴点等である、第1点SP1、第2点SP2、第3点SP3及び第4点SP4等があるとする。そして、第1点SP1、第2点SP2、第3点SP3及び第4点SP4は、比較等の処理に特徴点画像IMGSにおいて、座標が特定されているとする。
<入力画像にオブジェクトを合成して出力画像を生成する例>
図13は、出力画像の生成例を示す図である。以下、説明のため、特徴点等が図示されている特徴点画像IMGSを用いる場合を例に説明する。ただし、合成に用いる画像は、特徴点画像IMGSのように、第1点SP1、第2点SP2、第3点SP3及び第4点SP4が図示されている必要はなく、第2画像IMG2等でもよい。
まず、画像処理装置は、変換行列の逆行列を計算すると、逆行列の例である逆変換行列MX2を計算できる。
次に、画像処理装置は、逆変換行列MX2を用いて、特徴点画像IMGSを射影変換する。このようにすると、図示するように、変換特徴点画像IMGS2を生成できる。
続いて、画像処理装置は、逆変換行列MX2を用いて、オブジェクト画像IMGOを射影変換する。このようにすると、図示するように、変換オブジェクト画像IMGO2を生成できる。
上記のように、同じ行列である逆変換行列MX2を用いて、両方の変換を行うと、変換特徴点画像IMGS2及び変換オブジェクト画像IMGO2は、同じ変換によって生成される。そのため、変換特徴点画像IMGS2及び変換オブジェクト画像IMGO2では、目印及びオブジェクトが、同じような大きさ及び姿勢になりやすい。ゆえに、画像処理装置は、オブジェクトを目印に対してより自然な形となるように合成できる。
以上のように合成すると、画像処理装置は、例えば、図4のように、オブジェクトを目印のある箇所に精度良く合成した出力画像IMGVを表示できる。
<機能構成例>
図14は、画像処理装置の機能構成例を示す機能ブロック図である。例えば、画像処理装置は、図示するように、目印画像入力部10F1と、撮像部10F2と、フィルタ部10F3と、抽出部10F4と、追跡部10F5と、切出部10F6と、変換行列生成部10F7と、表示部10F8とを含む機能構成である。
また、図示するように、フィルタ部10F3は、第1フィルタ部10F31及び第2フィルタ部10F32等を含む機能構成であるのが望ましい。
さらに、図示するように、画像処理装置は、再抽出部10F9及び計算部10F10等を更に含む機能構成であるのが望ましい。以下、図示するような機能構成を例に説明する。
目印画像入力部10F1は、オブジェクトを表示させる位置等となる目印を示す目印画像を入力する目印画像入力手順を行う。例えば、目印画像入力部10F1は、インタフェース10HW3等で実現する。
撮像部10F2は、複数の時点で撮像して複数の入力画像を生成する撮像手順を行う。例えば、撮像部10F2は、撮像装置10HW6等で実現する。
フィルタ部10F3は、それぞれの入力画像に対してフィルタ処理を行って第1画像を生成するフィルタ手順を行う。例えば、フィルタ部10F3は、CPU10HW1等で実現する。
第1フィルタ部10F31は、入力画像に対して、メディアンフィルタ等を用いる第1フィルタ手順を行う。
第2フィルタ部10F32は、第1フィルタ部10F31が第1フィルタ処理手順を行うことで生成する第3画像に対して、RGB色空間におけるG成分を強調するシャープネスフィルタを用いる第2フィルタ処理手順を行う。又は、第2フィルタ部10F32は、第1フィルタ部10F31が第1フィルタ処理手順を行うことで生成する第3画像に対して、YUV色空間におけるY成分を強調するシャープネスフィルタを用いる第2フィルタ処理手順を行う。
抽出部10F4は、第1画像における目印の特徴点を抽出する抽出手順を行う。例えば、抽出部10F4は、CPU10HW1等で実現する。
追跡部10F5は、時点の変化に対して、抽出部10F4が抽出する特徴点を追跡する追跡手順を行う。例えば、追跡部10F5は、CPU10HW1等で実現する。
切出部10F6は、第1画像から、目印を含む範囲を切り出して第2画像を生成する切出手順を行う。例えば、切出部10F6は、CPU10HW1等で実現する。
変換行列生成部10F7は、第2画像及び目印画像に基づいて、変換行列を生成する変換行列生成手順を行う。例えば、変換行列生成部10F7は、CPU10HW1等で実現する。
表示部10F8は、変換行列に基づいて、入力画像にオブジェクトを合成して表示する表示手順を行う。例えば、表示部10F8は、入出力装置10HW4等で実現する。
再抽出部10F9は、第2画像における特徴点を抽出する再抽出手順を行う。例えば、再抽出部10F9は、CPU10HW1等で実現する。
計算部10F10は、再抽出部10F9が抽出した特徴点に基づいて、撮像部10F2の傾き及び目印までの距離を計算する計算手順を行う。例えば、計算部10F10は、CPU10HW1等で実現する。
<まとめ>
まず、画像処理装置は、ARによって表示させるオブジェクトを示すオブジェクト画像を入力する。さらに、画像処理装置は、オブジェクトを表示させる位置等の目印を示す目印画像を入力する。このように、オブジェクト画像及び目印画像があらかじめ入力されると、画像処理装置は、目印を認識して、オブジェクトを表示させることができる。
次に、画像処理装置は、撮像により、オブジェクトを合成する対象となる入力画像を生成する。
例えば、フィルタ部10F3は、図5に示すフィルタ等によってフィルタ処理を行う。なお、フィルタ部10F3は、第1フィルタ部10F31及び第2フィルタ部10F32等によって、例えば、図6又は図7のように、G成分又はY成分を強調するようなフィルタ処理を行ってもよい。
そして、フィルタ部10F3によるフィルタ処理によって第1画像が生成されると、画像処理装置は、目印が有する特徴点を例えば図8のように抽出する。続いて、画像処理装置は、例えば、図9に示すように、抽出した特徴点をフレーム間において追跡する。
次に、画像処理装置は、例えば、図10に示すように、第1画像において、目印を含む範囲を切り出して第2画像を生成する。このようにすると、小さいサイズの画像を生成できる。そのため、以降の処理において、計算の対象となる画素を減らすことができ、計算コストを小さくできる。
さらに、画像処理装置は、例えば、図11に示すように、目印画像及び第2画像において、同一とされる特徴点等を用いることで、変換行列を生成する。このように、変換行列を生成すると、画像処理装置は、変換行列による変換をすることで、図12に示すように、変換画像に写る被写体と目印画像が示す目印を同じような大きさ及び姿勢等にして比較できる。そのため、入力画像において、撮像装置が傾いていたり、又は、被写体に対して距離があったりして目印を有する被写体が小さく入力画像に写る等したりしても、画像処理装置は、目印を精度良く認識できる。
また、変換行列に基づいて逆行列を生成すると、画像処理装置は、例えば、図13に示すようにオブジェクトを入力画像に合成でき、自然なARの表示を行うことができる。
なお、再抽出及び計算により、図13等に示す合成とは別に処理を行ってもよい。例えば、再抽出は、抽出部10F4と同様の方法等によって特徴点を抽出する。ただし、再抽出は、抽出部10F4とは異なる画像を対象とする。そして、計算部10F10は、例えば、PnPにより、撮像部10F2の傾き及び距離を推定する。すなわち、計算部10F10は、いわゆるカメラパラメータにおける「R」及び「t」等を計算する。
つまり、「R」、すなわち、被写体が有する被写体に対して「Roll角」、「Pitch角」(「Tilt角」という場合もある。)及び「Yaw角」(「Pan角」という場合もある。)等の角度がどの程度あるかを計算した結果があると、目印が入力画像において、画像処理装置は、どのような傾きを持って写るかが推定できる。
同様に、「t」、すなわち、被写体が有する被写体に対してどの程度の距離があるかを計算した結果があると、目印が入力画像において、画像処理装置は、どのような大きさで写るかが推定できる。
このように、画像処理装置は、目印となる被写体及び撮像装置の間において、傾き及び距離が相対的にどのような関係にあるかをPnP等によって計算する。なお、傾き及び距離が計算できれば、計算方法は、PnPに限られない。
例えば、このようにして、入力画像における目印に対して、撮像部10F2がどのような傾きであるか、かつ、撮像部10F2が目印からどの程度離れているかの距離を計算するのが望ましい。このような計算結果があると、画像処理装置は、より精度良くオブジェクトを合成できる。
<その他の実施形態>
なお、画像処理装置及び画像処理システム等が有する各装置又は接続する外部装置は、1台の装置で実現されなくともよい。すなわち、各装置は、複数の装置で構成されてもよい。例えば、画像処理システムは、複数の情報処理装置又は撮像装置を有し、各処理を分散、並列又は冗長して行ってもよい。
なお、本発明に係る各処理の全部又は一部は、アセンブラ等の低水準言語又はオブジェクト指向言語等の高水準言語で記述され、コンピュータに画像処理方法を実行させるためのプログラムによって実現されてもよい。すなわち、プログラムは、画像処理装置及び画像処理システム等のコンピュータに各処理を実行させるためのコンピュータプログラムである。
したがって、プログラムに基づいて画像処理方法が実行されると、コンピュータが有する演算装置及び制御装置は、各処理を実行するため、プログラムに基づいて演算及び制御を行う。また、コンピュータが有する記憶装置は、各処理を実行するため、プログラムに基づいて、処理に用いられるデータを記憶する。
また、プログラムは、コンピュータが読み取り可能な記録媒体に記録されて頒布することができる。なお、記録媒体は、磁気テープ、フラッシュメモリ、光ディスク、光磁気ディスク又は磁気ディスク等のメディアである。さらに、プログラムは、電気通信回線を通じて頒布することができる。
以上、本発明の好ましい実施形態について詳述したが、本発明は、上記に説明した実施形態等に限定されるものではない。したがって、特許請求の範囲に記載された本発明の要旨の範囲内において、実施形態は、種々の変形又は変更が可能である。
10 スマートフォン
10F1 目印画像入力部
10F10 計算部
10F2 撮像部
10F3 フィルタ部
10F31 第1フィルタ部
10F32 第2フィルタ部
10F4 抽出部
10F5 追跡部
10F6 切出部
10F7 変換行列生成部
10F8 表示部
10F9 再抽出部
10HW1 CPU
10HW2 記憶装置
10HW3 インタフェース
10HW4 入出力装置
10HW5 通信装置
10HW6 撮像装置
11 被写体
IMG1 第1画像
IMG2 第2画像
IMG3 第3画像
IMG3Y Y成分
IMG3CB Cb成分
IMG3CR Cr成分
IMG3R R成分
IMG3G G成分
IMG3B B成分
IMG11 前フレーム画像
IMG12 現フレーム画像
IMG13 次フレーム画像
IMGC 変換画像
IMGI 入力画像
IMGO オブジェクト画像
IMGO2 変換オブジェクト画像
IMGS 特徴点画像
IMGS2 変換特徴点画像
IMGT 目印画像
IMGV 出力画像
MX1 変換行列
MX2 逆変換行列
PS 特徴点
PS1 第1特徴点
PS2 第2特徴点
PS3 第3特徴点
SP1 第1点
SP2 第2点
SP3 第3点
SP4 第4点
TG1 第1被写体
TG2 第2被写体
TG31 目印
TG32 第3被写体
TG41 オブジェクト
TG42 変換オブジェクト
UR ユーザ

Claims (8)

  1. オブジェクトを表示させる位置となる目印を示す目印画像を入力する目印画像入力部と、
    複数の時点で撮像して複数の入力画像を生成する撮像部と、
    それぞれの前記入力画像に対してフィルタ処理を行って第1画像を生成するフィルタ部と、
    前記第1画像における前記目印の特徴点を抽出する抽出部と、
    前記時点の変化に対して、前記特徴点を追跡する追跡部と、
    前記第1画像から、前記目印を含む範囲を切り出して第2画像を生成する切出部と、
    前記第2画像及び前記目印画像に基づいて、変換行列を生成する変換行列生成部と、
    前記変換行列に基づいて、前記入力画像に前記オブジェクトを合成して表示する表示部と
    を含み、
    前記変換行列に基づいて、前記第2画像を変換して変換画像を生成し、
    前記目印画像と前記変換画像を比較して前記変換画像に前記目印があると判断すると、前記表示部は、前記オブジェクト及び前記目印の両方を前記変換行列の逆行列でそれぞれ変換して合成する
    画像処理装置。
  2. 前記フィルタ部は、
    前記入力画像に対して、メディアンフィルタを用いる第1フィルタ処理と、
    前記第1フィルタ処理で生成される第3画像に対して、RGB色空間におけるG成分を強調するシャープネスフィルタを用いる第2フィルタ処理とを行って前記第1画像を生成し、
    前記抽出部は、
    前記G成分が強調された前記第1画像に基づいて抽出する
    請求項1に記載の画像処理装置。
  3. 前記フィルタ部は、
    前記入力画像に対して、メディアンフィルタを用いる第1フィルタ処理と、
    前記第1フィルタ処理で生成される第3画像に対して、YUV色空間におけるY成分を強調するシャープネスフィルタを用いる第2フィルタ処理とを行って前記第1画像を生成し、
    前記抽出部は、
    前記Y成分が強調された前記第1画像に基づいて抽出する
    請求項1に記載の画像処理装置。
  4. 前記抽出部は、
    AKAZE又はORBのアルゴリズムで抽出する
    請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記変換行列は、
    前記第2画像における特徴点が、前記目印画像における特徴点と同一の位置となるように変換する行列である
    請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記第2画像における特徴点を抽出する再抽出部と、
    前記再抽出部が抽出した特徴点に基づいて、前記撮像部の傾き及び前記目印までの距離を計算する計算部と
    を更に含み、
    前記傾き及び前記距離に基づいて、前記表示部は、前記オブジェクトを合成する
    請求項1乃至のいずれか1項に記載の画像処理装置。
  7. オブジェクトを表示させる位置となる目印を示す目印画像を入力する目印画像入力部と、
    複数の時点で撮像して複数の入力画像を生成する撮像部と、
    それぞれの前記入力画像に対してフィルタ処理を行って第1画像を生成するフィルタ部と、
    前記第1画像における前記目印の特徴点を抽出する抽出部と、
    前記時点の変化に対して、前記特徴点を追跡する追跡部と、
    前記第1画像から、前記目印を含む範囲を切り出して第2画像を生成する切出部と、
    前記第2画像及び前記目印画像に基づいて、変換行列を生成する変換行列生成部と、
    前記変換行列に基づいて、前記入力画像に前記オブジェクトを合成して表示する表示部と
    を含み、
    前記変換行列に基づいて、前記第2画像を変換して変換画像を生成し、
    前記目印画像と前記変換画像を比較して前記変換画像に前記目印があると判断すると、前記表示部は、前記オブジェクト及び前記目印の両方を前記変換行列の逆行列でそれぞれ変換して合成する
    画像処理システム。
  8. 画像処理装置に画像処理方法を実行させるためのプログラムであって、
    画像処理装置が、オブジェクトを表示させる位置となる目印を示す目印画像を入力する目印画像入力手順と、
    画像処理装置が、複数の時点で撮像して複数の入力画像を生成する撮像手順と、
    画像処理装置が、それぞれの前記入力画像に対してフィルタ処理を行って第1画像を生成するフィルタ手順と、
    画像処理装置が、前記第1画像における前記目印の特徴点を抽出する抽出手順と、
    画像処理装置が、前記時点の変化に対して、前記特徴点を追跡する追跡手順と、
    画像処理装置が、前記第1画像から、前記目印を含む範囲を切り出して第2画像を生成する切出手順と、
    画像処理装置が、前記第2画像及び前記目印画像に基づいて、変換行列を生成する変換行列生成手順と、
    画像処理装置が、前記変換行列に基づいて、前記入力画像に前記オブジェクトを合成して表示する表示手順と
    を実行させ、
    前記変換行列に基づいて、前記第2画像を変換して変換画像を生成し、
    前記目印画像と前記変換画像を比較して前記変換画像に前記目印があると判断すると、前記表示手順では、前記オブジェクト及び前記目印の両方を前記変換行列の逆行列でそれぞれ変換して合成する
    プログラム。
JP2019068670A 2019-03-29 2019-03-29 Ar用の画像処理装置、画像処理システム及びプログラム Active JP6600113B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019068670A JP6600113B1 (ja) 2019-03-29 2019-03-29 Ar用の画像処理装置、画像処理システム及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019068670A JP6600113B1 (ja) 2019-03-29 2019-03-29 Ar用の画像処理装置、画像処理システム及びプログラム

Publications (2)

Publication Number Publication Date
JP6600113B1 true JP6600113B1 (ja) 2019-10-30
JP2020166741A JP2020166741A (ja) 2020-10-08

Family

ID=68383353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019068670A Active JP6600113B1 (ja) 2019-03-29 2019-03-29 Ar用の画像処理装置、画像処理システム及びプログラム

Country Status (1)

Country Link
JP (1) JP6600113B1 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4253567B2 (ja) * 2003-03-28 2009-04-15 オリンパス株式会社 データオーサリング処理装置
JP2010287174A (ja) * 2009-06-15 2010-12-24 Dainippon Printing Co Ltd 家具シミュレーション方法、装置、プログラム、記録媒体
JP6294054B2 (ja) * 2013-11-19 2018-03-14 株式会社Nttドコモ 映像表示装置、映像提示方法及びプログラム
JP6524706B2 (ja) * 2015-02-27 2019-06-05 富士通株式会社 表示制御方法、表示制御プログラム、及び情報処理装置
JP6877293B2 (ja) * 2017-08-08 2021-05-26 株式会社 日立産業制御ソリューションズ 位置情報記録方法および装置
JP6878219B2 (ja) * 2017-09-08 2021-05-26 株式会社東芝 画像処理装置および測距装置

Also Published As

Publication number Publication date
JP2020166741A (ja) 2020-10-08

Similar Documents

Publication Publication Date Title
JP3935500B2 (ja) 動きベクトル演算方法とこの方法を用いた手ぶれ補正装置、撮像装置、並びに動画生成装置
JP5463866B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
KR102337931B1 (ko) 동적 가림 핸들링을 위한 시스템들 및 방법들
US20200258196A1 (en) Image processing apparatus, image processing method, and storage medium
US7606441B2 (en) Image processing device and a method for the same
WO2004015987A1 (ja) 画像合成装置、画像合成方法、画像合成プログラム、および画像合成プログラムを記録した記録媒体
WO2017163384A1 (ja) データ処理装置、データ処理方法及びデータ処理プログラム
JP6610535B2 (ja) 画像処理装置および画像処理方法
JP2004246729A (ja) 人物動画像生成システム
CN111199159A (zh) 基于增强现实的文字翻译及显示方法、装置和电子设备
JP3983624B2 (ja) 画像合成装置、画像合成方法、画像合成プログラム、および画像合成プログラムを記録した記録媒体
JP6241320B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP6600113B1 (ja) Ar用の画像処理装置、画像処理システム及びプログラム
JP5042251B2 (ja) 画像処理装置および画像処理方法
JP3983623B2 (ja) 画像合成装置、画像合成方法、画像合成プログラム、および画像合成プログラムを記録した記録媒体
JP2009159525A (ja) 撮像装置及び画像合成プログラム
JP2005031800A (ja) 熱画像表示装置
JP6663491B2 (ja) 画像処理装置、画像処理プログラム、および記録媒体
JP6608311B2 (ja) 画像評価装置及び画像評価プログラム
JP6341540B2 (ja) 情報端末装置、方法及びプログラム
JPH10108003A (ja) 画像合成装置および画像合成方法
JP3804836B2 (ja) キー信号生成装置および画像合成装置、並びにキー信号生成方法および画像合成方法
JP3325823B2 (ja) 映像静止画表示方法及び装置並びに映像静止画表示プログラム格納記録媒体
JP7329964B2 (ja) 画像処理装置および画像処理方法およびプログラム
JPH1083442A (ja) 画像合成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190329

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190613

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191003

R150 Certificate of patent or registration of utility model

Ref document number: 6600113

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250