JP2016091193A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2016091193A
JP2016091193A JP2014223099A JP2014223099A JP2016091193A JP 2016091193 A JP2016091193 A JP 2016091193A JP 2014223099 A JP2014223099 A JP 2014223099A JP 2014223099 A JP2014223099 A JP 2014223099A JP 2016091193 A JP2016091193 A JP 2016091193A
Authority
JP
Japan
Prior art keywords
target object
image
target
specifying
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014223099A
Other languages
English (en)
Inventor
金津 知俊
Tomotoshi Kanatsu
知俊 金津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014223099A priority Critical patent/JP2016091193A/ja
Publication of JP2016091193A publication Critical patent/JP2016091193A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】対象「外」のオブジェクトが存在しても、特定精度が落ちることなく、対象となるオブジェクトを特定することができる画像処理装置、画像処理方法及びプログラムを提供する。【解決手段】対象物体を含む範囲の撮影画像から対象物体の特徴を検出して対象物体を特定する手段を有する画像処理方法であって、前記撮影とは異なる条件で対象物体を含む範囲の状態を取得する手段と、前記状態から特徴の検出に影響する領域を特定する手段と、前記領域に情報を重畳投影する手段と、を有する。対象物体を特定する手段は、対象物体を含む範囲に重畳投影がされた状態の撮影画像から特徴を検出する。【選択図】図1

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。
近年、紙など物理媒体上の文書情報と、コンピュータが記憶するデジタルの文書情報とを連携して利用可能なシステムが提案されている。
たとえば特許文献1には、プロジェクタによる投影を用いて、机上に置かれた紙面の内容を装飾したり、補足情報を追加したりする技術が開示されている。同文献によれば、投影面である机上を撮影し、その撮影画像から紙面の置かれた位置や紙面に書かれた内容を認識しているので、ユーザーが紙面を移動した場合でも、追従して紙面上の同じ適切な位置に投影をおこなうことが可能であった。
特開平9−319556号公報
撮影画像から紙面の置かれた位置や内容を認識するためには、たとえば紙面の四辺を構成する直線らしい特徴を画像から検出し、対象となる紙面の範囲を特定する必要がある。しかし、実際に特許文献1にあるようなシステムを運用する場合、机上には対象となる紙面以外にも、ペンやノートなど対象外のオブジェクトが置かれていることがある。そのようなオブジェクトにより、撮影画像上に対象に類似した特徴が発生した結果、対象の特定処理が不可能になったり、特定精度が落ちたりするという課題があった。
本発明は上記課題に鑑みなされたものであり、対象「外」のオブジェクトが存在しても、特定精度が落ちることなく、対象となるオブジェクトを特定することができる技術を提供することを目的とする。
かかる課題を解決するため、本発明の画像処理装置は、
対象物体の特徴を検出して対象物体を特定するために前記対象物体および非対象物体を含む範囲を撮影する際の条件とは異なる条件で前記対象物体および前記非対象物体を含む範囲の状態を取得する状態取得手段と、
前記状態取得手段によって取得された前記状態から前記対象物体の前記特徴の検出に影響する前記非対象物体が存在する領域を特定する領域特定手段と、
前記対象物体および前記非対象物体を含む範囲を撮影する撮影手段と、
前記撮影手段によって撮影された撮影画像の中の前記領域特定手段によって特定された前記非対象物体が存在する前記領域を除いた領域から前記対象物体の前記特徴を検出して前記対象物体を特定する対象特定手段と、
を有することを特徴とする。
本発明によれば、対象となる物体(対象物体)と対象外の物体とが混在する空間を撮影して得た撮影画像の「対象外の物体が存在する領域」以外の領域から対象物体を特定するための特徴を抽出する。その結果、対象外のオブジェクトからの誤った特徴抽出が防止されるので、対象の特定を高精度におこなえるようになる。
第1の実施例における画像処理システム構成例を示す図である。 第1の実施例を実施する装置と実施状況の外観例を示す図である。 第1の実施例の動作を説明するフローチャートである。 図3のステップS301〜S304の処理内容例を示す図である。 図3のステップS305〜S308の処理内容例を示す図である。 第2の実施例における装置270の動作を説明するフローチャートである。 第2の実施例における装置280の動作を説明するフローチャートである。
[第1の実施例]
以下、本発明を実施する好適な形態について図面を用いて説明する。
図1は、第1の実施例における画像処理システム100の構成例を示すブロック図である。ここに示す構成はハードウェアとソフトウェアの組み合わせによって実現できるものであって、一つの機能ブロックが一つのハードウェアに対応するものではない。
投影部101は、デジタル画像を机やスクリーン等の投影面へと投影する。
状態検知部102は、投影面に配置された紙などの対象オブジェクト(対象物体)や対象外のオブジェクト(非対象物体)の存在を検知し、それらの状態取得を行う。状態検知部102はたとえばステレオカメラを備え、得られる距離画像の解析により投影面上に配置されたオブジェクトの存在を検知する装置である。あるいは動画撮影カメラを備え、得られる複数フレーム画像の差分解析によって対象を検知する装置であってもよい。もしくはその他の赤外線や重量等による物体検知センサであってもよい。
撮影部103は、配置された紙などの対象オブジェクトを少なくとも含むように投影面を撮影し、デジタル画像へと変換する、例えばデジタルカメラである。
対象特定部104は、撮影部103が撮影した画像に存在する対象部分(対象物体)を特定する。
制御部105は、状態検知部102から得た状態の情報に基づいて、投影部101へ投影画像の画像データを提供したり、撮影部103から得た画像内で対象特定部104が特定した部分に基づいて対象の範囲や内容を認識する処理をおこなったりする。制御部105は、状態検知部102によって検知され、取得された状態から対象物体の特徴の検出に影響する非対象物体が存在する領域を特定する領域特定処理をおこなったりもする。
制御部105は、たとえばCPUやGPU等が読み取り可能なプログラムを実行することによって実現される。
記憶部106は、制御部105の動作プログラムや、動作のためのデータ、投影内容のデータ等を記憶するメモリ、HDD等である。
UI部107は、ユーザーが画像処理システム100への指示をおこなうために使用される。UI部107は、たとえば装置に備えられたディスプレイやボタン等である。UI部107はまた、投影部101を使って投影でUIを表示したり、状態検知部102を使って投影面上でのユーザーのジェスチャーを認識して指示を解釈したりする仕組みを備えていてもよい。
通信部108は、画像処理システム100と非図示のファイルサーバー、アプリケーションサーバー等と通信をおこなう。
図2(a)は、図1の画像処理システム100の一形態の外観、およびその使用の一例を示す図である。
図2中の装置200は、図1中の投影部101に対応するプロジェクタ201、状態検知部102に対応する距離センサ202、撮影部103に相当するデジタルカメラ203を有する。
装置200は、机等の投影面210上に画像を投影するように配置される。距離センサ202は、投影面210の状態を距離画像として取得し、その内容から紙など対象オブジェクト220や非対象オブジェト230の存在を検知して、検知情報を制御部105に提供する。なお、前述のとおり状態検知部102に対応する距離センサ202は動画カメラや他のセンサなどであってもよい。
デジタルカメラ203は、対象オブジェクト220を少なくとも含む投影面を撮影する。撮影画像に対し、対象特定部104が対象部分を特定する。その特定情報を用いて制御部105は対象の位置や大きさ、さらには内容などを認識する画像処理をおこなう。
デジタルカメラ203はまた、撮影時に対象が正対しない場合に生じる、撮影画像内での対象の形状ひずみを無くすため、直上から撮影したように画像を補正する仕組みを備えていてもよい。この仕組みには、たとえば公知の台形歪み補正技術を利用することができる。
図2(a)の例において、画像処理システム100を構成する各部はすべて装置200内に一体化されているものとする。ただしこれはあくまで一例であって、複数の装置によって画像処理システム100が構成されるようにしてもよい。たとえば、装置200は非図示のパーソナルコンピュータに接続され、105〜108は前記パーソナルコンピュータ内に存在していてもよい。あるいは記憶部106のうち、投影内容のデータを記憶する部分のみがイントラネットやインターネットで接続されたサーバーにあって、装置200はそのデータを、通信部108を介した有線や無線通信で取得してもよい。また同様に制御部105の一部として機能するプログラムの一部あるいは全部はサーバー上で動作してもよい。
図3のフローチャートに図1の画像処理システム100の動作例を示す。
<投影面の状態を取得>
ステップS301では、状態検知部102が投影面における少なくとも対象を含む範囲の状態を取得する。たとえば図2(a)の場合、距離センサ202が角度の異なる2つのカメラからの撮影画像を比較し視差を計算することで、距離画像を取得する。
<対象特定処理の影響領域を検出>
ステップS302では、状態検知部102がステップS301で取得した状態の情報から、制御部105が撮影部103と対象特定部104を用いて後でおこなう対象特定処理の影響領域を検出する。これはたとえば図2(a)のように、非対象オブジェクト230のような立体物が投影面上に存在する場合、前記距離画像における投影面の平面と異なる距離の領域として検出することができる。図2(a)のように距離センサが投影面と正対していない場合、投影面相当の平面に対して距離一定となるよう距離画像を変換したうえで前記検出をおこなえばよい。
またここで、距離画像から検出される立体物の範囲すべてを影響領域としても、その一部を影響領域としてもよい。たとえば、対象特定部104が撮影画像から四角の紙面を対象として特定する処理である場合、画像上で直線状をなすエッジ特徴が紙面範囲の特定に用いられる。その場合、同様のエッジ特徴を持つ立体物と投影面の直線境界の近傍範囲のみを影響領域としてもよい。あるいは、対象特定部104が円形のオブジェクトを対象として特定する処理である場合、同様に円形の特徴を有する立体物の全体、もしくは一部の範囲のみを影響領域としてもよい。また、距離画像から検出物の厚みを算出し、紙のように薄い検出物の範囲は対象特定部104の対象とみなし、それ以外の厚みのある検出物が対象外とし、それらの存在範囲を影響領域としてもよい。
<影響領域に対するマスク画像を作成>
ステップS303では、ステップS302で特定した影響領域に対し、投影部101が投影面210上の同領域をマスク投影するためのマスク画像(投影画像)を、制御部105が作成する。このマスク画像は、ステップS302で検出した非対象オブジェクトに対し、それらを撮影部103が撮影した画像上で検出できるようオブジェクトに重畳投影される投影画像である。具体的には、影響領域の範囲を赤などの特殊な色で強調するよう重畳投影するマスク画像を作成すればよい。あるいは、特殊なマークを中心にした範囲、もしくは複数のマークを頂点とした多角形範囲を影響領域とみなすよう、撮影画像上で特定可能なマークを重畳投影するマスク画像を用いてもよい。
<マスク画像を投影>
ステップS304では、ステップS303で作成したマスク画像を、投影部101が投影面上に投影する。
図4を用いてステップS301〜S304の処理により生ずる結果の具体例を説明する。
図4(a)の投影面401上には対象のオブジェクトである紙402と、非対象のオブジェクトである立体物403および立体物404が配置されている。
図4(b)は距離センサ202が取得したこれらの距離画像410である。この距離画像410では投影面上の平面を規準の距離ゼロとし、立体物403および立体物404に相当する部分が規準距離未満の領域として表されている。
図4(c)はこの距離画像を元に作成されたマスク画像420である。マスク画像420は、検出された立体物の範囲を一定量広げた範囲を特定色で重畳するようなマスクを生成するよう作られている。すなわちマスク423は立体物403に対するマスク画像であり、マスク424は立体物404に対するマスク画像である。
図4(d)はこのマスク画像が投影された投影面の状態を示す。立体物403付近には、マスク画像420による重畳投影433が発生し、立体物404付近には、マスク画像420による重畳投影434が発生している。
<撮影画像を取得>
図3に戻り、ステップS305以降について説明する。ステップS305では、撮影部103が対象を含む投影面の撮影画像を取得する。この撮影は、たとえばUI部107によるユーザーの撮影指示に従って実行される。その場合、指示された時点で先ずステップS301〜S304の処理を実行し、それからステップS305以降の処理を継続するものとする。あるいはUI指示ではなく、ステップS301で取得された投影面の状態から、対象の配置を検知した時点でステップS305以降の処理をおこなうようにしてもよい。
<撮影画像からマスク領域を検出>
ステップS306では、対象特定部104が、ステップS305で取得した撮影画像からマスク領域を検出する。マスク領域とは、前記ステップS304で投影されたマスク画像により、投影面上に重畳された色やマークによって特定される領域であり、それらは前記影響領域に対応する。検出処理は、たとえばマスク画像が赤などの特殊な色で強調するものである場合、撮影画像でその色成分が高い領域として検出すればよい。あるいは、マスク画像に特殊なマークを用いる場合、撮影画像内のマークを公知の画像パターン照合技術で検出し、同マークを頂点とする多角形範囲の領域として検出すればよい。
<マスク領域を除く範囲から、対象を特定するための特徴を抽出>
ステップS307では、対象特定部104が、ステップS305で取得した撮影画像より、ステップS306で検出されたマスク領域を除く範囲から、対象を特定するための特徴を抽出する。たとえば、対象が矩形の紙面であり、対象特定部104は対象の四辺に相当する画像上のエッジを特徴として特定する場合、同エッジの検出は前記マスク領域以外からおこなわれる。具体的には、撮影画像よりソーベルフィルタ等の公知技術によるエッジ検出画像生成をしたあと、同画像に前記マスク領域内の画素エッジ強度を0にするか弱めるようなフィルタを施せばよい。
<抽出された特徴から、対象を特定>
ステップS308では、対象特定部104が、ステップS306で抽出された特徴から、対象を特定する処理をおこなう。本例では、エッジ特徴から紙の四辺を抽出することで、対象である紙の範囲を特定する。四辺の抽出には、たとえばステップS307で生成したエッジ画像に対して公知のハフ変換処理をおこない、エッジ画像上の直線を抽出する。そして同直線の中から紙相当の範囲を構成する主要な4直線を選択すればよい。得られた四辺の情報は、たとえば撮影画像から紙の部分のみを切り出し、かつ四辺の歪みを長方形に補正して、ページ画像として保存やメール送信するといった用途に用いることができる。
図5に、ステップS305〜S308の処理例を示す。図5(a)および図5(b)は、図4(d)の投影面を撮影した撮影画像500である。501および502は赤などの特殊な色で強調されたマスク画像の例である。506および507は特殊なマークをマスク画像として用いた例である。図5(c)の513および514は、撮影画像500から検出されたマスク領域である。図5(d)は、前記マスク領域を考慮したうえで撮影画像500に対し公知のエッジ検出フィルタを施したエッジ画像530である。
ここで対象特定部104の対象外である立体物に起因するエッジは、マスク領域513および514によりマスクされた結果、エッジ画像530には対象のオブジェクトの四辺に相当するエッジ531のみが存在する。その結果、エッジ画像530を入力としておこなわれる対象特定処理は、対象外のオブジェクトに起因するノイズに影響されることがなくなる。
なお図5では、わかりやすいように撮影角度に起因するひずみをあらかじめ補正し、投影面に正対する位置から撮影したような画像を用いているが、実際には補正前の歪んだ画像であってよい。
プロジェクタとマスク画像が投影される投影面(オブジェクトの表面や机面を含む。)との相対的な位置姿勢の関係に応じて、投影されたマスク画像は歪む。プロジェクタと投影面(オブジェクトの表面や机面を含む。)との相対的な位置姿勢の関係に基づいて、マスク画像が実際に投影された際にどのように歪むかを算出すると演算処理の負担がとても大となる場合がある。
しかし、本実施例によれば、マスク画像は実際の投影面上のオブジェクトに重畳投影されているので、撮影画像上でのマスク領域検出時にそのような撮影時の歪みを考慮しなくてよい。
以上、本実施例によれば、撮影画像からエッジ特徴を用いて紙の四辺範囲を特定する処理において、撮影画像からは判断困難な非対象オブジェクトを撮影とは別の条件によるセンサ等で検知し、それらをマスクする画像を投影する。そして撮影画像から対象を特定する際のエッジ特徴抽出処理において、このマスク画像の投影結果を考慮し非対象オブジェクトからの類似特徴の誤抽出を防止する。その結果、対象である紙の四辺範囲特定処理の精度を高めることが可能になる。
上記説明における対象特定処理は、エッジ特徴を用いた紙の四辺範囲の特定であったが、別の特徴を用いた別の対象の特定に本発明を用いてもよい。たとえば、特定色の紙を撮影し、撮影画像中の特定色の画素範囲から同対象を特定するような処理であってもよい。そして、撮影画像からは判断困難な非対象オブジェクトを撮影とは別の条件によるセンサ等で検知し、同検知結果に基づいてマスク画像を投影すればよい。そのようにすることで、撮影画像から対象を特定する際の特徴抽出処理において、このマスク画像の投影結果を考慮し非対象オブジェクトからの類似特徴の誤抽出を防止する。その結果、対象特定処理の精度を高めることが可能になる。
[第2の実施例]
第1の実施例の説明に用いた形態例の図2(a)では、画像処理システム100全体が一体の装置200を構成するものとして説明した。しかし投影部101と撮影部103とが別々の装置に具備されるような構成であってもよい。
たとえば図2(b)の例では、装置200と同様に設置される装置270が、投影部101に対応するプロジェクタ271と、状態検知部102に対応する状態検知用センサのみを備える。本例の状態検知用センサは、投影面210上を常時撮影する動画カメラ272を備え、k番目の撮影動画フレームと(k+n)番目の撮影動画フレームとの差分から、投影面上に配置された対象および非対象オブジェクトを検知するものとする。k、nはいずれも任意の自然数とする。
別の装置280は、撮影部103と対象特定部104に対応するカメラ283を備える。そして装置270と装置280はそれぞれ図1の105〜108の各部に対応する構成を有し、ユーザーの指示を得て自立的に動作可能とする。装置280の具体例としてはウェアラブルなカメラとディスプレイを備えた眼鏡型デバイスや頭部に装着されるHMD(ヘッドマウントディスプレイ)などであってもよいし、カメラ付スマートフォンやタブレットPC等であってもよい。
図6および図7のフローチャートを用いて、本発明の第2の実施例として、図2(b)のように構成された画像処理システム100の動作を説明する。
まず図6のフローチャートを用いて、図2(b)の装置270における処理例を説明する。
<投影面の状態を取得>
ステップS601では、状態検知部102が投影面における少なくとも対象を含む範囲の状態を取得する。図2(b)の場合、動画カメラ272が、投影面210の状態を連続的に撮影する。
<投影面上の対象オブジェクトを検知>
ステップS602では、ユーザーが投影面上に対象、すなわち紙などの対象オブジェクト220を置いたことを状態検知部102が検知する。ここでは、動画カメラ272により撮影された動画像の各フレーム間差分を取得することで、投影面上に置かれたオブジェクトの存在を常時検知しているものとする。そして、検知されたオブジェクトの形や大きさ、あるいは色やテクスチャなどといった画像的特徴を用いて、オブジェクトが対象であるか否かを判断するものとする。これらの画像的特徴にもとづく判断は、過去の入力に対する学習によって判定する公知の学習機械を用いておこなってもよい。なお、動画を高精細に得ようとするとデータ量が膨大となり処理負荷が高くなる。よってこの動画の画素サイズ、すなわち解像度は、後述の実際に対象を特定するための撮影画像を得る撮影部103の解像度よりも低いものであってよい。具体的には、状態検知部102の処理に最低限必要な解像度が得られればよい。
対象が置かれたことを検知した場合はステップS603に進む。対象が未設置の場合、もしくは置かれたオブジェクトが対象のものではないと判断された場合はステップS601に戻って同処理を繰り返す。ここで非対象オブジェクトと判断された場合は、そのオブジェクトの存在を記憶しておき、後述のステップS604の処理で利用するものとする。なお、対象か非対象かの判断を厚みの有無で判断するために、装置270は距離センサを更に備えていてもよい。
<対象特定処理の影響領域を検出>
ステップS603では、ステップS601で取得した状態の情報から、後で装置280が投影面210を撮影し、その撮影画像から対象を特定する処理おこなう際の影響領域を状態検知部102が検出する。ここでは、先のステップS602で検出された対象外のオブジェクトの存在範囲を影響領域とする。ステップS302での説明と同様に、対象外オブジェクトの全範囲を影響領域としても、一部を影響領域としてもよい。
このステップS603において、対象外オブジェクトの検知の有無にかかわらず、ステップS602で検出された対象の範囲を除く全領域を影響領域としてもよい。これは、投影面である机に模様がある場合や、撮影範囲内に机の境界がある場合など、状態が不変であるにもかかわらず対象の特定に影響する特徴が抽出される可能性がある場合に有効である。
<影響領域に対するマスク画像を作成>
ステップS604では、ステップS603で特定した影響領域に対し、投影部101が同領域をマスクする重畳投影をおこなうためのマスク画像(投影画像)を作成する。第1の実施例と同様に、影響領域の範囲を赤などの特殊な色で強調するよう重畳投影するマスク画像や、特殊なマークを頂点とする多角形範囲を影響領域とみなすようなマスク画像を用いればいい。さらに、ステップS601で取得済みの動画画像から、対象および非対象のオブジェクトの色や形を検出したうえで、このマスク画像の色や形を選択するようにしてもよい。たとえば、後述の撮影画像からのマスク領域検出が容易になるように、対象および非対象オブジェクト内部に存在しない色や形を、マスク画像に用いるようにしてもよい。
<マスク画像が有効か否かを判断>
ステップS605では、前述のステップS604で作成されたマスク画像が有効か否かを判断する。マスク画像が有効ではないと判断されるケースはたとえば、対象の紙の上に非対象の立体物が乗っているか近接しているなど、マスク画像が投影される領域が対象と重なってしまう場合である。
さらに、状態検知部102が距離センサを備えている場合、検出された立体物の高さが高く、マスク画像で立体物の全範囲を重畳投影できないような場合に、マスク画像が有効ではないという判断を加えてもよい。
また、マスク画像で立体物の全範囲を重畳投影できないような場合は、マスク画像を重畳投影できない部分が、撮影部から撮影可能か否かに応じてマスク画像が有効か否かを判断するとしてもよい。
例えば図2(c)の例における装置280は、ユーザーが携帯可能な装置であり、領域273はプロジェクタ271が投影可能な最大範囲を示す。同図に示す例では、装置280を携帯するユーザーが、高い立体物231をはさんで装置270と相対する位置にいる。そして、高い立体物231の最上部の平面の装置270に近い側の辺274にはマスク投影可能であるが、高い立体物231の最上部の平面のユーザー側の辺275にはマスク投影不可能であるとする。
プロジェクト271の投影可能な最大範囲と立体物231の高さと装置280の位置との関係が図2(c)のような場合、装置280のカメラ283は、マスク画像が重畳投影されない部分(辺275)を撮影可能となるため、マスク画像は有効でないと判断する。
一方、仮に装置280を携帯するユーザーが装置270と近い位置にいて、かつカメラ283の位置がプロジェクタ271の高さより少し低いような場合、カメラ283は辺274を撮影可能であるが、辺275は辺274の後ろに隠れるため撮影不可能である。
つまり、装置280のカメラ283から撮影可能な立体物の一部であって、かつ対象オブジェクト220の特徴と類似する部分は、「マスク投影可能かつカメラから撮影可能な部分」か、「マスク投影不可能かつカメラから撮影不可能な部分」のいずれかになる。
すなわち、カメラ283から撮影可能な非対象オブジェクトの一部であり、かつ対象オブジェクト220の特徴と類似する部分でありながら、マスク投影不可能な部分は無い。このように、どの向きのどの位置から装置280を用いて撮影がおこなわれるかによって、ステップS605の判断をおこなってもよい。このためにプロジェクタ271の位置姿勢、カメラ283の位置姿勢、ならびに非対象オブジェクトの位置および高さを検知可能なカメラやセンサを装置270は更に備えていてもよい。
ステップS605でマスク画像が有効であると判断された場合はステップS606に進む。有効ではない判断された場合は、ステップS608に進み、投影部101を用いてユーザーに対象外の立体物を移動または除去する必要がある旨の警告のメッセージや記号等を投影で示し、図6のフローチャート処理を終了する。もしくは有効ではない原因が解消されるまで、投影面210の状態を監視し、解消された時点で再度ステップS601からの処理をおこなってもよい。警告には投影以外の方法、たとえば音声などを用いてもよい。
<マスク画像を投影>
ステップS606では、ステップS604で作成したマスク画像を、投影部101が投影面上に投影する。
<対象の撮影を指示>
ステップS607では、装置270から装置280へ、対象の撮影指示をおこない、装置270の処理は終了する。指示はたとえば無線などの装置間通信でもよいし、装置280を身につけたユーザーへのメッセージ投影や音声であってもよい。
続いて、図7のフローチャートを用いて、図2(b)の装置280における処理例を説明する。
<対象の撮影指示を取得>
ステップ701では、装置280は、前述ステップS607でなされた、装置270からの対象の撮影指示を取得する。これは前述のとおり、両装置間の通信によって自動的におこなわれてもよいし、ユーザーが投影や音声による撮影指示を解釈して装置280を操作してもよい。または装置280がそれらの投影や音声指示を撮影・録音したデータから自動的に解釈してもよい。
<撮影画像を取得>
ステップS702では、装置280における撮影部103が、カメラ283により、対象を含む投影面を撮影した撮影画像を取得する。
<撮影画像からマスク領域を検出>
ステップS703では、装置280における対象特定部104が、ステップS702で取得した撮影画像からマスク領域を検出する。その処理内容は前述図3のステップS306の処理内容と同一なので説明は省略する。
<マスク領域を除く範囲から、対象を特定するための特徴を抽出>
ステップS704では、装置280における対象特定部104が、ステップS702で取得した撮影画像より、ステップS703で検出されたマスク領域を除く範囲から、対象を特定するための特徴を抽出する。その処理内容は前述した図3のステップS307の処理内容と同一なので説明は省略する。
<抽出された特徴から、対象を特定>
ステップS705では、装置280における対象特定部104が、ステップS704で抽出された特徴から、対象を特定する処理をおこなう。本例でも第1の実施例と同様に、エッジ特徴から紙の四辺を検出することで、対象である紙の範囲を特定する。
特定された紙の範囲の情報の使途例について、装置280が例えばいわゆる拡張現実表示デバイスである場合について説明する。拡張現実表示デバイスは、ユーザーが現実の物体を撮影すると、その物体に対する拡張情報を適切な位置に付加した撮影画像を表示する。こういったデバイスの種類としては、カメラ付き液晶タブレット型や、視線と同等範囲を撮影するカメラとレンズや網膜に投影して視野内に情報表示可能なディスプレイを備える眼鏡型のもの等がある。拡張現実表示の内容は、たとえば、紙に書かれた英単語の内容を日本語に翻訳した情報を同単語のそばに表示したり、同単語をクエリとしたWorld Wide Webの画像検索をおこない、その結果を紙の近傍に表示したりする。このとき、対象である紙の範囲の情報は、前記拡張情報をユーザーにとって見やすい位置に表示するために利用される。また、事前に紙に印刷されたコードにより紙の内容を特定するために、紙面内のコード位置を特定するためにも利用される。さらに、紙に書かれた文字内容を認識したりするための画像範囲特定、画像歪みの補正などにも利用される。
ここで、対象特定部104の処理において、対象および非対象オブジェクトに対する撮影の方向や角度によって生じる撮影画像の歪みと、マスク領域との関係を計算によって求めなくてよいという特長に留意すべきである。装置280の例のように、ユーザーが携帯することによりその撮影方向が一定ではない状況において、その特長は有意である。
なお、一台の装置270に対し複数の装置280があって、それぞれの装置280で図7のフローチャートの処理がおこなわれてもよい。
以上、第2の実施例によれば、投影面の状態を監視して対象以外のオブジェクトをマスクする投影をおこなう装置と、対象以外に対しマスク領域が投影された投影面の撮影画像から、撮影面に置かれた対象を特定する装置とがシステムとして連携動作する。このとき、投影面の撮影画像からマスク領域を検出し、対象を特定するための特徴を前記マスク領域以外から抽出することで、対象を高精度に特定できるようになる。
[その他の実施例]
以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 投影部
102 状態検知部(状態取得手段)
103 撮影部
104 対象特定部
105 制御部 106 記憶部
107 UI部 108 通信部

Claims (9)

  1. 対象物体の特徴を検出して対象物体を特定するために前記対象物体および非対象物体を含む範囲を撮影する際の条件とは異なる条件で前記対象物体および前記非対象物体を含む範囲の状態を取得する状態取得手段と、
    前記状態取得手段によって取得された前記状態から前記対象物体の前記特徴の検出に影響する前記非対象物体が存在する領域を特定する領域特定手段と、
    前記対象物体および前記非対象物体を含む範囲を撮影する撮影手段と、
    前記撮影手段によって撮影された撮影画像の中の前記領域特定手段によって特定された前記非対象物体が存在する前記領域を除いた領域から前記対象物体の前記特徴を検出して前記対象物体を特定する対象特定手段と、
    を有することを特徴とする画像処理装置。
  2. 前記領域特定手段によって特定された前記非対象物体が存在する前記領域に投影画像を投影する投影手段をさらに有し、
    前記撮影手段は、前記投影画像が投影されている前記非対象物体および前記投影画像が投影されていない前記対象物体を含む範囲を撮影し、
    前記対象特定手段は、前記撮影手段によって撮影された撮影画像の中の前記投影画像が投影された領域を除いた領域から前記対象物体の前記特徴を検出して前記対象物体を特定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記対象特定手段は、前記投影画像の少なくとも色又は形に基づいて前記投影画像が投影された領域を判断することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記状態取得手段は、距離センサを用いて距離画像を生成し、
    前記領域特定手段は、前記距離画像から、前記非対象物体が存在する領域を特定することを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。
  5. 前記状態取得手段は、前記対象物体を含む範囲を動画撮影し、
    前記領域特定手段は、k番目(kは任意の自然数)の動画フレームと(k+n)番目(nは任意の自然数)の動画フレームの差分から、前記非対象物体が存在する領域を特定することを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。
  6. 前記撮影手段が撮影する範囲の中に、前記非対象物体の一部であって、前記投影画像が投影されない部分が含まれると判断した場合、ユーザーに警告をおこなうことを特徴とする請求項1〜5のいずれか1項に記載の画像処理装置。
  7. 前記撮影手段が撮影する範囲の中に、前記非対象物体の一部であって、前記投影画像が投影されない部分が含まれるか否かという判断は、前記投影手段の位置姿勢、前記撮影手段の位置姿勢、ならびに前記非対象物体の位置および高さにもとづいておこなうことを特徴とする請求項6に記載の画像処理装置。
  8. 対象物体の特徴を検出して対象物体を特定するために前記対象物体および非対象物体を含む範囲を撮影する際の条件とは異なる条件で前記対象物体および前記非対象物体を含む範囲の状態を取得する状態取得工程と、
    前記状態取得手段において取得された前記状態から前記対象物体の前記特徴の検出に影響する前記非対象物体が存在する領域を特定する領域特定工程と、
    前記対象物体および前記非対象物体を含む範囲を撮影する撮影工程と、
    前記撮影工程において撮影された撮影画像の中の前記領域特定工程によって特定された前記非対象物体が存在する前記領域を除いた領域から前記対象物体の前記特徴を検出して前記対象物体を特定する対象特定工程と、
    を有することを特徴とする画像処理方法。
  9. コンピュータを、請求項1〜7のいずれか1項に記載された画像処理装置の各手段として機能させるためのプログラム。

JP2014223099A 2014-10-31 2014-10-31 画像処理装置、画像処理方法およびプログラム Pending JP2016091193A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014223099A JP2016091193A (ja) 2014-10-31 2014-10-31 画像処理装置、画像処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014223099A JP2016091193A (ja) 2014-10-31 2014-10-31 画像処理装置、画像処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2016091193A true JP2016091193A (ja) 2016-05-23

Family

ID=56018642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014223099A Pending JP2016091193A (ja) 2014-10-31 2014-10-31 画像処理装置、画像処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2016091193A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018095194A1 (zh) * 2016-11-25 2018-05-31 杭州海康威视数字技术股份有限公司 一种图像分析方法及装置
JP2020182131A (ja) * 2019-04-25 2020-11-05 日本電気株式会社 入出力装置及び入出力装置の把持方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018095194A1 (zh) * 2016-11-25 2018-05-31 杭州海康威视数字技术股份有限公司 一种图像分析方法及装置
US11048950B2 (en) 2016-11-25 2021-06-29 Hangzhou Hikvision Digital Technology Co., Ltd. Method and device for processing images of vehicles
JP2020182131A (ja) * 2019-04-25 2020-11-05 日本電気株式会社 入出力装置及び入出力装置の把持方法

Similar Documents

Publication Publication Date Title
US20200192464A1 (en) Gesture recognition using multi-sensory data
US7965904B2 (en) Position and orientation measuring apparatus and position and orientation measuring method, mixed-reality system, and computer program
US9807263B2 (en) Mobile document capture assistance using augmented reality
JP7480882B2 (ja) 情報処理装置、認識支援方法およびコンピュータプログラム
JP5480777B2 (ja) オブジェクト表示装置及びオブジェクト表示方法
JP6089722B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US10198661B2 (en) System for determining alignment of a user-marked document and method thereof
US9807300B2 (en) Display apparatus for generating a background image and control method thereof
JP2016218905A (ja) 情報処理装置、情報処理方法、及びプログラム
US9094616B2 (en) Method and system for image capture and facilitated annotation
US10740614B2 (en) Information processing device, information processing method, and program storing medium
US20180220077A1 (en) Information processing apparatus having camera function, display control method thereof, and storage medium
JP2016091193A (ja) 画像処理装置、画像処理方法およびプログラム
WO2014060025A1 (en) Method and system for image capture and facilitated annotation
CN112073640A (zh) 全景信息采集位姿获取方法及装置、系统
US20210281742A1 (en) Document detections from video images
US11263784B2 (en) Determine image capture position information based on a quasi-periodic pattern
JP2018190132A (ja) 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法
JP2011071746A (ja) 映像出力装置及び映像出力方法
KR102262930B1 (ko) 상대 좌표 추출 장치 및 방법
KR101307014B1 (ko) 배경 프레임에 마스크 기법을 이용한 대상 프레임의 정합이 가능한 스마트폰 및 그 방법
WO2023007632A1 (ja) 画像処理システム、画像処理方法、及びプログラム
JP2012238098A (ja) 画像処理装置、画像処理方法及びプログラム
KR20170034608A (ko) 전경의 색상 추출 시스템, 방법 및 컴퓨터 판독 가능한 기록매체