JP6075110B2 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP6075110B2
JP6075110B2 JP2013032635A JP2013032635A JP6075110B2 JP 6075110 B2 JP6075110 B2 JP 6075110B2 JP 2013032635 A JP2013032635 A JP 2013032635A JP 2013032635 A JP2013032635 A JP 2013032635A JP 6075110 B2 JP6075110 B2 JP 6075110B2
Authority
JP
Japan
Prior art keywords
image
recognition
additional information
unit
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013032635A
Other languages
English (en)
Other versions
JP2014164356A (ja
Inventor
伸之 原
伸之 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013032635A priority Critical patent/JP6075110B2/ja
Priority to US14/108,912 priority patent/US9128529B2/en
Publication of JP2014164356A publication Critical patent/JP2014164356A/ja
Application granted granted Critical
Publication of JP6075110B2 publication Critical patent/JP6075110B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Description

本発明は、例えば、認識対象物に対応するユーザの作業支援情報となる付加情報画像の表示に用いる画像処理装置、画像処理方法および画像処理プログラムに関する。
近年、情報通信技術の発展に伴い、現実空間(外界)を撮像した画像にコンピュータを用いて視覚情報を付加して表示する、拡張現実に関する技術の開発が行われている。視覚情報の表示には、主に、外界の画像を取得するカメラを装着したHMD(Head Mounted Display)等のウェアラブル装置が利用されており、ユーザの視野方向に存在する認識対象物に関する詳細な情報(以下、付加情報画像と称する)を、外界の画像に重畳して表示することが行われている。
拡張現実技術を利用し、電子機器等の障害発生時における障害箇所の特定、及び、ユーザの障害修復作業を支援する機能が実現されている。例えば、コピー機の紙詰まり障害の修復作業支援において、付加情報画像となる予め紙詰まり発生位置に対応付けて用意されたコピー機の内部映像及び操作手順を、認識対象物となるコピー機に重畳表示する技術が開示されている。当該技術においては、付加情報画像が認識対象物を隠蔽することになる為、付加情報画像の重畳表示による隠蔽を防止する技術も開示されている。例えば、付加情報画像の重畳表示の有無を物理的な機構(スイッチ)操作で切替える技術が開示されている。また、ユーザの頭部に装着するカメラの撮影画像から算出される頭部の振れ幅に基づいてユーザの作業状態を推定し、付加情報画像の重畳表示の有無を切替える技術が開示されている。
特開2008−201101号公報 特開2006−12042号公報 特開2009−251154号公報
認識対象物に対応するユーザの作業支援情報となる付加情報画像の表示に用いる画像処理装置においては、付加情報画像の視認性とユーザの作業性の双方を向上させることが好ましいが、この様な画像処理装置は提唱されていない状況にある。
本発明は、付加情報画像の視認性とユーザの作業性の双方を向上させることが可能となる画像処理装置を提供することを目的とする。
本発明が開示する画像処理装置は、認識対象物とユーザの動作部位を含む画像を取得する取得部と、画像から認識対象物と動作部位を認識する認識部と、複数の画像から動作部位の動きベクトルを算出する算出部を備える。更に当該画像処理装置は、認識対象物の位置と動きベクトルに基づいて、認識対象物に対応する付加情報画像の表示位置を、認識対象物と動作部位以外の位置に制御する制御部を備える。
なお、本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成されるものである。また、上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を制限するものではないことを理解されたい。
本明細書に開示される画像処理装置では、付加情報画像の視認性とユーザの作業性の双方を向上させることが可能となる。
一つの実施形態による画像処理装置の機能ブロック図である。 認識部5の認識対象物の認識処理のフローチャートである。 算出部6が算出する認識対象物の移動量のデータ構造を含むテーブルの一例を示す図である。 算出部6が算出する動作部位の動きベクトルのデータ構造を含むテーブルの一例を示す図である。 付加情報画像の表示候補方向の概念図である。 (a)は、認識対象物の作業位置と近似矩形領域における各辺の線分の関係図である。(b)は、近似矩形領域における各辺の線分のデータ構造の一例を示す図である。(c)は、付加情報画像の表示候補位置の概念図である。 画像処理装置1における画像処理のフローチャートである。 (a)は、付加情報画像の表示領域探索の第1の概念図である。(b)は、付加情報画像の表示領域探索の第2の概念図である。(c)は、付加情報画像の表示領域探索の第3の概念図である。 一つの実施形態による画像処理装置の第1のハードウェア構成図である。 一つの実施形態による画像処理装置の第2のハードウェア構成図である。
本発明者らの検証により、認識対象物に対応するユーザの作業支援情報となる付加情報画像の表示に用いる画像処理装置において、付加情報画像の視認性とユーザの作業性の双方を向上させる為には以下の課題が存在することが新たに見出された。
付加情報画像の重畳表示による認識対象物の隠蔽を、付加情報画像の表示の有無によって回避する場合、付加情報画像を表示しない時間においては、ユーザは付加情報画像から作業支援情報を得ることが出来ずに、作業性が著しく低下することになる。例えば、コネクタへの配線作業等、類似形状の部品が密集することにより、作業箇所を誤りやすい作業を想定する。この場合、付加情報画像の重畳表示の有無の切替えよりも、付加情報画像と認識対象物を対比可能な位置で並べて表示することで、ユーザは、作業支援情報を含む付加情報画像を参照しつつ、認識対象物に対して作業を実行出来ることになり作業効率が高められる。また、本発明者らの検証により、ユーザの作業に影響を与えない領域に付加情報画像を表示させることが作業性の向上に重要なことが見出された。なお、付加情報画像の画素値を調整することにより、付加情報画像を半透明にして認識対象物上に常に重畳表示させる手法について本発明者らが検証したが、この手法は、付加情報画像の視認性が低下する為、必ずしも好ましくはない。換言すると、認識対象物に対応するユーザの作業支援情報となる付加情報画像の表示に用いる画像処理装置においては、付加情報画像の視認性を確保した上で、ユーザの作業領域を隠蔽せず、かつ、ユーザの作業中においても参照しやすい位置に重畳表示位置を表示する技術が必要となる。
以下に、一つの実施形態による画像処理装置、画像処理方法及び画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例は開示の技術を限定するものではない。
(実施例1)
図1は、一つの実施形態による画像処置装置1の機能ブロック図である。画像処理装置1は、撮像部2、記憶部4、表示部8、ならびに処理部9を有する。処理部9は、取得部3、認識部5、算出部6ならびに制御部7を有する。
撮像部2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像デバイスである。撮像部2は、例えば、ユーザの頸部に拘持または、装着されてユーザの視野方向の画像データを取得する。なお、撮像部2は、説明の便宜上、画像処理装置1の内部に配置しているが、ネットワークを介してアクセス可能となる様に、画像処理装置1の外部に配置することも可能である。撮像部2は、ユーザの作業対象となる認識対象物とユーザの動作部位を含む画像を撮像する。撮像部2は、認識対象物とユーザの動作部位を含む画像を取得部3に出力する。
取得部3は、例えば、ワイヤードロジックによるハードウェア回路である。また、取得部3は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。取得部3は、認識対象物とユーザの動作部位を含む画像を撮像部2から受け取る。また、取得部3に、撮像部2の機能を併合させることも可能である。取得部3は、認識対象物とユーザの動作部位を含む複数の画像を認識部5と表示部8に出力する。
記憶部4は、例えば、フラッシュメモリ(flash memory)などの半導体メモリ素子、または、ハードディスク、光ディスクなどの記憶装置である。なお、記憶部4は、上記の種類の記憶装置に限定されるものではなく、RAM(Random Access Memory)、ROM(Read Only Memory)であってもよい。記憶部4には、外界に存在し、認識部5の認識処理の対象となる複数の認識対象物(電子回路基板、製造機械等)の特徴点(第1特徴点または第1特徴点群と称しても良い)が、予め認識対象物を撮像した画像から予め抽出されて記憶されている。また、記憶部4は、認識対象物に対応する付加情報画像が記憶されていても良い。更に、記憶部4に記憶される付加情報画像は、一つの認識対象物に対して一つである必要はなく、複数の付加情報画像が記憶されていても良い。
なお、記憶部4は、説明の便宜上、画像処理装置1の内部に配置しているが、ネットワークを介してアクセス可能となる様に、画像処理装置1の外部に配置することも可能である。また、記憶部4には、後述する画像処理装置1で実行される各種プログラム、例えばOS(Operating System)などの基本ソフトや画像処理の動作が規定されたプログラムが記憶される。更に、記憶部4には、当該プログラムの実行に必要な各種データ等も必要に応じて記憶される。また、記憶部4に記憶される各種データを、例えば、認識部5、算出部6、制御部7の図示しないメモリまたはキャッシュに適宜格納し、画像処理装置1は、記憶部4を使用しない構成としても良い。
認識部5は、例えば、ワイヤードロジックによるハードウェア回路である。また、認識部5は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。認識部5は、取得部3から複数の画像を受け取る。認識部5は、複数の画像から特徴点を抽出して、抽出した特徴点(第2特徴点または第2特徴点群と称しても良い)と記憶部4に記憶されている認識対象物の特徴点を対応付けることにより、取得部3が取得する複数の画像に含まれている少なくとも一つの認識対象物を認識する。
図2は、認識部5の認識対象物の認識処理のフローチャートである。先ず、認識部5は、取得部3から取得時間が異なる複数の画像を受信し、複数の画像のそれぞれ(フレーム毎)から特徴点を抽出する(ステップS201)。なお、抽出される特徴点は通常複数である為、複数の特徴点の集合を特徴点群と定義しても良い。
ステップS201において抽出する特徴点は、記述子(descriptor)と呼ばれる特徴点ごとの特徴量ベクトルが計算される特徴点であれば良い。例えば、SIFT(Scale Invariant Feature Transform)特徴点や、SURF(Speeded Up Robust Features)特徴点を使用することが可能である。なお、SIFT特徴点の抽出方法については、例えば、米国特許第6711293号に開示されている。SURFの抽出方法については、例えば、H.Bay、et.al.「SURF:Speeded Up Robust Features」、Computer Vision and Image Understanding、 Vol.110、 No.3、 pp.346−359、2008に開示されている。
次に、認識部5は、ステップS201で認識部5が抽出した特徴点群(第2特徴点群と称しても良い)と、記憶部4に記憶されている全て認識対象物の候補の特徴点群との照合が完了しているか否かを判断する(ステップS202)。なお、記憶部4に記憶されている認識対象物の特徴点群は、予め上述のSIFT特徴点やSURF特徴点が記憶されているものとする。認識部5は、ステップS202において、照合が完了していない場合(ステップS202−No)は、記憶部4に予め記憶されている任意の一つの認識対象物を選択する(ステップS203)。次に、認識部5は、ステップS203おいて選択した認識対象物の特徴点群を記憶部4から読み出す(ステップS204)。認識部5は、ステップS204で抽出した特徴点群から、任意の一つの特徴点を選択する(ステップS205)。
認識部5は、ステップS205で選択した一つの特徴点と、ステップS204で読み出して選択した認識対象物の特徴点の対応付けを探索する。探索方法としては、一般的な対応点探索によるマッチング処理を用いれば良い。具体的には、認識部5は、ステップS205で選択した一つの特徴点と、ステップS204で読み出した選択した認識対象物の特徴点群それぞれの距離dを計算する(ステップS206)。
次に、認識部5は、特徴点の対応付けの妥当性の判定を行う為に閾値判定を行う。具体的には、認識部5は、ステップS206において、算出した距離dの最小値d1と、2番目に最小となる値d2を算出する。そして、認識部5は、閾値判定となるd1とd2の距離が所定の距離以上(例えばd1がd2に0.6を乗算した値よりも小さい値)かつd1が所定の値以下(例えば0.3未満)の条件を満たしているか否かを判定する(ステップS207)。認識部5は、ステップS207で閾値判定の条件を満たしている場合(ステップS207−Yes)は、特徴点の対応付けを行う(ステップS208)。条件を満たしていない場合(ステップS207−No)は、特徴点の対応付けを行わず、ステップS209に処理を進める。
認識部5は、ステップS204で読み出した特徴点群と、ステップS201で抽出した特徴点群を全て照合したかを判定する(ステップS209)。照合処理が完了した場合(ステップS209−Yes)、認識部4は、ステップS202において、全ての照合が終了した場合(ステップS202−Yes)は、ステップS210に処理を進める。照合処理が完了していない場合(ステップS209−No)、認識部5は、ステップS205に処理を進める。そして、認識部5は、ステップS208で対応付けた特徴点の個数に基づいて取得部3が取得した画像に含まれる認識対象物を認識する(ステップS210)。なお、ステップS210で対応づけた、記憶部4に記憶される特徴点群を、第1特徴点または第1特徴点群と称しても良い。
この様にして、認識部5は、取得部3から取得した画像から、当該画像に含まれる認識対象物を認識する。なお、認識部5は、取得部3から受け取る複数の画像の全てにおいて上述の認識処理を行わずに、所定時間毎に認識処理を行うキーフレームを定めることで処理コストを削減させることが可能となる。
図1の認識部5は、更に、取得部3から受け取った画像から、ユーザの動作部位を認識する。ユーザの動作部位は、例えば、手指である。認識部5は、手指を認識する方法として、例えば、特許第3863809号に開示される、画像処理による手指位置を推定する手法を用いることが出来る。実施例1においては、説明の便宜上、認識部5は、上述の特許第3863809号に開示されている方法を用いるものとして以降の説明を行う。当該方法では、認識部5は、取得部3から受け取った画像から、例えば肌色の色成分部分を抜き出す(抽出する)ことで、手領域輪郭を抽出する。その後、認識部5は、手の本数を認識した上で手領域輪郭から手指の認識処理を行う。なお、認識部5は、肌色の色成分の抽出は、RGB空間やHSV空間の適切な閾値調整を用いることが出来る。認識部5は、認識対象物と動作部位に関する認識結果を算出部6に出力する。
算出部6は、例えば、ワイヤードロジックによるハードウェア回路である。また、算出部6は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。算出部6は、認識対象物と動作部位に関する認識結果を認識部5から受け取る。算出部6は、認識部5が認識した認識対象物の移動量、ならびに、ユーザの動作部位の移動量と移動方向の情報を含む動きベクトルを、取得部3が取得する取得時間が異なる複数の画像から算出する。算出部6は、認識対象物の移動量を、オプティカルフローを用いた一般的な手法を用いて算出することが出来る。また、算出部6は、ユーザの動作部位となる手指の動きベクトルを算出する方法として、例えば、「山下ら、“3次元Active Appearance Modelを用いた手形状認識”、画像の認識・理解シンポジウム、MIRU2012, IS3-70, 2012-08」に開示される、予め手の形状に関する学習データを保持しておき、現時刻で取得した画像と学習データの間の類似度を計算して手指形状を推定する方法を利用することが出来る。算出部6は、推定した手指に対し任意の基準点を定めて、当該基準点の移動量と移動方向を動きベクトルとして算出することが出来る。
図3は、算出部6が算出する認識対象物の移動量のデータ構造を含むテーブルの一例を示す図である。なお、算出部6は、図3のテーブル30を、算出部6の図示しないキャッシュまたはメモリに格納、或いは記憶部4に記憶することが出来る。図3のテーブル30においては、例えば、取得部3が取得する画像の左上端を原点とすることが出来る。なお、図3のテーブル30における画像上の認識対象物位置となるTとTは、画像の原点に対する認識対象物の任意の基準点の横方向と縦方向の座標であり、単位は画素(ピクセル)である。認識対象物の任意の基準点は、例えば、認識対象物の中心に設定することが出来る。また、図3のテーブル30は、撮像部2の撮影画像解像度が、幅640画素、高さ480画素であり、動画像撮影において、撮像部2の約30cm前方に認識対象物が存在する状況を想定した場合のデータ構造の一例となる。更に、図3のテーブル30は、第100(画像)フレームにて、撮影画像中に、認識部5が、認識対象物を認識し、以降のフレームにおいても継続して認識対象物を認識している状態を示している。
図3のテーブル30において、算出部6は、第Nフレームでの認識対象物の座標値をTXN、TYNとした場合、例えば、101フレームにおけるT変化量とT変化量を、次式を用いて算出することが出来る。
(数1)
変化量101=TX101−TX100
変化量101=TY101−TY100
算出部6は、図3のテーブル30から、所定のフレーム間における認識対象物の移動量の絶対値平均を算出する。例えば、所定のフレーム数を5とした場合、101フレームから105フレームにおける認識対象物の移動量の絶対値平均は(13.2、23.2)となる。なお、認識対象物の移動量の絶対値平均を、説明の便宜上、認識対象物の平均移動量と称することとする。実施例1においては、認識対象物の平均移動量が、所定の閾値未満であれば、ユーザが作業の対象となる認識対象物を注視し、作業を開始する前の状態である「確認状態」として判断するものとする。また、認識対象物の平均移動量が、所定の閾値以上であれば、算出部6は、認識部5に認識対象物の認識処理の実行を指示しても良いし、継続的に認識対象物の平均移動量の算出処理を実行しても良い。
上述の所定の閾値は、撮像部2と認識対象物との距離や、撮像部2の撮影画角や画像解像度に応じて適宜規定することが出来るが、実施例1に示す例においては、閾値を、例えば、50画素と規定することが出来る。図3のテーブル30に示す例においては、認識対象物の平均移動量は、(13.2、23.2)であり、閾値未満であることから、算出部6は、ユーザが確認状態であるものと判定する。この場合は、算出部6は、記憶部4から、認識対象物に対応する付加情報画像を読み出し、図1の表示部8に対して当該付加情報画像を認識対象物に重畳表示させても良い。これにより、ユーザは、作業対象となる認識対象物を正確に把握することが可能となる。
算出部6は、ユーザが確認状態であると判定した場合、ユーザの動作部位の移動量と移動方向の情報を含む動きベクトルを算出する。なお、実施例1においては、上述の通り、動作部位の一例として手指を例として説明する。図4は、算出部6が算出する動作部位の動きベクトルのデータ構造を含むテーブルの一例を示す図である。なお、算出部6は、図4のテーブル40を、算出部6の図示しないキャッシュまたはメモリに格納、或いは記憶部4に記憶することが出来る。図4に示すテーブル40においては、例えば、取得部3が取得する画像の左上端を原点とすることが出来る。なお、図4のテーブル40の認識対象物位置となるTとTならびに、手指位置となるHとHは、それぞれ画像の原点に対する認識対象物または手指の任意の基準点の横方向と縦方向の座標であり、単位は画素(ピクセル)である。
認識対象物の任意の基準点は、図3のテーブル30と同様に、例えば、認識対象物の中心に設定することが出来る。手指の任意の基準点は、例えば、手指の形状を楕円近似した場合の楕円中心に設定することが出来る。また、図4のテーブル40は、図3のテーブル30と同様に、撮像部2の撮影画像解像度が、幅640画素、高さ480画素であり、動画像撮影において、撮像部2の約30cm前方に認識対象物が存在する状況を想定した場合のデータ構造の一例となる。更に、図4のテーブル40は、第200(画像)フレームにて、撮影画像中に、認識部5が、認識対象物の他に手指を認識し、以降のフレームにおいても継続して認識対象物と手指を認識している状態を示している。
図4のテーブル40において、算出部6は、第Nフレームにおける手指の座標値をHXN、HYNとした場合、第NフレームにおけるH変化量とH変化量を、次式を用いて算出することが出来る。なお、次式においては、第Nフレームと、その直前のフレームとなる第N−1フレームの相対位置の差分からH変化量とH変化量を算出している。
(数2)
変化量=(HXN−TXN)−(HXN−1−TXN−1
変化量=(HYN−TYN)−(HYN−1−TYN−1
また、算出部6は、第Nフレームにおける手指の移動方向(角度)と、手指の位置に対する認識対象物の位置方向(角度)を、次式を用いて算出することが出来る。なお、次式においては、第Nフレームと、その直前のフレームとなる第N−1フレームの手指の位置や認識対象物の位置から、手指の移動方向と、手指の位置を基点とする認識対象物の位置方向を算出している。
(数3)
手指の移動方向=arctan(H変化量/H変化量
認識対象物の位置方向=arctan((TXN−HXN)/(TYN−HYN))
算出部6は、図4のテーブル40の第Nフレームにおける方向差を、次式を用いて算出することが出来る。なお、次式においては、手指の移動方向と認識対象物の位置方向の差分の絶対値から方向差を算出している。
(数4)
方向差=|手指の移動方向−認識対象物の位置方向
算出部6は、方向差を所定のフレームに渡って、図4のテーブル40に蓄積し、フレーム毎に所定の閾値と比較する。方向差が所定のフレームに渡って所定の閾値未満の状態が継続する場合は、算出部6は、ユーザが作業を開始する為にユーザの手指が認識対象物に向かって移動していると判定することが出来る。なお、所定の閾値は、撮像部2と認識対象物との距離や、撮像部2の撮影画角や画像解像度に応じて適宜規定することが出来るが、実施例1においては、例えば閾値を10度と規定することが出来る。また、当該閾値を第4閾値と称しても良い。図4のテーブル40において、例えば、所定のフレーム数を5とした場合、201フレームから205フレームにおける方向差は最大で9.6度となる。この場合、所定のフレーム数に渡って方向差が閾値未満の為、手指が認識対象物に向かって移動していると判定する。
算出部6は、図4のテーブル40のH変化量ならびにH変化量の絶対値を、単位時間当たりの手指の移動量(移動速度)として看做すことが出来る。算出部6は、手指の移動量が所定の閾値以上の場合は、作業を開始する為に手指が移動していると判定することが出来る。所定の閾値は、撮像部2と認識対象物との距離や、撮像部2の撮影画角や画像解像度に応じて適宜規定することが出来るが、実施例1では、例えば、閾値を20画素と規定することが出来る。図4のテーブル40において、H変化量ならびにH変化量の絶対値の最小値は22画素であり、所定の閾値以上の為、算出部6は、手指が作業を開始する為に移動していると判定する。なお、当該閾値を第3閾値と称しても良い。更に、第3閾値と第4閾値を適宜組み合わせた閾値を第1閾値と称しても良い。
実施例1においては、ユーザの動作部位の一例となる手指の方向差(移動方向)が所定の閾値未満、または、移動量が所定の閾値以上の場合は、ユーザが認識対象物に対して作業を実施する「操作状態」として判断するものとする。算出部6は、上述の操作状態の判定処理にあたり、手指の方向差または移動量(移動方向)の何れか一方のみを用いても良いし、双方を用いても良い。また、手指の方向差(移動方向)と移動量の情報を動きベクトルと称しても良い。なお、算出部6は、操作状態として判断しない場合は、認識部5に対して認識対象物の認識処理の実行を指示しても良いし、継続的に図4のテーブル40に示す各データの算出処理を実行しても良い。また、算出部6は、認識部5が一つ以上の手指、即ち両手を認識した場合は、認識部5が最初に認識した手指のみについて処理対象とすることが出来る。算出部6は、例えば、図4のテーブル40に示す、認識対象物と動作部位に関する算出結果を制御部7に出力する。
図1の制御部7は、例えば、ワイヤードロジックによるハードウェア回路である。また、制御部7は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。制御部7は、例えば、認識部5が認識した認識対象物に対応する付加情報画像を記憶部4から受け取る。更に、制御部7は、認識対象物と動作部位に関する算出結果を算出部6から受け取る。制御部7は、認識対象物に対応する付加情報画像の表示位置を、認識対象物とユーザの動作部位以外の位置に制御し、制御した付加情報画像を表示部8に表示させる。換言すると、制御部7は、付加情報画像の表示位置を、認識対象物が動きベクトルと付加情報画像に介在される位置、かつ、認識対象物の基準位置(例えば、ユーザの作業対象の位置となる作業位置)と付加情報画像の基準位置(例えば、作業位置)の距離が最小となる位置に制御する。
制御部7は、認識対象物を例えば矩形近似して、近似矩形領域の各辺の法線方向について、手指の移動方向に対する角度を算出する。制御部7は、例えば、手指の移動方向と各辺の法線方向を比較し、内角差が所定の角度(例えば90°)未満となる方向を、付加情報画像の表示候補方向とする。制御部7は、当該表示候補方向に付加情報画像の表示位置に制御した場合における、認識対象物の作業位置と、付加情報画像が示す認識対象物の仮想的な作業位置との距離を算出し、当該距離が最小となる領域を選択することで付加情報画像の表示位置を制御する。
図5は、付加情報画像の表示候補方向の概念図である。図5においては、ユーザの手指の基準点が斜め左上方向を移動方向として進行しているものとする。また、図5において、制御部7は、上述の通り、認識対象物を矩形近似して、近似矩形領域の各辺の法線方向について手指の移動方向に対する角度を算出する。図5においては、θとθが、内角差が90°未満となる為、認識対象物の作業位置に対して、上方向と左方向が付加情報画像の表示候補方向となる。
図6(a)は、認識対象物の作業位置と近似矩形領域における各辺の線分の関係図である。図6(b)は、近似矩形領域における各辺の線分のデータ構造の一例を示す図である。図6(c)は、付加情報画像の表示候補位置の概念図である。図6(a)の認識対象物と近似矩形領域の大きさは、撮像部2の撮像条件に依存した大きさとなる。また、作業位置座標(W、W)は、例えば、予め認識対象物に対応付られて記憶部4に記憶されているものとする。なお、作業位置座標(W、W))の原点は、例えば、取得部3が取得する画像の左上端とすることが出来る。図6(b)のテーブル60は、記憶部4に記憶される認識対象物の作業位置を基点とした近似矩形領域の各辺までの基本距離を示している。換言すると、図6(b)のテーブル60は、撮像部2の撮像条件に依存しない、認識対象物の作業位置を基点と近似矩形領域の各辺までの相対的な距離を示している。なお、制御部7は、取得部3が取得した認識対象物の姿勢に対応する付加情報画像を記憶部4から選択することが可能であり、かつ、認識対象物と同一のサイズに付加情報画像を拡大縮小処理することが可能である。この為、制御部7は、認識対象物と付加情報画像を重畳表示させる場合においても、認識対象物の画像上の大きさ(面積)に合わせて、付加情報画像を拡大縮小処理することが出来る。ここで、拡大縮小の比率をα(例えばα=5)とすると、図6(b)に示す各種データを用いて、図6(a)に示す各辺の線分の距離を、次式を用いて算出することが出来る。
(数5)
=α×SOT
=α×SOL
=α×SOB
=α×SOR
図6(c)において、付加情報画像を認識対象物の上方向に表示した場合の、付加情報画像の仮想的な作業位置と認識対象物の作業位置間の距離をLT、左方向に表示した場合の作業位置間の距離をLLとすると、距離LTと距離LLは次式と通り算出される。
(数6)
LT=S+S=95
LL=S+S=20
なお、上述の(数6)において、単位は画素となる。制御部7は、距離LLが最小距離となる為、距離LLの条件を満たす領域位置を、付加情報画像の表示位置として制御する。なお、制御部7は、付加情報画像を、認識対象物に隙間を設けずに表示させる様に制御しても良い。制御部7は、表示位置を制御した付加情報画像を表示部8へ出力する。
制御部7は、撮像部2の撮像条件によって変化し得る認識対象物の画像上の位置、姿勢、面積等から、作業位置座標(W、W)や、近似矩形領域の各辺の傾きを算出することも出来る。制御部7は、近似矩形領域の各辺の傾きと作業位置の座標値を用いることで、図6(a)に示すに、近似矩形領域の各辺の線分の距離を算出しても良い。近似矩形領域の各辺の線分の距離は、例えば、S=40、S=8、S=55、S=12となる。
図1の表示部8は、例えば、ディスプレイなどの表示デバイスである。表示部8は、表示位置が制御された付加情報画像を制御部7から受け取り、取得部3が取得した画像を取得部3から受け取る。表示部8は、表示位置を制御した付加情報画像を、取得部3が取得した画像に重畳させて表示する。
処理部9は、例えば、ワイヤードロジックによるハードウェア回路である。また、処理部9は、画像処理装置1で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。処理部9は、取得部3、認識部5、算出部6、制御部7の機能を、必要に応じて処理部9が保持し、各機能を実施しても良い。なお、処理部9は、必ずしも画像処理装置1に保持される必要はない。
なお、画像処理装置1は、画像処理装置1が有する各機能部を、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路で構成しても良い。なお、付加情報画像の重畳表示後に、取得部3が取得する画像において、任意の所定フレーム数に渡ってユーザの動作部位が認識されない場合は、画像処理装置1は、ユーザの作業状態が操作状態から確認状態に移行したと判断して、認識対象物の位置に付加情報画像を重畳表示しても良い。
図7は、画像処理装置1における画像処理のフローチャートである。認識部5は、撮像部2が撮像する画像を取得部3から受け取り、当該画像に対して認識対象物の認識処理を実施する(ステップS701)。認識部5は、認識対象物を認識しない場合(ステップS701−No)は、画像処理を終了する。認識部5は、認識対象物を認識した場合(ステップS701−Yes)は、算出部6は、認識対象物の移動量を算出する(ステップS702)。なお、算出部6が算出する認識対象物の移動量のデータ構造は、例えば、図3のテーブル30に示すデータ構造であれば良い。
算出部6が算出する認識対象物の移動量が所定の閾値未満の場合(ステップS702−Yes)は、算出部6は、記憶部4から認識対象物に対応する付加情報画像を読み出し、表示部8に対して当該付加情報画像を認識対象物に重畳表示させる(ステップS709)。算出部6が算出する認識対象物の移動量が所定の閾値以上の場合(ステップS702−No)は、認識部5は、画像からユーザの動作部位の認識処理を実施する(ステップS703)。
認識部5は、画像からユーザの動作部位を認識しない場合(ステップS703−No)は、ステップS701の画像処理を実行する。認識部5は、画像からユーザの動作部位を認識した場合(ステップS703−Yes)は、算出部6は、ユーザの動作部位の移動量と移動方向の情報を含む動きベクトルを算出する(ステップS704)。なお、算出部6が算出する動作部位の動きベクトルのデータ構造は、例えば、図4のテーブル40に示すデータ構造であれば良い。
制御部7は、動きベクトルと所定の閾値に応じて、付加情報画像の表示位置を制御する(ステップS705)。ステップS705において、制御部7は、例えば、付加情報画像の表示位置を、認識対象物が動きベクトルと付加情報画像に介在される位置、かつ、認識対象物の基準位置(例えば、ユーザの作業対象の位置となる作業位置)と付加情報画像の基準位置(例えば、作業位置)の距離が最小となる位置に制御する。次に,例えば、制御部7が、記憶部4から認識対象物に対応する付加情報画像を読み出し、表示部8に対して当該付加情報画像を認識対象物に重畳表示させる(ステップS706).
認識部5は、取得部3から受け取る、異なる時刻の画像に対して、動作部位と認識対象物の認識処理を実施する(ステップS707)。認識部5が、動作部位と認識対象物を認識した場合(ステップS707−Yes)は、ステップS704の画像処理を実行する。認識部5が、動作部位と認識対象物を認識しない場合(ステップS707−No)は、認識部5の処理対象となっている画像に対して認識対象物の認識処理を実施する(ステップS708)。ステップS708において、認識部5が認識対象物を認識しない場合(ステップS708−No)は、画像処理を終了する。
認識部5が認識対象物を認識した場合(ステップS708−Yes)は、例えば、算出部6が、記憶部4から認識対象物に対応する付加情報画像を読み出し、表示部8に対して当該付加情報画像を認識対象物に重畳表示させ(ステップS709)、画像処理を終了する。なお、画像処理装置1は取得部3が画像を取得し続ける間は、ステップS701〜S709の処理を繰り返し実行しても良い。
実施例1における画像処理装置1においては、画像処理装置1は、「確認状態」においては、認識対象物と同じ位置に付加情報画像を重畳表示し、「操作状態」においては、付加情報画像を認識対象物隣接し、作業位置が対比し易い領域かつ、ユーザの動作部位に干渉しない領域に表示する為、付加情報画像の視認性とユーザの作業性の双方を向上させることが可能となる。
(実施例2)
実施例1においては、画像処理装置1は、ユーザの動作部位を1箇所として画像処理を実施するが、実施例2においては、複数の動作部位を対象とした画像処理について説明する。実施例2においては、例えば、図5や図6(c)に例示した右手指の移動方向に応じた位置に付加情報画像を表示した後に、認識対象物に対するユーザの作業に応じて、左手指が撮像部2の撮像する画像に含まれる場合を想定する。
画像処理装置1は、左手指の移動方向を実施例1と同様に算出し、右手指の移動方向と左手指の移動方向に干渉しない方向に付加情報画像を表示する。図6(c)においては、画像処理装置1は、認識対象物の上方向に付加情報画像を表示する。更に、実施例2における画像処理装置1は、左手指または右手指の何れかが、付加情報画像に干渉する位置に存在する場合は、付加情報画像の表示位置を更に制御する。なお、実施例2においては、左手指が付加情報画像に干渉する位置に存在する場合を例として説明する。
算出部6は、ユーザの動作部位の一つとなる左手指の位置を実施例1に示す方法を用いて同様に算出し、制御部7が制御した付加情報画像の表示位置と比較し、左手指の位置が付加情報画像の位置と干渉しているか否かを判定することが出来る。左手指が付加情報画像と干渉している場合は、制御部7は、付加情報画像が認識対象物と重畳せず、かつ、付加情報画像が左手指と右手指に干渉しない領域を探索する。
図8(a)は、付加情報画像の表示領域探索の第1の概念図である。図8(a)においては、制御部7は、付加情報画像が認識対象物と重畳せず、かつ、付加情報画像が左手指と右手指に干渉しない領域となる、付加情報画像の複数の第1表示候補位置を探索する。図8(a)においては、第1表示候補位置を3つ例示しているが、第1表示候補位置の数は特に限定されるものではない。
制御部7は、認識対象物の作業位置を原点とした場合の、第1表示候補位置における付加情報画像の作業位置の角度変化が所定の閾値未満となる領域を、第2表示候補領域として絞りこみ処理を行う。次に、制御部7は、複数の第2表示候補領域において、作業位置間の距離の変化が最小となる第3表示候補領域を最終的に選択する。制御部7は、最終的に選択した第3表示候補領域を付加情報画像の表示位置として制御する。
図8(b)は、付加情報画像の表示領域探索の第2の概念図である。図8(c)は、付加情報画像の表示領域探索の第3の概念図である。図8(b)において、制御部7は、認識対象物の作業箇所と第2表示候補領域の付加情報画像の作業箇所を結ぶ直線のなす角度を算出する。図8(b)において、制御部7は、認識対象物の左上の2つの第1表示候補領域は角度が所定の角度より小さい為、第2表示領域候補とするが、左下の第1表示候補領域は角度変化が大きいため、第2表示候補領域から除外する。図8(c)に示す通り、制御部3は、作業位置間の距離の変化が最小となる第3表示候補領域を最終的に選択する。
実施例2に開示する画像処理装置1においては、ユーザの複数の動作部位が画像上で認識される場合においても、付加情報画像の視認性とユーザの作業性の双方を向上させることが可能となる。
(実施例3)
実施例2において、ユーザの手指と付加情報画像の表示位置が干渉する場合においては、付加情報画像の表示位置を制御した際に、認識対象物からの距離が大きくなり、付加情報画像と認識対象物を対比観察が難しくなる場合も想定され得る。実施例3における画像処理装置の制御部7は、図8(b)における複数の第2表示候補位置における付加情報画像と認識対象物の作業位置間の距離を算出し、任意の所定の閾値と比較する。画像処理装置1の制御部7は、作業位置間の距離が閾値よりも大きい場合は、認識対象物に対応する付加情報画像の中で、閾値未満の条件を満たす表示サイズが小さい付加情報画像を記憶部4から選択する。但し、いずれの付加情報画像も作業位置を含んでおり、作業位置以外の領域を切り取られていることによって表示サイズが小さくなっているものとする。なお、記憶部4には予め複数の異なる表示サイズの付加情報画像が記憶されているものとする。
画像処理装置1の制御部7は、閾値未満の条件を満たす表示サイズの付加情報画像が記憶部4に記憶されていない場合は、最も作業位置間の距離が小さくなる付加情報画像を選択する。なお、上述の閾値は、撮像部2が撮像する条件に応じて適宜規定することが出来るが、撮影画像の解像度が幅640画素、高さ480画素の場合は、(画面サイズの長辺の約3分の1となる)200画素を閾値とすることができる。なお、当該閾値を第2閾値と称しても良い。
実施例3における、画像処理装置1は、付加情報画像のサイズを表示位置に応じて変更することが可能となる為、付加情報画像の視認性とユーザの作業性の双方を向上させることが可能となる。
(実施例4)
実施例1または実施例2においては、認識対象物の位置が、取得部3が取得した画像の縁辺周辺にある場合も想定され得る。この場合、付加情報画像の表示位置の一部が、画像の外にはみ出してしまい、認識対象物と付加情報画像を対比観察することが難しくなる場合も想定される。換言すると、付加情報画像が表示部8の表示領域対象外となる場合、認識対象物と付加情報画像を対比観察することが難しくなる場合も想定される。実施例4における画像処理装置1の制御部7は、制御した付加情報画像の各辺の点の座標値を算出する。なお、座標値の原点は、例えば、取得部3が取得する画像の左上端とすることが出来る。画像処理装置1の制御部7は、いずれかの点の座標値が負値をとる場合は、付加情報画像の一部が画像の外にはみ出しているため、画像の中に表示可能な表示サイズが小さい付加情報画像を記憶部4から選択する。但し、いずれの付加情報画像も作業位置を含んでおり、作業位置以外の領域を切り取られていることによって表示サイズが小さくなっているものとする。なお、記憶部4には予め複数の異なる表示サイズの付加情報画像が記憶されているものとする。画像処理装置1の制御部7は、条件を満たす表示サイズの付加情報画像が記憶部4に記憶されていない場合は、座標値の負値の絶対値が最小となる付加情報画像を選択する。なお、画像処理装置1の制御部7は、付加情報画像の作業位置付近のみを切り出した画像を、サイズを変更した付加情報画像として使用しても良い。
実施例4における画像処理装置1は、制御した付加情報画像が画像の外にはみ出す場合においては、付加情報画像のサイズを表示位置に応じて変更することが可能となる為(表示部8の表示領域部内に収まる様に、付加情報画像から作業位置を含む所定領域を選択して、当該所定領域を表示する為)、付加情報画像の視認性とユーザの作業性の双方を向上させることが可能となる。
図9は、一つの実施形態による画像処理装置の第1のハードウェア構成図である。図9において、ユーザが外界において注視している認識対象物を特定し易い様に、眼鏡型の筐体を用いて撮像部2を両目の中心に位置する様に配設しても良い。また、図示はしないが、撮像部2を2つ以上配設してステレオ画像を用いても良い。表示部8は、外界を認識できる様に、シースルー型ディスプレイを用いても良い。
(実施例5)
図10は、一つの実施形態による画像処理装置の第2のハードウェア構成図である。図10に示すように、画像処理装置1は、制御部10、主記憶部11、補助記憶部12、ドライブ装置13、ネットワークI/F部15、入力部16、提示部17を含む。これら各構成は、バスを介して相互にデータ送受信可能に接続されている。
制御部10は、コンピュータの中で、各装置の制御やデータの演算、加工を行うCPUである。また、制御部10は、主記憶部11や補助記憶部12に記憶されたプログラムを実行する演算装置であり、入力部16や外部の記憶装置からデータを受け取り、演算、加工した上で、提示部17や記憶装置などに出力する。
主記憶部11は、ROM(Read Only Memory)やRAM(Random Access Memory)などであり、制御部10が実行する基本ソフトウェアであるOSやアプリケーションソフトウェアなどのプログラムやデータを記憶または一時保存する記憶装置である。
補助記憶部12は、HDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。
ドライブ装置13は、記録媒体14、例えばフレキシブルディスクからプログラムを読み出し、補助記憶部12にインストールする。
また、記録媒体14に、所定のプログラムを格納し、この記録媒体14に格納されたプログラムはドライブ装置13を介して画像処理装置1にインストールされる。インストールされた所定のプログラムは、画像処理装置1により実行可能となる。
ネットワークI/F部15は、有線及び/又は無線回線などのデータ伝送路により構築されたLAN(Local Area Network)、WAN(Wide Area Network)などのネットワークを介して接続された通信機能を有する周辺機器と画像処理装置1とのインターフェースである。
入力部16は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、提示部17の表示画面上でキーの選択等を行うためのマウスやスライスパット等を有する。また、入力部16は、ユーザが制御部10に操作指示を与えたり、データを入力したりするためのユーザインターフェースである。
提示部17は、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等により構成され、制御部10から入力される表示データに応じた表示が行われる。
なお、上述した画像処理は、コンピュータに実行させるためのプログラムとして実現されてもよい。このプログラムをサーバ等からインストールしてコンピュータに実行させることで、上述した画像処理を実現することができる。また、このプログラムを記録媒体14に記録し、このプログラムが記録された記録媒体14をコンピュータや携帯端末に読み取らせて、前述した画像処理を実現させることも可能である。なお、記録媒体14は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。
以上、説明した実施形態に関し、更に以下の付記を開示する。
(付記1)
認識対象物とユーザの動作部位を含む画像を取得する取得部と、
前記画像から前記認識対象物と前記動作部位を認識する認識部と、
前記画像における、前記認識対象物に対応する付加情報画像の表示位置を、前記認識対象物と前記動作部位以外の位置に制御する制御部
を備えることを特徴とする画像処理装置。
(付記2)
前記認識部は、前記認識対象物に対応し、予め抽出される第1特徴点を記憶する記憶部にアクセス可能であり、
前記画像から第2特徴点を抽出し、前記第1特徴点と前記第2特徴点を対応付けることによって、前記画像に含まれる前記認識対象物を認識することを特徴とする付記1記載の画像処理装置。
(付記3)
複数の前記画像から前記動作部位の動きベクトルを算出する算出部を更に備え、
前記制御部は、前記認識対象物の位置と前記動きベクトルに基づいて、前記付加情報画像の表示位置を制御することを特徴とする付記1または付記2記載の画像処理装置。
(付記4)
前記制御部は、前記動きベクトルが所定の第1閾値未満の場合は、前記付加情報画像の前記表示位置を、前記認識対象物に重畳する位置に制御することを特徴とする付記3記載の画像処理装置。
(付記5)
前記制御部は、前記動きベクトルが前記第1閾値以上の場合は、前記付加情報画像の前記表示位置を、
前記認識対象物が前記動きベクトルと前記付加情報画像に介在する位置、かつ
前記認識対象物の基準位置と前記付加情報画像の基準位置の距離が最小距離となる位置に制御することを特徴とする付記3記載の画像処理装置。
(付記6)
前記制御部は、前記最小距離が所定の第2閾値以上の場合、前記最小距離が前記第2閾値未満となる様に前記付加情報画像から所定領域を選択し、前記所定領域を表示させること特徴とする付記5記載の画像処理装置。
(付記7)
前記付加情報画像を表示する表示部を更に備え、
前記制御部は、前記付加情報画像の一部が、前記表示部の表示領域外となる場合、前記付加情報画像から、前記表示部の表示領域部内となる所定領域を選択し、前記所定領域を表示させること特徴とする付記5記載の画像処理装置。
(付記8)
前記所定領域は、前記認識対象物に対応付けられる作業位置を含むことを特徴とする付記6または付記7記載の画像処理装置。
(付記9)
前記制御部は、前記付加情報画像の前記表示位置を、前記動きベクトルの方向と、前記認識対象物を矩形近似した矩形近似領域の各辺の法線方向の内角差が所定の角度未満の方向に制御することを特徴とする付記4記載の画像処理装置。
(付記10)
前記動きベクトルは前記動作部位の移動量と移動方向の成分を有し、前記第1閾値は、前記移動量に対する所定の第3閾値と、前記移動方向に対する所定の第4閾値を有することを特徴とする付記4記載の画像処理装置。
(付記11)
前記認識対象物とユーザの動作部位を含む画像を撮像する撮像部を更に備え、
前記取得部は、前記撮像部から前記画像を取得することを特徴とする付記1記載の画像処理装置。
(付記12)
認識対象物とユーザの動作部位を含む画像を取得し、
前記画像から前記認識対象物と前記動作部位を認識し、
前記画像における、前記認識対象物に対応する付加情報画像の表示位置を、前記認識対象物と前記動作部位以外の位置に制御する
ことを含むことを特徴とする画像処理方法。
(付記13)
前記認識することは、前記認識対象物に対応し、予め抽出される第1特徴点を記憶する記憶部にアクセスし、
前記画像から第2特徴点を抽出し、前記第1特徴点と前記第2特徴点を対応付けることによって、前記画像に含まれる前記認識対象物を認識することを特徴とする付記12記載の画像処理方法。
(付記14)
複数の前記画像から前記動作部位の動きベクトルを算出することを更に含み、
前記制御することは、前記認識対象物の位置と前記動きベクトルに基づいて、前記付加情報画像の表示位置を制御することを特徴とする付記12または付記13記載の画像処理方法。
(付記15)
前記制御することは、前記動きベクトルが所定の第1閾値未満の場合は、前記付加情報画像の前記表示位置を、前記認識対象物に重畳する位置に制御することを特徴とする付記14記載の画像処理方法。
(付記16)
前記制御することは、前記動きベクトルが前記第1閾値以上の場合は、前記付加情報画像の前記表示位置を、
前記認識対象物が前記動きベクトルと前記付加情報画像に介在する位置、かつ
前記認識対象物の基準位置と前記付加情報画像の基準位置の距離が最小距離となる位置に制御することを特徴とする付記14記載の画像処理方法。
(付記17)
前記制御することは、前記最小距離が所定の第2閾値以上の場合、前記最小距離が前記第2閾値未満となる様に前記付加情報画像から所定領域を選択し、前記所定領域を表示させること特徴とする付記16記載の画像処理方法。
(付記18)
前記所定領域は、前記認識対象物に対応付けられる作業位置を含むことを特徴とする付記17記載の画像処理方法。
(付記19)
前記動きベクトルは前記動作部位の移動量と移動方向の成分を有し、前記第1閾値は、前記移動量に対する所定の第3閾値と、前記移動方向に対する所定の第4閾値を有することを特徴とする付記15記載の画像処理方法。
(付記20)
コンピュータに、
認識対象物とユーザの動作部位を含む画像を取得し、
前記画像から前記認識対象物と前記動作部位を認識し、
前記画像における、前記認識対象物に対応する付加情報画像の表示位置を、前記認識対象物と前記動作部位以外の位置に制御する
ことを実行させることを特徴とする画像処理プログラム。
1 画像処理装置
2 撮像部
3 取得部
4 記憶部
5 認識部
6 算出部
7 制御部
8 表示部
9 処理部

Claims (8)

  1. 認識対象物とユーザの動作部位を含む画像を取得する取得部と、
    前記画像から前記認識対象物と前記動作部位を認識する認識部と、
    複数の前記画像から前記動作部位の動きベクトルを算出する算出部と、
    前記認識対象物の位置と前記動きベクトルに基づいて、前記認識対象物に対応する付加情報画像の表示位置を、前記認識対象物と前記動作部位以外の位置に制御する制御部
    を備えることを特徴とする画像処理装置。
  2. 前記認識部は、前記認識対象物に対応し、予め抽出される第1特徴点を記憶する記憶部にアクセス可能であり、
    前記画像から第2特徴点を抽出し、前記第1特徴点と前記第2特徴点を対応付けることによって、前記画像に含まれる前記認識対象物を認識することを特徴とする請求項1記載の画像処理装置。
  3. 前記制御部は、前記動きベクトルが所定の第1閾値未満の場合は、前記付加情報画像の前記表示位置を、前記認識対象物に重畳する位置に制御することを特徴とする請求項記載の画像処理装置。
  4. 前記制御部は、前記動きベクトルが前記第1閾値以上の場合は、前記付加情報画像の前記表示位置を、
    前記認識対象物が前記動きベクトルと前記付加情報画像に介在する位置、かつ
    前記認識対象物の基準位置と前記付加情報画像の基準位置の距離が最小距離となる位置に制御することを特徴とする請求項記載の画像処理装置。
  5. 前記制御部は、前記最小距離が所定の第2閾値以上の場合、前記最小距離が前記第2閾値未満となる様に前記付加情報画像から所定領域を選択し、前記所定領域を表示させること特徴とする請求項記載の画像処理装置。
  6. 前記付加情報画像を表示する表示部を更に備え、
    前記制御部は、前記付加情報画像の一部が、前記表示部の表示領域外となる場合、前記付加情報画像から、前記表示部の表示領域部内となる所定領域を選択し、前記所定領域を表示させること特徴とする請求項記載の画像処理装置。
  7. 認識対象物とユーザの動作部位を含む画像を取得し、
    前記画像から前記認識対象物と前記動作部位を認識し、
    複数の前記画像から前記動作部位の動きベクトルを算出し、
    前記認識対象物の位置と前記動きベクトルに基づいて、前記認識対象物に対応する付加情報画像の表示位置を、前記認識対象物と前記動作部位以外の位置に制御する
    ことを含むことを特徴とする画像処理方法。
  8. コンピュータに、
    認識対象物とユーザの動作部位を含む画像を取得し、
    前記画像から前記認識対象物と前記動作部位を認識し、
    複数の前記画像から前記動作部位の動きベクトルを算出し、
    前記認識対象物の位置と前記動きベクトルに基づいて、前記認識対象物に対応する付加情報画像の表示位置を、前記認識対象物と前記動作部位以外の位置に制御する
    ことを実行させることを特徴とする画像処理プログラム。
JP2013032635A 2013-02-21 2013-02-21 画像処理装置、画像処理方法および画像処理プログラム Active JP6075110B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013032635A JP6075110B2 (ja) 2013-02-21 2013-02-21 画像処理装置、画像処理方法および画像処理プログラム
US14/108,912 US9128529B2 (en) 2013-02-21 2013-12-17 Image processing device, image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013032635A JP6075110B2 (ja) 2013-02-21 2013-02-21 画像処理装置、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2014164356A JP2014164356A (ja) 2014-09-08
JP6075110B2 true JP6075110B2 (ja) 2017-02-08

Family

ID=51350807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013032635A Active JP6075110B2 (ja) 2013-02-21 2013-02-21 画像処理装置、画像処理方法および画像処理プログラム

Country Status (2)

Country Link
US (1) US9128529B2 (ja)
JP (1) JP6075110B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6525611B2 (ja) * 2015-01-29 2019-06-05 キヤノン株式会社 画像処理装置およびその制御方法
US10110858B2 (en) * 2015-02-06 2018-10-23 Conduent Business Services, Llc Computer-vision based process recognition of activity workflow of human performer
JP6746902B2 (ja) * 2015-12-01 2020-08-26 株式会社デンソーウェーブ 作業者用頭部装着型ディスプレイの情報表示システム
JP6841232B2 (ja) * 2015-12-18 2021-03-10 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
DE112016006116T5 (de) * 2016-01-29 2018-09-13 Mitsubishi Electric Corporation Roboterlehrvorrichtung und Verfahren zum Erzeugen eines Robotersteuerprogramms
CN106355153B (zh) * 2016-08-31 2019-10-18 上海星视度科技有限公司 一种基于增强现实的虚拟对象显示方法、装置以及系统
CN107516099B (zh) * 2017-08-21 2022-11-29 腾讯科技(深圳)有限公司 一种标记图片检测的方法、装置及计算机可读存储介质
US11321880B2 (en) * 2017-12-22 2022-05-03 Sony Corporation Information processor, information processing method, and program for specifying an important region of an operation target in a moving image
JP7127356B2 (ja) * 2018-05-14 2022-08-30 富士通株式会社 データ収集方法、データ収集プログラムおよび情報処理装置
JP7175715B2 (ja) * 2018-10-31 2022-11-21 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US11145130B2 (en) * 2018-11-30 2021-10-12 Apprentice FS, Inc. Method for automatically capturing data from non-networked production equipment
US10984546B2 (en) * 2019-02-28 2021-04-20 Apple Inc. Enabling automatic measurements
US11670144B2 (en) 2020-09-14 2023-06-06 Apple Inc. User interfaces for indicating distance

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
JP3863809B2 (ja) 2002-05-28 2006-12-27 独立行政法人科学技術振興機構 手の画像認識による入力システム
JP2005339266A (ja) * 2004-05-27 2005-12-08 Canon Inc 情報処理方法、情報処理装置、撮像装置
JP2006012042A (ja) 2004-06-29 2006-01-12 Canon Inc 画像生成方法及び装置
JP2006267887A (ja) 2005-03-25 2006-10-05 Konica Minolta Photo Imaging Inc 映像認識手段を備えたヘッドマウントディスプレイ
JP2008201101A (ja) 2007-02-22 2008-09-04 Kyocera Mita Corp 操作案内表示装置
JP2008250948A (ja) * 2007-03-30 2008-10-16 Sharp Corp 情報処理装置、情報処理方法、情報処理プログラム、情報処理プログラムを記録した記憶媒体、並びに情報表示装置
JP5250834B2 (ja) * 2008-04-03 2013-07-31 コニカミノルタ株式会社 頭部装着式映像表示装置
JP5201015B2 (ja) * 2009-03-09 2013-06-05 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP5298984B2 (ja) * 2009-03-17 2013-09-25 株式会社リコー ヘルプ情報提供システム、サーバ装置、対象機器、携帯通信端末、ヘルプ情報提供方法、プログラム及び記録媒体
JP2012173772A (ja) * 2011-02-17 2012-09-10 Panasonic Corp ユーザインタラクション装置、ユーザインタラクション方法、ユーザインタラクションプログラム、及び集積回路
US8941560B2 (en) * 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
JP5983053B2 (ja) * 2012-06-01 2016-08-31 コニカミノルタ株式会社 ガイダンス表示システム、ガイダンス表示装置、ガイダンス表示方法、およびガイダンス表示プログラム

Also Published As

Publication number Publication date
JP2014164356A (ja) 2014-09-08
US9128529B2 (en) 2015-09-08
US20140232636A1 (en) 2014-08-21

Similar Documents

Publication Publication Date Title
JP6075110B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US10082879B2 (en) Head mounted display device and control method
US20180218202A1 (en) Image processing device, method thereof, and program
US8923559B2 (en) Image processing apparatus, image processing method, and program
KR100947990B1 (ko) 차영상 엔트로피를 이용한 시선 추적 장치 및 그 방법
KR102285915B1 (ko) 모바일 디바이스를 위한 실시간 3d 제스처 인식 및 트랙킹 시스템
US9542003B2 (en) Image processing device, image processing method, and a computer-readable non-transitory medium
US9405182B2 (en) Image processing device and image processing method
US8699749B2 (en) Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
KR20140002008A (ko) 정보 처리 장치, 정보 처리 방법 및 기록 매체
US20130148849A1 (en) Image processing device and method
EP2492873B1 (en) Image processing program, image processing apparatus, image processing system, and image processing method
JP2014029656A (ja) 画像処理装置および画像処理方法
US20160140762A1 (en) Image processing device and image processing method
WO2011096571A1 (ja) 入力装置
JP6390260B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN111176425A (zh) 多屏幕操作方法与使用此方法的电子系统
JP6011154B2 (ja) 画像処理装置、画像処理方法
CN103839032A (zh) 一种识别方法及电子设备
US20200167005A1 (en) Recognition device and recognition method
JP6805375B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP6762544B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
WO2024012268A1 (zh) 虚拟操作方法、装置、电子设备及可读存储介质
TWI529608B (zh) 一種手勢辨識追蹤方法及其系統
JP2020095671A (ja) 認識装置及び認識方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151007

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161226

R150 Certificate of patent or registration of utility model

Ref document number: 6075110

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150