JPWO2007141860A1 - 誘導装置および方法 - Google Patents

誘導装置および方法 Download PDF

Info

Publication number
JPWO2007141860A1
JPWO2007141860A1 JP2008520096A JP2008520096A JPWO2007141860A1 JP WO2007141860 A1 JPWO2007141860 A1 JP WO2007141860A1 JP 2008520096 A JP2008520096 A JP 2008520096A JP 2008520096 A JP2008520096 A JP 2008520096A JP WO2007141860 A1 JPWO2007141860 A1 JP WO2007141860A1
Authority
JP
Japan
Prior art keywords
virtual image
display
guidance
posture
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008520096A
Other languages
English (en)
Other versions
JP4712874B2 (ja
Inventor
壮一 ▲浜▼
壮一 ▲浜▼
渡辺 正規
正規 渡辺
青木 隆浩
隆浩 青木
遠藤 利生
利生 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2007141860A1 publication Critical patent/JPWO2007141860A1/ja
Application granted granted Critical
Publication of JP4712874B2 publication Critical patent/JP4712874B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Input (AREA)

Abstract

非接触で対象物をかざして測定を行う装置において、対象物を測定するのに適切な位置に誘導するために、適切な位置に対象物の形状に基づいた手本となる虚像を表示し、対象物と虚像の位置・姿勢・形状の差を算出し、手本の虚像と同じ場所に算出した差を示す表示を行うことにより、ユーザは効率的に位置決め行うことが可能となる。

Description

本発明は、被写体を非接触で撮像する検査装置や認証装置などの装置において、被写体を撮像装置に対して適正な位置・姿勢に誘導するための誘導装置および方法に関する。
現在、検査や認証を行うために非接触で被写体を撮像する装置がある。このような装置において、正しい検査、認証結果を得るためには、決められた位置、向き、形で手などの被写体を撮影する必要があるが、このような装置は通常のカメラのように手で持ってファインダを覗いて撮影するのではなく、装置に固定された撮像装置に対して被写体をかざして撮像することが多い。また、被写体は固定されていないため被写体の位置、向き、形などが定まらず、適切な画像を撮影することが難しかった。
このため従来技術では、被写体をかざすときの目安となる手本を示し、正しい位置かどうかを音声等で通知するといった方法が取られていた。
例えば、特許文献1には、非接触で血管像撮影を行う認識装置において、撮影装置表面に被写体をかざす手本となる手形を貼り付け、手の位置・向きを検出し、手を近づけすぎた場合には音声・ベル・ランプ点灯などにより利用者に通知する技術が開示されている。
また、特許文献2では、ステレオスコープで指の立体画像を表示し、立体表示と指の重なり具合を検出し、一致したときに撮像を行う技術が開示されている。
しかしながら上記従来技術では、被写体の位置や向きをどの程度修正すればよいのかがわかりにくいため、適切な位置にできるまで試行錯誤を繰り返さなければならず、位置決め効率が悪いという問題点があった。
国際公開第04/021884号パンフレット 特開平5−108808号公報
本発明の課題は、上記問題に鑑み、容易に位置決めを行うことができる効率的な誘導装置および方法を提供することである。
本発明の一態様によれば、本発明の誘導装置は、非接触で対象物をかざして測定を行う装置において、虚像を表示する虚像表示手段と、前記対象物が最終的に配置されるべき位置に、前記対象物の形状に基づいた手本となる虚像を前記虚像表示手段に表示させる手本表示生成手段と、前記対象物の位置・姿勢を検出する様体検出手段と、前記対象物の位置・姿勢と前記虚像の位置・姿勢の差を修正量演算算出する手段と、前記虚像と同じ場所に前記算出した差を示す誘導表示を前記虚像表示手段に表示させる誘導表示生成手段と、を備える。
また、本発明の誘導装置において、前記虚像は対象物と同じ大きさ・形状であることが望ましい。
また、本発明の誘導装置において、前記虚像の大きさ・形状は、記憶媒体に記録されたデータにより決定されることが望ましい。
また、本発明の誘導装置において、前記誘導表示は、前記対象物の現状から前記虚像までの位置の移動、姿勢の回転、または形状の変形を示す矢印表示であることが望ましい。
また、本発明の誘導装置において、前記誘導は、前記対象物の現状から前記虚像までの位置の移動、姿勢の回転、または形状の変形のアニメーション表示であることが望ましい。
また、本発明の誘導装置は、前記位置の移動、姿勢の回転、または形状の変形の表示をそれぞれ別々に行うことが望ましい。
また、本発明の誘導装置は、前記対象物と前記虚像の周辺にそれぞれの位置・姿勢を示す補助線を表示することが望ましい。
また、本発明の誘導装置は、前記対象物と前記虚像の周辺にそれぞれの位置・姿勢を示す補助面を表示することが望ましい。
本発明によれば、ユーザは被写体付近から視線を動かさずに、正しい位置・姿勢を達成するための修正を具体的な量を伴って知ることができるため、無駄な動作をすることなく効率的に位置決め行うことができる。
本発明の実施の形態に係る誘導装置の構成を示す図である。 本発明の実施の形態に係る誘導装置の処理部の処理フローを示す図である。 本発明の実施の形態に係る誘導装置の表示装置の構成を示す図である。 凹面鏡による虚像表示の原理を示す図である。 ステレオスコープを用いた表示装置を示す図である。 偏光めがねを用いた表示装置を示す図である。 被写体の自由度を説明する図である。 被写体の姿勢変更を説明する図である。 被写体の形状が変化を示す図である。 位置がずれている場合の本発明の実施の形態に係る誘導表示を示す図である。 姿勢がずれている場合の本発明の実施の形態に係る誘導表示を示す図である。 変形がある場合の本発明の実施の形態に係る誘導表示を示す図である。 本発明の実施の形態に係る誘導装置の誘導処理のフローチャートである。 誘導表示に修正アニメーションを用いた場合のフローチャートである。 手本が隠れる場合の本発明の実施の形態に係る検出方法を説明する図である。 本発明の実施の形態に係る補助線による補助表示を示す図である。 本発明の実施の形態に係る補助面による補助表示を示す図である。
以下、図面を参照しながら、本発明の実施の形態を説明する。
図1は、本発明の実施の形態に係る誘導装置の構成を示す図である。
本発明の誘導装置は、手本となる虚像106および修正すべき量を示す誘導表示107を表示するための表示装置101と、被写体108の位置、姿勢、形状などの様体を検出する位置・姿勢・形状検出装置(様体検出装置)102と、被写体108の形状・大きさが記憶された記憶媒体103と、各信号を処理する処理部104と、被写体108を撮影する撮影カメラ105から構成される。
記憶媒体103は、ICカードや磁気カードなどの可搬型記憶媒体であり、ユーザの手などの被写体の大きさ、形状が記録されている。手などの被写体の大きさ、形状はユーザごとに異なるため、記憶媒体103に記録されている被写体の大きさ、形状のデータは、ユーザの手などの被写体と同じ形状、大きさを示すデータであることが望ましい。使用時には、ユーザは記憶媒体103を誘導装置の読み取り部にセットする。また、記憶媒体103は、誘導装置に内蔵された記憶装置やネットワークで接続された記憶装置でも良い。
本発明の誘導装置は被写体108の形状・大きさと撮影カメラ105に対する適正位置に基づいて、手本の虚像106を撮影カメラ前方に見えるように表示する。ユーザが被写体108を近づけると、撮影カメラ105により被写体108が撮影され、位置・姿勢・形状検出装置102により被写体108の位置・姿勢・形状が検出される。
被写体108の位置・姿勢・形状は記憶媒体103に記録されている手本情報と比較され、修正すべき量が処理部104により計算され、修正すべき量を示す表示が手本の虚像106付近に表示される。ユーザは手本の虚像106、誘導表示107、および被写体108を同時に観測しながら、適正な位置に被写体を移動させる。
次に各部の詳細について説明する。
図2は、本発明の実施の形態に係る誘導装置の処理部の処理フローを示す図である。
ステップS201において、誘導装置の処理部内の手本データ生成部で、記憶媒体103から読み取った被写体の形状・大きさ情報と、誘導装置の内部に保持される撮影カメラ105上の適正位置情報(不図示)から正解となる手本データが計算され、誘導装置の処理部内の手本表示生成部および修正量演算部に手本データが送られる。
ステップS202において、計算された手本データを基に誘導装置の処理部内の手本表示生成部で手本表示信号が生成され、表示装置101に出力される。
一方で、ステップS203において、位置・姿勢・形状検出装置102で検出された被写体の位置・姿勢・形状は、誘導装置の処理部内の修正量演算部で手本データと比較され、その差分が修正量として計算され、誘導装置の処理部内の誘導表示生成部に出力される。
ステップS204において、計算された修正量に基づき誘導表示生成部で誘導表示信号が生成され、表示装置101に出力され、誘導表示107が表示される。
図3は、本発明の実施の形態に係る誘導装置の表示装置の構成を示す図である。図3において表示装置101は、凹面鏡301を用いて虚像を表示している。
図4は、凹面鏡による虚像表示の原理を示す図である。
図4に示すように2枚の凹面鏡401、402を向かい合わせ、一方の焦点がもう一方の凹面鏡中心になるように配置すると、一方の凹面鏡402の中心に置いた物体の虚像が、もう一方の凹面鏡401の中心に現れる。凹面鏡は一部だけを切り取っても機能するので、ユーザが装置に向かう方向を限定できるのであれば、図3に示すように凹面鏡301の一部だけを使用しても良い。図3では、凹面鏡301の一方の中心に液晶ディスプレイなどの表示パネル302を配置し、ここに図2の処理部で生成された手本の虚像および誘導表示を表示するための映像を表示すると、凹面鏡301の反射により撮影カメラ105のレンズ前方に虚像106、107が現れる。
本発明では虚像表示を実現する手段は上記した手段に限らず、別の手段でも構わない。すなわち、
図5は、ステレオスコープを用いた表示装置を示す図である。
図5においてステレオスコープを用いた表示装置は、左右の目に視差のある画像を別々に見せる装置で、スコープ内に表示パネル501、502を有し、表示パネル501、502に視差を持たせた画像を表示し、ハーフミラー503、504に反射した画像を左右の目それぞれみせることで、前方に虚像を見せるものである。ハーフミラーに投影しているため、外の実世界も同時に観測できる。
図6は、偏光めがねを用いた表示装置を示す図である。
図6において偏光めがね601を用いた表示装置は、2種類の偏光状態を表示できる表示パネル602に視差画像を表示、または2つのプロジェクタに画像を別々の偏光状態を持たせて投射し、左右別々の偏光方向の偏光フィルタをはめた眼鏡で観測することにより、立体画像をみせるものである。
他にも特殊な眼鏡の方式としては、時間差で視差画像を表示し左右のシャッタが時間差で交互に開くもの、視差画像を赤と青など別の色で表示し左右別々の色フィルタで見るものなどがある。
また、図示していないが表示パネル表面にプリズムを備え、左右の目に個別の画像を見せることで虚像を実現しても良い。
次に本発明の実施の形態に係る位置・姿勢・形状検出装置について説明する。本発明の実施の形態に係る位置・姿勢・形状検出装置を説明するにあたり、位置・姿勢・形状についての関連事項についてまず説明する。
図7は、被写体の位置変化を説明する図である。
被写体は直交するx、y、z軸それぞれの方向に平行移動する自由度を持つ。位置の検出とは、被写体が正解位置からどのくらい平行移動しているかを検出することを示す。x、y方向の位置は撮影カメラ105によって得られる画像から容易に検出可能である。z方向の位置は画像から精度よく検出するのは難しいが、例えば赤外線反射方式を用いた距離センサにより容易に検出することが可能である。
図8は、被写体の姿勢変化を説明する図である。
図8に示すように、被写体はある位置を中心にその場で回転する自由度を持つ。回転は、図7のx、y、z軸を中心とした3つの回転がある。姿勢の検出とは、被写体が正解の状態からどれだけ回転しているか(どの向きを向いているか)を検出することを示す。z軸まわりの姿勢変化については、撮影カメラ105で撮像された画像から容易に検出できる。x、y軸まわりの姿勢変化を画像から検出する技術は、出願人が先に考案した国際公開第04/021884号パンフレット「個人認識装置」で開示されている。また、国際公開第04/084140号パンフレット「撮影装置」に記載のような複数の距離センサを備えた撮影装置により姿勢を検出する技術も開示されている。
図9は、被写体の形状が変化を示す図である。
通常、空間に置かれた物体の自由度は、図7、図8に示した6つの自由度を考えればよいが、折り畳み型の携帯電話や人体のように接合部(関節)で複数の部位が結合されており、変形し得る被写体もあり得る。
このため、図9に示すような形状の変化も考慮する。図9では、例として指の開き方の変化を示している。図9の右図では、丸で囲まれた部分の指が開いており、左図では閉じている。形状の変化は撮影カメラ105の画像から得られた形状と手本画像の形状を比較することにより検出可能である。
次に、本発明の実施の形態に係る誘導表示について説明する。
図10は、位置がずれている場合の本発明の実施の形態に係る誘導表示を示す図である。
手本の虚像106は被写体108が置かれるべき位置に表示される。そのため、被写体108の位置が不適切な場合には、手本の虚像106と被写体108が別々に視認される。ここに、被写体108をどの方向にどれくらい移動する必要があるかを示すグラフィックを手本の虚像106に重ねて表示する。すなわち、被写体108と手本の虚像106と同じ場所、特に被写体108と手本の虚像106の間に表示する。例えば、図10に示すように、被写体108の現状位置から正解位置まで手本の虚像106が移動するアニメーション表示を行う、または移動距離に応じた長さで現状位置から正解位置に向かう矢印を表示する方法がある。
図11は、姿勢がずれている場合の本発明の実施の形態に係る誘導表示を示す図である。
手本の虚像106と被写体108の姿勢(角度)が異なる場合は、位置ずれの場合と同様、手本の虚像106と被写体108がそれぞれ視認される。ここに、被写体108をどの方向にどれくらい回転する必要があるかを示すグラフィックを手本の虚像106に重ねて表示する。例えば、図11に示すように、被写体108の現状姿勢から正解姿勢まで手本の虚像106が回転するアニメーション表示を行う、または回転角度に応じた矢印を表示する方法がある。
図12は、変形がある場合の本発明の実施の形態に係る誘導表示を示す図である。
図12では親指が曲がっている場合の例を示している。変形がない部分は手本の虚像106が被写体108に隠れているが、変形部分は手本の虚像106と被写体108それぞれが視認される。ここに、変形部分をどのように動かせばよいかを示すグラフィックを手本の虚像106に重ねて表示する。例えば、図12に示すように、現状から正解までの動きを示すアニメーション表示を行う、または矢印表示を示す方法がある。
このように誘導表示を行う場合、移動・姿勢・変形の全ての修正要素を一度に表示するとかえってわかりにくくなる恐れがある。そこで、優先順位をつけて1つ1つ誘導する。優先順位の付け方としては、
(1)移動→姿勢→変形の順番で収束するまで誘導を繰り返す
(2)修正率が大きいものから順に誘導し、収束するまで繰り返す
などの方法が考えられる。
修正率は、位置・姿勢・変形のそれぞれについてある基準を設け、その基準に対する修正量の割合として定義する。例えば、位置の変化は5cmを100%としたときの位置変化量、姿勢の変化は30°を100%としたときの角度変化量、変形は手本をz軸に射影した面積に対する修正量の面積比として定義することにより、異なる次元の修正量の大小を比較することができる。
誘導の結果、被写体108が適正な位置・姿勢・形状になると手本の虚像106と完全に重なるため、手本の虚像表示は見えなくなる。それにより、修正完了を知ることができるが、手本の虚像周辺の色を変える等の補助表示を行うことにより更に明確な通知が可能となる。
また、以上の誘導開始から終了までに、従来技術と同様の音声・ベル・ランプなどを補助的に併用してもかまわない。
図13は、本発明の実施の形態に係る誘導装置の誘導処理のフローチャートである。図13においては、修正率が大きいものから順に誘導する場合を示す。
ステップS1301において、ICカード等の記録媒体が読み取り部に挿入される。
ステップS1302において、記憶媒体より被写体の形状・大きさの情報が読み出され、手本画像が生成される。
ステップS1303において、被写体の位置を検出する。
ステップS1304において、被写体が誘導範囲内にあるか判定する。誘導範囲内にある場合はステップS1305に進み、誘導範囲内にない場合はステップS1303に戻る。誘導範囲は、例えば表示装置が虚像を表示できる範囲等に設定する。
ステップS1305において、ステップS1302で生成した手本を表示する。
ステップS1306において、被写体の位置・姿勢・形状を検出する。
ステップS1307において、位置、姿勢、形状のそれぞれの修正率を計算する。
ステップS1308において、全ての修正率が基準内にあるかを判定する。基準内にある場合はステップS1309に進み、基準内にない場合はステップS1311に進む。
ステップS1309において、被写体を撮影する。
ステップS1310において、終了したことをユーザに通知し、手本の表示を消去する。
ステップS1311において、位置、姿勢、形状のそれぞれの修正率を比較し、最大のものを選択する。
ステップS1312において、誘導表示を行う。その後、ステップS1306に戻る。
図14は、誘導表示に修正アニメーションを用いた場合のフローチャートである。
ステップS1401において、変数iを1とする。
ステップS1402において、被写体を手本に対して{(全修正量/n)*i}だけ修正した画像を生成する。nは事前に定めても、全修正量に応じて決定しても良い。
ステップS1403において、表示していた修正画像があれば消去し、ステップS1402で生成した画像を表示することで、表示画像を更新する。
ステップS1404において、iをインクリメントする。
ステップS1405において、i=nか判定する。i=nのときステップS1406に進み、i≠nのときステップS1402に戻る。また、i=nのときステップS1402に戻り、複数回ループさせてから終了するようにしても良い。
例えば、位置の修正を表示するアニメーションを考える。n=10とする。手本の虚像に対して被写体の位置が5cmずれている場合、全修正量は5cmである。5cmを10で割ると0.5cmなので、まず、被写体から手本の虚像に対して0.5cm近づいた虚像が表示され、次にさらに0.5cm、すなわち1cm近づいた虚像が表示される。以下同様に、0.5cmずつ徐々に手本に近づいていく虚像が順次表示されることで、修正を表示するアニメーションが構成される。
図15は、手本が隠れる場合の本発明の実施の形態に係る検出方法を説明する図である。
例外的に、ユーザの視点から見て手本の虚像106の上に被写体108が覆いかぶさる状態になった場合には、修正が未完了の状態でありながら手本の虚像106が見えなくなる場合がある。このような場合には、補助線や補助面などの補助表示を行うことが望ましい。
誘導表示を行うのは被写体が検出可能な範囲にある場合のみであるため、図15に示すように、検出可能領域と視線から手本の虚像106を結ぶ領域が重なる斜線で示された範囲に被写体108が入った場合に補助表示を行えばよい。ユーザの身長差により補助表示が必要な領域にはマージンが必要であるが、ユーザはある程度決まった方向から装置を使用するため、ユーザの視点位置はある程度限定できる。補助表示が必要な領域はあらかじめ測定し、決定しておく。
図16は、本発明の実施の形態に係る補助線による補助表示を示す図である。
図16は、被写体と手本の虚像の外側を囲むように、それぞれの位置・姿勢を示す補助線を表示する例を示す。補助線は、被写体108と手本の虚像106を中心にし、
補助線を表示する場合には、矢印などの誘導表示は、被写体108そのものではなく補助線に重ねて表示する。
図17は、本発明の実施の形態に係る補助面による補助表示を示す図である。
図17は、被写体と手本の虚像の周辺に、それぞれの位置・姿勢を示す補助面を表示する例を示す。被写体108を示す補助面が手本の虚像位置に移動するアニメーション表示や矢印表示を重ねることにより誘導を行う。
なお、補助線や補助面は、手本の虚像が隠れる可能性がある位置に被写体が存在する場合にのみ表示しても、常に表示してもよいが、必要な場合にのみ表示するのが適当である。
以上、本発明の実施の形態を、図面を参照しながら説明してきたが、本発明は、以上に述べた実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の構成または形状を取ることができる。

Claims (16)

  1. 非接触で対象物をかざして測定を行う装置において、
    虚像を表示する虚像表示手段と、
    前記対象物が最終的に配置されるべき位置に、前記対象物の形状に基づいた手本となる虚像を前記虚像表示手段に表示させる手本表示生成手段と、
    前記対象物の位置・姿勢を検出する様体検出手段と、
    前記対象物の位置・姿勢と前記虚像の位置・姿勢の差を算出する修正量演算手段と、
    前記虚像と同じ場所に前記算出した差を示す誘導表示を前記虚像表示手段に表示させる誘導表示生成手段と、
    を備える誘導装置。
  2. 前記虚像は対象物と同じ大きさ・形状であることを特徴とする請求項1記載の誘導装置。
  3. 前記虚像の大きさ・形状は、記憶媒体に記録されたデータにより決定されることを特徴とする請求項2記載の誘導装置。
  4. 前記誘導表示は、前記対象物の現状から前記虚像までの位置の移動、姿勢の回転、または形状の変形を示す矢印表示であることを特徴とする請求項1記載の誘導装置。
  5. 前記誘導表示は、前記対象物の現状から前記虚像までの位置の移動、姿勢の回転、または形状の変形のアニメーション表示であることを特徴とする請求項1記載の誘導装置。
  6. 前記位置の移動、姿勢の回転、または形状の変形の表示をそれぞれ別々に行うことを特徴とする請求項4または5記載の誘導装置。
  7. 前記対象物と前記虚像の周辺にそれぞれの位置・姿勢を示す補助線を表示することを特徴とする請求項1記載の誘導装置。
  8. 前記対象物と前記虚像の周辺にそれぞれの位置・姿勢を示す補助面を表示することを特徴とする請求項1記載の誘導装置。
  9. 非接触で対象物をかざして測定を行う装置において、
    前記対象物が最終的に配置されるべき位置に、前記対象物の形状に基づいた手本となる虚像を虚像表示手段に表示させるステップと、
    前記対象物の位置・姿勢を検出するステップと、
    前記対象物の位置・姿勢と前記手本の虚像の位置・姿勢の差を算出するステップと、
    前記手本の虚像と同じ場所に前記算出した差を示す誘導表示を前記虚像表示手段に表示させるステップと、
    を備える誘導方法。
  10. 前記虚像は対象物と同じ大きさ・形状であることを特徴とする請求項9記載の誘導方法。
  11. 前記虚像の大きさ・形状は、記憶媒体に記録されたデータにより決定されることを特徴とする請求項10記載の誘導方法。
  12. 前記誘導表示は、前記対象物の現状から前記虚像までの位置の移動、姿勢の回転、または形状の変形を示す矢印表示であることを特徴とする請求項9記載の誘導方法。
  13. 前記誘導表示は、前記対象物の現状から前記虚像までの位置の移動、姿勢の回転、または形状の変形のアニメーション表示であることを特徴とする請求項9記載の誘導方法。
  14. 前記位置の移動、姿勢の回転、または形状の変形の表示をそれぞれ別々に行うことを特徴とする請求項12または13記載の誘導装置。
  15. 前記対象物と前記虚像の周辺にそれぞれの位置・姿勢を示す補助線を表示することを特徴とする請求項9記載の誘導方法。
  16. 前記対象物と前記虚像の周辺にそれぞれの位置・姿勢を示す補助面を表示することを特徴とする請求項9記載の誘導方法。
JP2008520096A 2006-06-08 2006-06-08 誘導装置および方法 Expired - Fee Related JP4712874B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2006/311531 WO2007141860A1 (ja) 2006-06-08 2006-06-08 誘導装置および方法

Publications (2)

Publication Number Publication Date
JPWO2007141860A1 true JPWO2007141860A1 (ja) 2009-10-15
JP4712874B2 JP4712874B2 (ja) 2011-06-29

Family

ID=38801132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008520096A Expired - Fee Related JP4712874B2 (ja) 2006-06-08 2006-06-08 誘導装置および方法

Country Status (6)

Country Link
US (1) US20090091531A1 (ja)
EP (1) EP2031556A4 (ja)
JP (1) JP4712874B2 (ja)
KR (1) KR100999989B1 (ja)
CN (1) CN101460972A (ja)
WO (1) WO2007141860A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5353484B2 (ja) * 2009-06-30 2013-11-27 日本電気株式会社 生体パターン撮像装置
WO2012014304A1 (ja) 2010-07-29 2012-02-02 富士通株式会社 生体認証装置および生体認証プログラム
US9113074B2 (en) * 2010-12-22 2015-08-18 Olympus Corporation Imaging apparatus, imaging method, and computer readable storage medium for applying special effects processing to an automatically set region of a stereoscopic image
WO2013005305A1 (ja) * 2011-07-05 2013-01-10 富士通株式会社 認証装置、電子装置、方法及びプログラム
WO2013005306A1 (ja) * 2011-07-05 2013-01-10 富士通株式会社 認証装置、電子装置、方法及びプログラム
JP5708375B2 (ja) * 2011-08-29 2015-04-30 富士通株式会社 電子装置、生体画像認証装置、生体画像認証プログラムおよび生体画像認証方法
US10140537B2 (en) * 2012-10-26 2018-11-27 Daon Holdings Limited Methods and systems for capturing biometric data
JP6028555B2 (ja) * 2012-12-12 2016-11-16 ソニー株式会社 情報処理装置、プログラム及び情報処理方法
CN105791660A (zh) * 2014-12-22 2016-07-20 中兴通讯股份有限公司 一种纠正被摄物体拍摄倾斜的方法、装置及移动终端
JP6523925B2 (ja) * 2015-11-10 2019-06-05 株式会社日立製作所 生体情報を用いた認証装置及び認証方法
JP7164405B2 (ja) * 2018-11-07 2022-11-01 日立チャネルソリューションズ株式会社 画像読取り装置及び方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05108808A (ja) * 1991-10-14 1993-04-30 Sharp Corp 指紋入力装置
JPH1091784A (ja) * 1996-09-13 1998-04-10 Toshiba Corp 個人認証装置
JP2001266133A (ja) * 2000-03-16 2001-09-28 Yamatake Corp 指紋照合装置
JP2003108983A (ja) * 2001-09-28 2003-04-11 Matsushita Electric Ind Co Ltd 目画像撮像装置及び虹彩認証装置並びに虹彩認証機能付き携帯端末装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4889425A (en) * 1987-11-02 1989-12-26 The Boeing Company Laser alignment system
JPH0421884A (ja) 1990-05-17 1992-01-24 Canon Inc 画像形成装置
US5054090A (en) * 1990-07-20 1991-10-01 Knight Arnold W Fingerprint correlation system with parallel FIFO processor
US5574511A (en) * 1995-10-18 1996-11-12 Polaroid Corporation Background replacement for an image
US5828773A (en) * 1996-01-26 1998-10-27 Harris Corporation Fingerprint sensing method with finger position indication
WO2000052417A1 (fr) * 1999-02-26 2000-09-08 Anritsu Corporation Appareil et procede de mesure de deplacement
JP3825222B2 (ja) * 2000-03-24 2006-09-27 松下電器産業株式会社 本人認証装置および本人認証システムならびに電子決済システム
US7379077B2 (en) * 2001-08-23 2008-05-27 Siemens Corporate Research, Inc. Augmented and virtual reality guided instrument positioning using along-the-line-of-sight alignment
JP3810782B2 (ja) * 2002-09-03 2006-08-16 富士通株式会社 個人認識装置
US8190239B2 (en) * 2002-09-03 2012-05-29 Fujitsu Limited Individual identification device
JP4015153B2 (ja) * 2003-03-18 2007-11-28 富士通株式会社 撮影装置
JP3860552B2 (ja) * 2003-03-25 2006-12-20 富士通株式会社 撮影装置
US7369759B2 (en) * 2003-03-27 2008-05-06 Matsushita Electric Industrial Co., Ltd. Eye image pickup apparatus, iris authentication apparatus and portable terminal device having iris authentication function
JP4207717B2 (ja) * 2003-08-26 2009-01-14 株式会社日立製作所 個人認証装置
EP1747525A2 (en) * 2004-04-23 2007-01-31 Validity Sensors Inc. Methods and apparatus for acquiring a swiped fingerprint image
JP4515850B2 (ja) * 2004-07-30 2010-08-04 富士通株式会社 生体認証装置の誘導画面制御方法、生体認証装置及びそのプログラム
JP4207937B2 (ja) * 2005-08-25 2009-01-14 株式会社日立製作所 個人認証装置
JP2007099261A (ja) * 2005-09-12 2007-04-19 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置
JP4704185B2 (ja) * 2005-10-27 2011-06-15 富士通株式会社 生体認証システム及び生体認証方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05108808A (ja) * 1991-10-14 1993-04-30 Sharp Corp 指紋入力装置
JPH1091784A (ja) * 1996-09-13 1998-04-10 Toshiba Corp 個人認証装置
JP2001266133A (ja) * 2000-03-16 2001-09-28 Yamatake Corp 指紋照合装置
JP2003108983A (ja) * 2001-09-28 2003-04-11 Matsushita Electric Ind Co Ltd 目画像撮像装置及び虹彩認証装置並びに虹彩認証機能付き携帯端末装置

Also Published As

Publication number Publication date
KR20090010099A (ko) 2009-01-28
JP4712874B2 (ja) 2011-06-29
EP2031556A1 (en) 2009-03-04
KR100999989B1 (ko) 2010-12-10
US20090091531A1 (en) 2009-04-09
WO2007141860A1 (ja) 2007-12-13
EP2031556A4 (en) 2013-01-02
CN101460972A (zh) 2009-06-17

Similar Documents

Publication Publication Date Title
JP4712874B2 (ja) 誘導装置および方法
JP6678122B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6393367B2 (ja) 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法
JP4262014B2 (ja) 画像撮影装置および画像処理方法
KR102079097B1 (ko) 투명 디스플레이를 이용한 증강현실 구현 장치 및 그 방법
JP5739674B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
TW201003570A (en) Image processing apparatus and image processing method
JP4144492B2 (ja) 画像表示装置
KR20160005762A (ko) 홍채 영상 장치의 차선으로 최적화된 배향을 보상하는 방법 및 장치
JP5602702B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
JP5439281B2 (ja) ユーザ視点空間映像提示装置、ユーザ視点空間映像提示方法及びプログラム
CN111491159A (zh) 一种增强现实的显示系统及方法
JP2005117285A (ja) 情報入力装置、通信端末及び通信方法
WO2018168823A1 (ja) 画像処理装置および電子機器
JP2004205711A (ja) 表示装置
CN104460011B (zh) 立体成像装置和立体图像生成方法
CN109084679A (zh) 一种基于空间光调制器的3d测量及获取装置
CN110278366A (zh) 一种全景图像虚化方法、终端及计算机可读存储介质
JP5896445B2 (ja) 表示装置、表示方法及びプログラム
WO2021237952A1 (zh) 一种增强现实的显示系统及方法
CN111736692B (zh) 显示方法、显示装置、存储介质与头戴式设备
JP2011113196A (ja) 顔方向特定装置及び撮像装置
JP2005050034A (ja) 画像処理方法および装置
WO2018168825A1 (ja) 画像処理装置および電子機器
JP2005050033A (ja) 画像処理方法および画像生成装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101220

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110323

LAPS Cancellation because of no payment of annual fees