JP6955369B2 - 情報処理装置、情報処理装置の制御方法及びプログラム - Google Patents

情報処理装置、情報処理装置の制御方法及びプログラム Download PDF

Info

Publication number
JP6955369B2
JP6955369B2 JP2017101141A JP2017101141A JP6955369B2 JP 6955369 B2 JP6955369 B2 JP 6955369B2 JP 2017101141 A JP2017101141 A JP 2017101141A JP 2017101141 A JP2017101141 A JP 2017101141A JP 6955369 B2 JP6955369 B2 JP 6955369B2
Authority
JP
Japan
Prior art keywords
image
information processing
finger
model
measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017101141A
Other languages
English (en)
Other versions
JP2018195267A (ja
JP2018195267A5 (ja
Inventor
一大 古賀
一大 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017101141A priority Critical patent/JP6955369B2/ja
Priority to US15/984,584 priority patent/US10692291B2/en
Publication of JP2018195267A publication Critical patent/JP2018195267A/ja
Publication of JP2018195267A5 publication Critical patent/JP2018195267A5/ja
Application granted granted Critical
Publication of JP6955369B2 publication Critical patent/JP6955369B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理装置の制御方法及びプログラムに関する。
コンピュータによって作られる仮想空間と現実空間とを、繋ぎ目なく融合する複合現実感(Mixed Reality;MR)技術がある。
MR技術では、組み立て作業時に作業手順や配線の様子を重畳表示する組み立て検証等、様々な分野への応用が進んでいる。ビデオシースルー型HMD(Head Mounted Display)を利用するMR技術では、HMDに内蔵されている撮影装置であるカメラから現実空間の画像を取得し、仮想物体と重畳してHMDの表示装置に表示を行う。MR技術で現実物体(例えば手)と仮想物体との前後関係を正しく表現するために、現実物体と仮想物体の3次元位置情報を求める。すなわち、現実物体の3次元位置情報と仮想物体の3次元位置情報を比較し、現実物体が手前になる場合は、撮影した画像を手前に表示する。この前後関係を正しく表現するには、現実物体の3次元位置を正しく求めるとともに、現実物体の形状(長さや幅や厚み)が正確であれば、前後関係の判定をより正確に行える。
また、仮想物体に対して現実物体が接触したかを判定して仮想物体の移動を行う利用例においても、現実物体の3次元位置と現実物体の各部位の形状(長さや幅や厚み)が正確であれば、仮想物体との接触の判定もより正確に行える。現実物体の3次元形状を仮想空間上で表すために、現実物体の3次元モデルを生成して仮想物体との前後判定や接触判定を行う等の応用も進んでいる。
特許文献1では、現実の手の指や掌の関節の座標値と曲がり角度を取得して、予め測定した指の太さ及び手のひらの厚みのデータを付加して手の3次元形状のモデルを作成する方法が開示されている。
特許4071511号公報
しかしながら、特許文献1では、指の太さ及び手のひらの厚みの寸法データを計測する方法については開示されていない。また、手指の3次元形状のモデルの作成にあたり、寸法データの計測を別途行う作業が必要であり、さらに寸法データをコンピュータシステムに手作業で入力する必要がある。よって、事前作業の寸法計測が正確でないと、仮想物体の前後判定や接触判定の精度が下がってしまう。また、手のような現実物体の場合、形状が複雑で部位が多いため、手作業での寸法データ入力は非常に手間がかかるだけではなく、タイプミスや別の物体のデータを入力してしまうなどの入力ミスが発生することがある。
このように、特許文献1に記載の技術では、寸法データの入力の手間がかかるだけではなく、精度の低い寸法データが入力されてしまう可能性があるという課題がある。
本発明は、上記の課題に鑑みてなされたものであり、高精度な寸法データを手間なく収集して手指のモデルを生成するための技術を提供することを目的とする。
上記の目的を達成する本発明に係る情報処理装置は、
手指の部位の寸法の計測に適切な手指の姿勢を指示するガイド画像を表示させる表示制御手段と、
手指の撮影画像を解析して、当該撮影画像が手指の部位の寸法を計測するために適切な撮影画像であるかを判定する判定手段と、
前記判定手段により適切であると判定された撮影画像を用いて前記手指の寸法を計測する計測手段と、
前記寸法の情報を用いて前記手指の3次元形状のモデルを生成するモデル生成手段と、
を備えることを特徴とする。
本発明によれば、高精度な寸法データを手間なく収集して手指のモデルを生成することが可能となる。
実施形態1における情報処理装置の構成を示すブロック図である。 実施形態1における情報処理装置のハードウェア構成を示すブロック図である。 実施形態1における情報処理装置の処理を示すフローチャートである。 実施形態1における情報処理装置の手の3次元形状の推定処理を示すフローチャートである。 実施形態1における手の3次元モデルの一例を示す模式図である。 実施形態1における情報処理装置の寸法計測処理を示すフローチャートである。 実施形態1における情報処理装置の寸法計測可否判定処理を示すフローチャートである。 実施形態1における寸法計測可否判定を行う対象画像の一例を説明するための模式図である。 実施形態1における情報処理装置の対象部位の寸法計測処理を示すフローチャートである。 実施形態1における対象部位の寸法計測を行う画像の一例を説明するための模式図である。 実施形態1における寸法情報テーブルを説明するための模式図である。 実施形態2における情報処理装置の寸法計測可否判定処理を示すフローチャートである。 実施形態2における寸法計測可否判定を行う対象画像の一例を説明するための模式図である。 実施形態3における情報処理装置の寸法計測可否判定処理を示すフローチャートである。 実施形態3における寸法計測可否判定を行う対象画像の一例を説明するための模式図である。 実施形態4における情報処理装置の寸法計測可否判定処理を示すフローチャートである。 実施形態4における寸法計測可否判定を行う対象画像の一例を説明するための模式図である。 実施形態5における情報処理装置の構成を示すブロック図である。 実施形態5におけるガイド表示の一例を説明するための模式図である。 実施形態5における情報処理装置の寸法計測可否判定処理を示すフローチャートである。
以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
(実施形態1)
<概要>
本実施形態では、体験者の手(例えば図1の150)をステレオカメラ(例えば撮像装置100および撮像装置110)で撮影し、手の領域の奥行き値と3次元形状を推定する。そして、推定結果に基づいてディスプレイ(例えば図1の208)にCGモデル(例えば図1の160と手(例えば図1の150)との前後関係に応じてCGモデル(例えば図1の160)の画像を加工して実写画像と合成表示する例について説明する。
<情報処理装置の機能構成>
図1は、本実施形態における現実物体の3次元形状を推定する情報処理装置の機能構成を示すブロック図である。情報処理装置1は、画像取得部1000と、画像記憶部1010と、物体形状推定部1020と、物体寸法計測部1030と、モデル形状記憶部1040と、画像生成部1050と、画像合成部1060と、位置姿勢推定部1070とを備えている。
画像取得部1000は、撮像装置100および撮像装置110のステレオ画像を取得する。撮像装置100と撮像装置110の映像は、ステレオ計測用の処理画像として用いるため、互いに固定されているものとする。撮像された映像には、操作者の手150および撮像装置100および撮像装置110の位置姿勢を計測するためのマーカ170が映り込んでいるものとする。
画像記憶部1010は、画像取得部1000により取得された映像を一時的に記憶する。画像取得部1000からは、例えば1/30秒ごとに画像データが送信される。物体形状推定部1020は、画像記憶部1010に記憶されているステレオ画像を取得し、手150の3次元形状を算出する。手150の3次元形状の算出方法については後述する。物体形状推定部1020は、手150の3次元形状をモデル形状記憶部1040に出力する。
物体寸法計測部1030は、画像記憶部1010に記憶されている画像を取得し、物体形状推定部1020により形状推定を行う際に必要となる手150の各部位の寸法を算出する。手150の各部位の算出方法については後述する。物体寸法計測部1030は、手150の各部位の寸法情報を保持し、物体形状推定部1020が手の3次元形状を推定する際に利用できるようにしておく。
モデル形状記憶部1040は、CGモデル160の3次元モデルデータ、および、物体形状推定部1020から受けた手150の3次元形状のデータを保持する。保持しているデータは、画像生成部1050に出力する。
位置姿勢推定部1070は、撮像装置100および撮像装置110のカメラ位置姿勢を計測する。本実施形態では、撮像画像に映り込む正方形マーカ170の投影像に基づいて撮像装置の位置姿勢を推定する。例えば、画像を二値化し、四角形の頂点を抽出し、山登り法の繰り返し演算で画像上における投影誤差を最小化してカメラ位置姿勢を推定すればよい。なお、モーションキャプチャ装置や磁気センサなど、その他の計測方法を用いて撮像装置の位置姿勢を計測してもよい。
画像生成部1050は、モデル形状記憶部1040に格納されたCGモデル160と手150の3次元形状、および位置姿勢推定部1070から取得した撮像装置100および撮像装置110の視点位置姿勢に基づいてCGモデル160の画像を生成する。画像生成部1050は、CGモデル160の描画ピクセルにおける手150との前後関係を比較して、CGモデルを描画するかどうかを決定する。すなわち、手150の方がCGモデル160よりも手前にあると判定した場合は、そのピクセルにCGモデル160を描画せず、画像合成部1060で実写映像の手を見せるようにCGモデル160の画像を加工する。
画像合成部1060は、画像記憶部1010に格納されている撮像装置100と撮像装置110との夫々の画像に対して、画像生成部1050により生成したCGモデル160の3次元形状の夫々の画像を上書き合成する。その際、手150の3次元形状をモデル化した手のCGモデルを合成してもよいし、手のCGモデルは上書きせずに現実の実写画像の手だけを見せるようにしてもよい。生成された合成画像は、ディスプレイ208に出力し、体験者にCGモデル160と手150との前後関係を視覚的に提示する。
また、画像記憶部1010は、形状推定部1020、位置姿勢推定部1070、画像生成部1050の処理で利用した実写画像を画像合成部1060に入力する。これは、画像生成部1050で生成した3次元形状の画像と画像記憶部1010の画像とが同期が取れた状態で、画像合成部1060により合成を行うためである。
<情報処理装置のハードウェア構成>
次に、図2は、本実施形態を実現するための情報処理装置のハードウェアを示す模式図である。情報処理装置1は、CPU201、画像取り込み器202、記憶媒体203、ROM204、RAM205を備えており、マウス206、キーボード207、ディスプレイ208と接続されている。また、撮像装置100及び撮像装置110が画像取り込み器202と接続されている。
CPU201は、RAM205をワークメモリとして、ROM204に格納されたプログラムを実行し、後述する各構成を統括的に制御する。これにより、後述する様々な処理が実行される。
画像取り込み器202は、接続された撮像装置100および撮像装置110から出力された画像信号を受信し、フレーム画像として取り込む装置である。記憶媒体203は、読み書き可能な記憶装置であり、フラッシュメモリやHDDの他、光ディスクドライブ等の記憶デバイスでもよい。
ROM204は、書き換え不可な不揮発性メモリでプログラムや固定データの記憶装置としての役割を持つ。CPU201は、ROM204からのデータ読み出しや記憶媒体203へのデータ読み書きが可能である。
RAM205は、高速に読み書き可能なワークメモリである。また、プログラムがRAM205にロードされてCPU201で実行され、画像取り込み器202により取り込まれた画像などを一時的に格納する領域でもある。
マウス206やキーボード207は、情報処理装置1を体験者が操作するためのインタフェースであり、装置の設定や制御を指示する際に利用する。ディスプレイ208は、CRTや液晶画面などにより構成されており、各種の情報を画像や文字などをもって表示することができる。なお、本実施形態の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。
<処理>
図3は、本実施形態における情報処理装置が実施する処理全体の流れを示すフローチャートである。ステップS3010では、画像取得部1000が、撮像装置100および撮像装置110から画像を取得する。
ステップS3020では、画像記憶部1010が、画像取得部1000から取得したステレオ画像を一時的にメモリ(例えばRAM205)に記録する。ステップS3030では、物体形状推定部1020が、画像記憶部1010のステレオ画像に映り込んだ手150の領域を抽出し、手の3次元形状を推定する。本ステップの詳細については図4を用いて後述する。
ステップS3040では、位置姿勢推定部1070が、少なくとも撮像装置100または撮像装置110のどちらか1つの位置姿勢を計測する。推定した位置姿勢は、画像生成部1050によりCGモデルのレンダリングに用いられる。
ステップS3050では、画像生成部1050が、モデル形状記憶部1040に格納されている手150の3次元形状とCGモデル160の形状と、位置姿勢推定部1070により計測された撮像装置の位置姿勢を取得する。さらに、画像生成部1050が、撮像装置の位置姿勢から見たCGモデル160の画像を描画する。ただし、描画するにあたり、手150とCGモデル160との撮像装置からの距離を描画ピクセルごとに判別し、手150が手前にあるピクセルについては、CGモデル160を描画せず、透明の状態にする。すなわち、画像合成部1060で実写映像を手前に見せることで、手150の画像を体験者に提示することができる。
ステップS3060では、画像合成部1060が、ステップS3020で記録してある実写映像の上にステップS3050で生成したCGモデル160の画像を上書きして合成する。ステップS3070では、画像合成部1060が、ステップS3060で生成した合成画像をディスプレイ208に出力する。
次に図4のフローチャートを用いて、ステップS3030における手の3次元形状の推定処理の詳細を説明する。ステップS4010では、物体形状推定部1020が、画像記憶部1010に記録されている撮像装置100および撮像装置110のそれぞれの画像に対して、対象物体である手150の領域を抽出する。
本実施形態では、画素の色情報に基づいて対象物体の領域を抽出する。すなわち、手の場合は、手の肌色情報をあらかじめ登録しておき、実写画像から肌色情報に一致する色領域を対象物体領域として抽出する方法である。なお、色情報を用いる以外に、画像を二値化して求めたエッジ情報から輪郭を求める等の他の方法を用いてもよく、対象物体の領域を求められる方法であれば適用可能である。
ステップS4020では、物体形状推定部1020が、ステップS4010で抽出した領域の輪郭線座標リストに対し、左右の画像における輪郭のサンプリングポイントをステレオマッチング処理により対応付ける。このステレオマッチング処理は、例えば、左眼用の画像におけるサンプリングポイントを、右眼用の画像におけるサンプリングポイントと対応付けるために、右眼上にエピポーラ線を引く。そして、エピポーラ線に近い輪郭線のサンプリングポイントを対応点としてマッチングを行えばよい。
なお、本発明は、ステレオマッチングにエピポーラ線を利用することに限定されるものではなく、サンプリングポイントの周辺領域の画像相関を探索する方法など、対応点を求められる方法であれば適用可能である。
さらに、物体形状推定部1020は、求めた対応点の対応情報と、撮像装置100および110のステレオカメラの左右の相対位置姿勢とカメラ内部パラメータ(レンズ歪み、透視投影変換情報)に基づいて三角測量(図7)を用いて対応点の奥行き値を決定する。対応点すべての奥行き値を算出し、対応点802の撮像手段における3次元位置(X,Y,Z)を対応点リストとしてRAM205上に保持しておく。なお、本発明はステレオ画像による奥行き推定の手法に限定されず、デプスセンサによって計測された奥行き値を利用するなど、3次元位置が求められる方法であれば適用可能である。
ステップS4030では、物体形状推定部1020が、対応点リストに格納されている対応点の3次元位置の中から、手指の関節および指先の位置を推定する。この関節や指先の位置推定処理は、例えば、手指の関節や指先の位置情報が画像と共に登録された不図示の手の画像データベースの中から、対象物体の領域抽出で求めた手の抽出画像に最も類似する形状を検索する。そして、ヒットした登録画像の指先や関節の位置情報から推定する方法がある。この場合、画像中の関節位置のポイントに最も隣接する対応点を先ほどの対応点リストから検索して関節や指先の位置を推定する。また、別の手法としては、つめや関節のしわを検出して関節や指先を推定する方法もあり、本発明は指先や関節の位置を特定できる方法であれば適用可能である。
ステップS4040では、物体形状推定部1020が、ステップS4030で求めた各関節や指先の位置情報から各部位の識別を行う。各部位とは、例えば親指の指先から第一関節までが親指の第一の部位であり、第一関節から第二関節までが親指の第二の部位となる。部位の分類については、後ほど図5で手のモデルの例を用いて説明を行う。各部位の識別については、ステップS4030において手の画像データベースの中から最も類似する手の画像を検索する手法で求める場合には、データベースの画像に各部位の情報も付加したデータベースにしておけばよい。
そのようなデータベースであれば、最も類似する形状の画像がデータベースから検索できた時点で、データベース画像の付加情報を参照することにより、画像中のどの位置がどの部位に当たるかを識別可能である。また、つめや関節のしわを検出して関節や指先を推定する方法を用いた場合には、各関節間の長さの比率などからどの指かを特定することにより部位を識別することが可能である。この部位識別処理により、ステップS4030で求めた各関節と指先がどの部位に属するかを特定できる。
最後に、ステップS4050では、物体形状推定部1020が、各部位の指先および関節に対して各部位の3次元モデルを配置することにより、手全体の3次元モデル形状を推定する。具体的には、親指であれば、親指の指先と第一関節のポイントに対し、親指の第一の部位の3次元モデルを配置し、第一関節と第二関節のポイントの間に親指の第二の部位の3次元モデルを配置する。この一連の処理を全ての指およびてのひらの部位に対して行い、形状を推定した手の3次元形状モデルを生成する。
ここで、図5は本実施形態における手の3次元モデルを模式図で示した図である。図5を用いて、具体的な手の3次元モデルとその部位について説明を行う。まず、手の3次元モデル5000は、5本の指と手のひら部とを含み、各親指は2つ、その他の指は3つの部位に分割されている。よって、15個の部位から構成されている。
各部位には部位を識別する為のラベルを割り当てている。本実施形態では、親指はTH0とTH1、人差し指はNI0、NI1、NI2、中指はMI0、MI1、MI2、薬指はTD0、TD1、TD2、小指はLT0、LT1、LT2、手のひらはPM、という名称のラベルを割り当てている。
各部位の形状を決定するためには寸法の情報が必要である。例えば親指のTH1の部位モデル5010の形状を作成するためには、高さ5011、幅5012、奥行き5013の情報が必要である。本実施形態では、部位の上部JUと中央JMと下部JLの3箇所でそれぞれ幅と奥行きの情報を定義しているが、形状をより正確に表現するために、更に細かく定義しても構わない。
手の3次元モデルを生成するために、各部位の寸法情報が必要なことについて図5を用いて前述したが、その寸法を取得する処理を行う物体寸法計測部1030の説明として、図6のフローチャートを用いて、寸法計測の全体処理フローを説明する。
ステップS6010では、物体寸法計測部1030は、画像取得部1000から取得した画像が記憶されている画像を画像記憶部1010から参照する。ステップS6020では、物体寸法計測部1030は、参照した撮影画像を解析して計測対象部位の寸法計測を行うのに適切な画像であるかを判定する寸法計測可否判定処理を行う。判定結果はRAM205の不図示の領域に記憶する。寸法計測可否判定処理の詳細については図7のフローチャートを参照して後述する。
ステップS6030では、物体寸法計測部1030は、RAM205を参照して寸法計測が可能かどうかの判定結果を確認する。寸法計測が可能であると判定された場合には、ステップS6040へ進む。寸法計測が可能ではないと判定された場合には、ステップS6050へ進む。
ステップS6040では、物体寸法計測部1030は、対象部位の寸法計測処理を行う。ステップS6050では、物体寸法計測部1030は、画像記憶部1010に記憶されている画像が次の画像に更新されるのを待ち、更新されたらステップS6010に戻り、再度同じ処理をやり直す。
以上説明したように、物体寸法計測部1030が画像記憶部1010の画像を参照(S6010)して、手指の寸法計測可否を判定する処理を行い(S6020)、計測可か否かを判定(S6030)する。そして、計測可と判定した場合は手指の寸法計測処理(S6040)を行い、計測不可と判定した場合は次の画像に更新されるのを待つ(S6050)。そして、物体形状推定部1020は、物体寸法計測部1030が計測した各部位の寸法計測値を参照して手指の3次元形状のモデルを生成する。
次に、図7のフローチャートを参照して、ステップS6020の寸法計測可否判定処理の処理内容の詳細を説明する。実施形態1では、爪の映っている割合を用いて厚みを計測するのに適切な真横からの撮影ができているか否かを判定する例について説明する。
ステップS7010では、物体寸法計測部1030は、計測対象となる指の領域を抽出する。指領域の抽出については、図4の説明で述べた3次元形状の推定と同様に、画素の色情報に基づいて対象物体の領域全体を抽出する。その領域に対して画像を二値化して求めたエッジ情報から輪郭を求めて指の領域を特定する。
ステップS7020では、物体寸法計測部1030は、求めた指の領域の中から爪の領域を抽出する。爪の領域抽出については、前述したエッジ情報から指の先端領域に対してエッジ輪郭で囲まれた閉領域を検出することで爪領域を抽出する。なお、爪領域の抽出については、事前に爪の領域を別途撮影して爪領域の色情報を登録しておき、登録された色情報との色の比較を行い、爪領域を指の領域の中から抽出する方法など、爪領域が抽出できる方法であれば他の方法でも適用可能である。
ステップS7030では、物体寸法計測部1030は、抽出した爪領域に対して爪全体の内、何割が映っているかを示す割合を推定する。割合を求めるためには、爪全体が正面から写っている時の画像からあらかじめ爪の縦横比を求めておき、「現画像の爪の縦横比÷爪全体の縦横比」を計算することにより、割合を概略推定することが可能である。割合の推定を行う画像の例については、図8を参照して後述する。
ステップS7040では、物体寸法計測部1030は、ステップS7030で求めた割合が閾値の範囲内か否かを判定する。適切な画像と判定する割合の範囲として、あらかじめ下限閾値NLと上限閾値NHを定義しておく。割合がこの閾値範囲に収まっている場合には、ステップS7050へ進み、計測可能と判定する。一方、割合が閾値範囲外である場合は、ステップS7060へ進み計測不可と判定する。物体寸法計測部1030は、判定結果をRAM205の不図示の領域に書き込んでおく。当該判定結果は図6のステップS6030で参照される。
例えば、爪の映っている割合が0.1〜0.3の間を好適と定義した場合には、NL=0.1、NH=0.3と設定する。そして、割合が0.2であった場合にはこの範囲に収まっているため、好適な範囲となり、寸法計測可能と判定する。
続いて、図8を参照して、図7で説明した爪の縦横比を求める手順について撮影画像の概略図を用いて説明を行う。図8(a)は、判定される撮影対象の指8000が映った画像を示す図である。爪の領域8010を前述したとおり抽出する。そして、爪領域の縦方向の長さ8020を求め、横方向の長さ8030も同様に求め、縦横比を算出する。図8(b)は、撮影対象の指8040を爪が正面になるように撮影した画像を示す図である。同様にして爪領域8050を抽出し、爪領域の縦方向の長さ8060を求め、横方向の長さ8070も同様に求め、縦横比を算出する。
具体的な値を例に説明すると、判定対象画像の爪領域の縦方向の長さ8020が10mmで横方向の長さ8030が2mmの場合、判定対象画像の縦横比は0.2となる。同様に爪全体が映っている画像の爪領域の縦方向の長さ8060が10mmで横方向の長さ8070の長さが10mm場合、縦横比が1.0となる。
爪全体が映っている場合の爪の縦横比は10mm÷10mm=1.0で、判定対象画像の縦横比は2mm÷10mm=0.2となり、割合は0.2÷1.0=0.2となり、割合0.2と推定できる。
次に、図9のフローチャートを参照して、ステップS6040の対象部位の寸計測処理の手順を説明する。ステップS9010では、物体寸法計測部1030は、計測対象画像から計測ポイントを検出する。計測対象画像とは、前述した寸法計測可否判定処理で計測可と判定した画像であり、画像記憶部1010から画像を参照する。詳細は図10を参照して説明するが、指の各部位の寸法を測るポイント(寸法計測の両端にあたる点)を画像の特徴から検出する。
ステップS9020では、物体寸法計測部1030は、検出された計測ポイント間の距離をそれぞれ計測する。ステレオマッチングと三角測量により3次元位置を求める手法を用いて各々の計測ポイントの3次元位置を求め、計測ポイントの2点間の距離を算出することができる。なお、画像中に寸法の指標となる物体を一緒に撮影して、指標のサイズとの比率から距離を求める等、他の方法を用いても構わず、2点間の距離を画像から求められる方法であれば適用可能である。
ステップS9030では、物体寸法計測部1030は、求めた距離を各部位の寸法情報として寸法情報テーブル(RAM205の不図示の領域)に記憶する。寸法情報テーブルの詳細については図11を参照して後述する。
ここで、図10は、計測対象画像の一例を概略図で示したものである。計測対象の指10000に対し、指先や各関節や関節間の中間に計測ポイントを検出しており、図10では説明のためにあえて白丸と黒丸を付けて図示している。計測ポイントの検出は、最初に指先の爪の先端部10010をまず検出し、そこから順にしわの特徴から各関節の表面部に計測ポイントを検出していく。第一関節の背側100020、第二関節の背側10030、第三関節の背側10040と検出していく。なお、本実施形態では、背側とは、手の甲側(指で言うと爪のある側)のことを指し、腹側とは、手のひら側(指でいうと爪と反対側)のことを指すものとする。
次に、指先の爪の先端部10010から垂直におろした腹側の先端部10050を検出し、背側と同様に、第一関節の腹側100060、第二関節の腹側10070、第三関節の腹側10080と検出していく。
関節と関節の間の厚みも計測するため、指先と第一関節との間の計測ポイント10090、第一関節と第二関節との間の計測ポイント10100、第二関節と第三関節との間の計測ポイント10100を検出していく。同様に、腹側についても、指先と第一関節との間の計測ポイント10120、第一関節と第二関節との間の計測ポイント10130、第二関節と第三関節との間の計測ポイント10140と検出していく。関節と関節の間の計測ポイントは関節と関節のちょうど中央に定義してもよいし、一定の割合(例:4対6)の場所に定義してもよい。
このようにして検出した計測ポイントから、厚みを計測するために対になる計測ポイント間の距離を算出する。指先は計測ポイント10010と計測ポイント10050との距離、指先と第一関節との間は計測ポイント10090と計測ポイント10120との距離、第一関節は計測ポイント10020と計測ポイント10060トとの距離といった具合に全ての対となる計測ポイント間の距離を算出する。
次に、図11は、図9および図10を用いて説明した各部位の計測距離を記憶した寸法情報テーブルの一例を表で図示したものである。寸法情報テーブル11000は、図5で説明した手の3次元モデルの定義にしたがった各部位の寸法についての情報を格納するテーブルとなっている。
まず、部位名11010が各行のラベルとして登録されており、部位の寸法11020が列のラベルとして定義されている。部位の寸法としては部位の高さ11030、部位の上部(JU)10040に幅11070、奥行き11080、中央(JM)10050に幅11090、奥行き11100、下部(JL)10060に幅11120、奥行き11130とそれぞれのラベルが定義されている。この表に、先ほど図9の寸法計測処理によって計測された各部位の寸法情報が記憶される。寸法情報テーブル11000の各情報が寸法計測処理によって全て揃うことにより、図5で示した手の3次元モデルの各部位の寸法が確定する。
以上説明したように、本実施形態では、測定対象物体の寸法を計測するのに適切な画像を判定してから各部位の寸法を計測し、得られた寸法から手の3次元モデルの生成を行う。本実施形態によれば、高精度な寸法データを手間なく自動的に収集して手指のモデルを生成することが可能となる。また、このようにして生成された3次元モデルを用いて接触判定などを行うことにより、高精度な接触判定処理などを実現することが可能となる。
(実施形態2)
<概要>
実施形態1では、爪の映っている割合を用いて厚み(寸法)を計測するのに適切な真横からの撮影ができているか否かを判定する例を説明した。これに対して、実施形態2では、指のしわ領域の背側と腹側の割合の情報を用いて、厚み(寸法)を計測するのに適切な真横からの撮影ができているか否かを判定する例について説明する。
本実施形態では、実施形態1で示した情報処理装置1の構成に変更はなく、物体寸法計測部1030で実行する処理の一部を変更すればよい。つまり、実施形態1の図6で説明したステップS6020の対象部位の寸法計測可否判定処理の処理内容(実施形態1では図7のフローチャートに該当)が変更となる。
<処理>
図12のフローチャートを参照して、指のしわ領域の背側と腹側との割合を用いて厚みを計測するのに適切な真横からの撮影ができているか否かを判定する寸法計測可否判定処理の手順を説明する。
ステップS12010では、物体寸法計測部1030は、撮影画像を解析して計測対象となる指の領域を抽出する。指領域の抽出の方法については、実施形態1で既に述べているのでここでは説明を省略する。
ステップS12020では、物体寸法計測部1030は、求めた指の領域の中からしわの線を抽出する。しわの抽出は、画像を二値化して求めたエッジ情報からしわの線を抽出し、その線の中から細かいしわを除外するために一定以上の太さを持つ線を抽出することにより行う。
ステップS12030では、物体寸法計測部1030は、抽出したしわの線に対して背側のしわの線の指輪郭からの距離と、腹側のしわの線の指輪郭からの距離との比率を算出し、背側に何割が映っているかという割合を推定する。しわの割合の推定を行う画像の例については、図13を参照して後述する。
ステップS12040では、物体寸法計測部1030は、ステップS12030で求めた割合が閾値の範囲内か否かを判定する。適切な画像と判定する割合の範囲として、あらかじめ下限閾値SLと上限閾値SHを定義しておく。割合がこの閾値範囲に収まっている場合には、ステップS12050へ進み、計測可能と判定する。一方、割合が閾値範囲外である場合は、ステップS12060へ進み、計測不可と判定する。物体寸法計測部1030は、判定結果をRAM205の不図示の領域に書き込んでおく。当該判定結果は、図6のステップS6030で参照される。
例えば、背側のしわの映っている割合が0.4〜0.6の間を好適と定義した場合には、NL=0.3、NH=0.5と設定する。そして、推定した割合が0.4であった場合にはこの閾値範囲に収まっているため、好適な範囲となり、寸法計測可能と判定する。
ここで、図13を参照して、しわの割合を求める手順について、撮影画像の概略図を用いて説明を行う。図13は、判定される撮影対象の指13000が映った画像である。、しわの背側の線13010としわの腹側の線13020を前述したとおり抽出する。そして、しわの背側の線に対する指の輪郭からの垂直距離13030を求め、同様にしわの腹側の線に対する指の輪郭からの垂直距離13040を求める。例えば、しわの背側の線の垂直距離が4mmでしわの腹側の線の垂直距離が6mmであった場合には、推定した割合は0.4となる。
本実施形態によれば、指のしわの情報を用いて、厚みを計測するのに適切な真横からの撮影ができているか否かを判定することができる。
(実施形態3)
<概要>
実施形態1では、爪の映っている割合を用いて厚み(寸法)を計測するのに適切な真横からの撮影ができているか否かを判定する例を説明した。これに対して、実施形態3では、対象物の背側と腹側の色の類似度の情報を用いて、厚み(寸法)を計測するのに適切な真横からの撮影ができているか否かを判定する例を説明する。この方法は、手の背側と腹側とで色味が異なることを利用して判定する方法である。
本実施形態では、実施形態1で示した情報処理装置1の構成に変更はなく、物体寸法計測部1030で実行する処理の一部を変更すればよい。つまり、実施形態1の図6で説明したステップS6020の対象部位の寸法計測可否判定処理の処理内容(実施形態1では図7のフローチャートに該当)が変更となる。
<処理>
図14のフローチャートを参照して、指の背側と腹側の色の類似度を用いて、厚みを計測するのに適切な真横からの撮影ができているか否かを判定する寸法計測可否判定処理の手順を説明する。
ステップS14010では、物体寸法計測部1030は、撮影画像を解析して計測対象となる指の領域を抽出する。指領域の抽出の方法については、実施形態1で既に述べているのでここでは説明を省略する。
ステップS14020では、物体寸法計測部1030は、求めた指の領域の中から背側と腹側の色情報を抽出する。ステップS14030では、物体寸法計測部1030は、背側と腹側で抽出した色情報(例えばRGB毎のヒストグラム)を比較し類似度を求める。色の類似度の推定を行う画像の例については、図15を参照して後述する。
ステップS14040では、物体寸法計測部1030は、ステップS14030で求めた類似度が閾値の範囲内か否かを判定する。適切な画像と判定する割合の範囲として、あらかじめ下限閾値CLと上限閾値CHを定義しておく。類似度が閾値範囲に収まっている場合には、ステップS14050へ進み、計測可能と判定する。一方、類似度が閾値範囲外である場合は、ステップS14060へ進み、計測不可と判定する。
例えば、色の類似度が80〜90の間を好適と定義した場合には、CL=80、CH=90と設定する。そして、求めた類似度が84であった場合にはこの範囲に収まっているため、好適な範囲となり、寸法計測可能と判定する。
続いて、図15を参照して、色の類似度を求める手順について、撮影画像の概略図を用いて説明を行う。図15は、判定される撮影対象の指15000が映った画像である。背側の表面の領域15010と、腹側の表面の領域15020に対して前述したとおり、それぞれ色情報(例えばRGB毎のヒストグラム)を抽出する。背側の表面の領域15010と、腹側の表面の領域15020とは、それぞれ同一サイズの矩形領域であり、当該矩形領域から色情報を取り出す。そして、色情報の類似度を算出(例えばヒストグラムを比較して差異面積と共通部面積を算出し、共通部面積÷(差異面積+共通部面積)で類似度を算出)する。類似度の算出については、RGB毎のヒストグラムの差異を比較する以外の方法であっても構わず、色の形式や算出方法は本実施形態で示したやり方に限定されるものではなく、類似度が求められればよい。
本実施形態によれば、対象物の背側と腹側の色の類似度を用いて、厚みを計測するのに適切な真横からの撮影ができているか否かを判定することができる。
(実施形態4)
<概要>
実施形態1では、爪の映っている割合を用いて、厚み(寸法)を計測するのに適切な真横からの撮影ができているか否かを判定していた。これに対して、実施形態4では、対象物の領域から飛び出ている特徴(例えば、毛)の検出結果の情報を用いて、厚み(寸法)を計測するのに適切な真横からの撮影ができているか否かを判定する例について説明する。この方法は、真横から撮影できていれば手や指の背側に毛が検出されることを利用して判定する方法である。
本実施形態では、実施形態1で示した情報処理装置の構成に変更はなく、物体寸法計測部1030で実行する処理の一部を変更すればよい。つまり、実施形態1の図6で説明したステップS6020の対象部位の寸法計測可否判定処理の処理内容(実施形態1では図7のフローチャートに該当)が変更となる。
<処理>
図16のフローチャートを参照して、特徴(毛)の検出結果を用いて、厚みを計測するのに適切な真横からの撮影ができているか否かを判定する寸法計測可否判定処理の手順を説明する。
ステップS16010では、物体寸法計測部1030は、撮影画像を解析して計測対象となる指の領域を抽出する。指領域の抽出の方法については、実施形態1で既に述べているのでここでは説明を省略する。
ステップS16020では、物体寸法計測部1030は、求めた指の領域から出ている毛を検出する。毛の検出方法は、ステップS16010で求めた指の領域の近傍領域を二値化して求めたエッジ情報から指の輪郭から出ている線を検出する。指の輪郭から出ている線成分を毛として検出するが、誤判定を低減するために、一定の長さ以上の線についてはノイズとして対象から外す処理も行う。毛の検出を行う画像の例については、図17を参照して後述する。
ステップS16030では、物体寸法計測部1030は、ステップS16020で行った毛の検出結果から背側で毛を検出した否かを判定する。毛を検出した場合は、ステップS16040へ進み、計測可能と判定する。一方、毛を検出できなかった場合は、ステップS16050へ進み、計測不可と判定する。
続いて、図17を参照して、毛の検出を行う手順について、撮影画像の概略図を用いて説明を行う。図17は、判定される撮影対象の指17000が映った画像である。背側の表面の近傍領域17010に対し、図16で説明した方法により毛の検出処理を行う。
本実施形態によれば、対象物の背側での毛の検出結果を用いて、厚みを計測するのに適切な真横からの撮影ができているか否かを判定することができる。
(実施形態5)
<概要>
実施形態1では、爪の映っている割合を用いて、厚み(寸法)を計測するのに適切な真横からの撮影ができているか否かを判定していた。
これに対して、実施形態5では、厚み(寸法)を計測するのに適切な真横の姿勢を体験者に促すためのガイド表示を行う。そして、体験者が表示されたガイドに合うように手指の姿勢を合わせることにより、厚みの計測に適切なポーズでの撮影が可能となる。更に、ガイドと手との形状の一致度に基づいて厚み(寸法)を計測するのに適切な真横からの撮影ができているか否かを判定する例について説明する。
本実施形態では、実施形態1で示した情報処理装置の構成に一部追加があり、物体寸法計測部1030で実行する処理の一部が異なる。つまり、実施形態1の図1と、図6で説明したステップS6020の対象部位の寸法計測可否判定処理の処理内容(実施形態1では図7のフローチャートに該当)が変更となるため、図18〜図20を参照して差分の説明を行う。
<情報処理装置の機能構成>
図18は、体験者に対しガイド表示を行う指示画像描画部が追加された現実物体の情報処理装置の機能構成を示すブロック図である。
情報処理装置18は、図1のブロック図に対し、指示画像描画部1080が追加された機能構成となっており、それ以外の構成はすべて共通であるため、共通部分の説明は省略する。
指示画像描画部1080は、寸法計測処理時に、手指の形状を体験者に指示するための姿勢ガイド画像を描画する処理を行い、描画した画像を画像合成部1060に送り、画像合成部1060にてガイド表示も追加で重畳する表示制御処理を行う。これにより、ディスプレイ208には計測を行う時にガイド画像が重畳して表示される。
次に、図19は、実際にガイド画像が重畳表示されている画像の例を概略図で示したものである。体験者の手19000の画像に対して手の形状姿勢を示すガイド表示19010が半透明で重畳されており、体験者はこのガイドを見ながら自分の手指がガイドに一致するように手の形状姿勢を変えて合わせこむ作業をおこなう。
このようにガイドを示して手指をその形状にあわせるように指示することにより、厚みを計測するのに適切な真横の姿勢での撮影が行えるようになる。
<処理>
図20のフローチャートを参照して、体験者がガイドに合わせた手指の撮影画像に対し、ガイドに対する一致度情報を用いて、厚みを計測するのに適切な真横からの撮影ができているか否かを判定する処理の手順を説明する。
ステップS20010では、物体寸法計測部1030は、撮影画像を解析して計測対象となる手指の領域を抽出する。手指領域の抽出の方法については、実施形態1で既に述べているのでここでは説明を省略する。
ステップS20020では、物体寸法計測部1030は、求めた手指の領域とガイド領域との一致度を算出する。領域の一致度を求めるには、ガイドと手指が重なってない領域の画素数と、ガイドから手指がはみ出ている領域の画素数を求めた上で、「一致度=(ガイド領域の画素数−(ガイドと手指が重なっていない領域の画素数+ガイドから手がはみ出ている領域の画素数))÷ガイド領域の画素数」により求める。
ステップS20030では、物体寸法計測部1030は、求めた一致度が下限閾値GL以上であるか否かを判定する。閾値以上であった場合は、ステップS20040へ進み、計測可能と判定する。一方、閾値未満であった場合は、ステップS20050へ進み、計測不可と判定する。
本実施形態によれば、ガイドに対する一致度情報を用いて、厚みを計測するのに適切な真横からの撮影ができているか否かを判定し、厚みを計測することができる。
以上説明したように、本発明の各実施形態によれば、計測対象物体の部位の計測に適切な画像を用いて計測対象物体の部位の寸法計測を行うことにより、より高精度に各部位の寸法を測定することができる。また、撮像装置により撮影した画像から計測した各部位の寸法データを直接参照して3次元モデルを生成して重畳することにより、各部位の寸法入力の手間を省き、撮像している対象物体に一致する寸法データに基づいてモデルを生成することができる。
なお、上記各実施形態では手指を対象に説明を行ったが、必ずしも手指に限定されるものではない。例えば5指以外のロボットハンド、あるいは足指などであっても本発明を適用することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1,18:情報処理装置、1020:物体形状推定部、1030:物体寸法計測部

Claims (19)

  1. 手指の部位の寸法の計測に適切な手指の姿勢を指示するガイド画像を表示させる表示制御手段と、
    手指の撮影画像を解析して、当該撮影画像が手指の部位の寸法を計測するために適切な撮影画像であるかを判定する判定手段と、
    前記判定手段により適切であると判定された撮影画像を用いて前記手指の寸法を計測する計測手段と、
    前記寸法の情報を用いて前記手指の3次元形状のモデルを生成するモデル生成手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記手指の指の爪全体の内、映っている爪の割合を推定する割合推定手段をさらに備え、
    前記判定手段は、前記割合の情報に基づいて判定を行うことを特徴とする請求項1に記載の情報処理装置。
  3. 前記撮影画像から指領域を抽出する指領域抽出手段と、
    前記指領域から爪領域を抽出する爪領域抽出手段と、をさらに備え、
    前記割合推定手段は、前記爪全体に対する抽出された爪領域の割合を推定する請求項2に記載の情報処理装置。
  4. 前記手指の指の映っているしわの内、背側のしわと腹側のしわとの割合を算出する算出手段をさらに備え、
    前記判定手段は、前記割合の情報に基づいて判定を行うことを特徴とする請求項1に記載の情報処理装置。
  5. 前記手指の指の背側の色と指の腹側の色との類似度を算出する算出手段をさらに備え、
    前記判定手段は、前記類似度の情報に基づいて判定を行うことを特徴とする請求項1に記載の情報処理装置。
  6. 前記手指の指の背側の毛を検出する検出手段をさらに備え、
    前記判定手段は、前記検出手段の検出結果に基づいて判定を行うことを特徴とする請求項1に記載の情報処理装置。
  7. 前記ガイド画像と前記手指との一致度を算出する算出手段をさらに備え、
    前記判定手段は、前記一致度の情報に基づいて判定を行うことを特徴とする請求項に記載の情報処理装置。
  8. 前記計測手段は、前記撮影画像から計測点を検出し、検出された計測点間の距離を計測することを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
  9. 前記計測手段は、前記計測された距離をテーブルに登録することを特徴とする請求項に記載の情報処理装置。
  10. 前記撮影画像を撮像した撮像装置の位置姿勢を推定する位置姿勢推定手段と、
    前記モデルと前記撮像装置の位置姿勢とに基づいて画像を生成する画像生成手段と、
    をさらに備えることを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
  11. 前記画像生成手段により生成された画像と前記撮影画像とを合成する合成手段をさらに有することを特徴とする請求項10に記載の情報処理装置。
  12. 前記合成手段により合成された合成画像を表示する表示手段をさらに有することを特徴とする請求項11に記載の情報処理装置。
  13. 前記画像生成手段は、前記モデルと前記撮影画像中の手との位置関係に基づいて当該モデルの描画を制御することを特徴とする請求項10乃至12の何れか1項に記載の情報処理装置。
  14. 前記モデル生成手段は、前記撮影画像から手領域を抽出する手領域抽出手段を有することを特徴とする請求項1乃至13の何れか1項に記載の情報処理装置。
  15. 前記撮影画像はステレオ画像であり、
    前記モデル生成手段は、前記ステレオ画像のそれぞれから抽出した前記手領域の輪郭上の点のマッチングにより対応点の三次元位置を算出する位置算出手段をさらに有することを特徴とする請求項14に記載の情報処理装置。
  16. 前記モデル生成手段は、
    前記対応点の三次元位置に基づいて前記手領域の複数の部位の三次元位置を推定する位置推定手段と、
    前記複数の部位を、それぞれの推定された三次元位置に基づいて識別する識別手段と、
    を有することを特徴とする請求項15に記載の情報処理装置。
  17. 前記モデル生成手段は、前記複数の部位のそれぞれのモデルを配置する配置手段をさらに有することを特徴とする請求項16に記載の情報処理装置。
  18. 情報処理装置の制御方法であって、
    手指の部位の寸法の計測に適切な手指の姿勢を指示するガイド画像を表示する表示工程と、
    手指の撮影画像を解析して、当該撮影画像が手指の部位の寸法を計測するために適切な撮影画像であるかを判定する判定工程と、
    前記判定工程により適切であると判定された撮影画像を用いて前記手指の寸法を計測する計測工程と、
    前記寸法の情報を用いて前記手指の3次元形状のモデルを生成する生成工程と、
    を有することを特徴とする情報処理装置の制御方法。
  19. コンピュータを、請求項1乃至17の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2017101141A 2017-05-22 2017-05-22 情報処理装置、情報処理装置の制御方法及びプログラム Active JP6955369B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017101141A JP6955369B2 (ja) 2017-05-22 2017-05-22 情報処理装置、情報処理装置の制御方法及びプログラム
US15/984,584 US10692291B2 (en) 2017-05-22 2018-05-21 Apparatus, method, and medium for generating a 3D model of a finger using captured image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017101141A JP6955369B2 (ja) 2017-05-22 2017-05-22 情報処理装置、情報処理装置の制御方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2018195267A JP2018195267A (ja) 2018-12-06
JP2018195267A5 JP2018195267A5 (ja) 2020-05-28
JP6955369B2 true JP6955369B2 (ja) 2021-10-27

Family

ID=64272432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017101141A Active JP6955369B2 (ja) 2017-05-22 2017-05-22 情報処理装置、情報処理装置の制御方法及びプログラム

Country Status (2)

Country Link
US (1) US10692291B2 (ja)
JP (1) JP6955369B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108230383B (zh) * 2017-03-29 2021-03-23 北京市商汤科技开发有限公司 手部三维数据确定方法、装置及电子设备
KR102203933B1 (ko) * 2018-11-26 2021-01-15 재단법인 실감교류인체감응솔루션연구단 다수의 손가락을 이용한 모션 캡쳐 인터페이스 방법 및 장치
US11263780B2 (en) * 2019-01-14 2022-03-01 Sony Group Corporation Apparatus, method, and program with verification of detected position information using additional physical characteristic points
JPWO2021166751A1 (ja) 2020-02-19 2021-08-26
JP7164135B2 (ja) * 2020-02-19 2022-11-01 キユーピー株式会社 情報処理装置、評価システム、機械学習装置、情報処理方法、及びプログラム
WO2022118536A1 (ja) * 2020-12-04 2022-06-09 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
US20220261085A1 (en) * 2021-02-12 2022-08-18 Apple Inc. Measurement based on point selection
CN117480381A (zh) * 2021-06-18 2024-01-30 三菱电机株式会社 图像处理装置、图像处理方法以及图像处理程序

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4071511B2 (ja) 2002-03-04 2008-04-02 独立行政法人科学技術振興機構 グリップ形状の設計システム
JP2005091085A (ja) * 2003-09-16 2005-04-07 Gifu Univ 非接触型関節角度計測システム
JP4938748B2 (ja) * 2008-11-06 2012-05-23 日本放送協会 画像認識装置及びプログラム
JP5777507B2 (ja) * 2011-12-27 2015-09-09 キヤノン株式会社 情報処理装置、情報処理方法、及びそのプログラム
US8638989B2 (en) * 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
JP5907283B2 (ja) * 2012-11-22 2016-04-26 富士通株式会社 情報処理装置、生体部位判定プログラムおよび生体部位判定方法
US9852652B2 (en) * 2012-11-22 2017-12-26 Atheer, Inc. Method and apparatus for position and motion instruction
JP5818857B2 (ja) * 2013-10-24 2015-11-18 キヤノン株式会社 情報処理装置およびその制御方法
US10168873B1 (en) * 2013-10-29 2019-01-01 Leap Motion, Inc. Virtual interactions for machine control
JP6343972B2 (ja) * 2014-03-10 2018-06-20 富士通株式会社 照明装置及び生体認証装置
KR102429865B1 (ko) * 2015-06-17 2022-08-05 한국전자통신연구원 사용자 인증 장치
JP6523925B2 (ja) * 2015-11-10 2019-06-05 株式会社日立製作所 生体情報を用いた認証装置及び認証方法
US9983684B2 (en) * 2016-11-02 2018-05-29 Microsoft Technology Licensing, Llc Virtual affordance display at virtual target

Also Published As

Publication number Publication date
US10692291B2 (en) 2020-06-23
US20180336733A1 (en) 2018-11-22
JP2018195267A (ja) 2018-12-06

Similar Documents

Publication Publication Date Title
JP6955369B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP5818857B2 (ja) 情報処理装置およびその制御方法
US9164583B2 (en) Method and apparatus for gaze point mapping
JP5094663B2 (ja) 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法
JP5388932B2 (ja) 情報処理装置およびその制御方法
JP5777507B2 (ja) 情報処理装置、情報処理方法、及びそのプログラム
JP6789624B2 (ja) 情報処理装置、情報処理方法
JP2016218905A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2007004767A (ja) 画像認識装置、方法およびプログラム
US10839481B1 (en) Automatic marker-less alignment of digital 3D face and jaw models
CN111488775B (zh) 注视度判断装置及方法
US10810738B1 (en) Marker-less alignment of digital 3D face and jaw models
JP7379065B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN112258574A (zh) 标注位姿信息的方法、装置及计算机可读存储介质
CN110926330A (zh) 图像处理装置和图像处理方法
JP2017146938A (ja) 書籍検出装置、書籍検出方法及び書籍検出用コンピュータプログラム
JP2017123087A (ja) 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法
JP2017194301A (ja) 顔形状測定装置及び方法
JP2014026670A (ja) 情報処理装置、その処理方法及びプログラム
JP6632298B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6915611B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2008070319A (ja) 物体計測装置および方法
CN112073640A (zh) 全景信息采集位姿获取方法及装置、系统
WO2021021085A1 (en) Modification of projected structured light based on identified points within captured image
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200413

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200413

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211001

R151 Written notification of patent or utility model registration

Ref document number: 6955369

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151