JP7078056B2 - 検出装置、処理装置、装着物、検出方法、及び検出プログラム - Google Patents

検出装置、処理装置、装着物、検出方法、及び検出プログラム Download PDF

Info

Publication number
JP7078056B2
JP7078056B2 JP2019557132A JP2019557132A JP7078056B2 JP 7078056 B2 JP7078056 B2 JP 7078056B2 JP 2019557132 A JP2019557132 A JP 2019557132A JP 2019557132 A JP2019557132 A JP 2019557132A JP 7078056 B2 JP7078056 B2 JP 7078056B2
Authority
JP
Japan
Prior art keywords
shape
detection
information
unit
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019557132A
Other languages
English (en)
Other versions
JPWO2019107150A1 (ja
Inventor
源洋 中川
太郎 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of JPWO2019107150A1 publication Critical patent/JPWO2019107150A1/ja
Priority to JP2022079660A priority Critical patent/JP7363962B2/ja
Application granted granted Critical
Publication of JP7078056B2 publication Critical patent/JP7078056B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Description

本発明は、検出装置、処理装置、装着物、検出方法、及び検出プログラムに関する。
対象物の三次元形状情報を検出する技術が知られている(例えば、下記の特許文献1参照)。そのような技術に用いられるデプスカメラは、例えば、赤外光などの光を対象物に照射し、対象物から出射する光を検出する。上記の技術は、例えば対象物の形状情報の欠損が少ないことが望まれる。
特開2010-134546号公報
本発明の第1の態様においては、検出装置を提供する。検出装置は、光を対象物に照射して対象物から出射した光を検出することによって所定の点から対象物の表面上の各点までのデプスを検出する第1検出部を備えてよい。検出装置は、第1検出部の検出結果に基づいて、対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部を備えてよい。検出装置は、第1形状情報生成部が生成した第1形状情報に基づいて第1形状における部分を特定する部分特定部を備えてよい。検出装置は、第1形状情報生成部が生成した第1形状情報に基づいて第1形状における部分を特定する部分特定部と、第1検出部の検出結果と異なる情報に基づいた第2形状を、部分特定部が特定した部分に対して予め設定された相対位置になるように第1形状に付加し、第1形状及び第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部を備えてよい第2形状情報生成部は、部分特定部が特定した部分に対して第2形状が予め設定された相対位置になるように第2形状を第1形状に付加してよい。本発明の第2の態様においては、検出装置を提供する。検出装置は、光を対象物に照射して対象物から出射した光を検出する第1検出部を備えてよい。検出装置は、第1検出部の検出結果に基づいて、対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部を備えてよい。検出装置は、第1検出部の検出結果と異なる情報に基づいた第2形状を第1形状に付加し、第1形状及び第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部を備えてよい。異なる情報は、作成者によってコンピュータ上で生成される形状情報を含んでよい。本発明の第3の態様においては、検出装置を提供する。検出装置は、光を対象物に照射して対象物から出射した光を検出する第1検出部を備えてよい。検出装置は、第1検出部の検出結果に基づいて、対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部を備えてよい。検出装置は、第1検出部の検出結果と異なる情報に基づいた第2形状を前記第1形状に付加し、第1形状及び第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部を備えてよい。第1検出部は、赤外光を対象物に照射して対象物から出射した赤外光を検出することによってデプスを検出してよい。異なる情報は、赤外光を対象物に照射して対象物から出射した赤外光を検出することによって得られるデプス以外の情報を含んでよい。本発明の第4の態様においては、検出装置を提供する。検出装置は、光を対象物に照射して対象物から出射した光を検出する第1検出部を備えてよい。検出装置は、第1検出部の検出結果に基づいて、対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部を備えてよい。検出装置は、第1検出部の検出結果と異なる情報に基づいた第2形状を第1形状に付加し、第1形状及び第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部を備えてよい。対象物は、人体を含んでよい。対象物は、人体に装着される装着物を含んでよい。対象物のうち第1形状に対応する部分は、人体のうち装着物によって覆われる部分以外の部分を含んでよい。本発明の第5の態様においては、検出装置を提供する。検出装置は、光を対象物に照射して対象物から出射した光を検出する第1検出部を備えてよい。検出装置は、第1検出部の検出結果に基づいて、対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部を備えてよい。検出装置は、第1検出部の検出結果と異なる情報に基づいた第2形状を第1形状に付加し、第1形状及び第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部を備えてよい。対象物は、人体を含んでよい。対象物は、人体の頭部に装着される装着物を含んでよい。第1形状は、人体のうち頭部以外の部分の形状を含んでよい。第2形状は、人体の頭部、又は装着物を表す形状を含んでよい。本発明の第6の態様においては、検出装置を提供する。検出装置は、光を対象物に照射して対象物から出射した光を検出する第1検出部を備えてよい。検出装置は、第1検出部の検出結果に基づいて、対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部を備えてよい。検出装置は、第1検出部の検出結果と異なる情報に基づいた第2形状を第1形状に付加し、第1形状及び第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部を備えてよい。第1形状は、第1検出部の検出結果のうち相対的に確度が高いデプスを選択して得られる形状を含んでよい。第2形状は、第1検出部の検出結果のうち相対的に確度が低いデプスに対応する対象物の部分を表す形状を含んでよい。本発明の第7の態様においては、検出装置を提供する。検出装置は、光を対象物に照射して対象物から出射した光を検出する第1検出部を備えてよい。検出装置は、第1検出部の検出結果に基づいて、対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部を備えてよい。検出装置は、第1検出部の検出結果と異なる情報に基づいた第2形状を前記第1形状に付加し、第1形状及び第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部を備えてよい。対象物は、人体を含んでよい。対象物は、人体に装着される装着物を含んでよい。装着物は、第1検出部から照射された光の少なくとも一部が第1検出部へ向かって出射する第1部分を含んでよい。装着物は、第1部分と所定の相対位置で配置され、第1検出部から照射された光のうち第1検出部へ向かって出射する光の光量が第1部分に比べて少ない第2部分を含んでよい。第2形状情報生成部は、第1形状において装着物の第1部分の位置に対して予め設定された位置に、第2形状を配置してよい。本発明の第8の態様においては、検出装置を提供する。検出装置は、光を対象物に照射して対象物から出射した光を検出する第1検出部を備えてよい。検出装置は、第1検出部の検出結果に基づいて、対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部を備えてよい。検出装置は、第1検出部の検出結果と異なる情報に基づいた第2形状を第1形状に付加し、第1形状及び第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部を備えてよい。第2形状情報生成部は、対象物において第2形状に対応する部分の向きを第1形状に基づいて推定してよい。第2形状情報生成部は、推定した向きに基づいて第1形状に対する第2形状の向きを設定してよい。本発明の第9の態様においては、検出装置を提供する。検出装置は、光を対象物に照射して対象物から出射した光を検出する第1検出部を備えてよい。検出装置は、第1検出部の検出結果に基づいて、対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部を備えてよい。検出装置は、第1検出部の検出結果と異なる情報に基づいた第2形状を前記第1形状に付加し、第1形状及び第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部を備えてよい。検出装置は、第1形状における部分に対して第2形状が予め設定された相対位置になるように第2形状を第1形状に付加するときの、予め設定された相対位置の情報を記憶する記憶部を備えてよい。本発明の第10の態様においては、検出装置を提供する。検出装置は、光を対象物に照射して対象物から出射した光を検出する第1検出部を備えてよい。検出装置は、第1検出部の検出結果に基づいて、対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部を備えてよい。検出装置は、第1検出部の検出結果と異なる情報に基づいた第2形状を第1形状に付加し、第1形状及び第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部を備えてよい。対象物は、人体を含んでよい。対象物は、人体の頭部に装着される装着物を含んでよい。第2形状は、人体の頭部、又は装着物を表す形状を含んでよい。第2形状情報生成部は、第2形状において予め設定された視点について、第2形状を第1形状に対して配置したときの視点の位置情報を生成してよい。
本発明の第11の態様においては、処理装置を提供する。処理装置は、光を対象物に照射して対象物から出射した光を検出することによって所定の点から対象物の表面上の各点までのデプスを検出する第1検出部の検出結果に基づいて、対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部を備えてよい。処理装置は、第1形状情報生成部が生成した第1形状情報に基づいて第1形状における部分を特定する部分特定部を備えてよい。処理装置は、第1形状情報生成部が生成した第1形状情報に基づいて第1形状における部分を特定する部分特定部と、第1検出部の検出結果と異なる情報に基づいた第2形状を、部分特定部が特定した部分に対して予め設定された相対位置になるように第1形状に付加し、第1形状及び第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部を備えてよい第2形状情報生成部は、部分特定部が特定した部分に対して第2形状が予め設定された相対位置になるように第2形状を第1形状に付加してよい。
本発明の第12の態様においては、装着物を提供する。装着物は、所定の点から照射された光の少なくとも一部が所定の点へ向かって出射する第1部分を含んでよい。装着物は、第1部分の所定の位置に設けられ、第1部分の特定に用いられる識別子を含んでよい。装着物は、第1部分と所定の相対位置で配置され、所定の点から照射された光のうち所定の点へ向かって出射する光の光量が第1部分に比べて少ない第2部分を含んでよい
本発明の第13の態様においては、検出方法を提供する。検出方法は、光を対象物に照射して対象物から出射した光を検出することを含んでよい。検出方法は、検出の結果に基づいて、対象物の第1形状を表す第1形状情報を生成することを含んでよい。検出方法は、第1形状情報に基づいて第1形状における部分を特定することを含んでよい。検出方法は、検出の結果と異なる情報に基づいた第2形状を第1形状に付加し、第1形状及び第2形状を含む形状を表す第2形状情報を生成することを含んでよい検出方法は、特定した部分に対して第2形状が予め設定された相対位置になるように第2形状を第1形状に付加してよい。
本発明の第14の態様においては、検出プログラムを提供する。検出プログラムは、コンピュータ、光を対象物に照射して対象物から出射した光を検出する第1検出部の検出結果に基づいて、対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部として機能させてよい。検出プログラムは、コンピュータを第1形状情報生成部が生成した第1形状情報に基づいて第1形状における部分を特定する部分特定部として機能させてよい。検出プログラムは、コンピュータを、第1検出部の検出結果と異なる情報に基づいた第2形状を第1形状に付加し、第1形状及び第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部としてさせてよい第2形状情報生成部は、部分特定部が特定した部分に対して第2形状が予め設定された相対位置になるように第2形状を第1形状に付加してよい。
第1実施形態に係る検出装置を示す図である。 第1実施形態に係る第1検出部を示す図である。 第1実施形態に係る第1形状情報を示す図である。 第1実施形態に係る処理装置が実行する処理を示す図である。 実施形態に係る検出方法を示すフローチャートである。 第2実施形態に係る検出装置を示す図である。 第3実施形態に係る検出装置を示す図である。 第4実施形態に係る装着物を示す図である。 第5実施形態に係る検出装置を示す図である。 第5実施形態に係る処理装置が実行する処理を示す図である。 第5実施形態に係る処理装置が実行する処理を示す図である。 第6実施形態に係る検出装置を示す図である。 第6実施形態に係る第1視点から見た推定画像を示す図である。 第6実施形態に係る第2視点から見た推定画像を示す図である。 第6実施形態に係るGUI画像を示す図である。
[第1実施形態]
まず、第1実施形態について説明する。図1は、第1実施形態に係る検出装置1を示す図である。検出装置1(検出システム)は、第1検出部2と、処理装置3とを備える。第1検出部2は、光Laを対象物に照射して対象物OBから出射した光Lbを検出することによって、所定の点Vpから対象物OBの表面上の各点までのデプスを検出する。処理装置3(処理部)は、第1検出部2の検出結果に基づいて、対象物OBの形状を表す形状情報を生成する。
検出装置1は、例えば、動作中の人体HMを検出する。例えば、検出装置1は、フェンシング、野球、サッカー、ゴルフ、剣道、アメリカンフットボール、アイスホッケー、体操などのスポーツ、ランニング、エクササイズ、ヨガ、ボディビル、ファッションショーなどのウォーキング又はポージング、ゲーム、人物認証、仕事などにおいて動作を行う人体HMを検出する。ここでは、フェンシングを行う人体HMを検出する例について説明する。
対象物OBは、例えば、人体HMと、人体HMに装着される装着物EQとを含む。装着物EQは、例えばフェンシング用マスク、剣道用やアメリカンフットボール用マスクのようなマスク(例、防護マスク、形状変化の無い又は少ないマスク(形状が既知のマスク))を含む。装着物EQは、第1部分EQ1と、第2部分EQ2とを含む。第1部分EQ1は、人体HMの頸部を覆う部分(部位)である。第1部分EQ1は、人体HM(例、頭部)に固定され、人体HMと一体的に移動する。第1検出部2から照射された光Laの少なくとも一部は、第1部分EQ1において反射もしくは散乱し、光Laによる反射光もしくは散乱光が光Lbとして第1検出部2へ向かって出射する。したがって、本実施形態における対象物OBは、フェンシングを行う人体HM(例、フェンシングの選手)と人体HMに装着されるフェンシング用マスク(装着物EQ)とのうち少なくとも一方を含む。なお、装着物EQは、マスクに限らず、グローブ、靴、又はメッシュ状のユニフォームであってもよい。
第2部分EQ2は、人体HMの頭部の前面(顔面)を覆う部分である。第2部分EQ2は、例えば、ユーザ(この場合、装着者)が第2部分EQ2を通して前方を視認できるように、メッシュ状の部分(視認部分)を含む。第2部分EQ2は、第1部分EQ1と一体化されており、第1部分EQ1との相対位置が定まっている(位置が既知である)。第2部分EQ2は、その部分に上記の視認部分(低反射領域)が存在するため、第1検出部2から光Laが照射された場合にメッシュ状の部分で反射する光が少なく、第1検出部2へ向かって出射する光Lbの強度が第1部分EQ1(高反射領域)に比べて少ない。したがって、第2部分EQ2は、表面構造の違いにより、表面の光学的特性が第1部分EQ1とは異なる領域である。
なお、対象物OBは、装着物EQが装着されていない人体HMでもよい。また、対象物OBは、人間以外の動物を含んでもよい。また、対象物OBは、植物を含んでもよい。また、対象物OBは、ロボットなどのように生物以外の物体を含んでもよい。また、対象物OBは、移動しない物体(静止物)を含んでもよい。
対象物OBは、高精度な検出結果を得ることが困難である条件が予め分かっている場合がある。このような場合、対象物OBは、対象物OBのうち検出結果(デプス)の精度が相対的に低いと想定される部分(部位)が予め分かっている。例えば、対象物OBにおいて装着物EQの第2部分EQ2はメッシュ状の部分を含み、対象物OBから出射する光Lb(出力信号)の強度は、他の部分(例、第1部分EQ1)と比較して第2部分EQ2において相対的に低い(弱い)。このように、本実施形態において、第2部分EQ2から出射する光Lbの単位面積あたりの光量は、対象物OBのうち第2部分EQ2以外の部分から出射する光Lbの単位面積当たりの光量よりも少ない。
また、第2部分EQ2に関する検出結果を表す検出信号のレベルは、例えば、対象物OBのうち第2部分EQ2以外の部分に関する検出結果を表す検出信号のレベルよりも低い。したがって、第2部分EQ2に関する検出結果の確度は、例えば、対象物OBのうち第2部分EQ2以外の部分に関する検出結果の確度よりも低い。確度は、例えば、所定の範囲の数値(例、0以上1以下、0%以上100%以下)で表される。確度は、例えば、数値が高いほど情報の信頼度が高い(情報が確からしい)ことを表す。
実施形態に係る処理装置3は、例えば、対象物OBのうち予め設定された設定領域について、第1検出部2の検出結果と異なる情報に基づいて、形状情報を取得する。設定領域(例、メッシュ状の部分)は、例えば、対象物OBのうち検出結果の精度が相対的に低いと想定(推定、予想)される部分を含む。処理装置3は、第1検出部2の検出結果に基づいた第1形状に、第1検出部2の検出結果と異なる情報に基づいた第2形状を付加し、第1形状および第2形状を含む形状の形状情報を生成する(後に図4で説明する)。
実施形態に係る検出装置1は、例えば、検出結果の精度が相対的に低いと想定される部分の形状情報を、検出結果と異なる情報から得られる形状情報(例、検出前に事前に生成された既知の形状情報、別の技術により得られる形状情報)で位置合わせして置き換える(又は重ね合わせる)ことによって、対象物OBの形状情報の欠損を低減することができる。本実施形態における検出装置1は、後述の構成により対象物OBの3次元モデリングに用いるモデル情報を高精度なモデル情報に部分的に置き換えることができるので、レンダリングして生成した3次元モデル画像に対するユーザの視認性が向上する。以下、検出装置1の各部について説明する。
図2は、第1実施形態に係る第1検出部2を示す図である。第1検出部2は、信号(入力信号)を対象物OBに入力し、対象物OBから出力される信号(出力信号)を検出するアクティブ検出(例、アクティブ測距、time of flight方式の検出)を実行する。上記の信号(入力信号、出力信号)は、例えば、光(可視光、非可視光、赤外光、紫外光)、及び音波(例、超音波)から選択されるエネルギー波を含む。本実施形態における第1検出部2は、入力信号として光Laを対象物OBに入力(照射)し、対象物OBからの出力信号として光Lbを検出する。光Laおよび光Lbは、例えば、赤外光である。このように、本実施形態における第1検出部2は、アクティブ型のセンサである。
第1検出部2は、例えばデプスセンサ(デプスカメラ)を含む。第1検出部2は、所定の点から対象物OBにおける各点のまでのデプス(位置情報、距離、奥行き、深度)を検出する。所定の点Vpは、例えば、第1検出部2による検出の基準になる位置の点(例、視点、検出元の点、第1検出部2の位置の点)である。
第1検出部2は、照射部7、光学系8、及び撮像素子9を備える。照射部7は、対象物OBを含む領域AR(空間、検出領域)に光La(例、パターン光、照射光)を照射(例、投影)する。光学系8は、例えば結像光学系(撮像光学系)を含む。撮像素子9は、例えば、CMOSイメージセンサあるいはCCDイメージセンサを含む。撮像素子9は、二次元的に配列された複数の画素を有する。撮像素子6は、光学系8を介して、対象物OBを含む領域ARを撮像する。撮像素子9は、領域ARにおける物体(対象物OB)から光Laの照射によって放射される光Lb(赤外光、戻り光)を検出する。
第1検出部2は、例えば、照射部7から照射される光Laのパターン(例、強度分布)と、撮像素子9によって検出された光Lbのパターン(強度分布、撮像画像)に基づいて、撮像素子9の各画素に対応する領域AR上の点から、撮像素子9の各画素までのデプスを検出する。第1検出部2は、その検出結果として、領域ARにおけるデプスの分布を表したデプスマップ(例、デプス画像、奥行き情報、距離情報)を処理装置3(図1参照)に出力する。
対象物OBにおける装着物EQの第2部分EQ2は、例えば、対象物OBのうち相対的に空間周波数が高い部分(例、細かい構造、メッシュ状の部分)を含む。第2部分EQ2は、例えば、対象物OBのうち散乱率が相対的に高い。第2部分EQ2は、例えば、対象物OBのうち反射率が相対的に低い。第2部分EQ2は、例えば、対象物OBのうち吸収率が相対的に高い。
なお、第1検出部2は、TOF(time of flight)法によってデプスを検出するデバイスでもよい。また、第1検出部2は、TOF法以外の手法でデプスを検出するデバイスでもよい。第1検出部2は、例えば、レーザスキャナ(例、レーザ測距器)を含み、レーザスキャンによってデプスを検出するデバイスでもよい。第1検出部2は、例えば、位相差センサを含み、位相差法によってデプスを検出するデバイスでもよい。第1検出部2は、例えば、DFD(depth from defocus)法によってデプスを検出するデバイスでもよい。
なお、第1検出部2は、赤外光以外の光(例、可視光)を対象物OBに照射し、対象物OBから出射する光(例、可視光)を検出してもよい。第1検出部2は、例えばステレオカメラなどを含み、複数の視点から対象物OBを検出(例、撮像)してもよい。第1検出部2は、複数の視点から対象物OBを撮像した撮像画像を用いて、三角測量によってデプスを検出するデバイスでもよい。第1検出部2は、光学的な手法以外の手法(例、超音波によるスキャン)でデプスを検出してもよい。
図1の説明に戻り、第1検出部2は、対象物OBを検出した検出結果を処理装置3に出力する。処理装置3は、第1形状情報生成部11と、部分特定部12と、第2形状情報生成部13と、通信部14と、記憶部15とを備える。
第1形状情報生成部11は、第1検出部2の検出結果に基づいて、対象物OBの第1形状を表す第1形状情報を生成する。例えば、第1形状情報生成部11は、形状情報(3次元モデリングに用いるモデル情報、3次元モデル画像の元データ)として点群データを算出する。以下の説明において、点群データを算出する処理を、適宜、点群データ処理と称する。点群データは、対象物OB上の複数の点の3次元座標を含む。第1形状情報生成部11は、例えば、第1検出部2の検出結果(デプスマップ)を平面画像への透視変換することなどによって、点群データを算出する。そして、第1形状情報生成部11は、生成した第1形状情報(例、点群データ)を記憶部15に記憶させる。
図3は、第1実施形態に係る第1形状情報D1を示す図である。図3において、符号FM1は、第1形状情報が表す第1形状である。第1形状FM1は、例えば、図1の対象物OBのうち装着物EQの第2部分EQ2に覆われる部分(例、人体HMの頭部)以外の形状を表す。例えば、対象物OBのうち第1検出部2による検出結果の確度が閾値未満の部分は、第1形状情報生成部11によって形状を高精度に構築することができず、第1形状情報生成部11が生成する対象物OBの形状情報(第1形状情報)において少なくとも一方の形状が欠落した部分(図3にお点線で示す)になる。
対象物OBのうち第1形状FM1に対応する部分は、例えば、対象物OBのうち空間周波数が相対的に低い部分と、対象物OBのうち光の反射率が相対的に高い部分との一方または双方を含む。対象物OBのうち空間周波数が相対的に低い部分は、例えば、手、足、胴体などのように粗い構造、大まかな構造、あるいは大規模な構造を含む。光の反射率が相対的に高い部分、及び空間周波数が相対的に低い部分は、例えば、出射する光Lb(図1参照)の強度が高い(大きい)(例、閾値以上)と想定される部分である。出射する光Lb(図1参照)の強度が高いと想定される部分は、例えば、第1検出部2による検出結果において相対的に確度が高いと想定される部分である。
なお、符号EQ3は、フェンシングに使われる剣(例、フルーレ、エペ、サーブル)に相当する部分である。部分EQ3は、例えば、幅が狭く、空間周波数が対象物OBにおいて相対的に高い部分であり、第1形状情報D1において形状が欠損した部分(一部の形状が欠損した部分を含む)になる。
また、第1形状FM1は、第1検出部2の検出結果のうち相対的に確度が低いデプスを選択して得られる形状を含む。例えば、対象物OBのうち装着物EQの第2部分EQ2は、メッシュ状の部分を含み、第2部分EQ2から出射する光Lbの強度が閾値未満になることが想定される。第2部分EQ2、及び第2部分EQ2に覆われる部分(例、頭部)は、例えば、第1検出部2の検出結果の確度が対象物OBのうち相対的に低いことが想定される。対象物OBのうち第1形状FM1に対応する部分は、例えば、人体HMのうち、装着物EQにおいて予め設定された部分(例、図1の第2部分EQ2)によって覆われる部分(例、頭部)を含む。
図1の説明に戻り、第1形状情報生成部11は、生成した第1形状情報(例、点群データ)を記憶部15に記憶させる。部分特定部12は、第1形状情報生成部11が生成した第1形状情報に基づいて第1形状における部分を特定する。部分特定部12は、例えば、人体HMの特徴的な部分(例、特徴部分、特徴点)の位置情報を生成する。人体HMの特徴部分は、例えば、人体HMのうち他の部分と区別可能な部分である。人体HMの特徴部分は、例えば、人体の末端部、関節、又は末端部と関節との間もしくは2つの関節の間の中間部の少なくとも1つを含む。
部分特定部12は、例えば、第1形状情報生成部11が生成した第1形状情報(例、点群データ)を用いた認識処理(例、パターン認識、形状認識、骨格認識)等によって、上記の特徴部分の位置情報を生成する。特徴部分の位置情報は、例えば、特徴部分を代表する点の座標(例、3次元座標)を含む。部分特定部12は、上記の認識処理によって、特徴部分を表す点の座標を算出する。そして、部分特定部12は、特定した部分の情報(例、特徴部分を表す点の座標)を記憶部15に記憶させる。
第2形状情報生成部13は、形状情報(3次元モデリングに用いるモデル情報、3次元モデル画像の元データ)として、第1検出部2の検出結果と異なる情報に基づいた第2形状FM2(付加形状)を取得する。第2形状FM2は、例えば、記憶部15に記憶された付加形状情報DFによって表される。第2形状情報生成部13は、例えば、記憶部15から付加形状情報DFを読出して、付加形状情報DFを取得する。
第2形状FM2は、対象物OBのうち第1形状FM1(図3参照)に対応する部分と異なる部分を表した形状を含む。例えば、第2形状FM2は、人体HMの頭部または装着物EQを表す形状を含む。第2形状FM2は、例えば、人体HMの頭部または装着物EQを単純化(簡略化)して表す形状(例、球形状、回転楕円体形状)でもよい。また、人体HMの頭部または装着物EQを模式的あるいは概念的に示す形状でもよい。
第2形状FM2は、例えば、対象物OBのうち第1検出部2の検出結果において相対的に確度が低いと想定される部分を代替的に表す形状(補完する形状)である。したがって、第2形状FM2は、第1検出部2の検出結果のうち相対的に確度が低いデプスに対応する対象物OBの部分を表す形状を含む。対象物OBのうち第2形状FM2に対応する部分は、例えば、対象物OBのうち空間周波数が相対的に高い部分(例、装着物EQの第2部分EQ2)と、対象物OBのうち光の反射率が相対的に低い部分との一方または双方を含む。
本実施形態において、第1検出部2は、赤外光(例、光La)を対象物OBに照射して対象物OBから出射した赤外光(例、光Lb)を検出することによってデプスを検出する。本実施形態において、第1検出部2の検出結果と異なる情報は、赤外光を対象物OBに照射して対象物OBから出射した赤外光を検出することによって得られるデプス以外の情報(例、デプス情報)を含む。例えば、付加形状情報DFは、対象物OBに対する検出(例、測定)の検出結果(例、測定結果)と異なる情報を含む。
また、第2形状FM2は、作成者(例、ユーザ、オペレータ、設計者)によってコンピュータCOM上で生成される形状を含む。例えば、作成者は、第2形状FM2を生成する際に、入力デバイスを操作してデータをコンピュータCOMに入力する。入力デバイスは、例えば、キーボード、マウス、トラックボール、及びタッチパッドの少なくとも1つを含む。コンピュータCOMは、作成者の操作によって入力された情報を、アプリケーションによって処理し、付加形状情報DFとして第2形状FM2のデータを生成する。上記のアプリケーションは、例えば、CADなどの設計アプリケーション、描画アプリケーション、及びCG生成アプリケーションの少なくとも1つを含む。コンピュータCOMは、第2形状FM2を表す付加形状情報DFを処理装置3に出力する。
処理装置3の通信部14は、処理装置3の外部の装置と通信可能である。処理装置3は、通信部14(受信部)を介して、コンピュータCOMにおいて生成された付加形状情報DFを受信する。処理装置3の記憶部15は、受信した付加形状情報DFを記憶する。
なお、コンピュータCOMは、検出装置1の一部でもよいし、検出装置1の外部の装置でもよい。コンピュータCOMは、インターネット回線等を介して処理装置3と通信可能に接続されるクラウドコンピュータなどでもよい。コンピュータCOM上で生成された第2形状を表す付加形状情報DFがデータベースに格納され、処理装置3は、このデータベースと通信可能に接続されてもよい。処理装置3は、上記のデータベースから付加形状情報DFを取得してもよい。
第2形状情報生成部13は、記憶部15から付加形状情報DFを読み出し、第2形状FM2を取得する。第2形状情報生成部13は、第2形状を、部分特定部12が特定した所定の部分に対して予め設定された相対位置(例、人体HMの頭部に相当する位置、装着物EQに相当する位置など)になるように第1形状に付加する。上記の所定の部分と第2形状FM2との相対位置は、記憶部15に記憶された参照位置情報DPに定められている。参照位置情報DPは、例えば、部分特定部12が特定した所定の部分の位置(以下、参照位置という)に対するオフセット量を含む。例えば、参照位置は3次元の座標(位置ベクトル)で表され、オフセット量は3次元のベクトル(変位ベクトル)で表される。
図4は、第1実施形態に係る処理装置3が実行する処理を示す図である。処理装置3の各部については、適宜、図1を参照する。図4(A)において、第1形状情報生成部11は、第1検出部2の検出結果に基づいて第1形状FM1を表す第1形状情報D1(例、点群データ、骨格データ)を生成する(第1形状生成処理)。次に、図4(B)において、部分特定部12は、第1形状情報D1に基づいて、第1形状FM1の部分を特定する(部分特定処理)。部分特定部12は、第1形状FM1において予め設定された所定の部分(例、右肩P1、左肩P2、肩中央P3、腰中央P4、頸部P5)の位置(参照位置)を算出する。部分特定部12は、算出した参照位置を記憶部15に記憶させる。
図4(C)において、第2形状情報生成部13は、第2形状FM2(図4(D)に示す)を配置する位置(以下、目標位置PXという)を算出する(配置処理)。第2形状情報生成部13は、例えば、記憶部15から参照位置および参照位置情報DPを記憶部15から読み出し、これらの情報に基づいて第2形状FM2を配置する目標位置を算出する。例えば、第2形状情報生成部13は、参照位置(所定の部分の位置ベクトル)と、参照位置情報DPに含まれるオフセット量(変位ベクトル)とを合成して、目標位置を表すベクトル(位置ベクトル)を算出する。
図4(D)において、第2形状情報生成部13は、記憶部15から付加形状情報DFを読み出し、例えば、付加形状情報DFが表す第2形状FM2を第1形状FM1と同じ形式のデータで表す。例えば、第1形状FM1は、第1検出部2の検出結果(例、デプス)に基づいて生成される点群データ(第1点群データ)で表され、第2形状情報生成部13は、第2形状FM2の表面の各点の座標を含む点群データ(第2点群データ)で第2形状FM2を表す。
第2形状情報生成部13は、配置処理(図4(C)参照)において算出した目標位置を基準(例、原点)として、第2形状FM2の表面の各点を配置することによって、第1形状FM1に対して予め設定された相対位置になるように第2形状FM2を配置する。上記の予め設定された相対位置は、例えば、記憶部15に記憶された参照位置情報DPに定められている。また、付加形状情報DFには、例えば、第2形状FM2において基準になる位置(例、中心)が予め定められており、第2形状情報生成部13は、目標位置と第2形状FM2の基準とが一致するように、第2形状FM2の表面の各点を配置する。
第2形状情報生成部13は、第1形状FM1を表す形状情報(第1点群データ)と、第1形状FM1に対して配置した第2形状FM2を表す形状情報(第2点群データ)とを合成することによって、第1形状FM1および第2形状FM2を含む形状(合成形状FM3)を表す第2形状情報D2を生成する(付加処理)。第2形状情報生成部13は、生成した第2形状情報D2を記憶部15に記憶させる。
第2形状情報生成部13は、上記の付加処理を実行する際に、第1形状FM1と第2形状FM2とで重複する部分を減らすように、付加処理を実行してもよい。例えば、第2形状FM2の内部に第1形状FM1の一部が存在するか否かを判定し、第1形状FM1のうち第2形状FM2の内部に存在する部分(第2形状FM2と重複する部分、重複部分)の少なくとも一部を削除してもよい。また、第2形状情報生成部13は、上記の付加処理を実行する際に、第2形状FM2の表面から所定の距離未満の領域(近傍領域)に第1形状FM1の一部が存在するか否かを判定し、第1形状FM1のうち第2形状FM2の近傍領域に存在する部分(近傍部分)の少なくとも一部を削除してもよい。
第2形状情報生成部13は、第1形状FM1と第2形状FM2とを合成した後に、上記の重複部分の少なくとも一部と近傍部分の少なくとも一部との一方または双方を削除して、第2形状情報を生成してもよい。また、第2形状情報生成部13は、第1形状FM1と第2形状FM2とを合成する前に、上記の重複部分の少なくとも一部と近傍部分の少なくとも一部との一方または双方を削除して、少なくとも一部が削除された第1形状FM1に対して第2形状FM2を配置して、第2形状情報を生成してもよい。
なお、部分特定部12は、第1形状FM1(図2参照)において装着物EQの第1部分EQ1を特定してもよい。例えば、第1部分EQ1の形状は予め分かっており、記憶部15は、第1部分EQ1の形状を示す形状情報を予め記憶してもよい。部分特定部12は、第1形状FM1における第1部分EQ1を、記憶部15に記憶された第1位部分の形状情報に基づいて特定してもよい。また、第2形状情報生成部13は、第1形状FM1において部分特定部12が特定した装着物EQの第1部分EQ1の位置に対して予め設定された位置に、第2形状FM2を配置し、第1形状FM1と第2形状FM2とを合成してもよい。
なお、第2形状情報生成部13は、第2形状FM2としてフェンシングの剣(図2の部分EQ3参照)を表す形状を、第1形状FM1に付加してもよい。例えば、フェンシングの剣等のように変形量が大きい装着物の形状を付加する場合、例えば、装着物に予めマークを付けておき、このマークを検出した検出結果を利用して、装着物(例、フェンシングの剣)の形状を推定してもよい。第2形状情報生成部13は、推定した形状を第2形状FM2として、第1形状FM1に付加してもよい。
なお、第1形状情報生成部11は、形状情報としてサーフェス情報を生成してもよい。サーフェス情報は、例えばポリゴンデータ、ベクタデータ、ドローデータなどである。サーフェス情報は、例えば、複数の点の座標と複数の点間の連結情報とを含む。連結情報は、例えば、物体(例、人体)の稜線(例、エッジ)に相当する線の両端の点を互いに関連付ける情報を含む。連結情報は、例えば、物体上の面の輪郭に相当する複数の線を互いに関連付ける情報を含む。
第1形状情報生成部11は、例えば、点群データに含まれる複数の点から選択される点とその近傍の点との間の面を推定し、点群データを点間の平面情報を持つポリゴンデータに変換してもよい。第1形状情報生成部11は、例えば、最小二乗法を用いたアルゴリズムにより、点群データをポリゴンデータへ変換する。このアルゴリズムは、例えば、点群処理ライブラリに公開されているアルゴリズムを適用したものでもよい。また、第2形状情報生成部13は、形状情報としてサーフェス情報を生成してもよい。
第2形状情報生成部13は、第1形状FM1と第2形状FM2との相対的な大きさを調整して、第1形状FM1と第2形状FM2とを合成してもよい。例えば、第2形状情報生成部13は、第1形状FM1を基準にして第2形状FM2の大きさを調整してもよい。また、第1形状FM1に対する第2形状FM2の大きさの比率は、付加形状情報DFに定められていてもよい。第2形状情報生成部13は、第1検出部2の検出結果に基づく第1形状FM1の大きさに、付加形状情報DFに定められた上記の比率を掛けることで、第2形状FM2の大きさを決定(例、算出)してもよい。
なお、処理装置3が付加形状情報DFを取得するタイミングは、第2形状情報生成部13が第2形状情報を生成する前の任意のタイミングに設定される。例えば、処理装置3は、第1検出部2による検出処理の開始前に、予め付加形状情報DFを取得してもよい。また、処理装置3は、第1検出部2による検出処理と並行して、付加形状情報DFを取得してもよい。また、処理装置3は、第1検出部2による検出処理の終了後に、付加形状情報DFを取得してもよい。
次に、上述の検出装置1の動作に基づき、実施形態に係る検出方法について説明する。図5は、実施形態に係る検出方法を示すフローチャートである。検出装置1の各部および各処理については、適宜、図1から図4を参照する。ステップS1において、第1検出部2(図1参照)は、所定の点Vpから対象物OBの表面の各点までのデプスを検出する。ステップS1のステップS2において、照射部7(図2参照)は、光Laを対象物OBに照射する。ステップS3において、撮像素子9は、対象物OBから出射した光Lbを検出する。ステップS4において、第1検出部2は、撮像素子9の検出結果に基づいて、デプスを算出する。
次に、ステップS5において、処理装置3(図1参照)の第1形状情報生成部11は、光の照射および検出によって得られるデプス(ステップS1の検出結果)に基づいて、対象物OBの第1形状FM1(図4(A)参照)を表す第1形状情報を生成する。記憶部15は、第1形状情報生成部11が生成した第1形状情報を記憶する。ステップS6において、部分特定部12は、ステップS5で生成された第1形状情報に基づいて、第1形状FM1における部分(図4(B)参照)を特定する。記憶部15は、部分特定部12が特定した部分の情報(例、所定の部分の位置)を記憶する。
次に、ステップS7において、処理装置3(図1参照)の第2形状情報生成部13は、第1形状FM1および第2形状FM2(図4(D)参照)を含む形状(合成形状FM3)を表す第2形状情報D2を生成する。ステップS7のステップS8において、第2形状情報生成部13は、第1形状情報のもとになるデプスと異なる情報に基づく第2形状FM2を表す付加形状情報DFを取得する。付加形状情報DFは、例えば、ステップS8の処理の開始前に、予め記憶部15に記憶されている。第2形状情報生成部13は、記憶部15から付加形状情報DFを読出して、付加形状情報DFを取得する。
ステップS7のステップS9において、第2形状情報生成部13は、第1形状FM1において特定された部分と第2形状との予め設定された相対位置を表す参照位置情報DPを取得する。参照位置情報DPは、例えば、ステップS9の処理の開始前に、予め記憶部15に記憶されている。第2形状情報生成部13は、記憶部15から参照位置情報DPを読出して、参照位置情報DPを取得する。
ステップS10において、第2形状情報生成部13は、付加形状情報DFおよび参照位置情報DPに基づいて、第1形状FM1に対して第2形状FM2を配置する。第2形状情報生成部13は、付加形状情報DFに定義された3次元形状(第2形状FM2)の基準位置と、第1形状FM1から特定された所定の部分の位置とが予め設定された相対位置になるように、第2形状FM2を第1形状FM1と同じ座標系で表すことによって、第2形状FM2を第1形状FM1に付加する。このように、第2形状情報生成部13は、第1形状FM1と第2形状FM2とを含む合成形状DF3を表す第2形状情報D2を生成する。
[第2実施形態]
次に、第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図6は、第2実施形態に係る検出装置1を示す図である。本実施形態に係る検出装置1は、例えば、対象物OBを検出して付加形状情報DFを取得する。付加形状情報DFを取得する際の検出の検出条件は、第1形状FM1を表す情報を取得する際の第1検出部2の検出条件と異なる。検出装置1は、第1検出部2による検出結果において確度が相対的に低い部分に関して確度が高くなるように、第1検出部2と異なる検出条件で検出を実行する。
本実施形態に係る検出装置1は、第2検出部21を備える。第1検出部2は第1検出条件で対象物OBの検出を実行し、第2検出部21は、第1検出条件と異なる第2検出条件で対象物OBの検出を実行する。第1検出部2の検出結果と異なる情報は、第1検出条件と異なる第2検出条件で実行される検出によって取得される情報を含む。例えば、第1検出部2の検出結果(第1検出結果)と異なる情報は、第2検出部21の検出結果(第2検出結果)を含む。第2検出条件は、検出の空間解像度が第1検出条件と異なる。例えば、第2検出条件での検出は、第1検出条件の検出に比べて空間解像度が高い。
第2検出条件は、例えば、対象物OBを検出する検出方法が第1検出条件と異なる。第2検出部21は、例えばステレオカメラを含み、対象物OBから出射する光Lcを複数の視点で検出する。第2検出部21は、複数の視点のそれぞれにおける撮像画像を含む複数の撮像画像を用いた三角測量によって、第2検出部21から対象物OBの表面の各点までのデプスを検出する。
また、第2検出条件は、検出対象の光の波長が第1検出条件と異なってもよい。例えば、第2検出部21が検出する光Lcは、第1検出部2が検出する光Lbと波長が異なってもよい。例えば、第1検出部2が検出する光Lbは赤外光を含み、第2検出部21が検出する光Lcは、可視光を含んでもよい。例えば、第2検出部21は、対象物OBから出射した可視光によって対象物OBの表面を検出するセンサ(例、撮像素子、受光素子)を含んでもよい。第2検出部21は、複数の視点のそれぞれから、対象物OBの撮像画像(例、カラー画像、RGB画像)を取得してもよい。可視光を検出して得られる撮像画像は、例えば、デプス画像に比べて高解像で取得することが容易である。第2検出部21は、例えば、第1検出部2に比べて、対象物OBにおける細かい構造を検出可能になることで、細かい構造に関するデプスを高精度(高い確度)で取得可能である。
また、第2検出条件は、照明の条件が第1検出条件と異なってもよい。例えば、第1検出部2はアクティブ測距(アクティブ検出)を実行し、第2検出部21はパッシブ測距(パッシブ検出)を実行してもよい。例えば、第2検出部21は、照明光(例、可視光)を対象物OBに照射することなく、外光あるいは環境光を照明に用いた光学的な検出(例、CCD等の撮像素子を用いた撮像)によって、第2検出部21から対象物OBの表面の各点までのデプスを取得してもよい。
また、第2検出条件は、対象物OBの検出を実行する検出元の対象物OBに対する相対位置が第1検出条件と異なってもよい。例えば、第2検出部21(検出元)と対象物OBとの距離(相対位置)は、第1検出部2(検出元)と対象物OBとの距離(相対位置)と異なってもよい。例えば、第2検出部21と対象物OBとの距離が第1検出部2と対象物OBとの距離よりも近い場合、第2検出部21は、第1検出部2に比べて、対象物OBにおける細かい構造に関するデプスを高精度(高い確度)で取得することが容易である。
また、対象物OBに対する第2検出部21(検出元)の方位(相対位置)は、対象物OBに対する第1検出部2(検出元)の方位(相対位置)と異なってもよい。例えば、第2検出部21は、照明と対象物OBとを結ぶ線と、対象物OBと検出元とを結ぶ線との角度(例、照明、対象物、及び検出元の3点の相対位置)が第1検出部2と異なることによって、第1検出部2に比べて装着物EQの第2部分EQ2に関するデプスを高精度(高い確度)で検出してもよい。
第2検出部21は、対象物OBを検出した検出結果(第2検出結果)を処理装置3に出力する。第2検出部21の検出結果は、例えば、第1検出部2と異なる検出条件で検出されたデプスを含む。本実施形態において、処理装置3は、付加形状情報生成部22を備える。付加形状情報生成部22は、第2検出部21の検出結果に基づいて、付加形状情報DFを生成する。
付加形状情報生成部22は、部分特定部12が特定した部分(例、装着物EQの第1部分EQ1)の位置に対して予め定められた相対位置になる所定の領域における物体(例、装着物EQの第2部分EQ2)の形状情報を付加形状情報DFとして生成する。上記の所定の領域は、例えば、部分特定部12が特定した部分の位置と、参照位置情報DPに定められる相対位置とから求まる参照位置の周囲の所定の大きさを有する空間領域である。
付加形状情報生成部22は、例えば、第1形状情報生成部11と同様のアルゴリズムによって、第2検出部21から得られるデプスを処理し、装着物EQの第2部分EQ2の形状を表す付加形状情報DFを生成する。そして、付加形状情報生成部22は、生成した付加形状情報DFを記憶部15に記憶させる。第2形状情報生成部13は、第1実施形態と同様に、付加形状情報DFおよび参照位置情報DPに基づいて、図4(D)に示したように第1形状FM1と第2形状FM2とを合成し、第1形状FM1および第2形状FM2を含む形状(合成形状DF3)を表す形状情報(第2形状情報D2)を生成する。
[第3実施形態]
次に、第3実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図7は、第3実施形態に係る検出装置を示す図である。本実施形態に係る検出装置1は、例えば、対象物OBを検出して付加形状情報DFを取得する。本実施形態において、第2検出部21は、第2実施形態と異なる検出条件(検出方法)で対象物OBを検出する。本実施形態における第2検出部21は、対象物OBのうち装着物EQに接触して、装着物EQの形状を検出する。
本実施形態に係る第2検出部21は、対象物OBに接触して対象物OBの表面を検出するセンサ23(例、プローブ等による接触型センサ、非接触型センサ)を含む。第2検出部21は、例えば、第1検出部2による対象物OBの検出処理の開始前または終了後に、対象物OBを検出する。第2検出部21は、センサ23によって装着物EQ(第1部分EQ1)の表面を走査し、装着物EQの表面における各点の位置(例、3次元座標)を取得する。第2検出部21は、その検出結果(第2検出結果)として、例えば装着物EQの形状を表す形状情報(例、点群データ)を処理装置3に出力する。処理装置3の記憶部15は、第2検出部21から出力された形状情報を、付加形状情報DFとして記憶する。上述の実施形態において、第2検出部21は、検出装置1の外部の装置でもよい。なお、第2検出部21は、第1部分EQ1の表面と第2部分EQ2の表面とのうち少なくとも一方(例、第2部分EQ2の表面)をセンサ23によって走査し、該表面における各点の位置を取得するようにしてもよい。また、本実施形態における第2検出部21は、装着物EQに対して非接触型センサを用いて、装着物EQの形状を検出してもよい。
[第4実施形態]
次に、第4実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図8は、実施形態に係る装着物を示す図である。装着物EQは、例えば、図1に示したように人体HM(この場合、頭部)に装着され、人体HMと装着物EQとを含む対象物OBを検出する際に利用される。図8の装着物EQは、例えば、フェンシング用マスクである。なお、装着物EQは、所定の点Vpへ向かう光を検出することによってデプスを検出する第1検出部2に対して配置される物体(例、図1の人体HM)に装着される。
装着物EQは、その表面において、第1部分EQ1と、第2部分EQ2と、識別子EMとを含む。第1部分EQ1は、所定の点Vpから照射された光L2aの少なくとも一部が反射して所定の点Vpへ向かって出射する。第1部分EQ1は、頸部を覆う部分であり、装着物EQのうち相対的に空間周波数が低い(粗い構造である)。第1部分EQ1は、例えば、光L2aが照射された場合に、第1部分EQ1から出射する光L2aの強度が閾値以上となるように、材質、色などが選択される。識別子EMは、第1部分EQ1の所定の位置に設けられる。識別子EM(例、マーク)は、装着物EQを光学的に検出する場合に、高い反射率を有し、第1部分EQ1における識別子EMと異なる部分に比べて検出結果の確度が高くなるように、材料、色、形状等が選択される。
第2部分EQ2は、第1部分EQ1と所定の相対位置(既知の位置関係)で配置される。第2部分EQ2は、所定の点Vpから照射された光L2bのうち所定の点Vpへ向かって出射する光(例、反射光)の強度が第1部分EQ1に比べて弱い。例えば、第2部分EQ2は、上述のメッシュ状の部分を含み、装着物EQのうち相対的に空間周波数が高い(細かい構造である)。第2部分EQ2は、例えば、散乱率が第1部分EQ1に比べて高いことによって、所定の点Vpへ向かって出射する光L2bの強度が弱い。また、第2部分EQ2は、吸収率が第1部分EQ1に比べて高いことによって、所定の点Vpへ向かって出射する光L2bの強度が弱くてもよい。第2部分EQ2から所定の点Vpへ向かって出射する光L2bの強度は、0でもよい(第2部分EQ2から光L2bが出射しなくてもよい)。
本実施形態に係る装着物EQは、例えば、第1検出部2によって検出された場合に、識別子EMによって第1部分EQ1を容易に、かつ高精度で推定して特定することができる。第1部分EQ1と第2部分EQ2とが所定の相対位置で配置されているので、例えば、第1部分EQ1の位置が特定されることで、第2部分EQ2の位置が容易に、かつ高精度で推定して特定可能である。
[第5実施形態]
次に、第5実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図9は、第5実施形態に係る検出装置を示す図である。本実施形態において、処理装置3は、例えば、人体HM1の視点の情報を推定する。図9において、対象物OBは、人体HM1および人体HM2を含み、人体HM1の視点の情報は、例えば、人体HM1の視点から見た人体HM2の画像の推定に利用される。以下、本実施形態に係る処理装置3の処理について説明する。検出装置1の各部については、適宜、図9を参照する。
図10は、第5実施形態に係る処理装置3が実行する処理を示す図である。処理装置3の第2形状情報生成部13(図9参照)は、対象物OBにおいて第2形状FM2に対応する部分(例、人体HM1の頭部、装着物EQ)の向き(又は角度)を、第1形状FM1に基づいて推定する。例えば、第2形状情報生成部13は、第2形状FM2と連続する部分として予め設定された部分(例、人体HM1の頸部、人体HM1の肩、装着物EQの第1部分EQ1)について、その表面の形状を推定する。例えば、第2形状情報生成部13は、上記の予め設定された部分について、第1形状情報生成部11が生成した第1形状情報を用いて、表面の各点における法線方向の分布を導出し、その分布に基づき表面のねじれ(例、頸部のねじれ角、肩のねじれ角)を検出(推定)する。第2形状情報生成部13は、検出したねじれに基づいて、第1形状FM1に対する第2形状FM2の向き(又は角度)を設定する。上記の通り、例えば動作中において人体HM1の胸部と頸部(又は頭部)とは人体HM2に対する互いの向き(方向)が異なる場合があるため、第2形状情報生成部13は、頸部(又は頭部)の向きによって第1形状FM1に対する第2形状FM2の向きを決定し、その向きに基づいて第1形状FM1に対する第2形状FM2の位置(頸部の方向又は頭部の視線方向)を設定している。
本実施形態において、付加形状情報DF(図9参照)は、第2形状FM2において予め設定された視点の情報を含む。図10に示す通り、視点の情報は、例えば、第2形状FM2における視点V1の位置、及び視点V1を起点とする視線VLの向きを含む。第2形状FM2の視点V1の位置は、例えば、第2形状FM2を定義する座標系における座標(例、3次元の位置ベクトル)で表される。視点V1の位置は、例えば、第2形状FM2を人体HM1の頭部とした場合に、両眼の中央(顔面の中心線CL上)に設定(定義)される。視点V1の位置は、例えば、左眼の視点の位置と、右眼の視点の位置とがそれぞれ設定されていてもよい。視線VLの向きは、例えば、第2形状FM2の表面の視点V1における法線方向に設定される。視線VLの向きは、例えば、第2形状FM2を表す座標系における3次元の方向ベクトルで表される。
第2形状情報生成部13は、例えば、上記の視点V1の位置を表す位置ベクトルを、第1形状FM1を表す座標系上の位置ベクトルへ座標変換することで、第2形状FM2を第1形状FM1に対して配置した際の視点V1の位置を生成(算出)する。また、第2形状情報生成部13は、例えば、上記の視点V1の向きを表す方向ベクトルを、第1形状FM1を表す座標系上の方向ベクトルへ座標変換することで、第2形状FM2を第1形状FM1に対して配置した際の視線の向きを生成(算出)する。
図9の説明に戻り、本実施形態に係る検出装置1は、レンダリング処理部25と、表示装置26とを備える。レンダリング処理部25は、例えば、グラフィックス プロセッシング ユニット(Graphics Processing Unit; GPU)を含む。なお、レンダリング処理部25は、CPUおよびメモリが画像処理プログラムに従って各処理を実行する態様でもよい。レンダリング処理部25は、例えば、描画処理、テクスチャマッピング処理、シェーディング処理の少なくとも一つの処理を行う。
レンダリング処理部25は、描画処理において、例えば、形状情報に定められた形状を任意の視点(例、第1検出装置2から人体HM1及び人体HM2を見た視点、人体HM1から人体HM2を見た視点、人体HM2から人体HM1を見た視点)から見た推定画像(例、再構築画像)を算出できる。以下の説明において、形状情報が示す形状をモデル形状という。レンダリング処理部25は、例えば、描画処理によって、形状情報からモデル形状(例、推定画像)を再構成できる。レンダリング処理部25は、例えば、算出した推定画像のデータを記憶部15に記憶させる。また、レンダリング処理部25は、テクスチャマッピング処理において、例えば、推定画像上の物体(例、人体HM1、人体HM2)の表面に、テクスチャを貼り付けた推定画像を算出できる。レンダリング処理部25は、推定画像上の物体(例、人体HM1、人体HM2)の表面に、対象物OBと別のテクスチャを貼り付けた推定画像を算出することができる。レンダリング処理部25は、シェーディング処理において、例えば、任意の光源により形成される陰影を推定画像上の物体(例、人体HM1、人体HM2)に付加した推定画像を算出できる。
表示装置26は、処理装置3から出力される画像のデータに基づいて、この画像を表示する。例えば、処理装置3は、レンダリング処理部25が生成した推定画像のデータを表示装置26に出力する。表示装置26は、処理装置3から出力された推定画像のデータに基づいて、推定画像を表示する。表示装置26は、例えば、液晶ディスプレイでもよいし、タッチパネルなどでもよい。
図11は、第5実施形態に係る処理装置3が実行する処理を示す図である。第2形状情報生成部13(図9参照)は、図10と同様の処理によって、人体HM2の視点の情報を生成する。図11(A)において、符号V2は、第2形状情報生成部13が推定した人体HM2の視点である。また、符号VL2は、第2形状情報生成部13が推定した人体HM2の視線である。
レンダリング処理部25は、第2形状情報生成部13が生成した人体HM1の形状情報と、人体HM2の視点V2の位置情報(視点V2の位置、視線VL2の向き)に基づいて、人体HM2の視点V2から見た画像を推定する。図11(B)は、図11(A)の視点V2から人体HM1を見た画像(推定画像)を示す図である。図11(C)は、図11(A)の状態から視点V2の位置、視線VL2の向きが変化した場合の推定画像を示す図である。図11(C)において、人体HM1の見え方は、人体HM2の視点V2および視線VL2に基づいて図11(B)の状態から変化している。
本実施形態に係る検出装置1は、例えば、第1検出部2が人体HM1および人体HM2をリアルタイムで検出する。第2形状情報生成部13は、例えば、各時刻における人体HM2の視点の位置情報を推定する。レンダリング処理部25は、例えば、第2形状情報生成部13が推定した人体HM2の視点の位置情報、及び第2形状情報生成部13が生成した人体HM1に関する形状情報を用いて、人体HM2の視点から見た人体HM1の画像をリアルタイムで更新することができる。このような検出装置1は、リアルタイムに生成した該推定画像を表示装置26に表示することができ、臨場感のある画像を提供することができる。
なお、対象物OBに含まれる人体の数は、図9において2であるが、1でもよいし、3以上でもよい。また、レンダリング処理部25は、処理装置3と異なる装置に設けられてもよい。また、表示装置26は、検出装置1の外部の装置であってもよい。
[第6実施形態]
次に、第6実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図12は、第6実施形態に係る検出装置を示す図である。図12において、対象物OBは、人体HM1および人体HM2を含む。以下の説明において、適宜、人体HM1を第1の選手HM1と称し、人体HM2を第2の選手HM2と称する。検出装置1は、例えば、第1の選手HM1の視点情報と、第2の選手HM2の視点情報との一方又は双方を生成する。上記の視点情報は、第1の選手HM1又は第2の選手HM2における、視点の位置、視線の向き、及び視野の少なくとも1つの情報を含む。検出装置1は、例えば、生成した視点情報(第1の選手HM1の視点情報、第2の選手HM2の視点情報)に基づいて、第1の選手HM1から第2の選手HM2を見た画像を推定した第1推定画像と、第2の選手人体HM2から第1の選手HM1を見た画像を推定した第2推定画像との一方または双方を生成する。
本実施形態に係る検出装置1(検出システム)は、複数の検出部30(例、検出部31、検出部32)と、処理装置3と、表示装置26と、入力装置33とを備える。複数の検出部30は、第1の選手HM1及び第2の選手HM2を検出できる位置に配置され、それぞれ、互いに異なる視点(第1、第2の視点)から対象物OBを検出する。検出装置1は、複数の検出部30によって複数の視点から対象物OBを検出する。複数の検出部30は、例えば、図1等に示した第1検出部2を含む。例えば、検出部31と検出部32との一方または双方は、第1検出部2を含む。複数の検出部30は、図6に示した第2検出部21を含んでもよい。例えば、検出部31と検出部32との一方または双方は、第2検出部21を含んでもよい。
処理装置3の第2形状情報生成部13は、例えば、複数の検出部30の検出結果から得られる第1の選手HM1に関する第1形状情報を用いて、第1形状FM1(図10参照)と第2形状FM2とを含む形状を表す第2形状情報を生成する。第2形状情報生成部13は、第2形状情報を生成する際に、第1の選手HM1に関する視点情報を生成する。第2形状情報生成部13は、生成した第1の選手HM1に関する視点情報を記憶部15に記憶させる。第2形状情報生成部13は、第2の選手HM2についても同様に、第2の選手HM2に関する視点情報を生成する。第2形状情報生成部13は、第2の選手HM2に関する視点情報を記憶部15に記憶させる。
レンダリング処理部25は、第1の選手HM1の視点情報および第2形状情報を用いて、第1の選手HM1の視点から第2の選手HM2を見た画像を推定した第1推定画像(第2の選手HM2を3Dモデル化した3次元モデル画像)を生成する。レンダリング処理部25は、記憶部15から第1の選手HM1の視点情報および第2形状情報を読み出して、第1推定画像を生成する。そして、レンダリング処理部25は、生成した第1推定画像を表す画像データ(第1推定画像データ)を記憶部15に記憶させる。
また、レンダリング処理部25は、第2の選手HM2の視点情報および第2形状情報を用いて、第2の選手HM2の視点から第1の選手HM1を見た画像を推定した第2推定画像(第1の選手HM1を3Dモデル化した3次元モデル画像)を生成する。レンダリング処理部25は、記憶部15から第2の選手HM1の視点情報および第2形状情報を読み出して、第2推定画像を生成する。そして、レンダリング処理部25は、生成した第2推定画像を表す画像データ(第2推定画像データ)を記憶部15に記憶させる。
図13は、第6実施形態に係る第1推定画像Im1を示す図である。図13の符号HM1aは、第1の選手HM1の視界に入ると推定される第1の選手HM1の手先および剣の部分である。第1推定画像Im1において、第1の選手HM1の部分HM1aは、第1の選手HM1の視野に入ると推定される第2の選手HM2上に重ねられて描画されている。第1推定画像Im1において、部分HM1aは、透明な状態(例、アウトラインのみ)、半透明な状態、又は不透明な状態のいずれかの状態で描画されてもよい。また、第1推定画像Im1において、部分HM1aは、描画されなくてもよい。部分HM1aの描画の有無、あるいは描画の状態(例、透明、半透明、不透明)は、例えば、ユーザが入力装置33を介して設定可能でもよく、ユーザの指定によって変更可能でもよい。
図14は、第6実施形態に係る第2推定画像Im2を示す図である。図14の符号HM2aは、第2の選手HM2の視界に入ると推定される第2の選手HM2の手先および剣の部分である。第2推定画像Im2において、第2の選手HM2の部分HM2aは、第2の選手HM2の視野に入ると推定される第2の選手HM1上に重ねられて描画されている。第2推定画像Im2において、部分HM2aは、透明な状態(例、アウトラインのみ)、半透明な状態、又は不透明な状態のいずれかの状態で描画されてもよい。また、第2推定画像Im2において、部分HM2aは、描画されなくてもよい。部分HM2aの描画の有無、あるいは描画の状態(例、透明、半透明、不透明)は、例えば、ユーザが入力装置33を介して設定可能でもよく、ユーザの指定によって変更可能でもよい。
図12の説明に戻り、本実施形態に係る検出装置1は、処理装置3によってGUI(グラフィカルユーザインターフェース)を表す画像(以下、GUI画像)を表示装置26に表示させる。また、ユーザは、入力装置(例、キーボード、マウス)33を操作することによって、GUI画像上で表示される画像(静止画、動画)を切り替えることが可能である。
図15は、第6実施形態に係るGUI画像ImGを示す図である。GUI画像ImGは、第1表示領域AR1、第2表示領域AR2、及び第3表示領域AR3を含む。第1表示領域AR1(メイン領域)は、例えばユーザ等によって選択された視点から見た画像の推定画像(例、第1推定画像Im1、第2推定画像Im2、第3推定画像Im3など)が配置される領域である。第2表示領域AR2(サブ領域)は、第1表示領域AR1に配置する推定画像の候補(例、メイン領域に表示されている推定画像以外の複数の推定画像)が配置される領域である。GUI画像ImGは、処理装置3によって表示装置26に表示される。
第2表示領域AR2には、例えば、第1推定画像Im1(第1視野の画像)、第2推定画像Im2(第2視野の画像)、及び第3推定画像Im3(第3視野の画像)が配置される。第3推定画像Im3は、例えば、第1推定画像Im1と第2推定画像Im2とのいずれとも異なる視野の画像である。第3推定画像Im3(例、選手と競技フィールドとを含む全体画像)は、例えば、ユーザが設定した視野(視点、視線)において、複数の検出部30の検出結果に基づいてレンダリング処理部25が生成した画像(競技フィールド、第1の選手HM1および第2の選手HM2を3Dモデル化した3次元モデル画像)である。第3推定画像Im3の視野は、例えば、第1の選手HM1および第2の選手HM2が収まる視野に設定される。
ユーザは、例えば、入力装置33を操作することによって、第2表示領域AR2に配置されている第1推定画像Im1、第2推定画像Im2、及び第3推定画像Im3から、第1表示領域AR1に配置する推定画像を選択可能である。図15の符号MKは、現在選択されている推定画像を表すマークである。例えば、図15においては、第2表示領域AR2の第3推定画像Im3にマークMKが付されており、第1表示領域AR1に第3推定画像Im3が配置され表示されている。第1表示領域AR1には、選択された推定画像が第2表示領域AR2よりも拡大されて配置される。第1表示領域AR2には、選択された推定画像が動画形式(例、リアルタイム)で表示される。なお、第2表示領域AR2において、各推定画像は、動画形式(例、リアルタイム)で表示されてもよいし、静止画形式で表示されてもよい。このように、ユーザは、本実施形態の検出装置を用いることによって、3次元空間内において視点を切替えて各推定画像を見ることができ、選手の姿勢や選手間距離などを視覚的に把握することができる。
図15において、符号TLは、第1表示領域AR1に表示される推定画像の再生開始から再生終了までの期間(時間)を表すタイムラインバーである。また、符号TLaは、推定画像の開始から終了までの期間において現在表示されている推定画像の時刻を表す時刻マークである。また、符号TBは、第1表示領域AR1に表示される推定画像の再生に関する指令を入力可能なアイコンが配置されるツールボックス領域である。ツールボックス領域TBに配置されるアイコンは、例えば、「再生の開始」の指令を表す三角形、「再生の一時停止」の指令を表す二本線、「再生の停止」の指令を表す四角形、「静止画の取り込み」の指令を表す丸印などである。
ユーザは、例えば、選手の何らかのアクション(例、攻撃、防御、カウンター、ポイントゲット)又はお気に入りの画像に対してマウスのカーソルによってツールボックス領域TBの「丸印」を押すことによって、現在表示されている推定画像を静止画として取り込む指令(キャプチャー指令)を入力可能である。符号CM1からCM3は、それぞれ、タイムラインバーTL上に、キャプチャー指令によって取り込まれた静止画に対応する時刻を表す時刻マークである。第3表示領域AR3には、取り込まれた静止画を縮小した複数の画像(例、サムネイル画像TN1、サムネイル画像TN2、サムネイル画像TN3、・・・)が表示される。例えば、サムネイル画像TN1(「CAP1」)は、時刻マークCM1に対応する静止画を縮小した画像である。サムネイル画像TN2(「CAP2」)は、時刻マークCM2に対応する静止画を縮小した画像である。ユーザは、例えば、サムネイル画像CM1をマウスのカーソルによって選択し、サムネイル画像CM1に対応する静止画を第1表示領域AR1又は別ウィンドウ画面に表示させること等ができる。また、タイムラインバーTLにおいて、符号CM1、CM2、CM3は、上記の時刻マークに加えて、マークの上部に各選手のアクションを示すコメントをそれぞれ含めて表示してもよい。例えば、該コメントは、上記推定画像をもとに処理装置3(例、レンダリング処理部25)が上記推定画像における選手(第1の選手HM1など)の姿勢や動きなどを解析して得たコメントを含み、選手の攻撃、防御、カウンター、ポイントゲット等である。
上述の実施形態において、処理装置3は、例えばコンピュータシステムを含む。処理装置3は、記憶部15に記憶されている検出プログラムを読み出し、この検出プログラムに従って各種の処理を実行する。この検出プログラムは、コンピュータに、光を対象物に照射して対象物から出射した光を検出することによって得られる所定の点から対象物の表面上の各点までのデプスに基づいて、対象物の第1形状を表す第1形状情報を生成することと、第1形状情報に基づいて第1形状における部分を特定することと、第1形状情報の元になるデプスと異なる情報に基づいた第2形状を、特定された部分に対して予め設定された相対位置になるように第1形状に付加し、第1形状および第2形状を含む形状を表す第2形状情報を生成することと、を実行させる。この検出プログラムは、コンピュータ読み取り可能な記憶媒体(例、非一時的な記録媒体、non-transitory tangible media)に記録されて提供されてもよい。
なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。また、法令で許容される限りにおいて、上述の実施形態などで引用した全ての文献の開示を援用して本文の記載の一部とする。
1・・・検出装置、2・・・第1検出部、3・・・処理装置、11・・・第1形状情報生成部、12・・・部分特定部、13・・・第2形状情報生成部、15・・・記憶部、21・・・第2検出部、23・・・センサ、25・・・レンダリング処理部、D1・・・第1形状情報、D2・・・第2形状情報、EM・・・識別子、EQ・・・装着物、HM・・・人体、OB・・・対象物、V1、V2・・・視点、COM・・・コンピュータ、EQ1・・・第1部分、EQ2・・・第2部分、FM1・・・第1形状、FM2・・・第2形状

Claims (33)

  1. 光を対象物に照射して前記対象物から出射した光を検出する第1検出部と、
    前記第1検出部の検出結果に基づいて、前記対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部と、
    前記第1形状情報生成部が生成した前記第1形状情報に基づいて前記第1形状における部分を特定する部分特定部と、
    前記第1検出部の検出結果と異なる情報に基づいた第2形状を前記第1形状に付加し、前記第1形状及び前記第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部と、を備え、
    前記第2形状情報生成部は、前記部分特定部が特定した部分に対して前記第2形状が予め設定された相対位置になるように前記第2形状を前記第1形状に付加する、検出装置。
  2. 前記対象物は、
    人体と、
    前記人体に装着される装着物と、を含み、
    前記部分特定部は、前記第1形状における前記人体の部分を特定し、
    前記第2形状情報生成部は、前記人体の部分の位置に対して予め設定された位置に、前記第2形状を配置する、請求項1に記載の検出装置。
  3. 光を対象物に照射して前記対象物から出射した光を検出する第1検出部と、
    前記第1検出部の検出結果に基づいて、前記対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部と、
    前記第1検出部の検出結果と異なる情報に基づいた第2形状を前記第1形状に付加し、前記第1形状及び前記第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部と、を備え、
    前記異なる情報は、作成者によってコンピュータ上で生成される形状情報を含む、検出装置。
  4. 光を対象物に照射して前記対象物から出射した光を検出する第1検出部と、
    前記第1検出部の検出結果に基づいて、前記対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部と、
    前記第1検出部の検出結果と異なる情報に基づいた第2形状を前記第1形状に付加し、前記第1形状及び前記第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部と、を備え、
    前記第1検出部は、赤外光を前記対象物に照射して前記対象物から出射した赤外光を検出することによってデプスを検出し、
    前記異なる情報は、赤外光を前記対象物に照射して前記対象物から出射した赤外光を検出することによって得られるデプス以外の情報を含む、検出装置。
  5. 光を対象物に照射して前記対象物から出射した光を検出する第1検出部と、
    前記第1検出部の検出結果に基づいて、前記対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部と、
    前記第1検出部の検出結果と異なる情報に基づいた第2形状を前記第1形状に付加し、前記第1形状及び前記第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部と、を備え、
    前記対象物は、
    人体と、
    前記人体に装着される装着物と、を含み、
    前記対象物のうち前記第1形状に対応する部分は、前記人体のうち前記装着物によって覆われる部分以外の部分を含む、検出装置。
  6. 光を対象物に照射して前記対象物から出射した光を検出する第1検出部と、
    前記第1検出部の検出結果に基づいて、前記対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部と、
    前記第1検出部の検出結果と異なる情報に基づいた第2形状を前記第1形状に付加し、前記第1形状及び前記第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部と、を備え、
    前記対象物は、
    人体と、
    前記人体の頭部に装着される装着物と、を含み、
    前記第1形状は、前記人体のうち前記頭部以外の部分の形状を含み、
    前記第2形状は、前記人体の頭部、又は前記装着物を表す形状を含む、検出装置。
  7. 光を対象物に照射して前記対象物から出射した光を検出する第1検出部と、
    前記第1検出部の検出結果に基づいて、前記対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部と、
    前記第1検出部の検出結果と異なる情報に基づいた第2形状を前記第1形状に付加し、前記第1形状及び前記第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部と、を備え、
    前記第1形状は、前記第1検出部の検出結果のうち相対的に確度が高いデプスを選択して得られる形状を含み、
    前記第2形状は、前記第1検出部の検出結果のうち相対的に確度が低いデプスに対応する前記対象物の部分を表す形状を含む、検出装置。
  8. 光を対象物に照射して前記対象物から出射した光を検出する第1検出部と、
    前記第1検出部の検出結果に基づいて、前記対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部と、
    前記第1検出部の検出結果と異なる情報に基づいた第2形状を前記第1形状に付加し、前記第1形状及び前記第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部と、を備え、
    前記対象物は、
    人体と、
    前記人体に装着される装着物と、を含み、
    前記装着物は、
    前記第1検出部から照射された光の少なくとも一部が前記第1検出部へ向かって出射する第1部分と、
    前記第1部分と所定の相対位置で配置され、前記第1検出部から照射された前記光のうち前記第1検出部へ向かって出射する光の光量が前記第1部分に比べて少ない第2部分と、を含み、
    前記第2形状情報生成部は、前記第1形状において前記装着物の前記第1部分の位置に対して予め設定された位置に、前記第2形状を配置する、検出装置。
  9. 光を対象物に照射して前記対象物から出射した光を検出する第1検出部と、
    前記第1検出部の検出結果に基づいて、前記対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部と、
    前記第1検出部の検出結果と異なる情報に基づいた第2形状を前記第1形状に付加し、前記第1形状及び前記第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部と、を備え、
    前記第2形状情報生成部は、
    前記対象物において前記第2形状に対応する部分の向きを前記第1形状に基づいて推定し、
    推定した向きに基づいて前記第1形状に対する前記第2形状の向きを設定する、検出装置。
  10. 光を対象物に照射して前記対象物から出射した光を検出する第1検出部と、
    前記第1検出部の検出結果に基づいて、前記対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部と、
    前記第1検出部の検出結果と異なる情報に基づいた第2形状を前記第1形状に付加し、前記第1形状及び前記第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部と、
    前記第1形状における部分に対して前記第2形状が予め設定された相対位置になるように前記第2形状を前記第1形状に付加するときの、前記予め設定された相対位置の情報を記憶する記憶部を備える、検出装置。
  11. 光を対象物に照射して前記対象物から出射した光を検出する第1検出部と、
    前記第1検出部の検出結果に基づいて、前記対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部と、
    前記第1検出部の検出結果と異なる情報に基づいた第2形状を前記第1形状に付加し、前記第1形状及び前記第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部と、を備え、
    前記対象物は、
    人体と、
    前記人体の頭部に装着される装着物と、を含み、
    前記第2形状は、前記人体の頭部、又は前記装着物を表す形状を含み、
    前記第2形状情報生成部は、前記第2形状において予め設定された視点について、前記第2形状を前記第1形状に対して配置したときの前記視点の位置情報を生成する、検出装置。
  12. 前記視点の位置情報に基づいて、前記視点から見た画像を推定するレンダリング処理部を備える、請求項11に記載の検出装置。
  13. 前記第1形状情報生成部が生成した前記第1形状情報に基づいて前記第1形状における部分を特定する部分特定部を備え、
    前記第2形状情報生成部は、前記部分特定部が特定した部分に対して前記第2形状が予め設定された相対位置になるように前記第2形状を前記第1形状に付加する、請求項3から請求項12のいずれか一項に記載の検出装置。
  14. 前記異なる情報は、作成者によってコンピュータ上で生成される形状情報を含む、請求項1、請求項2、請求項4から請求項12のいずれか一項に記載の検出装置。
  15. 前記第1検出部は、赤外光を前記対象物に照射して前記対象物から出射した赤外光を検出することによってデプスを検出し、
    前記異なる情報は、赤外光を前記対象物に照射して前記対象物から出射した赤外光を検出することによって得られるデプス以外の情報を含む、請求項1から請求項3、請求項5から請求項12のいずれか一項に記載の検出装置。
  16. 前記対象物は、
    人体と、
    前記人体に装着される装着物と、を含み、
    前記対象物のうち前記第1形状に対応する部分は、前記人体のうち前記装着物によって覆われる部分以外の部分を含む、請求項1から請求項4、請求項6から請求項12のいずれか一項に記載の検出装置。
  17. 前記対象物は、
    人体と、
    前記人体の頭部に装着される装着物と、を含み、
    前記第1形状は、前記人体のうち前記頭部以外の部分の形状を含み、
    前記第2形状は、前記人体の頭部、又は前記装着物を表す形状を含む、請求項1から請求項5、請求項7から請求項12のいずれか一項に記載の検出装置。
  18. 前記第1形状は、前記第1検出部の検出結果のうち相対的に確度が高いデプスを選択して得られる形状を含み、
    前記第2形状は、前記第1検出部の検出結果のうち相対的に確度が低いデプスに対応する前記対象物の部分を表す形状を含む、請求項1から請求項6、請求項8から請求項12のいずれか一項に記載の検出装置。
  19. 前記対象物は、
    人体と、
    前記人体に装着される装着物と、を含み、
    前記装着物は、
    前記第1検出部から照射された光の少なくとも一部が前記第1検出部へ向かって出射する第1部分と、
    前記第1部分と所定の相対位置で配置され、前記第1検出部から照射された前記光のうち前記第1検出部へ向かって出射する光の光量が前記第1部分に比べて少ない第2部分と、を含み、
    前記第2形状情報生成部は、前記第1形状において前記装着物の前記第1部分の位置に対して予め設定された位置に、前記第2形状を配置する、請求項1から請求項7、請求項9から請求項12のいずれか一項に記載の検出装置。
  20. 前記第2形状情報生成部は、前記対象物において前記第2形状に対応する部分の向きを前記第1形状に基づいて推定し、推定した向きに基づいて前記第1形状に対する前記第2形状の向きを設定する、請求項1から請求項8、請求項10から請求項12のいずれか一項に記載の検出装置。
  21. 前記第1形状における部分に対して前記第2形状が予め設定された相対位置になるように前記第2形状を前記第1形状に付加するときの、前記予め設定された相対位置の情報を記憶する記憶部を備える、請求項1から請求項9、請求項11、請求項12のいずれか一項に記載の検出装置。
  22. 前記対象物は、
    人体と、
    前記人体の頭部に装着される装着物と、を含み、
    前記第2形状は、前記人体の頭部、又は前記装着物を表す形状を含み、
    前記第2形状情報生成部は、前記第2形状において予め設定された視点について、前記第2形状を前記第1形状に対して配置したときの前記視点の位置情報を生成する、請求項1から請求項10のいずれか一項に記載の検出装置。
  23. 前記第1検出部は、第1検出条件で検出を実行し、
    前記異なる情報は、前記第1検出条件と異なる第2検出条件で実行される検出によって取得される情報を含む、請求項1から請求項22のいずれか一項に記載の検出装置。
  24. 前記第2検出条件は、前記対象物の検出を実行する検出元の前記対象物に対する相対位置と、前記対象物を検出する検出方法との少なくとも一方が前記第1検出条件と異なる、請求項23に記載の検出装置。
  25. 前記異なる情報は、前記対象物に接触して前記対象物の表面を検出するセンサの検出結果と、前記対象物から出射した可視光によって前記対象物の表面を検出するセンサの検出結果との少なくとも一方を含む、請求項1から請求項24のいずれか一項に記載の検出装置。
  26. 前記第1検出部は、第1検出条件で検出を実行し、
    前記第1検出条件と異なる第2検出条件で前記対象物を検出し、前記異なる情報を取得する第2検出部を備える、請求項1から請求項25のいずれか一項に記載の検出装置。
  27. 前記対象物のうち前記第1形状に対応する部分は、前記対象物のうち空間周波数が相対的に低い部分と、前記対象物のうち前記光の反射率が相対的に高い部分との少なくとも一方を含む、請求項1から請求項26のいずれか一項に記載の検出装置。
  28. 前記第2形状は、前記対象物のうち前記第1形状に対応する部分と異なる部分を表した形状を含み、
    前記対象物のうち前記第2形状に対応する部分は、前記対象物のうち空間周波数が相対的に高い部分と、前記対象物のうち前記光の反射率が相対的に低い部分との少なくとも一方を含む、請求項1から請求項27のいずれか一項に記載の検出装置。
  29. 前記第2形状において予め設定された視点の位置情報に基づいて、前記視点から見た画像を推定するレンダリング処理部を備える、請求項1から請求項28のいずれか一項に記載の検出装置。
  30. 光を対象物に照射して前記対象物から出射した光を検出する第1検出部の検出結果に基づいて、前記対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部と、
    前記第1形状情報生成部が生成した前記第1形状情報に基づいて前記第1形状における部分を特定する部分特定部と、
    前記第1検出部の検出結果と異なる情報に基づいた第2形状を前記第1形状に付加し、前記第1形状及び前記第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部と、備え、
    前記第2形状情報生成部は、前記部分特定部が特定した部分に対して前記第2形状が予め設定された相対位置になるように前記第2形状を前記第1形状に付加する、処理装置。
  31. 所定の点から照射された光の少なくとも一部が前記所定の点へ向かって出射する第1部分と、
    前記第1部分の所定の位置に設けられ、前記第1部分の特定に用いられる識別子と、
    前記第1部分と所定の相対位置で配置され、前記所定の点から照射された前記光のうち前記所定の点へ向かって出射する光の光量が前記第1部分に比べて少ない第2部分と、
    を含む、物体に装着される装着物。
  32. 光を対象物に照射して前記対象物から出射した光を検出することと、
    前記検出の結果に基づいて、前記対象物の第1形状を表す第1形状情報を生成することと、
    前記第1形状情報に基づいて前記第1形状における部分を特定することと、
    前記検出の結果と異なる情報に基づいた第2形状を前記第1形状に付加し、前記第1形状及び前記第2形状を含む形状を表す第2形状情報を生成することと、を含み、
    前記特定した部分に対して前記第2形状が予め設定された相対位置になるように前記第2形状を前記第1形状に付加する、検出方法。
  33. コンピュータを、
    光を対象物に照射して前記対象物から出射した光を検出する第1検出部の検出結果に基づいて、前記対象物の第1形状を表す第1形状情報を生成する第1形状情報生成部、
    前記第1形状情報生成部が生成した前記第1形状情報に基づいて前記第1形状における部分を特定する部分特定部、
    前記第1検出部の検出結果と異なる情報に基づいた第2形状を前記第1形状に付加し、前記第1形状及び前記第2形状を含む形状を表す第2形状情報を生成する第2形状情報生成部、として機能させ、
    前記第2形状情報生成部は、前記部分特定部が特定した部分に対して前記第2形状が予め設定された相対位置になるように前記第2形状を前記第1形状に付加する、検出プログラム。
JP2019557132A 2017-11-30 2018-11-14 検出装置、処理装置、装着物、検出方法、及び検出プログラム Active JP7078056B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022079660A JP7363962B2 (ja) 2017-11-30 2022-05-13 処理装置、検出装置、システム及びプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017231128 2017-11-30
JP2017231128 2017-11-30
PCT/JP2018/042102 WO2019107150A1 (ja) 2017-11-30 2018-11-14 検出装置、処理装置、装着物、検出方法、及び検出プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022079660A Division JP7363962B2 (ja) 2017-11-30 2022-05-13 処理装置、検出装置、システム及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2019107150A1 JPWO2019107150A1 (ja) 2020-12-03
JP7078056B2 true JP7078056B2 (ja) 2022-05-31

Family

ID=66665598

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019557132A Active JP7078056B2 (ja) 2017-11-30 2018-11-14 検出装置、処理装置、装着物、検出方法、及び検出プログラム
JP2022079660A Active JP7363962B2 (ja) 2017-11-30 2022-05-13 処理装置、検出装置、システム及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022079660A Active JP7363962B2 (ja) 2017-11-30 2022-05-13 処理装置、検出装置、システム及びプログラム

Country Status (3)

Country Link
US (2) US11593956B2 (ja)
JP (2) JP7078056B2 (ja)
WO (1) WO2019107150A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11944887B2 (en) * 2018-03-08 2024-04-02 Sony Corporation Information processing device and information processing method
JP7392302B2 (ja) * 2019-06-25 2023-12-06 株式会社リコー 画像処理装置、画像形成装置および画像処理方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000321050A (ja) 1999-05-14 2000-11-24 Minolta Co Ltd 3次元データ取得装置および3次元データ取得方法
JP2001293007A (ja) 2000-04-12 2001-10-23 Olympus Optical Co Ltd 手術ナビゲーション装置
JP2007207251A (ja) 2006-02-03 2007-08-16 Metaio Gmbh 現実の対象物の画像と重ね合わされるように設計されたデータモデルを決定するための方法及びシステム
JP2010534316A (ja) 2007-07-10 2010-11-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 対象物の動きを捕捉するシステム及び方法
JP2013504938A (ja) 2009-09-11 2013-02-07 ディズニー エンタープライズ,インコーポレイテッド 3dビデオへの仮想インサート
WO2017042102A1 (en) 2015-09-07 2017-03-16 Jaguar Land Rover Limited Torque transfer apparatus

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5424556A (en) * 1993-11-30 1995-06-13 Honeywell Inc. Gradient reflector location sensing system
JP4016526B2 (ja) * 1998-09-08 2007-12-05 富士ゼロックス株式会社 3次元物体識別装置
JP4045394B2 (ja) * 1999-07-02 2008-02-13 富士ゼロックス株式会社 ホログラム記録方法、ホログラム再生方法およびフィルタリング方法
TW200528756A (en) * 2004-01-27 2005-09-01 Adv Lcd Tech Dev Ct Co Ltd Light application apparatus, crystallization apparatus and optical modulation element assembly
WO2006014974A2 (en) * 2004-07-26 2006-02-09 Automotive Systems Laboratory, Inc. Vulnerable road user protection system
JP2010134546A (ja) 2008-12-02 2010-06-17 Nippon Telegr & Teleph Corp <Ntt> 視体積交差法による3次元形状復元装置、3次元形状復元方法および3次元形状復元プログラム
JP5567908B2 (ja) * 2009-06-24 2014-08-06 キヤノン株式会社 3次元計測装置、その計測方法及びプログラム
JP5170154B2 (ja) * 2010-04-26 2013-03-27 オムロン株式会社 形状計測装置およびキャリブレーション方法
US8994659B2 (en) * 2011-09-20 2015-03-31 Sony Computer Entertainment Inc. Methods for shape detection correlated with position detection and systems for processing the same
US9524028B2 (en) * 2013-03-08 2016-12-20 Fastvdo Llc Visual language for human computer interfaces
JP2014238731A (ja) * 2013-06-07 2014-12-18 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理システム、および画像処理方法
JP6704123B2 (ja) * 2014-08-04 2020-06-03 パナソニックIpマネジメント株式会社 荷物の積載指示方法および積載指示システム
US9613406B2 (en) * 2015-03-31 2017-04-04 Nokia Technologies Oy Method and apparatus for providing specular surface reconstruction
CN107683401B (zh) * 2015-04-22 2019-11-15 日本制铁株式会社 形状测定装置和形状测定方法
JP6662449B2 (ja) * 2016-03-09 2020-03-11 株式会社ニコン 検出装置、検出システム、検出方法、及び検出プログラム
US10311624B2 (en) * 2017-06-23 2019-06-04 Disney Enterprises, Inc. Single shot capture to animated vr avatar

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000321050A (ja) 1999-05-14 2000-11-24 Minolta Co Ltd 3次元データ取得装置および3次元データ取得方法
JP2001293007A (ja) 2000-04-12 2001-10-23 Olympus Optical Co Ltd 手術ナビゲーション装置
JP2007207251A (ja) 2006-02-03 2007-08-16 Metaio Gmbh 現実の対象物の画像と重ね合わされるように設計されたデータモデルを決定するための方法及びシステム
JP2010534316A (ja) 2007-07-10 2010-11-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 対象物の動きを捕捉するシステム及び方法
JP2013504938A (ja) 2009-09-11 2013-02-07 ディズニー エンタープライズ,インコーポレイテッド 3dビデオへの仮想インサート
WO2017042102A1 (en) 2015-09-07 2017-03-16 Jaguar Land Rover Limited Torque transfer apparatus

Also Published As

Publication number Publication date
JP7363962B2 (ja) 2023-10-18
US11593956B2 (en) 2023-02-28
JP2022105594A (ja) 2022-07-14
US20200294256A1 (en) 2020-09-17
JPWO2019107150A1 (ja) 2020-12-03
WO2019107150A1 (ja) 2019-06-06
US20230194246A1 (en) 2023-06-22
US11885611B2 (en) 2024-01-30

Similar Documents

Publication Publication Date Title
US11885611B2 (en) Detection device, processing device, equipment, detection method, and detection program
WO2013069360A1 (ja) 情報処理装置、表示制御方法、およびプログラム
KR102240302B1 (ko) 가상 피팅 장치 및 이의 가상 피팅 방법
CN104813340B (zh) 从2d图像序列导出准确身体尺寸测量的系统和方法
JP5818857B2 (ja) 情報処理装置およびその制御方法
JP6302132B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
KR101556992B1 (ko) 얼굴 성형 시뮬레이션을 이용한 3차원 스캔 시스템
KR101892735B1 (ko) 직관적인 상호작용 장치 및 방법
JP2014106543A (ja) 画像処理装置、画像処理方法及びプログラム
US20100195867A1 (en) Visual target tracking using model fitting and exemplar
JP2013101529A (ja) 情報処理装置、表示制御方法、およびプログラム
D’Apuzzo et al. Recent advances in 3D full body scanning with applications to fashion and apparel
CN106471523B (zh) 使用红外成像的颜色标识
JP2009169622A (ja) 画像処理装置、画像処理方法
JP2016071645A (ja) オブジェクト3次元モデル復元方法、装置およびプログラム
JP7209495B2 (ja) 画像処理装置、画像処理方法
JP7024876B2 (ja) 検出装置、処理装置、検出方法、及び処理プログラム
WO2018173205A1 (ja) 情報処理システム、その制御方法、及びプログラム
Wang et al. Im2fit: Fast 3d model fitting and anthropometrics using single consumer depth camera and synthetic data
Duong et al. Interactive Full-Body Motion Capture Using Infrared Sensor Network
KR101803064B1 (ko) 3차원 모델 복원 장치 및 방법
JP7147848B2 (ja) 処理装置、姿勢解析システム、処理方法、及び処理プログラム
JP7234595B2 (ja) 検出装置、処理装置、検出方法、及び処理プログラム
JP7321029B2 (ja) キャリブレーション装置及びその制御方法及びプログラム及び記憶媒体
JP2022037506A (ja) 検出装置、処理装置、検出方法、及び処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200526

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220502

R150 Certificate of patent or registration of utility model

Ref document number: 7078056

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150