JPWO2019087404A1 - 算出方法、算出プログラムおよび情報処理装置 - Google Patents

算出方法、算出プログラムおよび情報処理装置 Download PDF

Info

Publication number
JPWO2019087404A1
JPWO2019087404A1 JP2019550133A JP2019550133A JPWO2019087404A1 JP WO2019087404 A1 JPWO2019087404 A1 JP WO2019087404A1 JP 2019550133 A JP2019550133 A JP 2019550133A JP 2019550133 A JP2019550133 A JP 2019550133A JP WO2019087404 A1 JPWO2019087404 A1 JP WO2019087404A1
Authority
JP
Japan
Prior art keywords
translation
point cloud
point
sensor
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019550133A
Other languages
English (en)
Other versions
JP6874855B2 (ja
Inventor
悟 牛嶋
悟 牛嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2019087404A1 publication Critical patent/JPWO2019087404A1/ja
Application granted granted Critical
Publication of JP6874855B2 publication Critical patent/JP6874855B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/042Calibration or calibration artifacts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • G01B11/27Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing the alignment of axes
    • G01B11/272Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing the alignment of axes using photoelectric detection means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

情報処理装置(100)は、第一のセンサにより取得された第一の距離画像から、被写体を構成する第一の点群を抽出する。情報処理装置(100)は、第二のセンサにより取得された第二の距離画像から、被写体を構成する第二の点群を抽出する。情報処理装置(100)は、第一の点群を第一の並進座標だけ並進させた第一の並進点群を生成する。情報処理装置(100)は、第二の点群を第二の並進座標だけ並進させた第二の並進点群を生成する。情報処理装置(100)は、第一の並進点群と、第二の並進点群とに基づき、回転パラメータおよび並進パラメータを算出する。

Description

本発明は、算出方法等に関する。
レーザセンサ等の距離測定装置を用いて、被写体の3次元点群を検出し、被写体の姿勢等を認識する技術がある。以下の説明では、被写体の3次元点群を検出するレーザセンサを単に「センサ」と表記する。
1台のセンサを用いると、センサ側(一方向)から見た被写体の3次元点群を得ることができるが、センサの反対側から見た被写体の3次元点群を得ることができないため、被写体の姿勢等の認識精度が悪くなる場合があった。このため、複数のセンサを用い、複数の方向から見た被写体の3次元点群を得ることで、被写体の姿勢等の認識精度を向上させている。
ここで、複数のセンサを用いて被写体の3次元点群を検出する場合には、各センサから検出した各3次元点群を位置合わせして、一つの3次元点群に統合する処理を行う。以下の説明では、各センサから検出した各3次元点群を位置合わせして、一つの3次元点群に統合する処理を「キャリブレーション」と表記する。
キャリブレーションに関する従来技術として、ICP(Iterative Closest Point)を用いた従来装置がある。この従来装置は、第1の3次元点群を並進、回転させつつ、第1の3次元点群の近傍点と、固定した第2の3次元点群の近傍点との距離が最小となる値を探索することで、第1の3次元点群と第2の3次元点群とを位置合わせするための、並進値、回転角を特定する。
図34および図35は、ICPを用いる従来装置の処理手順の一例を示すフローチャートである。図34および図35に示す並進値(XS,YS,ZS)は、第1の3次元点群に対応する並進値である。たとえば、XSはx軸の並進値を示し、YSはy軸の並進値を示し、ZSはz軸の並進値を示す。回転角(XR,YR,ZR)は、第1の3次元点群に対応する回転角である。たとえば、XRはx軸まわりの回転角(ロール)を示し、YRはy軸まわりの回転角(ピッチ)を示し、ZRはz軸まわりの回転角(ヨー)を示す。
図34に示すように、従来装置は、XSに並進X開始座標を設定する(ステップS10)。従来装置は、XSが並進X終了座標未満であるか否かを判定する(ステップS11)。従来装置は、XSが並進X終了座標未満でない場合には(ステップS11,No)、結果を出力する(ステップS12)。たとえば、ステップS12において、従来装置は、結果として、第1の3次元点群の近傍点と、第2の3次元点群の近傍点との距離が最小となる、第1の3次元点群の並進値(XS、YS、ZS)と、回転値(XR,YR,ZR)とを出力する。なお、第2の3次元点群の並進値および回転値は、全てゼロとなる。
従来装置は、XSが並進X終了座標未満である場合には(ステップS11,Yes)、YSに並進Y開始座標を設定する(ステップS13)。従来装置は、YSが並進Y終了座標未満であるか否かを判定する(ステップS14)。従来装置は、YSが並進Y終了座標未満でない場合には(ステップS14,No)、XSに座標増分を加算した値によって、XSを更新し(ステップS15)、ステップS11に移行する。
従来装置は、YSが並進Y座標終了座標未満である場合には(ステップS14,Yes)、ZSに並進Z開始座標を設定する(ステップS16)。従来装置は、ZSが並進Z終了座標未満であるか否かを判定する(ステップS17)。従来装置は、ZSが並進Z終了座標未満でない場合には(ステップS17,No)、YSに座標増分を加算した値によって、YSを更新し(ステップS18)、ステップS14に移行する。
従来装置は、ZSが並進Z終了座標未満である場合には(ステップS17,Yes)、第1の3次元点群をXS、YS、ZSで並進させ(ステップS19)、図35のステップS20に移行する。
従来装置は、XRに回転X開始角度を設定する(ステップS20)。従来装置は、XRが回転X終了角度未満であるか否かを判定する(ステップS21)。従来装置は、XRが回転X終了角度未満でない場合には(ステップS21,No)、ZSに座標増分を加算した値によって、ZSを更新し(ステップS22)、図34のステップS17に移行する。
従来装置は、XRが回転X終了角度未満である場合には(ステップS21,Yes)、YRに回転Y開始角度を設定する(ステップS23)。従来装置は、YRが回転Y終了角度未満であるか否かを判定する(ステップS24)。従来装置は、YRが回転Y終了角度未満でない場合には(ステップS24,No)、XRに角度増分を加算した値によって、XRを更新し(ステップS25)、ステップS21に移行する。
従来装置は、YRが回転Y終了角度未満である場合には(ステップS24,Yes)、ZRに回転Z開始角度を設定する(ステップS26)。従来装置は、ZRが回転Z終了角度未満であるか否かを判定する(ステップS27)。従来装置は、ZRが回転Z終了角度未満でない場合には(ステップS27,No)、YRに角度増分を加算した値によって、YRを更新し(ステップS28)、ステップS24に移行する。
従来装置は、ZRが回転Z終了角度未満である場合には(ステップS27,Yes)、第1の3次元点群をXR、YR、ZRで回転させる(ステップS29)。従来装置は、並進、回転処理後の第1の3次元点群と、第2の3次元点群との近傍点間の距離を算出する(ステップS30)。従来装置は、ZRに角度増分を加算した値によって、ZRを更新し(ステップS31)、ステップS27に移行する。
なお、ICPに基づく従来技術には、3次元点群のうち、3次元形状モデルの幾何特徴上の点を選択し、選択した点について、図34および図35で示した処理を行うことで、処理量を軽減するものもある。
特開2011−175477号公報 特開2013−58106号公報
しかしながら、上述した従来技術では、位置合わせのための並進パラメータ算出の処理負荷を軽減することができないという問題がある。
なお、上述した従来技術では、3次元形状モデルの幾何特徴上の点を選択することで、位置合わせを行う対象の数を少なくすることができるものの、並進および回転させながら各点群の位置合わせを行うので、処理負荷が大きい。
1つの側面では、本発明は、位置合わせのための並進パラメータ算出の処理負荷を軽減することができる算出方法、算出プログラムおよび情報処理装置を提供することを目的とする。
第1の案では、コンピュータは、次の処理を実行する。コンピュータは、被写体までの距離をセンシングする複数のセンサのうち、第一のセンサにより取得された第一の距離画像から、被写体を構成する第一の点群を抽出する。コンピュータは、複数のセンサのうち、第二のセンサにより取得された第二の距離画像から、被写体を構成する第二の点群を抽出する。コンピュータは、第一のセンサの位置を被写体の位置に並進させる第一の並進座標と、第一の点群とに基づき、第一の点群を第一の並進座標だけ並進させた第一の並進点群を生成する。コンピュータは、第二のセンサの位置を被写体の位置に並進させる第二の並進座標と、第二の点群とに基づき、第二の点群を第二の並進座標だけ並進させた第二の並進点群を生成する。コンピュータは、第二の並進点群と、第二の並進点群とに基づき、第一の点群と第二の点群との回転方向の位置合わせのための回転パラメータを算出する。コンピュータは、第一の並進座標と、第二の並進座標とに基づき、第一の点群と第二の点群との並進方向の位置合わせのための並進パラメータを算出する。
位置合わせのための並進パラメータ算出の処理負荷を軽減することができる。
図1は、本実施例1に係るシステムの構成を示す図である。 図2は、本実施例1に係るセンサの設置状況の一例を示す図である。 図3は、センサ10aが測定した第一背景フレームの一例を示す図である。 図4は、センサ10aが測定した第一距離画像フレームの一例を示す図である。 図5は、センサ10bが測定した第二背景フレームおよび第二距離画像フレームの一例を示す図である。 図6は、本実施例1に係る情報処理装置の処理の一例を説明するための図(1)である。 図7は、本実施例1に係る情報処理装置の処理の一例を説明するための図(2)である。 図8は、本実施例1に係る情報処理装置の構成を示す機能ブロック図である。 図9は、本実施例1に係るバッファのデータ構造の一例を示す図である。 図10は、本実施例1に係る点群テーブルのデータ構造の一例を示す図である。 図11は、点群の座標情報の一例を説明するための図である。 図12は、本実施例1に係るパラメータのデータ構造の一例を示す図である。 図13は、本実施例1に係る抽出部の処理を説明するための図である。 図14は、点群10Aの一例を示す図である。 図15は、点群10Bの一例を示す図である。 図16は、点群10Aを並進させる処理を説明するための図である。 図17は、点群10Bを並進させる処理を説明するための図である。 図18は、並進前の点群と並進後の点群とを説明するための図である。 図19は、本実施例1に係る位置合わせ部の処理を説明するための図である。 図20は、回転方向の位置合わせ完了前と完了後の点群の一例を示す図である。 図21は、本実施例1に係る情報処理装置の処理手順を示すフローチャートである。 図22は、採点装置の構成を示す機能ブロック図である。 図23は、採点画面の一例を示す図である。 図24は、採点装置の位置合わせ部の処理手順を示すフローチャートである。 図25は、本実施例2に係る情報処理装置の構成を示す機能ブロック図である。 図26は、本実施例2に係るノイズ除去部の処理を説明するための図である。 図27は、エッジノイズ除去前後の点群10Aの一例を示す図である。 図28は、エッジノイズ除去前後の点群10Bの一例を示す図である。 図29は、競技を行う選手の姿勢の特徴の一例を説明するための図である。 図30は、実施例3に係る情報処理装置の処理を説明するための図である。 図31は、本実施例3に係る情報処理装置の構成を示す機能ブロック図である。 図32は、本実施例3に係る情報処理装置の処理手順を示すフローチャートである。 図33は、情報処理装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。 図34は、ICPを用いる従来装置の処理手順の一例を示すフローチャート(1)である。 図35は、ICPを用いる従来装置の処理手順の一例を示すフローチャート(2)である。
以下に、本願の開示する算出方法、算出プログラムおよび情報処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例1に係るシステムの構成を示す図である。図1に示すように、センサ10aおよびセンサ10bが、被写体1の前後に配置されている。センサ10a及びセンサ10bは、情報処理装置100に接続される。本実施例1では一例として、被写体1を人物として説明するが、立体物であれば、人物以外を被写体1として用いてもよい。
センサ10aは、被写体1を構成する点群とセンサ10aとの距離を測定する測定装置である。以下の説明では、tn時刻において、センサ10aが測定した被写体1を構成する点群とセンサ10aとの距離の情報を「第一距離画像フレーム」と表記する。センサ10aは、所定時刻毎に、上記の距離を測定する処理を繰り返し実行し、第一距離画像フレームを、情報処理装置100に出力する。
センサ10aは、被写体1が存在しない間に測定した被写体1の距離情報を含まない第一距離画像フレームを、情報処理装置100に出力する。被写体1の距離情報を含まない第一距離画像フレームを「第一背景フレーム」と表記する。
センサ10bは、被写体1を構成する点群とセンサ10bとの距離を測定する測定装置である。以下の説明では、tn時刻において、センサ10bが測定した被写体1を構成する点群とセンサ10bとの距離の情報を、第二距離画像フレームと表記する。センサ10aは、所定時刻毎に、上記の距離を測定する処理を繰り返し実行し、第二距離画像フレームを、情報処理装置100に出力する。
センサ10bは、被写体1が存在しない間に測定した被写体1の距離情報を含まない第二距離画像フレームを、情報処理装置100に出力する。被写体1の距離情報を含まない第二距離画像フレームを「第二背景フレーム」と表記する。
図2は、本実施例1に係るセンサの設置状況の一例を示す図である。図2に示す例では、被写体1の進行方向を矢印1aに示す方向とする。センサ10aは被写体1の進行方向に配置される。センサ10bは被写体1の進行方向とは逆方向に配置される。
図3は、センサ10aが測定した第一背景フレームの一例を示す図である。図3では一例として、第一背景フレーム11aと、カメラ(センサ10aと同じ方向を撮影するカメラ)で撮影された可視画像12aとを対応づけて示す。第一背景フレーム11aにおいて、暗い領域ほど、センサ10aからの距離が大きいことを示す。
図4は、センサ10aが測定した第一距離画像フレームの一例を示す図である。図4では一例として、第一距離画像フレーム21aと、カメラ(センサ10aと同じ方向を撮影するカメラ)で撮影された可視画像22aとを対応づけて示す。第一距離画像フレームにおいて、暗い領域ほど、センサ10aからの距離が大きいことを示す。
図5は、センサ10bが測定した第二背景フレームおよび第二距離画像フレームの一例を示す図である。図5に示すように、第二背景フレーム11bおよび第二距離画像フレーム21bにおいて、暗い領域ほど、センサ10bからの距離が大きいことを示す。
図1の説明に戻る。情報処理装置100は、センサ10aが測定する被写体1の点群の位置と、センサ10bが測定する被写体1の点群の位置との位置合わせを行う装置である。図6および図7は、本実施例1に係る情報処理装置の処理の一例を説明するための図である。
図6の説明を行う。情報処理装置100は、センサ10aが測定した第一距離画像フレームを基にして、被写体1の平均座標1Aを算出する。情報処理装置100は、センサ10bが測定した第二距離画像フレームを基にして、被写体1の平均座標1Bを算出する。なお、センサ10aの原点座標を原点座標15aとし、センサ10bの原点座標を原点座標15bとする。
図7の説明に移行する。情報処理装置100は、原点座標15aを平均座標1Aに移動させ、かつ、原点座標15bを平均座標1Bに移動させることで、並進方向の位置合わせを完了する。原点座標15aを平均座標1Aに移動させることは、センサ10aが測定した被写体1の点群の座標を、平均座標1A分逆に並進することに対応する。原点座標15bを平均座標1Bに移動させることは、センサ10bが測定した被写体1の点群の座標を、平均座標1B分に並進することに対応する。
図6、図7で説明したように、情報処理装置100は、並進方向の位置合わせを行う処理を1回のみ行う。このため、情報処理装置100は、従来装置と比較して、位置合わせのための並進パラメータ算出の処理負荷を軽減することができる。たとえば、従来装置は、図34のステップS10〜S22で説明したように、x軸方向の並進値、y軸方向の並進値、z軸方向の並進値を変化させながら、総当たりの検索を行うため、並進パラメータ算出の処理負荷が大きい。
情報処理装置100は、並進パラメータを算出した後は、回転角を変化させつつ、各点群の近傍点の距離が最小となる角度パラメータを算出する。
図8は、本実施例1に係る情報処理装置の構成を示す機能ブロック図である。図8に示すように、情報処理装置100は、インタフェース部110と、入力部120と、表示部130と、記憶部140と、制御部150とを有する。
インタフェース部110は、センサ10aおよびセンサ10bから情報を受信する通信装置である。インタフェース部110は、センサ10aから第一背景フレームを受信し、センサ10bから第二背景フレームを受信する。インタフェース部110は、センサ10aから時系列で第一距離画像フレームを受信する。インタフェース部110は、センサ10bから時系列で第二距離画像フレームを受信する。インタフェース部110は、第一背景フレーム、第二背景フレーム、各第一距離画像フレーム、各第二距離画像フレームを、制御部150に出力する。
また、インタフェース部110は、後述する採点装置に接続される。
入力部120は、各種の情報を情報処理装置100に入力するための入力装置である。たとえば、入力部120は、キーボードやマウス、タッチパネル等に対応する。
表示部130は、制御部150から出力される各種の情報を表示する表示装置である。たとえば、表示部130は、液晶ディスプレイ、タッチパネル等に対応する。
記憶部140は、バッファ140a、点群テーブル140b、パラメータ140cを有する。記憶部140は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
バッファ140aは、センサ10aから受信する第一背景フレーム、時刻毎の複数の第一距離画像フレームを格納する。また、バッファ140aは、センサ10bから受信する第二背景フレーム、時刻毎の複数の第二距離画像フレームを格納する。
図9は、本実施例1に係るバッファのデータ構造の一例を示す図である。図9に示すように、このバッファ140aは、テーブル141aと、テーブル141bと、第一背景フレーム11aと、第二背景フレーム11bとを有する。
テーブル141aは、センサ10aから受信する各第一距離画像フレームを格納するテーブルである。図9に示すように、テーブル141aは、時刻と第一距離画像フレームとを対応づける。
テーブル141bは、センサ10bから受信する各第二距離画像フレームを格納するテーブルである。図9に示すように、テーブル141bは、時刻と第二距離画像フレームとを対応づける。
第一背景フレーム11aは、被写体1不在時に、センサ10aにより測定された第一距離画像フレームである。第二背景フレーム11bは、被写体1不在時に、センサ10bにより測定された第二距離画像フレームである。
点群テーブル140bは、センサ10aにより測定された被写体1上の点群の座標と、センサ10bにより測定された被写体1上の点群の座標とを格納するテーブルである。図10は、本実施例1に係る点群テーブルのデータ構造の一例を示す図である。図10に示すように、この点群テーブル140bは、テーブル142aと、テーブル142bとを有する。
テーブル142aは、センサ10aにより測定された被写体1上の点群の座標を保持するテーブルである。以下の説明では、センサ10aにより測定された被写体1上の点群を、点群10Aと表記する。図10に示すように、テーブル142aは、時刻と、点群10Aの座標情報とを対応づける。時刻は、該当する点群10Aを測定した時刻を示すものである。点群10Aの座標情報は、点群10Aに含まれる各点の3次元座標を示すものである。
テーブル142bは、センサ10bにより測定された被写体1上の点群の座標を保持するテーブルである。以下の説明では、センサ10bにより測定された被写体1上の点群を、点群10Bと表記する。図10に示すように、テーブル142bは、時刻と、点群10Bの座標情報とを対応づける。時刻は、該当する点群10Bを測定した時刻を示すものである。点群10Bの座標情報は、点群10Bに含まれる各点の3次元座標を示すものである。
図11は、点群の座標情報の一例を説明するための図である。図11では一例として、点群10Aの座標情報の一例について説明する。点群10Bの座標情報のデータ構造は、点群10Aの座標情報のデータ構造と同様であるため、説明を省略する。また、図11に示す点群10Aの座標は、ある時刻に対応する点群10Aの座標を示す。他の時刻に対応する点群10Aの座標に関する説明は省略する。
図11に示すように、点群10Aの座標は、点識別情報と、座標情報とを対応づける。点識別情報は、点群10Aに含まれる点を一意に識別する情報である。座標は、点群の3次元座標を示すものである。
図8の説明に戻る。パラメータ140cは、点群10Aおよび点群10Bの位置合わせの結果となる並進パラメータと、回転パラメータとを有する。図12は、本実施例1に係るパラメータのデータ構造の一例を示す図である。図12に示すように、このパラメータ140cは、テーブル143aと、テーブル143bとを有する。
テーブル143aは、センサ10aの並進パラメータと、回転パラメータとを保持するテーブルである。センサ10aの並進パラメータは、X並進距離、Y並進距離、Z並進距離を含む。センサ10aの回転パラメータは、X回転角度、Y回転角度、Z回転角度を有する。
テーブル143bは、センサ10bの並進パラメータと、回転パラメータとを保持するテーブルである。センサ10bの並進パラメータは、X並進距離、Y並進距離、Z並進距離を含む。センサ10bの回転パラメータは、X回転角度、Y回転角度、Z回転角度を有する。
たとえば、点群10Aの座標を、テーブル143aの並進パラメータおよび回転パラメータで補正し、点群10Bの座標を、テーブル143bの並進パラメータおよび回転パラメータで補正することで、点群10A、10Bの座標が一致する。
制御部150は、取得部150aと、抽出部150bと、並進部150cと、位置合わせ部150dと、出力部150eとを有する。制御部150は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって実現できる。また、制御部150は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
取得部150aは、センサ10a,10bから情報を取得する処理部である。たとえば、取得部150aは、センサ10aから取得する時系列の第一距離画像フレームを、バッファ140aのテーブル141aに格納する。取得部150aは、センサ10aから取得する第一背景フレーム11aをバッファ140aに格納する。取得部150aは、センサ10bから取得する時系列の第二距離画像フレームを、バッファ140aのテーブル141bに格納する。取得部150aは、センサ10bから取得する第二背景フレーム11bをバッファ140aに格納する。
抽出部150bは、バッファ140aに格納された第一距離画像フレームおよび第二距離画像フレームから、被写体に対応する点群10A、点群10Bを抽出する処理部である。抽出部150bは、点群10A、点群10Bの情報を、点群テーブル140bに格納する。
抽出部150bが、点群10Aを抽出する処理の一例について説明する。図13は、本実施例1に係る抽出部の処理を説明するための図である。抽出部150bは、バッファ140aのテーブル141aから、時刻tnの第一距離画像フレーム21aを取得する。抽出部150bは、バッファ140aから、第一背景フレーム11aを取得する。抽出部150bは、第一距離画像フレーム21aと第一背景フレーム11aとの差分から第一差分フレーム31aを生成する。第一差分フレーム31aには、被写体1の領域32aが残る。
抽出部150bは、第一差分フレーム31aから、図14に示すような点群10Aを抽出する。図14は、点群10Aの一例を示す図である。たとえば、抽出部150bは、第一差分フレーム31aの領域32a上の点の距離情報と、センサ10aのパラメータとを基にして、点の3次元座標を算出する。抽出部150bは、領域32aの各点について、上記処理を繰り返し実行することで、被写体1を構成する点群の3次元座標を算出し、点群10Aを抽出する。抽出部150bは、時刻tnの点群10Aの座標情報を、テーブル142aに格納する。抽出部150bは、他の時刻の点群10Aの座標情報も同様にして抽出し、テーブル142aに格納する。
抽出部150bが、点群10Bを抽出する処理の一例について説明する。抽出部150bは、バッファ140aのテーブル141bから、時刻tnの第二距離画像フレーム21bを取得する。抽出部150bは、バッファ140aから、第二背景フレーム11bを取得する。抽出部150bは、第二距離画像フレーム21bと第二背景フレーム11bとの差分から第二差分フレーム31bを生成する。第二差分フレーム31bには、被写体1の領域32bが残る。第二差分フレーム31b、領域32bの図示を省略する。
抽出部150bは、第一差分フレーム31aから、図15に示すような点群10Bを抽出する。図15は、点群10Bの一例を示す図である。たとえば、抽出部150bは、第二差分フレーム31bの領域32b上の点の距離情報と、センサ10bのパラメータとを基にして、点の3次元座標を算出する。抽出部150bは、領域32bの各点について、上記処理を繰り返し実行することで、被写体1を構成する点群の3次元座標を算出し、点群10Bを抽出する。抽出部150bは、時刻tnの点群10Bの座標情報を、テーブル142bに格納する。抽出部150bは、他の時刻の点群10Bの座標情報も同様にして抽出し、テーブル142bに格納する。
図8の説明に戻る。並進部150cは、センサ10aの原点座標を点群10Aの平均座標1Aに移動させ、かつ、センサ10bの原点座標を点群10Bの平均座標1Bに移動させることで、並進方向の位置合わせを行う処理部である。並進部150cは、センサ10aに対応する並進パラメータを、テーブル143aに格納する。並進部150cは、センサ10bに対する並進パラメータを、テーブル143bに格納する。
図16は、点群10Aを並進させる処理を説明するための図である。図16において、センサ10aの原点座標を原点座標15aとする。並進部150cは、テーブル142aから、時刻tnの点群10Aの座標情報を取得し、点群10Aの平均座標1Aを算出する(ステップS10)。
続いて、並進部150cは、平均座標1Aをセンサ10aの原点座標15aに移動させる(ステップS11)。ここで、平均座標1Aを、原点座標15a方向に並進(移動)させる際の並進パラメータには、X並進距離、Y並進距離、Z並進距離が含まれる。X並進距離は、x軸方向の並進値を示す。Y並進距離は、y軸方向の並進値を示す。Z並進距離は、z軸方向の並進値を示す。たとえば、平均座標1Aをセンサ10aの原点座標15aに移動させる際のX並進距離、Y並進距離、Z並進距離を、XSa、YSa、ZSaとする。並進部150cは、センサ10aに関する並進パラメータを、テーブル143aに格納する。
図17は、点群10Bを並進させる処理を説明するための図である。図17において、センサ10bの原点座標を原点座標15bとする。並進部150cは、テーブル142bから、時刻tnの点群10Bの座標情報を取得し、点群10Bの平均座標1Bを算出する(ステップS20)。
続いて、並進部150cは、平均座標1Bをセンサ10bの原点座標15bに移動させる(ステップS21)。ここで、平均座標1Bを、原点座標15b方向に並進(移動)させる際の並進パラメータには、X並進距離、Y並進距離、Z並進距離が含まれる。たとえば、平均座標1Bをセンサ10bの原点座標15bに移動させる際のX並進距離、Y並進距離、Z並進距離を、XSb、YSb、ZSbとする。並進部150cは、センサ10bに関する並進パラメータを、テーブル143bに格納する。
並進部150cは、図16のステップS11で説明したように、X並進距離、Y並進距離、Z並進距離だけ並進させた点群10Aの情報を位置合わせ部150dに出力する。並進部150cは、図17のステップS21で説明したように、X並進距離、Y並進距離、Z並進距離だけ並進させた点群10Bの情報を位置合わせ部150dに出力する。
図18は、並進前の点群と並進後の点群とを説明するための図である。図18のステップS30では、並進前は、点群10Aおよび点群10Bの並進方向が一致していない。ステップS31に示すように、並進部150cが、点群10Aを原点座標15aに移動させ、点群10Bを原点座標15bに移動させることで、点群10A、点群10Bの並進方向の位置合わせを完了させる。図18において、矢印1aは、センサ10aからみた、被写体1の向き(移動方向)である。矢印1bは、センサ10bからみた、被写体1の向き(移動方向)である。
位置合わせ部150dは、点群10Aと点群10Bとを位置合わせのための回転パラメータを算出する処理部である。回転パラメータには、X回転角度、Y回転角度、Z回転角度が含まれる。たとえば、X回転角度は、x軸まわりの回転角度(ロール)を示す。Y回転角度は、y軸まわりの回転角度(ピッチ)を示す。Z回転角度は、z軸まわりの回転角度(ヨー)を示す。なお、点群10Aおよび点群10Bの並進方向の位置合わせは、並進部150cにより、完了しているものとする。
位置合わせ部150dは、点群10Bの回転を固定し、点群10Aを回転させながら、点群Aと点群10Bとの近傍点の距離が最小となる回転パラメータを求めることで、回転方向の位置合わせを行う。
図19は、本実施例1に係る位置合わせ部の処理を説明するための図である。図19において、点群10Aに含まれる点を、点50a,51a,52aとする。点群10Bに含まれる点を、点50b,51b,52bとする。点50aの近傍点は、点50bとなる。点51aの近傍点は、点51bとなる。点52aの近傍点は、点52bとなる。位置合わせ部150dは、近傍点となる点の組の距離を、点の組毎に合計した合計距離を算出する。
図19に示す例では、点50aと点50bとの距離、点51aと点51bとの距離、点52aと点52bとの距離を合計した値が、合計距離となる。位置合わせ部150dは、回転パラメータを変化させながら、回転パラメータに対応する合計距離を算出する処理を繰り返し実行する。位置合わせ部150dは、合計距離が最小となる回転パラメータを求めることで、回転方向の位置合わせを行う。
図20は、回転方向の位置合わせ完了前と完了後の点群の一例を示す図である。ステップ40において、点群10Aと点群10Bは並進方向の位置合わせが完了しているが、回転方向の位置合わせが完了していない。ステップS41において、位置合わせ部150dは、合計距離が最小となる回転パラメータにあわせて、点群10Aを回転させることで、点群10Aと点群10Bとの位置合わせが完了する。
位置合わせ部150dは、合計距離が最小となる回転パラメータ(センサ10aの回転パラメータ)を、テーブル143aに格納する。また、位置合わせ部150dは、センサ10bの回転パラメータを、テーブル143bに格納する。なお、点群10Bの回転は固定したまま、位置合わせを行っているため、センサ10bの回転パラメータ(X回転角度、Y回転角度、Z回転角度)は「0」となる。
ところで、位置合わせ部150dは、並進部150cの代わりに並進パラメータを求めてもよい。たとえば、位置合わせ部150dは、並進前の点群10Aの平均座標1Aと、センサ10aの原点座標15aとの差分を求めることで、センサ10aの並進パラメータを算出する。位置合わせ部150dは、並進前の点群10Bの平均座標1Bと、センサ10bの原点座標15bとの差分を求めることで、センサ10bの並進パラメータを算出する。
出力部150eは、パラメータ140cを、採点装置に出力する処理部である。
次に、本実施例1に係る情報処理装置100の処理手順の一例について説明する。図21は、本実施例1に係る情報処理装置の処理手順を示すフローチャートである。図21に示すように、情報処理装置100の取得部150aは、センサ10aおよびセンサ10bから、第一距離画像フレーム、第二距離画像フレームを取得する(ステップS101)。
情報処理装置100の抽出部150bは、被写体に対応する点群10A、10Bを抽出する(ステップS102)。情報処理装置100の並進部150cは、点群10Aの3次元座標の平均座標を算出する(ステップS103)。並進部150cは、点群10Aを平均座標分逆に並進させる(ステップS104)。
並進部150cは、点群10Bの3次元座標の平均座標を算出する(ステップS105)。並進部150cは、点群10Bを平均座標分逆に並進させる(ステップS106)。
情報処理装置100の位置合わせ部150dは、XRに回転X開始角度を設定する(ステップS107)。位置合わせ部150dは、XRが回転X終了角度未満であるか否かを判定する(ステップS108)。位置合わせ部150dは、XRが回転X終了角度未満でない場合には(ステップS108,No)、点群10A,10Bの並進パラメータと回転パラメータとをパラメータ140cに格納する(ステップS109)。
位置合わせ部150dは、XRが回転X終了角度未満である場合には(ステップS108,Yes)、YRに回転Y開始角度を設定する(ステップS110)。位置合わせ部150dは、YRが回転Y終了角度未満であるか否かを判定する(ステップS111)。位置合わせ部150dは、YRが回転Y終了角度未満でない場合には(ステップS111,No)、XRに角度増分を加算した値によって、XRを更新し(ステップS112)、ステップS108に移行する。
位置合わせ部150dは、YRが回転Y終了角度未満である場合には(ステップS111,Yes)、ZRに回転Z開始角度を設定する(ステップS113)。位置合わせ部150dは、ZRが回転Z終了角度未満であるか否かを判定する(ステップS114)。位置合わせ部150dは、ZRが回転Z終了角度未満でない場合には(ステップS114,No)、YRに角度増分を加算した値によって、YRを更新し(ステップS115)、ステップS111に移行する。
位置合わせ部150dは、ZRが回転Z終了角度未満である場合には(ステップS114,Yes)、点群10AをXR、YR、ZRで回転させる(ステップS116)。位置合わせ部150dは、並進、回転処理後の点群10Aと、並進処理後の点群10Bとの近傍点間の合計値を算出する(ステップS117)。位置合わせ部150dは、ZRに角度増分を加算した値によって、ZRを更新し(ステップS118)、ステップS114に移行する。
次に、本実施例1に係る情報処理装置100の効果について説明する。情報処理装置100は、点群10Aの平均座標1Aを、センサ10aの原点座標15aに並進させ、点群10Bの平均座標1Bを、センサ10bの原点座標15bに並進させることで、点群10A,10Bの並進方向の位置合わせを完了させる。情報処理装置100は、並進方向の位置合わせを完了させた後に、点群10Bの回転を固定し、点群10Aを回転させつつ、各点群10A,10Bの近傍点の合計距離が最小となる回転パラメータを算出する。
上記のように、情報処理装置100は、並進方向の位置合わせを行う処理を1回のみ行ため、情報処理装置100は、従来装置と比較して、位置合わせのための並進パラメータ算出の処理負荷を軽減することができる。
情報処理装置100は、点群10Aの平均座標1A、点群10Bの平均座標1Bを算出し、並進方向の位置合わせを行う。平均座標を算出する処理は、処理負荷が少ないため、処理負荷を軽減することができる。
続いて、本実施例1に示した情報処理装置100が算出したパラメータ140cを用いて、体操を行う選手の演技を採点する採点装置の一例について説明する。ここでは、採点装置について説明を行うが、採点装置に限らず、複数のセンサを用いて被写体のセンシングを行う装置であれば、情報処理装置100が算出したパラメータ140cを利用することが可能である。
図22は、採点装置の構成を示す機能ブロック図である。図22に示すように、この採点装置200は、センサ10a、センサ10b、表示装置250に接続される。センサ10a、センサ10bは、図1に示したセンサ10a、センサ10bに対応する。図22に示すセンサ10b,10bの設置状況と、図1に示したセンサ10a,10bの設置状況とは同一であるものとする。設置状況は、センサ10a,10bの設置位置、センサの方向を示す。
表示装置250は、採点装置から出力される情報を表示する表示装置である。表示装置250は、たとえば、液晶ディスプレイ、タッチパネル等に対応する。
採点装置200は、記憶部201、取得部202、位置合わせ部203、認識部204、出力部205を有する。
記憶部201は、パラメータ140cを有する。記憶部201は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子や、HDDなどの記憶装置に対応する。パラメータ140cは、図8で説明したパラメータ140cに対応する情報である。
取得部202は、センサ10aから第一距離画像フレームを取得し、センサ10bから第二距離画像フレームを取得する。取得部202は、第一距離画像フレームと第一背景フレームとを基にして、第一距離画像フレームに含まれる被写体6を構成する第一点群を抽出する。取得部202は、第二距離画像フレームと第二背景フレームとを基にして、第二距離画像フレームに含まれる被写体6を構成する第二点群を抽出する。取得部202は、第一点群の座標情報と、第二点群の座標情報とを、位置合わせ部203に出力する。
位置合わせ部203は、パラメータ140cを基にして、第一点群と第二点群との位置合わせを行う処理部である。位置合わせ部203は、第一点群に含まれる各点の座標を、テーブル143aに格納された並進パラメータ、回転パラメータに基づいて位置合わせする。位置合わせ部203は、第二点群に含まれる各点の座標を、テーブル143bに格納された並進パラメータ、回転パラメータに基づいて位置合わせする。位置合わせ部203は、位置合わせした第一点群および第二点群の情報を、認識部204に出力する。
認識部404は、位置合わせされた第一点群および第二点群を組み合わせて、被写体6の骨格を認識する処理部である。認識部404は、時刻毎に被写体6の骨格の位置を検出し、骨格の位置の推移と採点基準を定義したテーブル(図示略)とを比較して、被写体6の演技を採点する。認識部404は、採点結果の情報を、出力部205に出力する。たとえば、採点結果の情報には、D(Difficulty)スコア、E(Execution)スコアが含まれる。
出力部205は、採点結果の情報を基にして、採点画面情報を生成する処理部である。出力部205は、採点画面情報を、表示装置250に出力して表示させる。図23は、採点画面の一例を示す図である。図23に示すように、採点画面情報65には、領域65a,65b,65cが含まれる。
領域65aは、Dスコア、Eスコア等の採点結果を表示する領域である。領域65bは、カメラ等により撮影された被写体6の映像を表示する領域である。領域65cは、位置合わせされた第一点群および第二点群から推定される骨格の情報を基にして推定される3Dモデルを表示する領域である。
続いて、採点装置200の位置合わせ部203の処理手順の一例について説明する。図24は、採点装置の位置合わせ部の処理手順を示すフローチャートである。図24に示す例では、第一点群の位置合わせを行う場合について説明するが、第二点群も第一点群と同様にして位置合わせが行われる。
図24に示すように、採点装置200の位置合わせ部203は、第一点群をX並進距離分、並進させる(ステップS201)。位置合わせ部203は、第一点群をY並進距離分、並進させる(ステップS202)。位置合わせ部203は、第一点群をZ並進距離分、並進させる(ステップS203)。
位置合わせ部203は、X軸を中心に、第一点群をX回転角度分、回転させる(ステップS204)。位置合わせ部203は、Y軸を中心に、第一点群をY回転角度分、回転させる(ステップS205)。位置合わせ部203は、Z軸を中心に、第一点群をZ回転角度分、回転させる(ステップS206)。
上記のように、採点装置200は、情報処理装置100により生成されるパラメータ140cを基にして、センサ10a,10bにより測定される点群の位置合わせを行うことで、被写体全体の点群を正確に特定でき、採点精度を向上させることができる。
次に、本実施例2に係る情報処理装置について説明する。本実施例2に係る情報処理装置は、実施例1と同様にして、センサ10aおよびセンサ10bに接続される。
図25は、本実施例2に係る情報処理装置の構成を示す機能ブロック図である。図25に示すように、この情報処理装置300は、インタフェース部310と、入力部320と、表示部330と、記憶部340と、制御部350とを有する。
インタフェース部310、入力部320、表示部330に関する説明は、図8に示したインタフェース部110、入力部120、表示部130に関する説明と同様である。
記憶部340は、バッファ340a、点群テーブル340b、パラメータ340cを有する。記憶部340は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子や、HDDなどの記憶装置に対応する。
バッファ340a、点群テーブル340b、パラメータ340cに関する説明は、図8に示したバッファ140a、点群テーブル140b、パラメータ140cに関する説明と同様である。
制御部350は、取得部350a、抽出部350b、ノイズ除去部355、並進部350c、位置合わせ部350d、出力部350eを有する。制御部350は、CPUやMPUなどによって実現できる。また、制御部350は、ASICやFPGAなどのハードワイヤードロジックによっても実現できる。
取得部350aは、センサ10a,10bから情報を取得する処理部である。取得部350aは、取得した情報をバッファ340aに格納する。取得部350aに関するその他の説明は、図8に示した取得部150aに関する説明と同様である。
抽出部350bは、バッファ340aに格納された第一距離画像フレームおよび第二距離画像フレームから、被写体に対応する点群10A、点群10Bを抽出する処理部である。抽出部350bは、点群10A、点群10Bの情報を、点群テーブル340bに格納する。抽出部350bに関するその他の説明は、図8に示した抽出部150bに関する説明と同様である。
ノイズ除去部355は、点群10Aおよび点群10Bに含まれるエッジノイズを除去する処理部である。図26は、本実施例2に係るノイズ除去部の処理を説明するための図である。図26では、点群10A,10Bを上から見た様子を示す。たとえば、点群10Aには、センサ10aの反対側に、エッジノイズ7aが含まれている。点群10Bには、センサ10bの反対側に、エッジノイズ7bが含まれている。
ノイズ除去部355は、点群10Aから、エッジノイズ7aを除去し、エッジノイズ7aに対応する点の情報を、点群テーブル340bから除去する。ノイズ除去部355は、点群10Bから、エッジノイズ7bを除去し、エッジノイズ7bに対応する点の情報を、点群テーブル340bから除去する。
ノイズ除去部355は、点群10Aに含まれるエッジノイズ7aを特定する処理の一例について説明する。ノイズ除去部355は、点群10Aに含まれる点を選択し、選択した点と、選択した点に最も近い点との距離を算出する。ノイズ除去部355は、算出した距離が閾値以上である場合には、選択した点を、エッジノイズ7aに含まれる点であると判定する。ノイズ除去部355は、点群10Aに含まれる他の点についても同様の処理を行い、エッジノイズ7aを判定する。
図27は、エッジノイズ除去前後の点群10Aの一例を示す図である。図27において、エッジノイズ除去前のステップS50では、点群10Aにエッジノイズ7aが含まれている。ステップS51では、点群10Aから、エッジノイズ7aが除去されている。
ノイズ除去部355は、点群10Bに含まれるエッジノイズ7bを特定する処理の一例について説明する。ノイズ除去部355は、点群10Bに含まれる点を選択し、選択した点と、選択した点に最も近い点との距離を算出する。ノイズ除去部355は、算出した距離が閾値以上である場合には、選択した点を、エッジノイズ7bに含まれる点である判定する。ノイズ除去部355は、点群10Bに含まれる他の点についても同様の処理を行い、エッジノイズ7bを判定する。
図28は、エッジノイズ除去前後の点群10Bの一例を示す図である。図28において、エッジノイズ除去前のステップS60では、点群10Bにエッジノイズ7bが含まれている。ステップS61では、点群10Bから、エッジノイズ7bが除去されている。
並進部350cは、センサ10aの原点座標を点群10Aの平均座標1Aに移動させ、かつ、センサ10bの原点座標を点群10Bの平均座標1Bに移動させることで、並進方向の位置合わせを行う処理部である。並進部350cに関するその他の説明は、図8に示した並進部150cに関する説明と同様である。
位置合わせ部350dは、点群10Aと点群10Bとを位置合わせのための回転パラメータを算出する処理部である。位置合わせ部350dに関するその他の説明は、図8に示した位置合わせ部150dに関する説明と同様である。
出力部350eは、パラメータ340cを、採点装置に出力する処理部である。
次に、本実施例2に係る情報処理装置300の効果について説明する。情報処理装置300は、点群10Aからエッジノイズ7aを除去し、点群10Bからエッジノイズ7bを除去する。これにより、点群10Aと点群10Bとの位置合わせをより正確に実行することができる。たとえば、点群10Aと点群10Bとの位置が合うように回転させる場合に、エッジノイズ7a,7bが除去されていないと、適切な近傍点を選択できず、合計距離が最小となる回転パラメータを精度よく特定できない。情報処理装置300が、エッジノイズ7a,7bを除去することで、たとえば、点群10Aを180°回転させた状態でも、エッジノイズ7aのある点と、点群10Bのある点との距離を、近傍点の距離として算出してしまうことを抑止できる。
なお、ノイズ除去部355がノイズを除去する処理は、上記のものに限定されるものではない。たとえば、ノイズ除去部355は、第一背景フレームから、サイズが所定サイズ以上となる第一領域を抽出する。ノイズ除去部355は、第一差分フレームの非背景の点の領域から、第一領域からの距離が所定距離未満となる点群を特定し、特定した点群を、近接する距離値が近い点同士をグルーピングする。ノイズ除去部355は、グルーピングした各グループのうち、グループに含まれる点を含む領域が閾値未満である点を、エッジノイズとして除去する。
ノイズ除去部355は、第二背景フレームから、サイズが所定サイズ以上となる第二領域を抽出する。ノイズ除去部355は、第二差分フレームの非背景の点の領域から、第二領域からの距離が所定距離未満となる点群を特定し、特定した点群を、近接する距離値が近い点同士をグルーピングする。ノイズ除去部355は、グルーピングした各グループのうち、グループに含まれる点を含む領域が閾値未満である点を、エッジノイズとして除去する。
図29は、競技を行う選手の姿勢の特徴の一例を説明するための図である。たとえば、体操演技の跳馬や床では、選手7が宙を飛んでいる間、直立の姿勢で足を閉じて両腕を胴体に付けた姿勢になる場合がある。このような状態で被写体(選手7)を検出すると、円筒に近い形状となり、方向7A、方向7Bの違いが少ない。また、円筒(選手7)の長辺方向の中心軸を中心として何度回転させても半径方向の違いは少ないため、位置合わせが完了したか否かを判定することが難しい。たとえば、情報処理装置100,300が、選手7を被写体とした場合の点群10Aと点群10Bとの位置合わせを行った場合において、点群全体として、位置合わせが完了していない状態になりやすくなる。
本実施例3に係る情報処理装置は、選手が跳躍を開始してから着地するまでの複数の距離画像フレームを選択し、複数の距離画像フレームに含まれる点群を組み合わせた点群を用いる。
図30は、実施例3に係る情報処理装置の処理を説明するための図である。図30の上段は、各時刻における選手7を横から見た状態を示す。図30の下段は、各時刻における選手7を上から見た状態を示す。たとえば、時刻t1において選手7は跳躍を開始し、時刻t2,t3において選手7は跳んでいる途中であり、時刻t4において選手は着地している。
たとえば、情報処理装置は、時刻t1,t2,t3の第一距離画像フレームから抽出した各点群をまとめて点群10Aとする。情報処理装置は、時刻t1,t2,t3の第二距離画像フレームから抽出した各点群をまとめて点群10Bとする。このように、各時刻の点群をまとめることで、回転による半径方向に違いを出すことができるので、情報処理装置は、各点群をまとめた点群10Aおよび点群10Bとの位置合わせを精度よく行うことができる。
ここでは、3つの距離画像フレームから抽出した各点群をまとめる場合について説明したが、これに限定されるものではない。たとえば、まとめる対象の点群のうち、回転による半径方向の違いが大きいものが含まれている場合には、2つの距離画像フレームから抽出した各点群をまとめて利用してもよい。
次に、本実施例3に係る情報処理装置の構成について説明する。なお、本実施例3に係る情報処理装置は、実施例1と同様にして、センサ10aおよびセンサ10bに接続される。
図31は、本実施例3に係る情報処理装置の構成を示す機能ブロック図である。図31に示すように、この情報処理装置400は、インタフェース部410と、入力部420と、表示部430と、記憶部440と、制御部450とを有する。
インタフェース部410、入力部420、表示部430に関する説明は、図8に示したインタフェース部110、入力部120、表示部130に関する説明と同様である。
記憶部440は、バッファ440a、点群テーブル440b、パラメータ440cを有する。記憶部440は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子や、HDDなどの記憶装置に対応する。
バッファ440a、点群テーブル440b、パラメータ440cに関する説明は、図8に示したバッファ140a、点群テーブル140b、パラメータ140cに関する説明と同様である。
制御部450は、取得部450a、抽出部450b、並進部450a、位置合わせ部450d、出力部450eを有する。制御部450は、CPUやMPUなどによって実現できる。また、制御部450は、ASICやFPGAなどのハードワイヤードロジックによっても実現できる。
取得部450aは、センサ10a,10bから情報を取得する処理部である。取得部450aは、取得した情報をバッファ440aに格納する。取得部450aに関するその他の説明は、図8に示した取得部150aに関する説明と同様である。
抽出部450bは、バッファ440aに格納された第一距離画像フレームおよび第二距離画像フレームから、点群10A、点群10Bを抽出する処理部である。抽出部450bは、点群10A、点群10Bの情報を、点群テーブル440bに格納する。
抽出部450bが、点群10Aを抽出する処理の一例について説明する。抽出部450bは、バッファ140aのテーブル141aから、時刻tn、tn+1、tn+2の第一距離画像フレームを取得する。抽出部450bは、バッファ440aから、第一背景フレーム11aを取得する。抽出部450bは、時刻tnの第一距離画像フレームと第一背景フレーム11aとの差分から時刻tnの第一差分フレームを生成する。時刻tnの第一差分フレームを基にして、時刻tnの被写体の点群を抽出する。
抽出部450bは、同様にして、時刻tn+1の第一距離画像フレームから時刻tn+1の被写体の点群を抽出し、時刻tn+2の第一距離画像フレームから時刻tn+2の被写体の点群を抽出する。抽出部450bは、時刻tn、tn+1、tn+2の各点群を統合することで、点群10Aを抽出する。たとえば、抽出部450bは、抽出した点群10Aを、時刻tnの点群として、テーブル142aに格納する。
抽出部450bが、点群10Bを抽出する処理の一例について説明する。抽出部450bは、バッファ440aのテーブル141bから、時刻tn、tn+1、tn+2の第二距離画像フレームを取得する。抽出部450bは、バッファ440aから、第二背景フレーム11aを取得する。抽出部450bは、時刻tnの第二距離画像フレームと第二背景フレーム11aとの差分から時刻tnの第二差分フレームを生成する。時刻tnの第二差分フレームを基にして、時刻tnの被写体の点群を抽出する。
抽出部450bは、同様にして、時刻tn+1の第二距離画像フレームから時刻tn+1の被写体の点群を抽出し、時刻tn+2の第二距離画像フレームから時刻tn+2の被写体の点群を抽出する。抽出部450bは、時刻tn、tn+1、tn+2の各点群を統合することで、点群10Bを抽出する。たとえば、抽出部450bは、抽出した点群10Bを、時刻tnの点群として、テーブル142bに格納する。
上記の時刻tn、tn+1、tn+2は、どのように設定してもよい。たとえば、選手7の踏切開始のタイミングを、時刻tnとして、情報処理装置400に入力してもよい。また、体操に限らず、各種演技、競技の開始タイミングを、時刻tnとして、情報処理装置400に入力してもよい。また、複数の距離画像フレームを選択する時刻を時刻tn、tn+1、tn+2としたが、これに限られるものではなく、tn、tn+α、tn+βであってもよい。α、βは、適宜設定される値である。
並進部450cは、センサ10aの原点座標を点群10Aの平均座標1Aに移動させ、かつ、センサ10bの原点座標を点群10Bの平均座標1Bに移動させることで、並進方向の位置合わせを行う処理部である。並進部450cに関するその他の説明は、図8に示した並進部150cに関する説明と同様である。
位置合わせ部450dは、点群10Aと点群10Bとを位置合わせのための回転パラメータを算出する処理部である。位置合わせ部450dに関するその他の説明は、図8に示した位置合わせ部150dに関する説明と同様である。
出力部450eは、パラメータ440cを、採点装置に出力する処理部である。
次に、本実施例3に係る情報処理装置400の処理手順の一例について説明する。図32は、本実施例3に係る情報処理装置の処理手順を示すフローチャートである。図32に示すように、情報処理装置400の取得部450aは、センサ10aおよびセンサ10bから複数の第一距離画像フレーム、第二距離画像フレームを取得する(ステップS301)。
情報処理装置400の抽出部450bは、第一背景フレームと各第一距離画像フレームとの差分フレームを算出し、各差分フレームに含まれる各点群を統合して点群10Aを生成する(ステップS302)。情報処理装置400の並進部450cは、点群10Aの3次元座標の平均座標を算出する(ステップS303)。並進部450cは、点群10Aを平均座標分逆に並進させる(ステップS304)。
抽出部450bは、第二背景フレームと各第二距離画像フレームとの差分フレームを算出し、各差分フレームに含まれる各点群を統合して点群10Bを生成する(ステップS305)。並進部450cは、点群10Bの3次元座標の平均座標を算出する(ステップS306)。並進部450cは、点群10Bを平均座標分逆に並進させる(ステップS307)。
情報処理装置400の位置合わせ部450dは、位置合わせ処理を実行する(ステップS308)。たとえば、ステップS308に示す位置合わせ処理は、図21に示したステップS107以降の処理に対応する。
次に、本実施例3に係る情報処理装置400の効果について説明する。情報処理装置400は、時刻t1,t2,t3の第一距離画像フレームから抽出した各点群をまとめて点群10Aとする。情報処理装置400は、時刻t1,t2,t3の第二距離画像フレームから抽出した各点群をまとめて点群10Bとする。このように、各時刻の点群をまとめることで、回転による半径方向に違いを出すことができるので、情報処理装置400は、各点群をまとめた点群10Aおよび点群10Bとの位置合わせを精度よく行うことができる。
次に、上記実施例に示した情報処理装置100,300,400と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図33は、情報処理装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
図33に示すように、コンピュータ500は、各種演算処理を実行するCPU501と、ユーザからのデータの入力を受け付ける入力装置502と、ディスプレイ503とを有する。また、コンピュータ500は、記憶媒体からプログラム等を読み取る読み取り装置504と、有線または無線ネットワークを介して収録機器等との間でデータの授受を行うインタフェース装置505とを有する。また、コンピュータ500は、各種情報を一時記憶するRAM506と、ハードディスク装置507とを有する。そして、各装置501〜507は、バス508に接続される。
ハードディスク装置507は、抽出プログラム507a、ノイズ除去プログラム507b、並進プログラム507c、位置合わせプログラム507dを有する。CPU501は、各プログラム507a〜507dを読み出してRAM506に展開する。
抽出プログラム507aは、抽出プロセス506aとして機能する。ノイズ除去プログラム507bは、ノイズ除去プロセス506bとして機能する。並進プログラム507cは、並進プロセス506cとして機能する。位置合わせプログラム507dは、位置合わせプロセス506dとして機能する。
抽出プロセス506aの処理は、抽出部150b,350b,450bの処理に対応する。ノイズ除去プロセス506bは、ノイズ除去部355の処理に対応する。並進プロセス506cの処理は、並進部150c,350c,450cの処理に対応する。位置合わせプロセス506dは、位置合わせ部150d,350d,450dの処理に対応する。
なお、各プログラム507a〜507dについては、必ずしも最初からハードディスク装置507に記憶させておかなくても良い。たとえば、コンピュータ500に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ500が各プログラム507a〜507dを読み出して実行するようにしても良い。
100,300,400 情報処理装置
140,340,440 記憶部
140a,340a,440a バッファ
140b,340b,440b 点群テーブル
140c,340c,440c パラメータ
150,350,450 制御部
150a,350a,450a 取得部
150b,350b,450b 抽出部
150c,350c,450c 並進部
150d,350d,450d 位置合わせ部
150e,350e,450e 出力部
355 ノイズ除去部

Claims (15)

  1. コンピュータが、
    被写体までの距離をセンシングする複数のセンサのうち、第一のセンサにより取得された第一の距離画像から、前記被写体を構成する第一の点群を抽出し、
    前記複数のセンサのうち、第二のセンサにより取得された第二の距離画像から、前記被写体を構成する第二の点群を抽出し、
    前記第一のセンサの位置を前記被写体の位置に並進させる第一の並進座標と、前記第一の点群とに基づき、前記第一の点群を前記第一の並進座標だけ並進させた第一の並進点群を生成し、
    前記第二のセンサの位置を前記被写体の位置に並進させる第二の並進座標と、前記第二の点群とに基づき、前記第二の点群を前記第二の並進座標だけ並進させた第二の並進点群を生成し、
    前記第二の並進点群と、前記第二の並進点群とに基づき、前記第一の点群と前記第二の点群との回転方向の位置合わせのための回転パラメータを算出し、
    前記第一の並進座標と、前記第二の並進座標とに基づき、前記第一の点群と前記第二の点群との並進方向の位置合わせのための並進パラメータを算出する
    処理を実行することを特徴とする算出方法。
  2. 前記第一の並進点群を生成する処理は、前記第一の点群の平均座標を前記第一の並進座標として算出し、前記第二の並進点群を生成する処理は、前記第二の点群の平均座標を前記第二の並進座標として算出することを特徴とする請求項1に記載の算出方法。
  3. 前記第一の距離画像および前記第二の距離画像からエッジノイズを除去する処理を更に実行し、前記第一の点群を抽出する処理は、エッジノイズの除去された第一の距離画像から、前記被写体を構成する第一の点群を抽出し、前記第二の点群を抽出する処理は、エッジノイズの除去された第二の距離画像から、前記被写体を構成する第二の点群を抽出することを特徴とする請求項1または2に記載の算出方法。
  4. 前記第一の点群を抽出する処理は、前記第一のセンサにより異なる時刻において取得された複数の第一の距離画像から前記被写体を構成する点群それぞれ抽出し、抽出した各点群を前記第一の点群とし、前記第二の点群を抽出する処理は、前記第二のセンサにより異なる時刻において取得された複数の第二の距離画像から前記被写体を構成する点群それぞれ抽出し、抽出した各点群を前記第二の点群とすることを特徴とする請求項1に記載の算出方法。
  5. 前記回転パラメータおよび前記並進パラメータは、前記第一のセンサで新たに取得された新たな第一の距離画像から抽出された、新たな第一の点群に対して適用されるとともに、前記第二のセンサにより新たに取得された新たな第二の距離画像から抽出された、新たな第二の点群に対して適用され、
    前記回転パラメータおよび前記並進パラメータが適用された前記新たな第一の点群と前記新たな第二の点群は、3次元空間における被写体を構成することを特徴とする請求項1に記載の算出方法。
  6. コンピュータに、
    被写体までの距離をセンシングする複数のセンサのうち、第一のセンサにより取得された第一の距離画像から、前記被写体を構成する第一の点群を抽出し、
    前記複数のセンサのうち、第二のセンサにより取得された第二の距離画像から、前記被写体を構成する第二の点群を抽出し、
    前記第一のセンサの位置を前記被写体の位置に並進させる第一の並進座標と、前記第一の点群とに基づき、前記第一の点群を前記第一の並進座標だけ並進させた第一の並進点群を生成し、
    前記第二のセンサの位置を前記被写体の位置に並進させる第二の並進座標と、前記第二の点群とに基づき、前記第二の点群を前記第二の並進座標だけ並進させた第二の並進点群を生成し、
    前記第二の並進点群と、前記第二の並進点群とに基づき、前記第一の点群と前記第二の点群との回転方向の位置合わせのための回転パラメータを算出し、
    前記第一の並進座標と、前記第二の並進座標とに基づき、前記第一の点群と前記第二の点群との並進方向の位置合わせのための並進パラメータを算出する
    処理を実行することを特徴とする算出プログラム。
  7. 前記第一の並進点群を生成する処理は、前記第一の点群の平均座標を前記第一の並進座標として算出し、前記第二の並進点群を生成する処理は、前記第二の点群の平均座標を前記第二の並進座標として算出することを特徴とする請求項6に記載の算出プログラム。
  8. 前記第一の距離画像および前記第二の距離画像からエッジノイズを除去する処理を更に実行し、前記第一の点群を抽出する処理は、エッジノイズの除去された第一の距離画像から、前記被写体を構成する第一の点群を抽出し、前記第二の点群を抽出する処理は、エッジノイズの除去された第二の距離画像から、前記被写体を構成する第二の点群を抽出することを特徴とする請求項6または7に記載の算出プログラム。
  9. 前記第一の点群を抽出する処理は、前記第一のセンサにより異なる時刻において取得された複数の第一の距離画像から前記被写体を構成する点群それぞれ抽出し、抽出した各点群を前記第一の点群とし、前記第二の点群を抽出する処理は、前記第二のセンサにより異なる時刻において取得された複数の第二の距離画像から前記被写体を構成する点群それぞれ抽出し、抽出した各点群を前記第二の点群とすることを特徴とする請求項6に記載の算出プログラム。
  10. 前記回転パラメータおよび前記並進パラメータは、前記第一のセンサで新たに取得された新たな第一の距離画像から抽出された、新たな第一の点群に対して適用されるとともに、前記第二のセンサにより新たに取得された新たな第二の距離画像から抽出された、新たな第二の点群に対して適用され、
    前記回転パラメータおよび前記並進パラメータが適用された前記新たな第一の点群と前記新たな第二の点群は、3次元空間における被写体を構成することを特徴とする請求項6に記載の算出プログラム。
  11. 被写体までの距離をセンシングする複数のセンサのうち、第一のセンサにより取得された第一の距離画像から、前記被写体を構成する第一の点群を抽出し、前記複数のセンサのうち、第二のセンサにより取得された第二の距離画像から、前記被写体を構成する第二の点群を抽出する抽出部と、
    前記第一のセンサの位置を前記被写体の位置に並進させる第一の並進座標と、前記第一の点群とに基づき、前記第一の点群を前記第一の並進座標だけ並進させた第一の並進点群を生成し、前記第二のセンサの位置を前記被写体の位置に並進させる第二の並進座標と、前記第二の点群とに基づき、前記第二の点群を前記第二の並進座標だけ並進させた第二の並進点群を生成する並進部と、
    前記第二の並進点群と、前記第二の並進点群とに基づき、前記第一の点群と前記第二の点群との回転方向の位置合わせのための回転パラメータを算出し、前記第一の並進座標と、前記第二の並進座標とに基づき、前記第一の点群と前記第二の点群との並進方向の位置合わせのための並進パラメータを算出する位置合わせ部と
    を有することを特徴とする情報処理装置。
  12. 前記並進部は、前記第一の点群の平均座標を前記第一の並進座標として算出し、前記第二の点群の平均座標を前記第二の並進座標として算出することを特徴とする請求項11に記載の情報処理装置。
  13. 前記第一の距離画像および前記第二の距離画像からエッジノイズを除去するノイズ除去部を更に有し、前記抽出部は、エッジノイズの除去された第一の距離画像から、前記被写体を構成する第一の点群を抽出し、エッジノイズの除去された第二の距離画像から、前記被写体を構成する第二の点群を抽出することを特徴とする請求項11または12に記載の情報処理装置。
  14. 前記抽出部は、前記第一のセンサにより異なる時刻において取得された複数の第一の距離画像から前記被写体を構成する点群それぞれ抽出し、抽出した各点群を前記第一の点群とし、前記第二のセンサにより異なる時刻において取得された複数の第二の距離画像から前記被写体を構成する点群それぞれ抽出し、抽出した各点群を前記第二の点群とすることを特徴とする請求項11に記載の情報処理装置。
  15. 前記回転パラメータおよび前記並進パラメータは、前記第一のセンサで新たに取得された新たな第一の距離画像から抽出された、新たな第一の点群に対して適用されるとともに、前記第二のセンサにより新たに取得された新たな第二の距離画像から抽出された、新たな第二の点群に対して適用され、
    前記回転パラメータおよび前記並進パラメータが適用された前記新たな第一の点群と前記新たな第二の点群は、3次元空間における被写体を構成することを特徴とする請求項11に記載の情報処理装置。
JP2019550133A 2017-11-06 2017-11-06 算出方法、算出プログラムおよび情報処理装置 Active JP6874855B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/039991 WO2019087404A1 (ja) 2017-11-06 2017-11-06 算出方法、算出プログラムおよび情報処理装置

Publications (2)

Publication Number Publication Date
JPWO2019087404A1 true JPWO2019087404A1 (ja) 2020-11-12
JP6874855B2 JP6874855B2 (ja) 2021-05-19

Family

ID=66332969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019550133A Active JP6874855B2 (ja) 2017-11-06 2017-11-06 算出方法、算出プログラムおよび情報処理装置

Country Status (3)

Country Link
US (1) US11348324B2 (ja)
JP (1) JP6874855B2 (ja)
WO (1) WO2019087404A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019087404A1 (ja) * 2017-11-06 2019-05-09 富士通株式会社 算出方法、算出プログラムおよび情報処理装置
JP7327494B2 (ja) 2019-10-02 2023-08-16 富士通株式会社 補正方法、補正プログラムおよび情報処理システム
CN115355822B (zh) * 2022-10-19 2023-01-17 成都新西旺自动化科技有限公司 一种异形对位计算方法及系统

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010131371A1 (en) 2009-05-12 2010-11-18 Toyota Jidosha Kabushiki Kaisha Object recognition method, object recognition apparatus, and autonomous mobile robot
WO2011070927A1 (ja) * 2009-12-11 2011-06-16 株式会社トプコン 点群データ処理装置、点群データ処理方法、および点群データ処理プログラム
WO2011078264A1 (ja) * 2009-12-25 2011-06-30 本田技研工業株式会社 画像処理装置、画像処理方法、コンピュータプログラム及び移動体
JP2011175477A (ja) 2010-02-24 2011-09-08 Canon Inc 3次元計測装置、処理方法及びプログラム
US20110298988A1 (en) * 2010-06-04 2011-12-08 Toshiba Alpine Automotive Technology Corporation Moving object detection apparatus and moving object detection method
JP5863440B2 (ja) * 2010-12-28 2016-02-16 キヤノン株式会社 情報処理装置および方法
JP2013058106A (ja) 2011-09-08 2013-03-28 Toshiba Plant Systems & Services Corp 3次元cadデータ作成システムおよび3次元cadデータ作成方法
US11290704B2 (en) * 2014-07-31 2022-03-29 Hewlett-Packard Development Company, L.P. Three dimensional scanning system and framework
US10310675B2 (en) * 2014-08-25 2019-06-04 Canon Kabushiki Kaisha User interface apparatus and control method
KR101932547B1 (ko) * 2014-10-23 2018-12-27 한화테크윈 주식회사 카메라 시스템 및 이의 영상 정합 방법
WO2016116946A2 (en) * 2015-01-20 2016-07-28 Indian Institute Of Technology, Bombay A system and method for obtaining 3-dimensional images using conventional 2-dimensional x-ray images
JP2017187667A (ja) * 2016-04-07 2017-10-12 セイコーエプソン株式会社 頭部装着型表示装置およびコンピュータープログラム
CN105913487B (zh) * 2016-04-09 2018-07-06 北京航空航天大学 一种基于人眼图像中虹膜轮廓分析匹配的视线方向计算方法
WO2019087404A1 (ja) * 2017-11-06 2019-05-09 富士通株式会社 算出方法、算出プログラムおよび情報処理装置
US10922824B1 (en) * 2019-08-13 2021-02-16 Volkswagen Ag Object tracking using contour filters and scalers
JP7297694B2 (ja) * 2020-01-16 2023-06-26 株式会社東芝 システム及び方法

Also Published As

Publication number Publication date
US11348324B2 (en) 2022-05-31
US20200226847A1 (en) 2020-07-16
WO2019087404A1 (ja) 2019-05-09
JP6874855B2 (ja) 2021-05-19

Similar Documents

Publication Publication Date Title
JP6204659B2 (ja) 映像処理装置及び映像処理方法
KR102399017B1 (ko) 이미지 생성 방법 및 장치
US11024036B2 (en) Extracting an object region from an extraction target image including a display surface
JP6874855B2 (ja) 算出方法、算出プログラムおよび情報処理装置
US9183431B2 (en) Apparatus and method for providing activity recognition based application service
US11132539B2 (en) Posture recognition system, image correction method, and recording medium
US20150310617A1 (en) Display control device and display control method
JP2017102808A (ja) 画像処理装置および方法
JP6873644B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR100702534B1 (ko) 방향정보를 포함하는 확장형 비주얼 마커를 이용한 아이디판단 방법
JP6037134B2 (ja) 特徴点対応付けシステム、特徴点対応付け方法、およびプログラム
US9727145B2 (en) Detecting device and detecting method
JP7327494B2 (ja) 補正方法、補正プログラムおよび情報処理システム
US20200250845A1 (en) Evaluation method and information processing apparatus
JP2011107878A (ja) 位置検出装置、位置検出方法
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
JP2015045919A (ja) 画像認識方法及びロボット
JP6393495B2 (ja) 画像処理装置および物体認識方法
JP6303918B2 (ja) ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置
JP7188798B2 (ja) 座標算出装置、座標算出方法、及びプログラム
JP7406878B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN113544700A (zh) 神经网络的训练方法和装置、关联对象的检测方法和装置
JP7256314B2 (ja) 位置関係決定装置
JP2019145025A (ja) 位置関係決定装置
GB2564715A (en) Systems and methods of forming virtual models

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200331

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210405

R150 Certificate of patent or registration of utility model

Ref document number: 6874855

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150