JP7424348B2 - 検出方法、及び検出システム - Google Patents

検出方法、及び検出システム Download PDF

Info

Publication number
JP7424348B2
JP7424348B2 JP2021091205A JP2021091205A JP7424348B2 JP 7424348 B2 JP7424348 B2 JP 7424348B2 JP 2021091205 A JP2021091205 A JP 2021091205A JP 2021091205 A JP2021091205 A JP 2021091205A JP 7424348 B2 JP7424348 B2 JP 7424348B2
Authority
JP
Japan
Prior art keywords
area
region
dimensional shape
detection
coordinate values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021091205A
Other languages
English (en)
Other versions
JP2022183736A (ja
Inventor
悠大郎 飯島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2021091205A priority Critical patent/JP7424348B2/ja
Priority to US17/827,057 priority patent/US20220390609A1/en
Priority to CN202210596230.3A priority patent/CN115479538A/zh
Publication of JP2022183736A publication Critical patent/JP2022183736A/ja
Application granted granted Critical
Publication of JP7424348B2 publication Critical patent/JP7424348B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/2433Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures for measuring outlines by shadow casting
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、検出方法、及び検出システムに関する。
従来、赤外線方式の測距センサーを用いて検出領域の三次元形状を取得する技術が知られている。
例えば、特許文献1には、デプスセンサーによって床面の三次元座標点群データを取得し、取得した複数の点群データに基づき、例えば、最小二乗法を用いることで床面を示す平面を推定する方法が記載されている。
国際公開2020-013021号公報
先行文献1では、デプスセンサーによって床面の三次元座標が正確に取得できる場合を想定しているが、例えば、赤外線方式による測距センサーを用いる場合には、床面の反射特性によって、床面の三次元座標値を充分な精度で取得できない可能性がある。
上記課題を解決する一態様は、赤外線方式の測距センサーによって、第1領域の三次元形状を検出する検出方法であって、前記第1領域は、前記第1領域よりも狭い第2領域を含み、前記測距センサーの測定値に基づき、前記第2領域の少なくとも2点の三次元座標値を取得することと、前記少なくとも2点の三次元座標値に基づき、前記第2領域を含む平面の位置を算出することと、前記平面の位置を、前記第1領域の三次元形状として決定することと、を含む。
上記課題を解決する別の一態様は、赤外線方式の測距センサーと、情報処理装置と、を備え、第1領域の三次元形状を検出する検出システムであって、前記第1領域は、前記第1領域よりも狭い第2領域を含み、前記情報処理装置は、前記測距センサーの測定値に基づき、前記第2領域の少なくとも2点の三次元座標値を取得することと、前記少なくとも2点の三次元座標値に基づき、前記第2領域を含む平面の位置を算出することと、前記平面の位置を、前記第1領域の三次元形状として決定することと、を実行する。
第1実施形態に係る検出システムの構成の一例を示す図。 デプスカメラとRGBカメラとのカメラ座標の対応関係を示す図。 パーソナルコンピューターの構成の一例を示す図。 第1領域の三次元形状の検出方法の一例を示す図。 第1物体を含む三次元形状の検出方法の一例を示す図。 第1物体及び第2物体を含む三次元形状の検出方法の一例を示す図。 第1物体及び第2物体の検出方法の一例を示す図。 パーソナルコンピューターの処理の一例を示すフローチャート。 パーソナルコンピューターの処理の一例を示すフローチャート。 第2実施形態に係るパーソナルコンピューターの構成の一例を示す図。 パーソナルコンピューターの処理の一例を示すフローチャート。
以下、図面を参照して本実施形態について説明する。なお、本実施形態は、図1~図9を参照して説明する第1実施形態と、図10及び図11を参照して説明する第2実施形態とを含む。
図1は、第1実施形態に係る検出システム1の構成の一例を示す図である。
検出システム1は、検出装置10と、パーソナルコンピューター20と、プロジェクター30と、を備える。
パーソナルコンピューター20は、検出装置10、及びプロジェクター30の各々と通信可能に接続される。
パーソナルコンピューター20は、例えば、USB(Universal Serial Bus)ケーブルによって、検出装置10と通信可能に接続される。また、パーソナルコンピューター20は、HDMI(登録商標)(High-Definition Multimedia Interface)ケーブルによって、プロジェクター30と通信可能に接続される。
検出装置10は、赤外線方式の測距センサーを備える。検出装置10は、本実施形態では、RGB-D(Depth)カメラで構成される。検出装置10は、図2に示すように、デプスカメラ11と、RGBカメラ12と、赤外線プロジェクター13と、を備える。
赤外線プロジェクター13は、被写体に赤外線を照射する。
デプスカメラ11は、赤外線プロジェクター13が照射した赤外線の反射光を計測することによって、いわゆるToF(Time Of Flight)方式で、デプスカメラ11の座標(Ud,Vd)にデプス値(Z座標)を対応付けたデプス画像DPを取得する。X軸は、Ud軸と平行であり、Y軸はVd軸と平行である。X軸、Y軸、及びZ軸は、互いに直交する。
RGBカメラ12は、被写体のRGB画像CPを取得する。
デプス画像DP、Ud軸、Vd軸、及びRGB画像CPについては、図2を参照して説明する。
赤外線プロジェクター13、及びデプスカメラ11は、「赤外線方式の測距センサー」の一例に対応する。
デプス画像DPは、「測距センサーの測定値」の一例に対応する。
本実施形態では、「赤外線方式の測距センサー」がRGB-Dカメラの赤外線プロジェクター13、及びデプスカメラ11で構成される場合について説明するが、これに限定されない。
「赤外線方式の測距センサー」がIR(Infrared)カメラ2台を含むステレオビジョンで構成されてもよい。なお、ステレオビジョンでは、2つの撮像画像上で対応する位置の座標を対応付けることが必要となる。しかしながら、撮像画像上で対応する点位置を正確に特定することは困難であり、計測精度が不安定となる可能性がある。そこで、特定マーカーを床面FL等に配置して、2つの撮像画像間の対応位置を特定すればよい。特定マーカーとしては、再帰性反射材を好適に使用できる。
また、「赤外線方式の測距センサー」が、IRカメラとIRプロジェクターとを備えるストラクチャードライトで構成されてもよい。
パーソナルコンピューター20は、検出装置10からデプス画像DPを取得する。また、パーソナルコンピューター20は、デプス画像DPに基づき、第1領域AR1の三次元形状を検出する。
視野角θ1は、第1領域AR1に対応するデプスカメラ11の視野を示す。中心線LC1は、デプスカメラ11の視野の中心を示す。中心線LC1は、Z軸と平行である。
パーソナルコンピューター20は、「情報処理装置」の一例に対応する。
プロジェクター30は、パーソナルコンピューター20からの指示に基づき、画像光を床面FLに投射し、床面FLの投写領域ARPに投射画像を形成する。投写角θPは、プロジェクター30が床面FLの投写領域ARPに向けて画像光を投写する拡がり角を示す。
投写領域ARPは、第1領域AR1に含まれる。中心線LC2は、プロジェクター30が投写する投写光の中心を示す。
図1に示すように、中心線LC2と床面FLとの交点の位置が、例えば、中心線LC1と床面FLとの交点の位置と一致するように、検出装置10、及びプロジェクター30が配置される。
図2は、デプスカメラ11とRGBカメラ12とのカメラ座標の対応関係を示す図である。
検出装置10、すなわち、RGB-Dカメラは、RGBカメラ12で取得したRGB画像CPと、デプスカメラ11で取得したデプス画像DP、及び三次元のXYZ座標とを取得し、色情報付きの六次元データ(R,G,B,X,Y,Z)を有する点群データ、すなわち、ポイントクラウドデータを生成できる。
RGBカメラ12とデプスカメラ11は、別々のデバイスであるため、これらのカメラの座標系は、通常、一致しない。そのため、色情報付きのポイントクラウドデータを生成するためには、RGBカメラ12のRGB画像CPとデプスカメラ11のデプス画像DPとの間の、ピクセル座標系の対応関係が必要となる。
ピクセル座標系の対応関係は、例えば、市販製品のSDK(Software Development Kit)や外部ライブラリーにデフォルト値が用意されており、API(Application Programming Interface)を用いて取得することができる。
例えば、図2示すように、デプス画像DPの一点(Ud,Vd)と、対応するデプス値(Z座標)とを入力することによって、RGB画像CP中の対応点(Uc,Vc)が得られる。Ud軸は、例えば、デプス画像DPの長辺方向と平行である。Vd軸は、例えば、デプス画像DPの短辺方向と平行である。Uc軸は、例えば、RGB画像CPの長辺方向と平行である。Vc軸は、例えば、RGB画像CPの短辺方向と平行である。
RGBカメラ12とデプスカメラ11とが一体的に組み込まれた市販のRGB-Dカメラ単体を用いる場合には、外部パラメーターのキャリブレーション等の作業を別途行うことなく、メーカー側で用意されたデフォルト値を用いることによって、RGB画像CPとデプス画像DPとの間の、ピクセル座標系の対応付けを行うことができる。
図3は、パーソナルコンピューター20の構成の一例を示す図である。
パーソナルコンピューター20は、制御部21、表示機構23、音声出力機構24、及びインターフェース機構25、を備える。また、制御部21は、操作機構26と通信可能に接続される。
表示機構23は、制御部21の制御に従って各種画像を表示する表示パネル231を備える。表示パネル231は、例えばLCD(Liquid Crystal Display)を含む。表示パネル231は、矩形状に構成される。
音声出力機構24は、制御部21の制御に従って各種音声を出力するスピーカー241を備える。
インターフェース機構25は、検出装置10、及びプロジェクター30を含む外部装置とデータ通信を実行する通信インターフェースであり、例えば、HDMI(登録商標)規格、及びUSB規格に対応する有線通信インターフェースである。インターフェース機構25は、例えば、コネクター及びインターフェース回路を有するインターフェース基板であり、制御部21のプロセッサー21A等が実装されるメイン基板に接続される。或いは、インターフェース機構25を構成するコネクター及びインターフェース回路が、制御部21のメイン基板に実装される。
操作機構26は、ユーザーからの操作を受け付け、操作信号を生成し、操作信号を制御部21に出力する。操作機構26は、例えば、キーボードと、マウスとを備える。
制御部21は、プロセッサー21A及びメモリー21Bを備え、パーソナルコンピューター20の各部を制御する。
メモリー21Bは、プロセッサー21Aが実行するプログラムやデータを不揮発的に記憶する記憶装置である。メモリー21Bは、磁気的記憶装置、フラッシュROM(Read Only Memory)等の半導体記憶素子、或いはその他の種類の不揮発性記憶装置により構成される。
また、メモリー21Bは、プロセッサー21Aのワークエリアを構成するRAM(Random Access Memory)を含んでもよい。メモリー21Bは、制御部21により処理されるデータや、プロセッサー21Aが実行する制御プログラムPGMを記憶する。
プロセッサー21Aは、単一のプロセッサーで構成されてもよいし、複数のプロセッサーがプロセッサー21Aとして機能する構成であってもよい。プロセッサー21Aは、制御プログラムを実行してパーソナルコンピューター20の各部を制御する。
制御部21は、座標取得部211と、平面算出部212と、形状決定部213と、比率判定部214と、報知部215と、位置特定部216と、第1取得部221と、第2取得部222と、第1検出部223と、第3取得部224と、第2検出部225と、を備える。具体的には、制御部21のプロセッサー21Aが、メモリー21Bに記憶された制御プログラムPGMを実行することによって、座標取得部211、平面算出部212、形状決定部213、比率判定部214、報知部215、位置特定部216、第1取得部221、第2取得部222、第1検出部223、第3取得部224、及び第2検出部225、として機能する。
以下、図3と、図4~図7とを参照して、制御部21の構成について説明する。
図4は、第1領域AR1の三次元形状の検出方法の一例を示す図である。
図4に示すように、第1領域AR1は、第1領域AR1よりも狭い第2領域AR2を含む。第2領域AR2は、赤外線を反射する反射体RFがユーザーによって設置された領域である。
反射体RFは、赤外線を反射する物体であって、例えば、白い布である。
本実施形態では、反射体RFが白い布である場合について説明するが、これに限定されない。反射体RFは、赤外光を反射する物体であればよい。反射体RFは、例えば、薄板状の物体の表面に赤外光を反射する塗料が塗布されていてもよい。
また、第2領域AR2には、第2領域AR2を特定するマーカーMKが配置される。マーカーMKは、例えば、特定の色で形成される。マーカーMKは、例えば、赤色で形成される。
位置特定部216は、RGBカメラ12からRGB画像CPを取得し、RGB画像CPにおいて、第2領域AR2に対応する位置を特定する。位置特定部216は、RGB画像CPにおいて、赤色のマーカーMKを検出することによって、第2領域AR2に対応する位置を特定する。
RGB画像CPは、「撮像画像」の一例に対応する。
なお、位置特定部216は、デプス画像DPにおいて、第2領域AR2に対応する測定値を指定する操作を、操作機構26を介して受け付けることによって、第2領域AR2に対応する位置を特定してもよい。例えば、位置特定部216は、ユーザーによる第2領域AR2の四隅に対応するデプス画像DPの位置を指定する操作に基づいて、デプス画像DPにおいて、第2領域AR2に対応する位置を特定してもよい。
なお、デプス画像DPにおいて、ユーザーが第2領域AR2に対応する測定値を指定する操作を、位置特定部216が、操作機構26を介して受け付ける場合には、第2領域AR2に、第2領域AR2を特定するマーカーMKは配置されなくても良い。
デプス画像DPは、「測距センサーによる第1領域の測定値」の一例に対応する。
本実施形態では、第2領域AR2は、矩形状に形成され、マーカーMKは、第1マーカーMK1、第2マーカーMK2、第3マーカーMK3、及び第4マーカーMK4で構成される。第1マーカーMK1~第4マーカーMK4の各々は、第2領域AR2の四隅に配置される。
図4に示すように、第1領域AR1のX軸方向の長さを示す第1長さL1は、第2領域AR2のX軸方向の長さを示す第2長さL2よりも長い。また、第1領域AR1のY軸方向の幅を示す第1幅W1は、第2領域AR2のY軸方向の幅を示す第2幅W2よりも長い。
座標取得部211は、デプス画像DPに基づき、第2領域AR2の2点の三次元座標値を取得する。
本実施形態では、例えば、第1マーカーMK1が配置された第2領域AR2の隅部である第1隅部CN1と、第2マーカーMK2が配置された第2領域AR2の隅部である第2隅部CN2との三次元座標値を取得する。
デプス画像DPは、「測距センサーの測定値」の一例に対応する。
本実施形態では、マーカーMKが第2領域AR2の四隅に配置される場合について説明するが、これに限定されない。マーカーMKは、RGB画像CPにおいて、第2領域AR2を特定可能に配置されればよい。例えば、マーカーMKが、第2領域AR2の中央に配置されてもよい。
平面算出部212は、第2領域AR2の2点の三次元座標値に基づき、第2領域AR2を含む平面PLの位置を算出する。
平面PLは、次の式(1)で規定される。
Z=((Z2-Z1)/(Y2-Y1))×Y (1)
ここで、(X1,Y1,Z1)が、第1隅部CN1の(X,Y,Z)座標値を示し、(X2,Y2,Z2)が、第2隅部CN2の(X,Y,Z)座標値を示す。
デプスカメラ11のXd軸がX軸と平行であり、デプスカメラ11のYd軸がY軸と平行である場合に、式(1)で規定される平面PLは第2領域AR2を含む平面と一致する。換言すれば、デプスカメラ11が中心線LC1に対して適正な回転角度に配置されている場合に、平面PLは式(1)で規定される。
形状決定部213は、平面PLの位置を、第1領域AR1の三次元形状として決定する。
なお、本実施形態では、第2領域AR2の2点の三次元座標値に基づき、第2領域AR2を含む平面PLの位置を算出する場合について説明するが、これに限定されない。平面算出部212は、第2領域AR2の少なくとも2点の三次元座標値に基づき、第2領域AR2を含む平面PLの位置を算出すればよい。
例えば、平面算出部212は、第2領域AR2の3点の三次元座標値に基づき、第2領域AR2を含む平面PLの位置を算出してもよい。
この場合には、平面PLは、次の式(2)で規定される。
Figure 0007424348000001
ここで、(X3,Y3,Z3)が、第3隅部CN3の(X,Y,Z)座標値を示す。
本実施形態では、(X1,Y1,Z1)、(X2,Y2,Z2)及び(X3,Y3,Z3)の各々が、第1隅部CN1、第2隅部CN2、及び第3隅部CN3の(X,Y,Z)座標値を示す場合について説明したが、これに限定されない。
式(1)で平面PLを規定する場合には、(X1,Y1,Z1)及び(X2,Y2,Z2)は、第2領域AR2内に存在し、(X,Y,Z)座標値がそれぞれ異なる任意の2点の(X,Y,Z)座標値を用いれば良い。
式(2)で平面PLを規定する場合には、(X1,Y1,Z1)、(X2,Y2,Z2)及び(X3,Y3,Z3)は、第2領域AR2内に存在し、(X,Y,Z)座標値がそれぞれ異なる任意の3点の(X,Y,Z)座標値を用いれば良い。
また、例えば、平面算出部212は、第2領域AR2の4点以上の三次元座標値に基づき、第2領域AR2を含む平面PLの位置を算出してもよい。この場合には、最小二乗法等によって、平面PLの位置を算出できる。
このように、形状決定部213は、平面PLの位置を、第1領域AR1の三次元形状として決定するため、簡素な処理で、正確な第1領域AR1の三次元形状を決定できる。
また、平面算出部212は、第2領域AR2の2点の三次元座標値に基づき、第2領域AR2を含む平面PLの位置を算出するため。平面PLの位置を、簡素な処理で算出できる。
比率判定部214は、第1領域AR1のサイズに対する第2領域AR2のサイズの比率RTが閾値TH以下であるか否かを判定する。
例えば、平面算出部212が、第2領域AR2の第1隅部CN1及び第2隅部CN2の三次元座標値に基づき、第2領域AR2を含む平面PLの位置を算出する場合には、第1領域AR1のサイズは、例えば、第1長さL1であり、第2領域AR2のサイズは、例えば、第2長さL2である。第1長さL1は、第1領域AR1のX軸方向の長さである。第2長さL2は、第2領域AR2のX軸方向の長さである。
この場合には、比率RTは、次の式(3)で求められる。
RT=L2/L1 (3)
この場合には、閾値THは、例えば、0.2である。
また、例えば、平面算出部212が、第2領域AR2の第1隅部CN1、第2隅部CN2、及び第3隅部CN3の三次元座標値に基づき、第2領域AR2を含む平面PLの位置を算出する場合には、第1領域AR1のサイズは、例えば、第1面積S1であり、第2領域AR2のサイズは、例えば、第2面積S2である。第1面積S1は、第1領域AR1の面積である。第2面積S2は、第2領域AR2の面積である。
この場合には、比率RTは、次の式(4)で求められる。
RT=S2/S1=(L2×W2)/(L1×W1) (4)
この場合には、閾値THは、例えば、0.14である。
報知部215は、比率RTが閾値TH以下であると比率判定部214が判定した場合には、反射体RFの設置をユーザーに促す報知をする。換言すれば、報知部215は、比率RTが閾値TH以下であると比率判定部214が判定した場合には、第2領域AR2のサイズを大きくするようにユーザーに促す報知をする。
また、報知部215は、比率RTが閾値TH以下であると比率判定部214が判定した場合には、第1領域AR1の三次元形状の検出精度が低い可能性があることをユーザーに報知する。
報知部215によるユーザーへの報知は、例えば、表示パネル231への表示、音声出力機構24からの音声出力、及び、プロジェクター30による投写画像の表示、の少なくとも1つで行われる。
第1取得部221は、平面PLの位置に基づき、第1領域AR1の三次元形状を示す第1距離情報JL1を取得する。第1距離情報JL1は、平面PLの位置を示す第1デプス画像DP1に対応する。例えば、第1取得部221は、形状決定部213が決定した第1領域AR1の三次元形状を示すデプス画像DPを、第1デプス画像DP1として生成する。
第1デプス画像DP1については、図7を参照して更に説明する。
図5は、第1物体BJ1を含む三次元形状の検出方法の一例を示す図である。
図5は、図4と比較して、第1物体BJ1が床面FLに配置されている点で相違する。本実施形態では、第1物体BJ1は、直方体BJ11と、壁BJ12と、を含む。
直方体BJ11は、床面FL上に載置される。壁BJ12は、床面FLに固定されて、鉛直方向と平行な方向に立設される。
第2取得部222は、第1取得部221が第1距離情報JL1を取得した後に、デプスカメラ11によって生成されるデプス画像DPに基づき、第1領域AR1内の三次元形状を示す第2距離情報JL2を取得する。
デプス画像DPは、「測距センサーの測定値」の一例に対応する。
第2距離情報JL2は、図5に示すように、第1物体BJ1が床面FLに配置されている状態で、デプスカメラ11によって生成される第2デプス画像DP2に対応する。
第2デプス画像DP2については、図7を参照して更に説明する。
第1検出部223は、第1距離情報JL1と第2距離情報JL2とに基づき、第1領域AR1内の第1物体BJ1を検出する。
具体的には、第1検出部223は、第1デプス画像DP1と第2デプス画像DP2とに基づき、第1領域AR1内の第1物体BJ1を検出する。
第1検出部223の処理については、図7を参照して更に説明する。
図6は、第1物体BJ1及び第2物体BJ2を含む三次元形状の検出方法の一例を示す図である。
図6は、図5と比較して、第2物体BJ2が床面FLに配置されている点で相違する。本実施形態では、第2物体BJ2は、第1領域AR1に進入した人に対応する。
第3取得部224は、第2距離情報JL2を取得した後に、デプスカメラ11によって生成されるデプス画像DPに基づき、第1領域内の三次元形状を示す第3距離情報JL3を取得する。
デプス画像DPは、「測距センサーの測定値」の一例に対応する。
第3距離情報JL3は、図6に示すように、第1物体BJ1及び第2物体BJ2が床面FLに配置されている状態で、デプスカメラ11によって生成される第3デプス画像DP3に対応する。
第3デプス画像DP3については、図7を参照して更に説明する。
第2検出部225は、第2距離情報JL2と第3距離情報JL3とに基づき、第1領域AR1内の第2物体BJ2を検出する。
第2検出部225の処理については、図7を参照して更に説明する。
報知部215は、第2検出部225が第2物体BJ2を検出した場合には、第2物体BJ2を検出したことをユーザーに報知する。また、報知部215は、第2検出部225が第2物体BJ2を検出していない場合には、第2物体BJ2を検出していないことをユーザーに報知する。
図7は、第1物体BJ1及び第2物体BJ2の検出方法の一例を示す図である。
図7には、上から下に向けて、第1デプス画像DP1、第2デプス画像DP2、及び第3デプス画像DP3を示している。
また、図7には、第1デプス画像DP1、第2デプス画像DP2、及び第3デプス画像DP3の各々に対応付けて、デプス値(Z座標)とデプス画像DP中の画素の輝度Bとの関係を示すスケール画像CDを記載している。デプス値(Z座標)は、デプスカメラ11からの距離を示す。
スケール画像CDに示すように、デプスカメラ11からの距離が遠い程、デプス画像DP中の画素の輝度Bが高くなる。換言すれば、デプスカメラ11からの距離が近い程、デプス画像DP中の画像の濃度が濃くなる。
第1デプス画像DP1には、デプスカメラ11から床面FLまでの距離に対応する第1輝度値B1の床面画像DP11が表示される。
第2デプス画像DP2には、第1輝度値B1の画像に加えて、第1物体BJ1に対応する第1画像DP21、及び第2画像DP22が表示される。
第1画像DP21は、直方体BJ11に対応する画像であって、第1輝度値B1より低い第2輝度値B2で表示される。
第2画像DP22は、壁BJ12に対応する画像であって、第1輝度値B1より低い第3輝度値B3で表示される。
直方体BJ11は、壁BJ12よりもデプスカメラ11に近いため、第2輝度値B2は、第3輝度値B3よりも低い。
第1検出部223は、第1デプス画像DP1と第2デプス画像DP2とに基づき、第1領域AR1内の第1物体BJ1を検出する。換言すれば、第1検出部223は、第2デプス画像DP2に含まれる画像のうち、床面画像DP11の第1輝度値B1と相違する輝度値の画像を抽出することによって、第1物体BJ1を検出する。例えば、第1検出部223は、第2デプス画像DP2に含まれる画像のうち、床面画像DP11の第1輝度値B1より低い輝度値の画像を抽出することによって、第1物体BJ1を検出する。
このようにして、第1検出部223は、直方体BJ11に対応する第1画像DP21と、壁BJ12に対応する第2画像DP22を検出できる。
第3デプス画像DP3には、床面画像DP11、第1画像DP21、及び第2画像DP22に加えて、第3画像DP31が表示される。
第3画像DP31は、人体を示す第2物体BJ2に対応する画像であって、第4輝度値B4で表示される。第2物体BJ2は、第1物体BJ1よりもデプスカメラ11に近いため、第4輝度値B4は、第3輝度値B3よりも低い。
第2検出部225は、第2デプス画像DP2と第3デプス画像DP3とに基づき、第1領域AR1内の第2物体BJ2を検出する。換言すれば、第2検出部225は、第3デプス画像DP3に含まれる画像のうち、床面画像DP11の第1輝度値B1、第1物体BJ1に対応する第1画像DP21の第2輝度値B2、及び第2画像DP22の第3輝度値B3、と相違する輝度値の画像を抽出することによって、第2物体BJ2を検出する。例えば、第2検出部225は、第3デプス画像DP3に含まれる画像のうち、第2画像DP22の第3輝度値B3より低い輝度値の画像を抽出することによって、第2物体BJ2を検出する。
このようにして、第2検出部225は、第2物体BJ2に対応する第3画像DP31を検出できる。
第2検出部225が第2物体BJ2を検出した場合に、報知部215は、第2物体BJ2を検出したことをユーザーに報知する。報知部215は、例えば、プロジェクター30に、第2物体BJ2を検出したことを示す投写画像を床面FLに表示させることによって、第2物体BJ2を検出したことをユーザーに報知する。
また、第2検出部225が第2物体BJ2を検出していない場合に、報知部215は、第2物体BJ2を検出していないことをユーザーに報知する。報知部215は、例えば、プロジェクター30に、第2物体BJ2を検出していないことを示す投写画像を床面FLに表示させることによって、第2物体BJ2を検出していないことをユーザーに報知する。
図8及び図9は、パーソナルコンピューター20の処理の一例を示すフローチャートである。
まず、図8に示すように、ステップS101において、ユーザーが第2領域AR2に反射体RF、及びマーカーMKを配置する。
次に、ステップS103において、位置特定部216は、RGBカメラ12からRGB画像CPを取得する。
次に、ステップS105において、位置特定部216は、RGB画像CPにおいて、第2領域AR2に対応する位置を特定する。
次に、ステップS107において、比率判定部214は、第1長さL1を算出する。第1長さL1は、第1領域AR1のX軸方向の長さを示す。
次に、ステップS109において、比率判定部214は、第2長さL2を算出する。第2長さL2は、第2領域AR2のX軸方向の長さを示す。
次に、ステップS111において、比率判定部214は、比率RTを算出する。
次に、ステップS113において、比率判定部214は、比率RTが閾値TH以下であるか否かを判定する。
比率RTが閾値TH以下であると比率判定部214が判定した場合、すなわち、ステップS113でYESの場合には、処理がステップS115へ進む。
そして、ステップS115で、報知部215は、反射体RFの設置をユーザーに促す報知をする。その後、処理がステップS101に戻る。
比率RTが閾値TH以下ではないと比率判定部214が判定した場合、すなわち、ステップS113でNOの場合には、処理が図9に示すステップS117へ進む。
そして、図9に示すように、ステップS117において、座標取得部211は、デプス画像DPに基づき、第2領域AR2の2点の三次元座標値を取得する。
次に、ステップS119において、平面算出部212は、第2領域AR2の2点の三次元座標値に基づき、第2領域AR2を含む平面PLの位置を算出する。
次に、ステップS121において、形状決定部213は、平面PLの位置を、第1領域AR1の三次元形状として決定する。
次に、ステップS123において、第1取得部221は、平面PLの位置に基づき、第1領域AR1の三次元形状を示す第1距離情報JL1を取得する。
次に、ステップS125において、第2取得部222は、デプス画像DPに基づき、第1領域AR1内の三次元形状を示す第2距離情報JL2を取得する。第2距離情報JL2は、第1物体BJ1が床面FLに配置されている状態で、デプスカメラ11によって生成される第2デプス画像DP2に対応する。
次に、ステップS127において、第1検出部223は、第1距離情報JL1と第2距離情報JL2とに基づき、第1領域AR1内の第1物体BJ1を検出する。具体的には、第1検出部223は、第1デプス画像DP1と第2デプス画像DP2とに基づき、第1領域AR1内の第1物体BJ1を検出する。
次に、ステップS129において、第3取得部224は、デプス画像DPに基づき、第1領域内の三次元形状を示す第3距離情報JL3を取得する。第3距離情報JL3は、第1物体BJ1及び第2物体BJ2が床面FLに配置されている状態で、デプスカメラ11によって生成される第3デプス画像DP3に対応する。
次に、ステップS131において、第2検出部225は、第2距離情報JL2と第3距離情報JL3とに基づき、第1領域AR1内の第2物体BJ2を検出したか否かを判定する。
第2物体BJ2を検出していないと第2検出部225が判定した場合、すなわち、ステップS131でNOの場合には、処理がステップS135へ進む。
そして、ステップS135において、報知部215は、第2物体BJ2を検出していないことをユーザーに報知する。報知部215は、例えば、プロジェクター30に、第2物体BJ2を検出していないことを示す投写画像を床面FLに表示させることによって、第2物体BJ2を検出していないことをユーザーに報知する。その後、処理がステップS139へ進む。
第2物体BJ2を検出したと第2検出部225が判定した場合、すなわち、ステップS131でYESの場合には、処理がステップS137へ進む。
そして、ステップS137において、報知部215は、第2物体BJ2を検出したことをユーザーに報知する。報知部215は、例えば、プロジェクター30に、第2物体BJ2を検出したことを示す投写画像を床面FLに表示させることによって、第2物体BJ2を検出したことをユーザーに報知する。その後、処理がステップS139へ進む。
次に、ステップS139において、制御部21は、第2物体BJ2の検出を終了するか否かを判定する。制御部21は、例えば、ユーザーからの操作を受け付け、受け付けた操作に基づいて、第2物体BJ2の検出を終了するか否かを判定する。
第2物体BJ2の検出を終了しないと制御部21が判定した場合、すなわち、ステップS139でNOの場合には、処理がステップS129に戻る。第2物体BJ2の検出を終了すると制御部21が判定した場合、すなわち、ステップS139でYESの場合には、その後、処理が終了する。
図8及び図9を参照して説明したように、座標取得部211は、デプス画像DPに基づき、第2領域AR2の2点の三次元座標値を取得し、平面算出部212は、第2領域AR2の2点の三次元座標値に基づき、第2領域AR2を含む平面PLの位置を算出する。そして、形状決定部213は、平面PLの位置を、第1領域AR1の三次元形状として決定する。したがって、第2領域AR2の2点の三次元座標値が取得できれば、第1領域AR1の三次元座標値を充分な精度で取得できる。
また、第2領域AR2には、反射体RFが配置されるため、第2領域AR2の2点の三次元座標値を正確に取得できる。
更に、第2領域AR2には、マーカーMKが配置されるため、RGB画像CPにおける第2領域AR2の位置を容易に特定できる。
次に、第2実施形態に係る検出システム1について説明する。第2実施形態に係る検出システム1の基本構成は、第1実施形態に係る検出システム1と同様であるため、詳細な説明は省略する。
第1実施形態に係る検出システム1のパーソナルコンピューター20の制御部21が第2検出部225を備えるのに対して、第2実施形態に係る検出システム1のパーソナルコンピューター20の制御部21は、第2検出部225に換えて第2検出部226を備える点で相違する。
図10は、第2実施形態に係るパーソナルコンピューター20の構成の一例を示す図である。
第2検出部226は、第1距離情報JL1と、第2距離情報JL2と、第3距離情報JL3とに基づき、第1領域AR1内の第2物体BJ2を検出する。
図7を参照して、第2検出部226のより具体的な処理内容を説明する。
まず、第2検出部226は、第1デプス画像DP1と第3デプス画像DP3とに基づき、第1領域AR1内の第1物体BJ1と第2物体BJ2を検出する。換言すれば、第2検出部226は、第3デプス画像DP3に含まれる画像のうち、床面画像DP11の第1輝度値B1と相違する輝度値の画像を抽出することによって、第1物体BJ1と第2物体BJ2を検出する。例えば、第2検出部226は、第3デプス画像DP3に含まれる画像のうち、床面画像DP11の第1輝度値B1より低い輝度値の画像を抽出することによって、第1物体BJ1と第2物体BJ2を検出する。
次に、第2検出部226は、第2デプス画像DP2と第3デプス画像DP3とに基づき、第1領域AR1内の、第1検出部223によって検出された第1物体BJ1とは異なる第2物体BJ2を検出する。
換言すれば、第2検出部226は、第3デプス画像DP3に含まれる画像のうち、第2検出部226が第1デプス画像DP1と第3デプス画像DP3とに基づいて検出した第1物体BJ1、及び第2物体BJ2の各々に対応する画像の輝度値を抽出する。具体的には、第2検出部226は、第1物体BJ1に対応する第1画像DP21の第2輝度値B2と、第1物体BJ1に対応する第2画像DP22の第3輝度値B3、及び第2物体BJ2に対応する第3画像DP31の第4輝度値B4を抽出する。
そして、第2検出部226は、第2デプス画像DP2に含まれる画像のうち、第1検出部223が第1デプス画像DP1と第2デプス画像DP2とに基づいて検出した第1物体BJ1に対応する画像の輝度値を抽出する。具体的には、第2検出部226は、第1領域AR1内の第1物体BJ1に対応する第1画像DP21の第2輝度値B2と、第1物体BJ1に対応する第2画像DP22の第3輝度値B3を抽出する。
その後、第3デプス画像DP3における第2輝度値B2、第3輝度値B3、及び第4輝度値B4と、第2デプス画像DP2における第2輝度値B2及び第3輝度値B3とを比較し、第2デプス画像DP2と第3デプス画像DP3との間で相違する輝度値を抽出することによって、第4輝度値B4に対応する第2物体BJ2を検出する。
このようにして、第2検出部226は、第1デプス画像DP1と、第2デプス画像DP2と、第3デプス画像DP3とに基づき、第1領域AR1内の第2物体BJ2を検出できる。
図11は、第2実施形態に係る検出システム1に含まれるパーソナルコンピューター20の処理の一例を示すフローチャートである。ステップS117からステップS129までの処理は、第1実施形態に係る検出システム1が実行する処理と同様であるため、その説明を省略する。
パーソナルコンピューター20は、ステップS129を行った後に、ステップS231を行う。ステップS231において、第2検出部226は、第1距離情報JL1と、第2距離情報JL2と、第3距離情報JL3とに基づき、第1領域AR1内の第2物体BJ2を検出したか否かを判定する。
第2物体BJ2を検出していないと第2検出部226が判定した場合、すなわち、ステップS231でNOの場合には、処理がステップS135へ進む。また、第2物体BJ2を検出したと第2検出部226が判定した場合、すなわち、ステップS231でYESの場合には、処理がステップS137へ進む。
ステップS135及びステップS137以降の処理は、第1実施形態に係る検出システム1が実行する処理と同様であるため、その説明は省略する。
以上、図1~図11を参照して説明したように、本実施形態に係る検出方法は、赤外線プロジェクター13、及びデプスカメラ11によって、第1領域AR1の三次元形状を検出する検出方法であって、第1領域AR1は、第1領域AR1よりも狭い第2領域AR2を含み、デプスカメラ11のデプス画像DPに基づき、第2領域AR2の少なくとも2点の三次元座標値を取得することと、前記2点の三次元座標値に基づき、第2領域AR2を含む平面PLの位置を算出することと、平面PLの位置を、第1領域AR1の三次元形状として決定することと、を含む。
すなわち、デプス画像DPに基づき、第2領域AR2の2点の三次元座標値を取得し、第2領域AR2の2点の三次元座標値に基づき、第2領域AR2を含む平面PLの位置を算出する。そして、平面PLの位置を、第1領域AR1の三次元形状として決定する。
したがって、第2領域AR2の2点の三次元座標値が取得できる場合には、第1領域AR1の三次元座標値を充分な精度で取得できる。
また、第2領域AR2は、赤外線を反射する反射体RFが設置された領域である。
よって、デプス画像DPに基づき、第2領域AR2の2点の三次元座標値を正確に取得できる。したがって、第1領域AR1の三次元座標値を充分な精度で取得できる。
また、第1領域AR1のサイズに対する第2領域AR2のサイズの比率RTが閾値TH以下であるか否かを判定することと、比率RTが閾値TH以下である場合には、反射体RFの設置をユーザーに促す報知をすることと、を含む。
すなわち、第1領域AR1のサイズに対する第2領域AR2のサイズの比率RTが閾値TH以下である場合には、反射体RFの設置をユーザーに促す報知をする。
よって、第2領域AR2を適正なサイズに設定できる。したがって、第1領域AR1の三次元座標値を充分な精度で取得できる。
また、第1領域AR1のサイズに対する第2領域AR2のサイズの比率RTが閾値TH以下であるか否かを判定することと、比率RTが閾値TH以下である場合には、第1領域AR1の三次元形状の検出精度が低い可能性があることをユーザーに報知することと、を含む。
すなわち、第1領域AR1のサイズに対する第2領域AR2のサイズの比率RTが閾値TH以下である場合には、第1領域AR1の三次元形状の検出精度が低い可能性があることをユーザーに報知する。
よって、第1領域AR1の三次元形状の検出精度が低い可能性があることを、ユーザーは認識できる。したがって、ユーザーの利便性を向上できる。
例えば、第1領域AR1の三次元形状の検出精度が低くても問題ない場合には、ユーザーは、検出された第1領域AR1の三次元形状を用いることができる。また、例えば、第1領域AR1の三次元形状の検出精度が低いと好ましくない場合には、ユーザーは、第2領域AR2のサイズを大きくすることによって、第1領域AR1の三次元形状の検出精度を向上できる。
また、赤外線プロジェクター13、及びデプスカメラ11による第1領域AR1のデプス画像DPにおいて、第2領域AR2に対応する領域を指定する操作を受け付けること、を含む。
よって、第1領域AR1のデプス画像DPにおいて、第2領域AR2に対応する領域を指定する操作を受け付けるため、マーカーMKを配置することなく第2領域AR2を容易に特定できる。したがって、ユーザーの利便性を向上できる。
また、RGBカメラ12が第1領域AR1を撮像し、RGBカメラ12からRGB画像CPを取得することと、RGB画像CPにおいて、第2領域AR2に対応する位置を特定することと、を含む。
よって、RGB画像CPにおいて、第2領域AR2に対応する位置を特定するため、第2領域AR2に対応する位置を正確に特定できる。したがって、第1領域AR1の三次元形状の検出精度を向上できる。
また、平面PLの位置に基づき、第1領域AR1の三次元形状を示す第1距離情報JL1を取得することと、第1距離情報JL1を取得した後に、赤外線プロジェクター13、及びデプスカメラ11による第1領域AR1のデプス画像DPに基づき、第1領域AR1内の三次元形状を示す第2距離情報JL2を取得することと、第1距離情報JL1と第2距離情報JL2とに基づき、第1領域AR1内の第1物体BJ1を検出することと、を含む。
すなわち、第1領域AR1の三次元形状を示す第1距離情報JL1と、第1距離情報JL1を取得した後の第1領域AR1内の三次元形状を示す第2距離情報JL2と、に基づき、第1領域AR1内の第1物体BJ1を検出する。例えば、図7を参照して説明したように、第1デプス画像DP1と第2デプス画像DP2とに基づき、第1領域AR1内の第1物体BJ1を検出する。第1デプス画像DP1は第1距離情報JL1に対応する。第2デプス画像DP2は、第2距離情報JL2に対応する。
したがって、第1領域AR1内の第1物体BJ1を正確に検出できる。
また、第2距離情報JL2を取得した後に、赤外線プロジェクター13、及びデプスカメラ11による第1領域AR1のデプス画像DPに基づき、第1領域AR1内の三次元形状を示す第3距離情報JL3を取得することと、第2距離情報JL2と第3距離情報JL3に基づき、第1領域AR1内の第1物体BJ1と相違する第2物体BJ2を検出することと、を含む。
すなわち、第2距離情報JL2と、第2距離情報JL2を取得した後の第1領域AR1内の三次元形状を示す第3距離情報JL3と、に基づき、第1領域AR1内の第1物体BJ1と相違する第2物体BJ2を検出する。例えば、図7を参照して説明したように、第2デプス画像DP2と第3デプス画像DP3とに基づき、第1領域AR1内の第2物体BJ2を検出する。第2デプス画像DP2は第2距離情報JL2に対応する。第3デプス画像DP3は、第3距離情報JL3に対応する。
したがって、第1領域AR1内の第2物体BJ2を正確に検出できる。
また、第2距離情報JL2と、第2距離情報JL2を取得した後の第1領域AR1内の三次元形状を示す第3距離情報JL3に加え、更に、第1距離情報JL1とに基づき、第1領域AR1内の第1物体BJ1と相違する第2物体BJ2を検出しても良い。
本実施形態に係る検出システム1は、赤外線プロジェクター13、及びデプスカメラ11と、パーソナルコンピューター20と、を備え、第1領域AR1の三次元形状を検出する検出システム1であって、第1領域AR1は、第1領域AR1よりも狭い第2領域AR2を含み、パーソナルコンピューター20は、赤外線プロジェクター13、及びデプスカメラ11による第1領域AR1のデプス画像DPに基づき、第2領域AR2の少なくとも2点の三次元座標値を取得することと、前記2点の三次元座標値に基づき、第2領域AR2を含む平面PLの位置を算出することと、平面PLの位置を、第1領域AR1の三次元形状として決定することと、を実行する。
したがって、本実施形態に係る検出システム1は、本実施形態に係る検出方法と同様の効果を奏する。
上述した本実施形態は、好適な実施の形態である。ただし、上述の本実施形態に限定されるものではなく、要旨を逸脱しない範囲内において種々の変形実施が可能である。
本実施形態では、「測距センサー」及び撮像画像を生成する撮像装置が、RGB-Dカメラで構成される場合について説明したが、これに限定されない。例えば、「測距センサー」と、撮像画像を生成する撮像装置とが別体として構成されてもよい。
本実施形態では、「情報処理装置」がパーソナルコンピューター20である場合について説明するが、これに限定されない。「情報処理装置」がタブレット端末、スマートフォン等でもよい。
本実施形態では、検出システム1が、検出装置10と、パーソナルコンピューター20と、プロジェクター30と、を備える場合について説明したが、これに限定されない。例えば、検出システム1が、検出装置10と、パーソナルコンピューター20と、で構成されてもよい。すなわち、検出システム1が、プロジェクター30を備えなくてもよい。
本実施形態では、第1領域AR1が床面FLに含まれる場合について説明するが、これに限定されない。第1領域AR1が平面状の部材、構造物等に含まれればよい。例えば、第1領域AR1が壁面に含まれてもよい。また、例えば、第1領域AR1が天井面に含まれてもよい。
本実施形態では、パーソナルコンピューター20が、検出装置10、及びプロジェクター30の各々と有線で通信可能に接続されるが、これに限定されない。パーソナルコンピューター20が、検出装置10、及びプロジェクター30の各々と、Bluetooth(登録商標)、Wi―Fi(登録商標)等の無線で通信可能に接続されてもよい。
本実施形態では、パーソナルコンピューター20の制御部21が、座標取得部211と、平面算出部212と、形状決定部213と、比率判定部214と、報知部215と、位置特定部216と、第1取得部221と、第2取得部222と、第1検出部223と、第3取得部224と、第2検出部225と、を備える場合について説明したが、これに限定されない。
例えば、プロジェクター30の図略の制御部が、座標取得部211と、平面算出部212と、形状決定部213と、比率判定部214と、報知部215と、位置特定部216と、第1取得部221と、第2取得部222と、第1検出部223と、第3取得部224と、第2検出部225と、を備えてもよい。この場合には、検出システム1は、パーソナルコンピューター20を備える必要はない。
また、図3に示した各機能部は機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、或いは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、パーソナルコンピューター20の他の各部の具体的な細部構成についても、趣旨を逸脱しない範囲で任意に変更可能である。
また、図8及び図9に示すフローチャートの処理単位は、パーソナルコンピューター20の処理を理解容易にするために、主な処理内容に応じて分割したものである。図8及び図9の各々のフローチャートに示す処理単位の分割の仕方や名称によって制限されることはなく、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。
また、検出システム1の検出方法は、パーソナルコンピューター20が備えるプロセッサー21Aに、検出システム1の検出方法に対応した制御プログラムPGMを実行させることで実現できる。また、この制御プログラムPGMは、コンピューターで読み取り可能に記録した記録媒体に記録しておくことも可能である。記録媒体としては、磁気的、光学的記録媒体又は半導体メモリーデバイスを用いることができる。
具体的には、フレキシブルディスク、HDD、CD-ROM(Compact Disk Read Only Memory)、DVD、Blu-ray(登録商標) Disc、光磁気ディスク、フラッシュメモリー、カード型記録媒体等の可搬型、或いは固定式の記録媒体が挙げられる。また、記録媒体は、画像処理装置が備える内部記憶装置であるRAM、ROM、HDD等の不揮発性記憶装置であってもよい。
また、検出システム1の検出方法に対応した制御プログラムPGMをサーバー装置等に記憶させておき、サーバー装置からパーソナルコンピューター20に、制御プログラムPGMをダウンロードすることで検出システム1の検出方法を実現することもできる。
また、本実施形態では、第2領域AR2に反射体RFがユーザーによって設置される場合について説明したが、これに限定されない。第2領域AR2は、赤外線を反射する平面の領域であって、デプスカメラ11によって取得したデプス画像DPに基づき三次元座標値を取得できる領域であっても良い。例えば、第1領域AR1が床面であって、第1領域AR1のうち赤外線を充分に反射する素材で形成された領域を、第2領域AR2としても良い。また、第1領域AR1のうち、第1領域AR1である床面とデプスカメラ11との相対的な角度の影響により、赤外線をデプスカメラ11へ充分に反射できない領域を第2領域AR2とはせずに、赤外線をデプスカメラ11へ充分に反射できる領域のみを第2領域AR2としても良い。他には、例えば、図5のように第1領域AR1に第1物体BJ1が含まれる場合には、第1物体BJ1が設置されずに、赤外線を反射する平面の領域を第2領域AR2としても良い。
1…検出システム、10…検出装置、11…デプスカメラ、12…RGBカメラ、13…赤外線プロジェクター、20…パーソナルコンピューター(情報処理装置)、21…制御部、21A…プロセッサー、211…座標取得部、212…平面算出部、213…形状決定部、214…比率判定部、215…報知部、216…位置特定部、221…第1取得部、222…第2取得部、223…第1検出部、224…第3取得部、225、226…第2検出部、21B…メモリー、23…表示機構、231…表示パネル、24…音声出力機構、241…スピーカー、25…インターフェース機構、26…操作機構、30…プロジェクター、AR1…第1領域、AR2…第2領域、B…輝度、BJ1…第1物体、BJ11…直方体、BJ12…壁、BJ2…第2物体、CP…RGB画像、DP…デプス画像、DP1…第1デプス画像、DP2…第2デプス画像、DP3…第3デプス画像、FL…床面、JL1…第1距離情報、JL2…第2距離情報、JL3…第3距離情報、L1…第1長さ、L2…第2長さ、MK…マーカー、PGM…制御プログラム、PL…平面、RF…反射体、RT…比率、TH…閾値。

Claims (9)

  1. 赤外線方式の測距センサーによって、第1領域の三次元形状を検出する検出方法であって、
    前記第1領域は、前記第1領域よりも狭く赤外線を反射する反射体が設置された第2領域を含み、
    前記測距センサーの測定値に基づき、前記第2領域の少なくとも2点の三次元座標値を取得することと、
    前記少なくとも2点の三次元座標値に基づき、前記第2領域を含む平面の位置を算出することと、
    前記平面の位置を、前記第1領域の三次元形状として決定することと、
    前記第1領域のサイズに対する前記第2領域のサイズの比率が閾値以下であるか否かを判定することと、
    前記比率が前記閾値以下である場合には、前記反射体の設置をユーザーに促す報知をすることと、
    を含む、検出方法。
  2. 赤外線方式の測距センサーによって、第1領域の三次元形状を検出する検出方法であって、
    前記第1領域は、前記第1領域よりも狭い第2領域を含み、
    前記第1領域のサイズに対する前記第2領域のサイズの比率が閾値以下であるか否かを判定することと、
    前記比率が前記閾値以下ではない場合には、前記測距センサーの測定値に基づき、前記第2領域の少なくとも2点の三次元座標値を取得することと、
    前記少なくとも2点の三次元座標値に基づき、前記第2領域を含む平面の位置を算出することと、
    前記平面の位置を、前記第1領域の三次元形状として決定することと、
    前記比率が前記閾値以下である場合には、前記第1領域の三次元形状の検出精度が低い可能性があることをユーザーに報知することと、
    を含む、検出方法。
  3. 前記測距センサーによる前記第1領域の測定値において、前記第2領域に対応する測定値を指定する操作を受け付けること、
    を含む、請求項1または請求項に記載の検出方法。
  4. 赤外線方式の測距センサーによって、第1領域の三次元形状を検出する検出方法であって、
    前記第1領域は、前記第1領域よりも狭い第2領域を含み、
    前記第1領域を撮像し、撮像画像を取得することと、
    前記撮像画像において、前記第2領域に対応する位置を特定することと、
    前記測距センサーの測定値に基づき、前記第2領域の少なくとも2点の三次元座標値を取得することと、
    前記少なくとも2点の三次元座標値に基づき、前記第2領域を含む平面の位置を算出することと、
    前記平面の位置を、前記第1領域の三次元形状として決定することと、
    を含む、検出方法。
  5. 前記平面の位置に基づき、前記第1領域の三次元形状を示す第1距離情報を取得することと、
    前記第1距離情報を取得した後に、前記測距センサーの測定値に基づき、前記第1領域内の三次元形状を示す第2距離情報を取得することと、
    前記第1距離情報と前記第2距離情報とに基づき、前記第1領域内の第1物体を検出することと、
    を含む、請求項1から請求項のいずれか1項に記載の検出方法。
  6. 前記第2距離情報を取得した後に、前記測距センサーの測定値に基づき、前記第1領域内の三次元形状を示す第3距離情報を取得することと、
    前記第2距離情報と前記第3距離情報に基づき、前記第1領域内の前記第1物体と相違する第2物体を検出することと、
    を含む、請求項に記載の検出方法。
  7. 赤外線方式の測距センサーと、情報処理装置と、を備え、第1領域の三次元形状を検出する検出システムであって、
    前記第1領域は、前記第1領域よりも狭く赤外線を反射する反射体が設置された第2領域を含み、
    前記情報処理装置は、
    前記測距センサーの測定値に基づき、前記第2領域の少なくとも2点の三次元座標値を取得することと、
    前記少なくとも2点の三次元座標値に基づき、前記第2領域を含む平面の位置を算出することと、
    前記平面の位置を、前記第1領域の三次元形状として決定することと、
    前記第1領域のサイズに対する前記第2領域のサイズの比率が閾値以下であるか否かを判定することと、
    前記比率が前記閾値以下である場合には、前記反射体の設置をユーザーに促す報知をすることと、
    を実行する、検出システム。
  8. 赤外線方式の測距センサーと、情報処理装置と、を備え、第1領域の三次元形状を検出する検出システムであって、
    前記第1領域は、前記第1領域よりも狭い第2領域を含み、
    前記情報処理装置は、
    前記第1領域のサイズに対する前記第2領域のサイズの比率が閾値以下であるか否かを判定することと、
    前記比率が前記閾値以下ではない場合には、前記測距センサーの測定値に基づき、前記第2領域の少なくとも2点の三次元座標値を取得することと、
    前記少なくとも2点の三次元座標値に基づき、前記第2領域を含む平面の位置を算出することと、
    前記平面の位置を、前記第1領域の三次元形状として決定することと、
    前記比率が前記閾値以下である場合には、前記第1領域の三次元形状の検出精度が低い可能性があることをユーザーに報知することと、
    を実行する、検出システム。
  9. 赤外線方式の測距センサーと、情報処理装置と、を備え、第1領域の三次元形状を検出する検出システムであって、
    前記第1領域は、前記第1領域よりも狭い第2領域を含み、
    前記情報処理装置は、
    前記第1領域を撮像し、撮像画像を取得することと、
    前記撮像画像において、前記第2領域に対応する位置を特定することと、
    前記測距センサーの測定値に基づき、前記第2領域の少なくとも2点の三次元座標値を取得することと、
    前記少なくとも2点の三次元座標値に基づき、前記第2領域を含む平面の位置を算出することと、
    前記平面の位置を、前記第1領域の三次元形状として決定することと、
    を実行する、検出システム。
JP2021091205A 2021-05-31 2021-05-31 検出方法、及び検出システム Active JP7424348B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021091205A JP7424348B2 (ja) 2021-05-31 2021-05-31 検出方法、及び検出システム
US17/827,057 US20220390609A1 (en) 2021-05-31 2022-05-27 Detection method and detection system
CN202210596230.3A CN115479538A (zh) 2021-05-31 2022-05-30 检测方法以及检测系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021091205A JP7424348B2 (ja) 2021-05-31 2021-05-31 検出方法、及び検出システム

Publications (2)

Publication Number Publication Date
JP2022183736A JP2022183736A (ja) 2022-12-13
JP7424348B2 true JP7424348B2 (ja) 2024-01-30

Family

ID=84285239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021091205A Active JP7424348B2 (ja) 2021-05-31 2021-05-31 検出方法、及び検出システム

Country Status (3)

Country Link
US (1) US20220390609A1 (ja)
JP (1) JP7424348B2 (ja)
CN (1) CN115479538A (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005325537A (ja) 2004-05-12 2005-11-24 Hokuyo Automatic Co 安全センサ
JP2010044050A (ja) 2008-07-14 2010-02-25 Ihi Corp レーザレーダの姿勢認識方法及びレーザレーダ
WO2013190772A1 (ja) 2012-06-20 2013-12-27 パナソニック株式会社 空間情報検出装置、人位置検出装置
JP2014142288A (ja) 2013-01-25 2014-08-07 Hokuyo Automatic Co 物体検出装置、測距装置、ドア制御装置、及び自動ドア装置
JP2016176816A (ja) 2015-03-20 2016-10-06 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2016206066A (ja) 2015-04-24 2016-12-08 トヨタ自動車株式会社 物体認識装置、及び物体認識方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9277204B2 (en) * 2013-01-23 2016-03-01 Advanced Scientific Concepts, Inc. Modular LADAR sensor
US20220057518A1 (en) * 2020-08-19 2022-02-24 Faro Technologies, Inc. Capturing environmental scans using sensor fusion

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005325537A (ja) 2004-05-12 2005-11-24 Hokuyo Automatic Co 安全センサ
JP2010044050A (ja) 2008-07-14 2010-02-25 Ihi Corp レーザレーダの姿勢認識方法及びレーザレーダ
WO2013190772A1 (ja) 2012-06-20 2013-12-27 パナソニック株式会社 空間情報検出装置、人位置検出装置
JP2014142288A (ja) 2013-01-25 2014-08-07 Hokuyo Automatic Co 物体検出装置、測距装置、ドア制御装置、及び自動ドア装置
JP2016176816A (ja) 2015-03-20 2016-10-06 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2016206066A (ja) 2015-04-24 2016-12-08 トヨタ自動車株式会社 物体認識装置、及び物体認識方法

Also Published As

Publication number Publication date
JP2022183736A (ja) 2022-12-13
CN115479538A (zh) 2022-12-16
US20220390609A1 (en) 2022-12-08

Similar Documents

Publication Publication Date Title
TWI547828B (zh) 感測器與投射器之校準技術
US8886449B2 (en) Calibrated hardware sensors for estimating real-world distances
CN108292448B (zh) 信息处理装置、信息处理方法和程序
JP5921271B2 (ja) 物体測定装置、及び物体測定方法
US10204404B2 (en) Image processing device and image processing method
US8388146B2 (en) Anamorphic projection device
US20150332506A1 (en) Information processing apparatus and information processing method
JP5340280B2 (ja) 遠隔操作装置及び遠隔操作方法
JP2017213191A (ja) 視線検出装置、視線検出方法、及び視線検出プログラム
CN105939472B (zh) 具有视频叠加的激光投影系统
CN108805936A (zh) 摄像机外参标定方法、装置和电子设备
US9529422B2 (en) Image display and photographing system, photographing device, display device, image display and photographing method, and computer-readable storage medium for computer program
US20170249822A1 (en) Apparatus configured to issue warning to wearer of display, and method therefor
KR20200101213A (ko) 전자 장치 및 전자 장치의 오브젝트 측정 방법
US9979858B2 (en) Image processing apparatus, image processing method and program
US10725586B2 (en) Presentation of a digital image of an object
JP2017067503A (ja) 位置推定装置、位置推定方法、及び位置推定プログラム
CN108965525B (zh) 检测方法和装置、终端、计算机设备和可读存储介质
JP7424348B2 (ja) 検出方法、及び検出システム
CN107077196B (zh) 识别触敏表面上的对象
JP5448739B2 (ja) 画像再生装置、撮像装置、画像再生方法
JP2016176816A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2022187131A (ja) 検出方法、及び検出システム
US20190158806A1 (en) Image-based edge measurement
JP6740614B2 (ja) 物体検出装置、及び物体検出装置を備えた画像表示装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210917

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240101

R150 Certificate of patent or registration of utility model

Ref document number: 7424348

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150