JP7424348B2 - 検出方法、及び検出システム - Google Patents
検出方法、及び検出システム Download PDFInfo
- Publication number
- JP7424348B2 JP7424348B2 JP2021091205A JP2021091205A JP7424348B2 JP 7424348 B2 JP7424348 B2 JP 7424348B2 JP 2021091205 A JP2021091205 A JP 2021091205A JP 2021091205 A JP2021091205 A JP 2021091205A JP 7424348 B2 JP7424348 B2 JP 7424348B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- region
- dimensional shape
- detection
- coordinate values
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 137
- 238000005259 measurement Methods 0.000 claims description 15
- 230000010365 information processing Effects 0.000 claims description 13
- 238000003384 imaging method Methods 0.000 claims description 4
- 238000000034 method Methods 0.000 description 24
- 238000012545 processing Methods 0.000 description 22
- 239000003550 marker Substances 0.000 description 21
- 239000013256 coordination polymer Substances 0.000 description 20
- 230000015654 memory Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 239000004744 fabric Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/2433—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures for measuring outlines by shadow casting
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
例えば、特許文献1には、デプスセンサーによって床面の三次元座標点群データを取得し、取得した複数の点群データに基づき、例えば、最小二乗法を用いることで床面を示す平面を推定する方法が記載されている。
検出システム1は、検出装置10と、パーソナルコンピューター20と、プロジェクター30と、を備える。
パーソナルコンピューター20は、例えば、USB(Universal Serial Bus)ケーブルによって、検出装置10と通信可能に接続される。また、パーソナルコンピューター20は、HDMI(登録商標)(High-Definition Multimedia Interface)ケーブルによって、プロジェクター30と通信可能に接続される。
赤外線プロジェクター13は、被写体に赤外線を照射する。
デプスカメラ11は、赤外線プロジェクター13が照射した赤外線の反射光を計測することによって、いわゆるToF(Time Of Flight)方式で、デプスカメラ11の座標(Ud,Vd)にデプス値(Z座標)を対応付けたデプス画像DPを取得する。X軸は、Ud軸と平行であり、Y軸はVd軸と平行である。X軸、Y軸、及びZ軸は、互いに直交する。
RGBカメラ12は、被写体のRGB画像CPを取得する。
デプス画像DP、Ud軸、Vd軸、及びRGB画像CPについては、図2を参照して説明する。
赤外線プロジェクター13、及びデプスカメラ11は、「赤外線方式の測距センサー」の一例に対応する。
デプス画像DPは、「測距センサーの測定値」の一例に対応する。
「赤外線方式の測距センサー」がIR(Infrared)カメラ2台を含むステレオビジョンで構成されてもよい。なお、ステレオビジョンでは、2つの撮像画像上で対応する位置の座標を対応付けることが必要となる。しかしながら、撮像画像上で対応する点位置を正確に特定することは困難であり、計測精度が不安定となる可能性がある。そこで、特定マーカーを床面FL等に配置して、2つの撮像画像間の対応位置を特定すればよい。特定マーカーとしては、再帰性反射材を好適に使用できる。
また、「赤外線方式の測距センサー」が、IRカメラとIRプロジェクターとを備えるストラクチャードライトで構成されてもよい。
視野角θ1は、第1領域AR1に対応するデプスカメラ11の視野を示す。中心線LC1は、デプスカメラ11の視野の中心を示す。中心線LC1は、Z軸と平行である。
パーソナルコンピューター20は、「情報処理装置」の一例に対応する。
投写領域ARPは、第1領域AR1に含まれる。中心線LC2は、プロジェクター30が投写する投写光の中心を示す。
図1に示すように、中心線LC2と床面FLとの交点の位置が、例えば、中心線LC1と床面FLとの交点の位置と一致するように、検出装置10、及びプロジェクター30が配置される。
検出装置10、すなわち、RGB-Dカメラは、RGBカメラ12で取得したRGB画像CPと、デプスカメラ11で取得したデプス画像DP、及び三次元のXYZ座標とを取得し、色情報付きの六次元データ(R,G,B,X,Y,Z)を有する点群データ、すなわち、ポイントクラウドデータを生成できる。
ピクセル座標系の対応関係は、例えば、市販製品のSDK(Software Development Kit)や外部ライブラリーにデフォルト値が用意されており、API(Application Programming Interface)を用いて取得することができる。
RGBカメラ12とデプスカメラ11とが一体的に組み込まれた市販のRGB-Dカメラ単体を用いる場合には、外部パラメーターのキャリブレーション等の作業を別途行うことなく、メーカー側で用意されたデフォルト値を用いることによって、RGB画像CPとデプス画像DPとの間の、ピクセル座標系の対応付けを行うことができる。
パーソナルコンピューター20は、制御部21、表示機構23、音声出力機構24、及びインターフェース機構25、を備える。また、制御部21は、操作機構26と通信可能に接続される。
音声出力機構24は、制御部21の制御に従って各種音声を出力するスピーカー241を備える。
メモリー21Bは、プロセッサー21Aが実行するプログラムやデータを不揮発的に記憶する記憶装置である。メモリー21Bは、磁気的記憶装置、フラッシュROM(Read Only Memory)等の半導体記憶素子、或いはその他の種類の不揮発性記憶装置により構成される。
また、メモリー21Bは、プロセッサー21Aのワークエリアを構成するRAM(Random Access Memory)を含んでもよい。メモリー21Bは、制御部21により処理されるデータや、プロセッサー21Aが実行する制御プログラムPGMを記憶する。
図4は、第1領域AR1の三次元形状の検出方法の一例を示す図である。
図4に示すように、第1領域AR1は、第1領域AR1よりも狭い第2領域AR2を含む。第2領域AR2は、赤外線を反射する反射体RFがユーザーによって設置された領域である。
本実施形態では、反射体RFが白い布である場合について説明するが、これに限定されない。反射体RFは、赤外光を反射する物体であればよい。反射体RFは、例えば、薄板状の物体の表面に赤外光を反射する塗料が塗布されていてもよい。
位置特定部216は、RGBカメラ12からRGB画像CPを取得し、RGB画像CPにおいて、第2領域AR2に対応する位置を特定する。位置特定部216は、RGB画像CPにおいて、赤色のマーカーMKを検出することによって、第2領域AR2に対応する位置を特定する。
RGB画像CPは、「撮像画像」の一例に対応する。
なお、デプス画像DPにおいて、ユーザーが第2領域AR2に対応する測定値を指定する操作を、位置特定部216が、操作機構26を介して受け付ける場合には、第2領域AR2に、第2領域AR2を特定するマーカーMKは配置されなくても良い。
デプス画像DPは、「測距センサーによる第1領域の測定値」の一例に対応する。
本実施形態では、例えば、第1マーカーMK1が配置された第2領域AR2の隅部である第1隅部CN1と、第2マーカーMK2が配置された第2領域AR2の隅部である第2隅部CN2との三次元座標値を取得する。
デプス画像DPは、「測距センサーの測定値」の一例に対応する。
平面PLは、次の式(1)で規定される。
Z=((Z2-Z1)/(Y2-Y1))×Y (1)
ここで、(X1,Y1,Z1)が、第1隅部CN1の(X,Y,Z)座標値を示し、(X2,Y2,Z2)が、第2隅部CN2の(X,Y,Z)座標値を示す。
デプスカメラ11のXd軸がX軸と平行であり、デプスカメラ11のYd軸がY軸と平行である場合に、式(1)で規定される平面PLは第2領域AR2を含む平面と一致する。換言すれば、デプスカメラ11が中心線LC1に対して適正な回転角度に配置されている場合に、平面PLは式(1)で規定される。
なお、本実施形態では、第2領域AR2の2点の三次元座標値に基づき、第2領域AR2を含む平面PLの位置を算出する場合について説明するが、これに限定されない。平面算出部212は、第2領域AR2の少なくとも2点の三次元座標値に基づき、第2領域AR2を含む平面PLの位置を算出すればよい。
例えば、平面算出部212は、第2領域AR2の3点の三次元座標値に基づき、第2領域AR2を含む平面PLの位置を算出してもよい。
この場合には、平面PLは、次の式(2)で規定される。
本実施形態では、(X1,Y1,Z1)、(X2,Y2,Z2)及び(X3,Y3,Z3)の各々が、第1隅部CN1、第2隅部CN2、及び第3隅部CN3の(X,Y,Z)座標値を示す場合について説明したが、これに限定されない。
式(1)で平面PLを規定する場合には、(X1,Y1,Z1)及び(X2,Y2,Z2)は、第2領域AR2内に存在し、(X,Y,Z)座標値がそれぞれ異なる任意の2点の(X,Y,Z)座標値を用いれば良い。
式(2)で平面PLを規定する場合には、(X1,Y1,Z1)、(X2,Y2,Z2)及び(X3,Y3,Z3)は、第2領域AR2内に存在し、(X,Y,Z)座標値がそれぞれ異なる任意の3点の(X,Y,Z)座標値を用いれば良い。
この場合には、比率RTは、次の式(3)で求められる。
RT=L2/L1 (3)
この場合には、閾値THは、例えば、0.2である。
この場合には、比率RTは、次の式(4)で求められる。
RT=S2/S1=(L2×W2)/(L1×W1) (4)
この場合には、閾値THは、例えば、0.14である。
第1デプス画像DP1については、図7を参照して更に説明する。
図5は、図4と比較して、第1物体BJ1が床面FLに配置されている点で相違する。本実施形態では、第1物体BJ1は、直方体BJ11と、壁BJ12と、を含む。
直方体BJ11は、床面FL上に載置される。壁BJ12は、床面FLに固定されて、鉛直方向と平行な方向に立設される。
デプス画像DPは、「測距センサーの測定値」の一例に対応する。
第2距離情報JL2は、図5に示すように、第1物体BJ1が床面FLに配置されている状態で、デプスカメラ11によって生成される第2デプス画像DP2に対応する。
第2デプス画像DP2については、図7を参照して更に説明する。
具体的には、第1検出部223は、第1デプス画像DP1と第2デプス画像DP2とに基づき、第1領域AR1内の第1物体BJ1を検出する。
第1検出部223の処理については、図7を参照して更に説明する。
図6は、図5と比較して、第2物体BJ2が床面FLに配置されている点で相違する。本実施形態では、第2物体BJ2は、第1領域AR1に進入した人に対応する。
デプス画像DPは、「測距センサーの測定値」の一例に対応する。
第3距離情報JL3は、図6に示すように、第1物体BJ1及び第2物体BJ2が床面FLに配置されている状態で、デプスカメラ11によって生成される第3デプス画像DP3に対応する。
第3デプス画像DP3については、図7を参照して更に説明する。
第2検出部225の処理については、図7を参照して更に説明する。
報知部215は、第2検出部225が第2物体BJ2を検出した場合には、第2物体BJ2を検出したことをユーザーに報知する。また、報知部215は、第2検出部225が第2物体BJ2を検出していない場合には、第2物体BJ2を検出していないことをユーザーに報知する。
図7には、上から下に向けて、第1デプス画像DP1、第2デプス画像DP2、及び第3デプス画像DP3を示している。
また、図7には、第1デプス画像DP1、第2デプス画像DP2、及び第3デプス画像DP3の各々に対応付けて、デプス値(Z座標)とデプス画像DP中の画素の輝度Bとの関係を示すスケール画像CDを記載している。デプス値(Z座標)は、デプスカメラ11からの距離を示す。
第1デプス画像DP1には、デプスカメラ11から床面FLまでの距離に対応する第1輝度値B1の床面画像DP11が表示される。
第1画像DP21は、直方体BJ11に対応する画像であって、第1輝度値B1より低い第2輝度値B2で表示される。
第2画像DP22は、壁BJ12に対応する画像であって、第1輝度値B1より低い第3輝度値B3で表示される。
直方体BJ11は、壁BJ12よりもデプスカメラ11に近いため、第2輝度値B2は、第3輝度値B3よりも低い。
第3画像DP31は、人体を示す第2物体BJ2に対応する画像であって、第4輝度値B4で表示される。第2物体BJ2は、第1物体BJ1よりもデプスカメラ11に近いため、第4輝度値B4は、第3輝度値B3よりも低い。
また、第2検出部225が第2物体BJ2を検出していない場合に、報知部215は、第2物体BJ2を検出していないことをユーザーに報知する。報知部215は、例えば、プロジェクター30に、第2物体BJ2を検出していないことを示す投写画像を床面FLに表示させることによって、第2物体BJ2を検出していないことをユーザーに報知する。
まず、図8に示すように、ステップS101において、ユーザーが第2領域AR2に反射体RF、及びマーカーMKを配置する。
次に、ステップS103において、位置特定部216は、RGBカメラ12からRGB画像CPを取得する。
次に、ステップS105において、位置特定部216は、RGB画像CPにおいて、第2領域AR2に対応する位置を特定する。
次に、ステップS107において、比率判定部214は、第1長さL1を算出する。第1長さL1は、第1領域AR1のX軸方向の長さを示す。
次に、ステップS109において、比率判定部214は、第2長さL2を算出する。第2長さL2は、第2領域AR2のX軸方向の長さを示す。
次に、ステップS111において、比率判定部214は、比率RTを算出する。
比率RTが閾値TH以下であると比率判定部214が判定した場合、すなわち、ステップS113でYESの場合には、処理がステップS115へ進む。
そして、ステップS115で、報知部215は、反射体RFの設置をユーザーに促す報知をする。その後、処理がステップS101に戻る。
比率RTが閾値TH以下ではないと比率判定部214が判定した場合、すなわち、ステップS113でNOの場合には、処理が図9に示すステップS117へ進む。
次に、ステップS119において、平面算出部212は、第2領域AR2の2点の三次元座標値に基づき、第2領域AR2を含む平面PLの位置を算出する。
次に、ステップS121において、形状決定部213は、平面PLの位置を、第1領域AR1の三次元形状として決定する。
次に、ステップS125において、第2取得部222は、デプス画像DPに基づき、第1領域AR1内の三次元形状を示す第2距離情報JL2を取得する。第2距離情報JL2は、第1物体BJ1が床面FLに配置されている状態で、デプスカメラ11によって生成される第2デプス画像DP2に対応する。
次に、ステップS127において、第1検出部223は、第1距離情報JL1と第2距離情報JL2とに基づき、第1領域AR1内の第1物体BJ1を検出する。具体的には、第1検出部223は、第1デプス画像DP1と第2デプス画像DP2とに基づき、第1領域AR1内の第1物体BJ1を検出する。
次に、ステップS131において、第2検出部225は、第2距離情報JL2と第3距離情報JL3とに基づき、第1領域AR1内の第2物体BJ2を検出したか否かを判定する。
第2物体BJ2を検出していないと第2検出部225が判定した場合、すなわち、ステップS131でNOの場合には、処理がステップS135へ進む。
そして、ステップS135において、報知部215は、第2物体BJ2を検出していないことをユーザーに報知する。報知部215は、例えば、プロジェクター30に、第2物体BJ2を検出していないことを示す投写画像を床面FLに表示させることによって、第2物体BJ2を検出していないことをユーザーに報知する。その後、処理がステップS139へ進む。
第2物体BJ2を検出したと第2検出部225が判定した場合、すなわち、ステップS131でYESの場合には、処理がステップS137へ進む。
そして、ステップS137において、報知部215は、第2物体BJ2を検出したことをユーザーに報知する。報知部215は、例えば、プロジェクター30に、第2物体BJ2を検出したことを示す投写画像を床面FLに表示させることによって、第2物体BJ2を検出したことをユーザーに報知する。その後、処理がステップS139へ進む。
第2物体BJ2の検出を終了しないと制御部21が判定した場合、すなわち、ステップS139でNOの場合には、処理がステップS129に戻る。第2物体BJ2の検出を終了すると制御部21が判定した場合、すなわち、ステップS139でYESの場合には、その後、処理が終了する。
更に、第2領域AR2には、マーカーMKが配置されるため、RGB画像CPにおける第2領域AR2の位置を容易に特定できる。
第1実施形態に係る検出システム1のパーソナルコンピューター20の制御部21が第2検出部225を備えるのに対して、第2実施形態に係る検出システム1のパーソナルコンピューター20の制御部21は、第2検出部225に換えて第2検出部226を備える点で相違する。
第2検出部226は、第1距離情報JL1と、第2距離情報JL2と、第3距離情報JL3とに基づき、第1領域AR1内の第2物体BJ2を検出する。
まず、第2検出部226は、第1デプス画像DP1と第3デプス画像DP3とに基づき、第1領域AR1内の第1物体BJ1と第2物体BJ2を検出する。換言すれば、第2検出部226は、第3デプス画像DP3に含まれる画像のうち、床面画像DP11の第1輝度値B1と相違する輝度値の画像を抽出することによって、第1物体BJ1と第2物体BJ2を検出する。例えば、第2検出部226は、第3デプス画像DP3に含まれる画像のうち、床面画像DP11の第1輝度値B1より低い輝度値の画像を抽出することによって、第1物体BJ1と第2物体BJ2を検出する。
換言すれば、第2検出部226は、第3デプス画像DP3に含まれる画像のうち、第2検出部226が第1デプス画像DP1と第3デプス画像DP3とに基づいて検出した第1物体BJ1、及び第2物体BJ2の各々に対応する画像の輝度値を抽出する。具体的には、第2検出部226は、第1物体BJ1に対応する第1画像DP21の第2輝度値B2と、第1物体BJ1に対応する第2画像DP22の第3輝度値B3、及び第2物体BJ2に対応する第3画像DP31の第4輝度値B4を抽出する。
そして、第2検出部226は、第2デプス画像DP2に含まれる画像のうち、第1検出部223が第1デプス画像DP1と第2デプス画像DP2とに基づいて検出した第1物体BJ1に対応する画像の輝度値を抽出する。具体的には、第2検出部226は、第1領域AR1内の第1物体BJ1に対応する第1画像DP21の第2輝度値B2と、第1物体BJ1に対応する第2画像DP22の第3輝度値B3を抽出する。
その後、第3デプス画像DP3における第2輝度値B2、第3輝度値B3、及び第4輝度値B4と、第2デプス画像DP2における第2輝度値B2及び第3輝度値B3とを比較し、第2デプス画像DP2と第3デプス画像DP3との間で相違する輝度値を抽出することによって、第4輝度値B4に対応する第2物体BJ2を検出する。
このようにして、第2検出部226は、第1デプス画像DP1と、第2デプス画像DP2と、第3デプス画像DP3とに基づき、第1領域AR1内の第2物体BJ2を検出できる。
パーソナルコンピューター20は、ステップS129を行った後に、ステップS231を行う。ステップS231において、第2検出部226は、第1距離情報JL1と、第2距離情報JL2と、第3距離情報JL3とに基づき、第1領域AR1内の第2物体BJ2を検出したか否かを判定する。
第2物体BJ2を検出していないと第2検出部226が判定した場合、すなわち、ステップS231でNOの場合には、処理がステップS135へ進む。また、第2物体BJ2を検出したと第2検出部226が判定した場合、すなわち、ステップS231でYESの場合には、処理がステップS137へ進む。
ステップS135及びステップS137以降の処理は、第1実施形態に係る検出システム1が実行する処理と同様であるため、その説明は省略する。
すなわち、デプス画像DPに基づき、第2領域AR2の2点の三次元座標値を取得し、第2領域AR2の2点の三次元座標値に基づき、第2領域AR2を含む平面PLの位置を算出する。そして、平面PLの位置を、第1領域AR1の三次元形状として決定する。
したがって、第2領域AR2の2点の三次元座標値が取得できる場合には、第1領域AR1の三次元座標値を充分な精度で取得できる。
よって、デプス画像DPに基づき、第2領域AR2の2点の三次元座標値を正確に取得できる。したがって、第1領域AR1の三次元座標値を充分な精度で取得できる。
すなわち、第1領域AR1のサイズに対する第2領域AR2のサイズの比率RTが閾値TH以下である場合には、反射体RFの設置をユーザーに促す報知をする。
よって、第2領域AR2を適正なサイズに設定できる。したがって、第1領域AR1の三次元座標値を充分な精度で取得できる。
すなわち、第1領域AR1のサイズに対する第2領域AR2のサイズの比率RTが閾値TH以下である場合には、第1領域AR1の三次元形状の検出精度が低い可能性があることをユーザーに報知する。
よって、第1領域AR1の三次元形状の検出精度が低い可能性があることを、ユーザーは認識できる。したがって、ユーザーの利便性を向上できる。
例えば、第1領域AR1の三次元形状の検出精度が低くても問題ない場合には、ユーザーは、検出された第1領域AR1の三次元形状を用いることができる。また、例えば、第1領域AR1の三次元形状の検出精度が低いと好ましくない場合には、ユーザーは、第2領域AR2のサイズを大きくすることによって、第1領域AR1の三次元形状の検出精度を向上できる。
よって、第1領域AR1のデプス画像DPにおいて、第2領域AR2に対応する領域を指定する操作を受け付けるため、マーカーMKを配置することなく第2領域AR2を容易に特定できる。したがって、ユーザーの利便性を向上できる。
よって、RGB画像CPにおいて、第2領域AR2に対応する位置を特定するため、第2領域AR2に対応する位置を正確に特定できる。したがって、第1領域AR1の三次元形状の検出精度を向上できる。
すなわち、第1領域AR1の三次元形状を示す第1距離情報JL1と、第1距離情報JL1を取得した後の第1領域AR1内の三次元形状を示す第2距離情報JL2と、に基づき、第1領域AR1内の第1物体BJ1を検出する。例えば、図7を参照して説明したように、第1デプス画像DP1と第2デプス画像DP2とに基づき、第1領域AR1内の第1物体BJ1を検出する。第1デプス画像DP1は第1距離情報JL1に対応する。第2デプス画像DP2は、第2距離情報JL2に対応する。
したがって、第1領域AR1内の第1物体BJ1を正確に検出できる。
すなわち、第2距離情報JL2と、第2距離情報JL2を取得した後の第1領域AR1内の三次元形状を示す第3距離情報JL3と、に基づき、第1領域AR1内の第1物体BJ1と相違する第2物体BJ2を検出する。例えば、図7を参照して説明したように、第2デプス画像DP2と第3デプス画像DP3とに基づき、第1領域AR1内の第2物体BJ2を検出する。第2デプス画像DP2は第2距離情報JL2に対応する。第3デプス画像DP3は、第3距離情報JL3に対応する。
したがって、第1領域AR1内の第2物体BJ2を正確に検出できる。
また、第2距離情報JL2と、第2距離情報JL2を取得した後の第1領域AR1内の三次元形状を示す第3距離情報JL3に加え、更に、第1距離情報JL1とに基づき、第1領域AR1内の第1物体BJ1と相違する第2物体BJ2を検出しても良い。
したがって、本実施形態に係る検出システム1は、本実施形態に係る検出方法と同様の効果を奏する。
例えば、プロジェクター30の図略の制御部が、座標取得部211と、平面算出部212と、形状決定部213と、比率判定部214と、報知部215と、位置特定部216と、第1取得部221と、第2取得部222と、第1検出部223と、第3取得部224と、第2検出部225と、を備えてもよい。この場合には、検出システム1は、パーソナルコンピューター20を備える必要はない。
具体的には、フレキシブルディスク、HDD、CD-ROM(Compact Disk Read Only Memory)、DVD、Blu-ray(登録商標) Disc、光磁気ディスク、フラッシュメモリー、カード型記録媒体等の可搬型、或いは固定式の記録媒体が挙げられる。また、記録媒体は、画像処理装置が備える内部記憶装置であるRAM、ROM、HDD等の不揮発性記憶装置であってもよい。
また、検出システム1の検出方法に対応した制御プログラムPGMをサーバー装置等に記憶させておき、サーバー装置からパーソナルコンピューター20に、制御プログラムPGMをダウンロードすることで検出システム1の検出方法を実現することもできる。
Claims (9)
- 赤外線方式の測距センサーによって、第1領域の三次元形状を検出する検出方法であって、
前記第1領域は、前記第1領域よりも狭く赤外線を反射する反射体が設置された第2領域を含み、
前記測距センサーの測定値に基づき、前記第2領域の少なくとも2点の三次元座標値を取得することと、
前記少なくとも2点の三次元座標値に基づき、前記第2領域を含む平面の位置を算出することと、
前記平面の位置を、前記第1領域の三次元形状として決定することと、
前記第1領域のサイズに対する前記第2領域のサイズの比率が閾値以下であるか否かを判定することと、
前記比率が前記閾値以下である場合には、前記反射体の設置をユーザーに促す報知をすることと、
を含む、検出方法。 - 赤外線方式の測距センサーによって、第1領域の三次元形状を検出する検出方法であって、
前記第1領域は、前記第1領域よりも狭い第2領域を含み、
前記第1領域のサイズに対する前記第2領域のサイズの比率が閾値以下であるか否かを判定することと、
前記比率が前記閾値以下ではない場合には、前記測距センサーの測定値に基づき、前記第2領域の少なくとも2点の三次元座標値を取得することと、
前記少なくとも2点の三次元座標値に基づき、前記第2領域を含む平面の位置を算出することと、
前記平面の位置を、前記第1領域の三次元形状として決定することと、
前記比率が前記閾値以下である場合には、前記第1領域の三次元形状の検出精度が低い可能性があることをユーザーに報知することと、
を含む、検出方法。 - 前記測距センサーによる前記第1領域の測定値において、前記第2領域に対応する測定値を指定する操作を受け付けること、
を含む、請求項1または請求項2に記載の検出方法。 - 赤外線方式の測距センサーによって、第1領域の三次元形状を検出する検出方法であって、
前記第1領域は、前記第1領域よりも狭い第2領域を含み、
前記第1領域を撮像し、撮像画像を取得することと、
前記撮像画像において、前記第2領域に対応する位置を特定することと、
前記測距センサーの測定値に基づき、前記第2領域の少なくとも2点の三次元座標値を取得することと、
前記少なくとも2点の三次元座標値に基づき、前記第2領域を含む平面の位置を算出することと、
前記平面の位置を、前記第1領域の三次元形状として決定することと、
を含む、検出方法。 - 前記平面の位置に基づき、前記第1領域の三次元形状を示す第1距離情報を取得することと、
前記第1距離情報を取得した後に、前記測距センサーの測定値に基づき、前記第1領域内の三次元形状を示す第2距離情報を取得することと、
前記第1距離情報と前記第2距離情報とに基づき、前記第1領域内の第1物体を検出することと、
を含む、請求項1から請求項4のいずれか1項に記載の検出方法。 - 前記第2距離情報を取得した後に、前記測距センサーの測定値に基づき、前記第1領域内の三次元形状を示す第3距離情報を取得することと、
前記第2距離情報と前記第3距離情報に基づき、前記第1領域内の前記第1物体と相違する第2物体を検出することと、
を含む、請求項5に記載の検出方法。 - 赤外線方式の測距センサーと、情報処理装置と、を備え、第1領域の三次元形状を検出する検出システムであって、
前記第1領域は、前記第1領域よりも狭く赤外線を反射する反射体が設置された第2領域を含み、
前記情報処理装置は、
前記測距センサーの測定値に基づき、前記第2領域の少なくとも2点の三次元座標値を取得することと、
前記少なくとも2点の三次元座標値に基づき、前記第2領域を含む平面の位置を算出することと、
前記平面の位置を、前記第1領域の三次元形状として決定することと、
前記第1領域のサイズに対する前記第2領域のサイズの比率が閾値以下であるか否かを判定することと、
前記比率が前記閾値以下である場合には、前記反射体の設置をユーザーに促す報知をすることと、
を実行する、検出システム。 - 赤外線方式の測距センサーと、情報処理装置と、を備え、第1領域の三次元形状を検出する検出システムであって、
前記第1領域は、前記第1領域よりも狭い第2領域を含み、
前記情報処理装置は、
前記第1領域のサイズに対する前記第2領域のサイズの比率が閾値以下であるか否かを判定することと、
前記比率が前記閾値以下ではない場合には、前記測距センサーの測定値に基づき、前記第2領域の少なくとも2点の三次元座標値を取得することと、
前記少なくとも2点の三次元座標値に基づき、前記第2領域を含む平面の位置を算出することと、
前記平面の位置を、前記第1領域の三次元形状として決定することと、
前記比率が前記閾値以下である場合には、前記第1領域の三次元形状の検出精度が低い可能性があることをユーザーに報知することと、
を実行する、検出システム。 - 赤外線方式の測距センサーと、情報処理装置と、を備え、第1領域の三次元形状を検出する検出システムであって、
前記第1領域は、前記第1領域よりも狭い第2領域を含み、
前記情報処理装置は、
前記第1領域を撮像し、撮像画像を取得することと、
前記撮像画像において、前記第2領域に対応する位置を特定することと、
前記測距センサーの測定値に基づき、前記第2領域の少なくとも2点の三次元座標値を取得することと、
前記少なくとも2点の三次元座標値に基づき、前記第2領域を含む平面の位置を算出することと、
前記平面の位置を、前記第1領域の三次元形状として決定することと、
を実行する、検出システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021091205A JP7424348B2 (ja) | 2021-05-31 | 2021-05-31 | 検出方法、及び検出システム |
US17/827,057 US20220390609A1 (en) | 2021-05-31 | 2022-05-27 | Detection method and detection system |
CN202210596230.3A CN115479538A (zh) | 2021-05-31 | 2022-05-30 | 检测方法以及检测系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021091205A JP7424348B2 (ja) | 2021-05-31 | 2021-05-31 | 検出方法、及び検出システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022183736A JP2022183736A (ja) | 2022-12-13 |
JP7424348B2 true JP7424348B2 (ja) | 2024-01-30 |
Family
ID=84285239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021091205A Active JP7424348B2 (ja) | 2021-05-31 | 2021-05-31 | 検出方法、及び検出システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220390609A1 (ja) |
JP (1) | JP7424348B2 (ja) |
CN (1) | CN115479538A (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005325537A (ja) | 2004-05-12 | 2005-11-24 | Hokuyo Automatic Co | 安全センサ |
JP2010044050A (ja) | 2008-07-14 | 2010-02-25 | Ihi Corp | レーザレーダの姿勢認識方法及びレーザレーダ |
WO2013190772A1 (ja) | 2012-06-20 | 2013-12-27 | パナソニック株式会社 | 空間情報検出装置、人位置検出装置 |
JP2014142288A (ja) | 2013-01-25 | 2014-08-07 | Hokuyo Automatic Co | 物体検出装置、測距装置、ドア制御装置、及び自動ドア装置 |
JP2016176816A (ja) | 2015-03-20 | 2016-10-06 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP2016206066A (ja) | 2015-04-24 | 2016-12-08 | トヨタ自動車株式会社 | 物体認識装置、及び物体認識方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9277204B2 (en) * | 2013-01-23 | 2016-03-01 | Advanced Scientific Concepts, Inc. | Modular LADAR sensor |
US20220057518A1 (en) * | 2020-08-19 | 2022-02-24 | Faro Technologies, Inc. | Capturing environmental scans using sensor fusion |
-
2021
- 2021-05-31 JP JP2021091205A patent/JP7424348B2/ja active Active
-
2022
- 2022-05-27 US US17/827,057 patent/US20220390609A1/en active Pending
- 2022-05-30 CN CN202210596230.3A patent/CN115479538A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005325537A (ja) | 2004-05-12 | 2005-11-24 | Hokuyo Automatic Co | 安全センサ |
JP2010044050A (ja) | 2008-07-14 | 2010-02-25 | Ihi Corp | レーザレーダの姿勢認識方法及びレーザレーダ |
WO2013190772A1 (ja) | 2012-06-20 | 2013-12-27 | パナソニック株式会社 | 空間情報検出装置、人位置検出装置 |
JP2014142288A (ja) | 2013-01-25 | 2014-08-07 | Hokuyo Automatic Co | 物体検出装置、測距装置、ドア制御装置、及び自動ドア装置 |
JP2016176816A (ja) | 2015-03-20 | 2016-10-06 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP2016206066A (ja) | 2015-04-24 | 2016-12-08 | トヨタ自動車株式会社 | 物体認識装置、及び物体認識方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2022183736A (ja) | 2022-12-13 |
CN115479538A (zh) | 2022-12-16 |
US20220390609A1 (en) | 2022-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI547828B (zh) | 感測器與投射器之校準技術 | |
US8886449B2 (en) | Calibrated hardware sensors for estimating real-world distances | |
CN108292448B (zh) | 信息处理装置、信息处理方法和程序 | |
JP5921271B2 (ja) | 物体測定装置、及び物体測定方法 | |
US10204404B2 (en) | Image processing device and image processing method | |
US8388146B2 (en) | Anamorphic projection device | |
US20150332506A1 (en) | Information processing apparatus and information processing method | |
JP5340280B2 (ja) | 遠隔操作装置及び遠隔操作方法 | |
JP2017213191A (ja) | 視線検出装置、視線検出方法、及び視線検出プログラム | |
CN105939472B (zh) | 具有视频叠加的激光投影系统 | |
CN108805936A (zh) | 摄像机外参标定方法、装置和电子设备 | |
US9529422B2 (en) | Image display and photographing system, photographing device, display device, image display and photographing method, and computer-readable storage medium for computer program | |
US20170249822A1 (en) | Apparatus configured to issue warning to wearer of display, and method therefor | |
KR20200101213A (ko) | 전자 장치 및 전자 장치의 오브젝트 측정 방법 | |
US9979858B2 (en) | Image processing apparatus, image processing method and program | |
US10725586B2 (en) | Presentation of a digital image of an object | |
JP2017067503A (ja) | 位置推定装置、位置推定方法、及び位置推定プログラム | |
CN108965525B (zh) | 检测方法和装置、终端、计算机设备和可读存储介质 | |
JP7424348B2 (ja) | 検出方法、及び検出システム | |
CN107077196B (zh) | 识别触敏表面上的对象 | |
JP5448739B2 (ja) | 画像再生装置、撮像装置、画像再生方法 | |
JP2016176816A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2022187131A (ja) | 検出方法、及び検出システム | |
US20190158806A1 (en) | Image-based edge measurement | |
JP6740614B2 (ja) | 物体検出装置、及び物体検出装置を備えた画像表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210917 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20211105 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220623 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230817 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231013 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7424348 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |