JP4402328B2 - Shape identification method using three-dimensional image, shape identification system, and program thereof - Google Patents

Shape identification method using three-dimensional image, shape identification system, and program thereof Download PDF

Info

Publication number
JP4402328B2
JP4402328B2 JP2001266048A JP2001266048A JP4402328B2 JP 4402328 B2 JP4402328 B2 JP 4402328B2 JP 2001266048 A JP2001266048 A JP 2001266048A JP 2001266048 A JP2001266048 A JP 2001266048A JP 4402328 B2 JP4402328 B2 JP 4402328B2
Authority
JP
Japan
Prior art keywords
dimensional image
point
contour
target object
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001266048A
Other languages
Japanese (ja)
Other versions
JP2003076994A (en
Inventor
勝也 古橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2001266048A priority Critical patent/JP4402328B2/en
Publication of JP2003076994A publication Critical patent/JP2003076994A/en
Application granted granted Critical
Publication of JP4402328B2 publication Critical patent/JP4402328B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、円錐形、円柱形、球形等の形状を有する目標物体の2次元画像及び3次元画像からその目標物体の形状を識別する方法に関し、特に、3次元画像を用いた識別において、その識別精度を向上することのできる形状識別方法及び形状識別システムに関する。
【0002】
【従来の技術】
目標物体の形状の識別を行うための従来の画像処理方法においては、2次元画像による2次元画像処理のみ、あるいは3次元画像を用いた3次元画像処理のみで目標物体の識別処理が行われていた。前者の2次元画像処理のみによる方法では、例えば、赤外線センサ等で得られる2次元画像を用いる方法が知られており、扱う情報量が少ないために、識別するまでの処理時間を短くできるという利点がある反面、識別の精度が劣るという欠点がある。
【0003】
例えば、識別すべき物体の形状が、円錐形、円柱形、球形からなる場合には、2次元画像を得る際の視点方向によっては、前記全ての2次元画像が同じ形状(円)に見える場合があり、十分な識別ができない。具体的な例として、高速で飛来するミサイル等の目標物を要撃する際などには、目標物が、要撃の必要のない球形形状のデコイや円柱形形状のブースタであるか、あるいは要撃すべき円錐形形状の弾頭であるかを見分ける必要があるが、前述のように、2次元画像では、これらは見る方向によって同一形状となってしまうため、前記2次元画像処理のみでは、十分ではない。
【0004】
従って、識別すべき対象物体によっては、3次元画像を用いた識別が必要となる。3次元画像を用いて形状を識別することにより、前述した見る方向によって同一形状となってしまう場合にも、円錐形、円柱形、球形を識別することができ、2次元画像処理だけの場合よりも詳細な形状の識別が可能となる。しかし、従来のようにこの3次元画像による処理のみで形状の識別を行う方法では、処理する情報量が多いため、処理時間がかかるという欠点があり、前述したミサイル等の要撃の場合など高速な識別処理が要求される場合には不向きである。
【0005】
このような従来の2次元画像処理のみによる方法、及び3次元画像処理のみによる方法における不具合を解消するための方法として、本願発明者による特開2001−160147に記載された識別方法がある。図5の(a)は、かかる識別方法を用いた形状識別システム1'の構成を示し図である。この形状識別システム1'は、レーザ発振器2、受光センサ3、及び信号処理装置4'から構成され、レーザ発振器2から形状の識別を行う物体5に対しレーザ光を照射し、受光センサ3が反射されるレーザ光を受光することにより物体5の3次元画像を取得し、その3次元画像から信号処理装置4'が物体5の形状を識別する。
【0006】
図6は、信号処理装置4'で行われる識別処理の流れを示したフローチャートである。信号処理装置4'では、まず、取得した3次元画像から得られる2次元画像を用いて、受光センサ3に最も近い点である最近点8と重心との位置の一致性や画像の輪郭をなす直線の傾き等に基づいて、円錐形と円柱形の識別を行う。そして、この2次元画像による識別ができない場合には、3次元画像を用いて、最近点8から輪郭方向への曲率、傾きを算出し、その値が有意な値となるか否かによって、円錐形、円柱形、球形の識別を行う。
【0007】
図7は、前記最近点8から輪郭方向への曲率及び傾きを説明するための図である。図の(a)に示すとおり、前記形状識別の判断に用いられる曲率10は、最近点8から輪郭点9(前記2次元画像において輪郭をなす点)までの輪郭に沿って計算される。また、図の(b)に示すとおり、前記形状識別の判断に用いられる傾き11は、最近点8から輪郭点9への傾きとして計算される。
【0008】
このように、特開2001−160147に記載された識別方法は、2次元画像によって識別可能な場合には2次元画像処理により識別を行い、そうでない場合には、3次元画像を用いた3次元画像処理によって識別処理を実行する。従って、常に3次元画像処理を行う方法よりも処理速度が高く、また、3次元画像処理のみ場合と同等の識別能力が得られ、かかる識別方法では、従来の2次元画像処理のみあるいは3次元画像処理のみによる方法の欠点が克服されている。
【0009】
【発明が解決しようとする課題】
しかしながら、上述した識別方法における曲率10と傾き11に基づいた識別には、精度的に問題があった。図5の(b)に示すように、通常、物体5の輪郭部に照射されて反射し受光センサ3に受け取られるレーザ光、即ち図中の輪郭に照射/反射するレーザ光7、のパワーは、その他の部分に反射して受光センサ3で受け取られるレーザ光、即ち図中の物体に照射/反射するレーザ光6、のパワーに比べて小さいため、取得される輪郭部(輪郭点9付近)の画像データの精度は他の部分に比べて悪化する。そして、前述の曲率10と傾き11の算出には、この精度の悪い画像データも用いられ、その精度の悪さにより適正な曲率10と傾き11が算出されない場合も多く、輪郭部のデータ精度の悪さが形状識別に与える影響が大きかった。従って、前記曲率10と傾き11に基づく識別方法の識別精度は、それほど高いものにはならなかった。
【0010】
そこで、本発明の目的は、2次元画像と3次元画像を用いて目標物体の形状識別を高速に性能よく行うことができ、特に、3次元画像を用いた識別の精度を向上させることのできる形状識別方法及び形状識別システム等を提供することである。
【0011】
【課題を解決するための手段】
上記の目的を達成するために、本発明の一つの側面は、目標物体の形状を、センサの視点から見た2次元画像のみからでは識別できない場合に、3次元画像を用いて、最近点と輪郭点の間に位置する内分点と最近点との高低差により識別することである。従って、本発明によれば、3次元画像を用いた識別の工程において、各形状間で明確な差として現れる最近点と内分点の高低差により形状の識別が行われるため、輪郭点付近の画像データの精度が悪くても、その影響を受けることが少なく、従来法よりも精度の高い識別を行うことが可能である。
【0013】
上記の目的を達成するために、本発明の別の側面は、目標物体に対してレーザ光を照射するレーザ発振装置と、前記目標物体に反射された前記レーザ光を受光することにより前記目標物体の3次元画像を取得するセンサと、前記3次元画像に基づいて前記目標物体の形状を識別する信号処理装置とを有する形状識別システムであって、前記信号処理装置が、前記3次元画像から、前記目標物体上の点であって前記センサに最も近い点である最近点を抽出するとともに、前記3次元画像から得られる前記目標物体の2次元画像の面積重心を求め、前記抽出された最近点の前記2次元画像上における座標と、前記求められた面積重心の座標が一致するとき、前記2次元画像上における前記最近点から前記2次元画像の各輪郭までの長さである最近点−輪郭長さを求め、前記最近点の2次元画像上における座標と、前記面積重心の座標が一致しないとき、あるいは、前記求められた最近点−輪郭長さの最大値と最小値の比が1に近くないとき、前記2次元画像の各輪郭から直線部を抽出し、前記抽出した各直線部の傾きを求め、前記直線部に前記傾きが一致する対があれば、前記目標物体の形状は円柱形であると識別し、前記直線部に前記傾きが一致する対がなければ、前記目標物体の形状は円錐形であると識別し、前記最近点−輪郭長さの最大値と最小値の比が1に近いとき、前記3次元画像において、前記2次元画像で輪郭をなす点である輪郭点と前記最近点とを結ぶ輪郭面上の線を内分する点であって、前記輪郭点までの距離よりも前記最近点までの距離の方が短い位置にある第1内分点と、前記最近点の、前記3次元画像における前記センサの視線方向の座標値を求め、前記求められた座標値に差があれば、前記目標物体の形状は円錐形であると識別し、前記求められた座標値に差がないとき、前記3次元画像において前記輪郭点と前記最近点とを結ぶ輪郭面上の線を内分する点であって、前記最近点までの距離よりも前記輪郭点までの距離の方が短い位置にある第2内分点と、前記最近点の、前記3次元画像における前記センサの視線方向の座標値を求め、前記求められた座標値に差があれば、前記目標物体の形状は球形であると識別し、前記座標値に差がなければ、前記目標物体の形状は円柱形であると識別することを特徴とする。
【0014】
上記の目的を達成するために、本発明の更に別の側面は、目標物体に対してレーザ光を照射するレーザ発振装置と、前記目標物体に反射された前記レーザ光を受光することにより前記目標物体の3次元画像を取得するセンサと、前記3次元画像に基づいて前記目標物体の形状識別処理を行うための信号処理装置とを有する形状識別システムにおける、前記形状識別処理を前記信号処理装置に実行させるためのコンピュータプログラムであって、前記3次元画像から、前記目標物体上の点であって前記センサに最も近い点である最近点を抽出するとともに、前記3次元画像から得られる前記目標物体の2次元画像の面積重心を求める第一の工程と、前記抽出された最近点の前記2次元画像上における座標と、前記求められた面積重心の座標が一致するとき、前記2次元画像上における前記最近点から前記2次元画像の各輪郭までの長さである最近点−輪郭長さを求める第二の工程と、前記最近点の2次元画像上における座標と、前記面積重心の座標が一致しないとき、あるいは、前記求められた最近点−輪郭長さの最大値と最小値の比が1に近くないとき、前記2次元画像の各輪郭から直線部を抽出し、前記抽出した各直線部の傾きを求め、前記直線部に前記傾きが一致する対があれば、前記目標物体の形状は円柱形であると識別し、前記直線部に前記傾きが一致する対がなければ、前記目標物体の形状は円錐形であると識別する第三の工程と、前記最近点−輪郭長さの最大値と最小値の比が1に近いとき、前記3次元画像において、前記2次元画像で輪郭をなす点である輪郭点と前記最近点とを結ぶ輪郭面上の線を内分する点であって、前記輪郭点までの距離よりも前記最近点までの距離の方が短い位置にある第1内分点と、前記最近点の、前記3次元画像における前記センサの視線方向の座標値を求め、前記求められた座標値に差があれば、前記目標物体の形状は円錐形であると識別する第四の工程と、前記求められた座標値に差がないとき、前記3次元画像において前記輪郭点と前記最近点とを結ぶ輪郭面上の線を内分する点であって、前記最近点までの距離よりも前記輪郭点までの距離の方が短い位置にある第2内分点と、前記最近点の、前記3次元画像における前記センサの視線方向の座標値を求め、前記求められた座標値に差があれば、前記目標物体の形状は球形であると識別し、前記座標値に差がなければ、前記目標物体の形状は円柱形であると識別する第五の工程とを前記信号処理装置に実行させることを特徴とする。
【0015】
本発明の更なる目的及び、特徴は、以下に説明する発明の実施の形態から明らかになる。
【0016】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態例を説明する。しかしながら、かかる実施の形態例が、本発明の技術的範囲を限定するものではない。なお、図において、同一又は類似のものには同一の参照番号又は参照記号を付して説明する。
【0017】
本発明を用いた形状識別システム1の実施の形態例に係る構成図は、図5の(a)に示したものと同様である。図に示すとおり、本実施の形態例に係る形状識別システム1は、レーザ発振器2、受光センサ3、及び信号処理装置4から構成される。また、図中の物体5は、本形状識別システム1が形状の識別を行う対象物であり、円錐、円柱、球等の形状をしている。
【0018】
レーザ発振器2は、物体5に対しレーザ光を照射する装置であり、受光センサ3は、物体5から反射される前記レーザ光を受光することにより物体5の3次元画像を取得するセンサである。
【0019】
信号処理装置4は、その取得された3次元画像からが物体5の特定の形状(円錐、円柱、球)を識別する装置であり、信号処理装置4で行われる識別処理の内容が本発明の特徴である。なお、信号処理装置4は、前記識別処理の手順を記述したコンピュータプログラムと、そのコンピュータプログラムや前記3次元画像等を格納する記憶装置と、前記コンピュータプログラムに従って処理を実行する制御装置等を有するコンピュータシステムによって実装することができる。
【0020】
以上のように構成された本実施の形態例に係る形状識別システム1は、物体5の形状を、その2次元画像と3次元画像の双方を用いて、高速に精度良く識別しようとするものであり、特に3次元画像を用いた処理において高い識別精度を得ようとするものである。以下、信号処理装置4で行われる識別処理の内容を説明する。
【0021】
図1は、本形状識別システム1の信号処理装置4で行われる識別処理の流れを示したフローチャートである。また、図2は、物体の形状を識別する際に、2次元画像のみで識別が可能なケースを示す図であり、図3は、物体の形状を識別する際に、3次元画像を用いる必要があるケースを示す図である。なお、図2及び図3の(a)、(b)、(c)は、それぞれ物体5が円錐形物体12、円柱形物体13、球形物体14である場合を示している。以下、図1に示す(I)〜(V)のフェーズに分けて説明する。
【0022】
(I)3次元画像の最近点抽出、2次元画像の重心計算
まず、信号処理装置4は、受光センサ3で取得された3次元画像の中で、図3の(a)に示すような受光センサ3に最も近いデータを持つ画素(図3の最近点8)を抽出する。この点を、以下、最近点8と呼ぶことにする。次に、信号処理装置4は、受光センサ3の視点から見た場合の物体5の2次元画像を前記3次元画像から生成し、図2及び図3に示すようなこの2次元画像の面積重心16を計算する。ここで得られた前記最近点8と面積重心16の前記2次元画像上の位置(座標)を比較し、双方の位置が一致していればフェーズ(II)に移行し、一致していなければフェーズ(III)に移行する。
【0023】
(II)最近点8から輪郭までの長さ算出
次に、信号処理装置4は、フェーズ(I)で求められた最近点8画素から前記2次元画像における各輪郭画素までの長さである最近点−輪郭長さ15を求め、最近点−輪郭長さ15の値の最大値と最小値の比である短長比を算出する。そして、この短長比が1に近くなければ、フェーズ(III)に移行し、1に近ければフェーズ(IV)へ移行する。図3に示した例では、(a)、(b)、(c)何れの場合にも短長比が1に近くなり、フェーズ(IV)へ移行する。即ち、2次元画像だけでは、形状の識別ができず、後述する3次元画像を用いた識別が行われる。一方、図2の(a)、(b)の場合には、フェーズ(III)に移行し、2次元画像によって形状の識別が行われる。
【0024】
(III)2次元画像における輪郭上の直線17の傾き計算
図2の(a)及び(b)に示されるように、2次元画像における輪郭上の直線17を抽出し、それらの傾きを計算する。その結果、直線17の傾きが一致するものがなければ物体5を円錐形であると識別し、一致するものがあれば円柱形であると識別する。図2の(a)に示す例では、抽出された2本の直線17の傾きが異なるため、円錐形であると判断され、一方、(b)に示す例では、抽出された2本の直線17の傾きが一致するので、円柱形であると判断される。
【0025】
(IV)「最近点8」と「第1内分点18」との高低差検出
前述したように、2次元画像だけで形状の識別をできない場合、例えば、図3に示すように、円錐形物体12や円柱形物体13の中心軸と受光センサ3の視線が一致し、前記2次元画像が円を示すような場合には、3次元画像を用いた識別が行われる。このフェーズにおいて信号処理装置4は、図3に示す3次元画像における最近点8と第1内分点18との高低差を検出する。
【0026】
ここで、第1内分点18とは、前記2次元画像上で輪郭をなす点である輪郭点9と最近点8とを結ぶ3次元画像の輪郭面上の線を内分する点であって、輪郭点9までの距離よりも最近点8までの距離の方が近い位置にあるものをいう。図4は、第1内分点18及び第2内分点19を説明するための図であり、図の(a)に第1内分点18が例示されている。ここでは、物体5が球形物体14である場合が示されている。
【0027】
また、高低差とは、図3の3次元画像における上下方向の座標値の差を意味し、換言すれば、受光センサ3の視線方向の座標値の差を意味する。信号処理装置4が行う最近点8と第1内分点18との高低差の検出は、具体的には、3次元画像から、受光センサ3の視線方向と直交する方向から見た場合の2次元画像を生成し、その2次元画像上で輪郭をなす最近点8と輪郭点9を結ぶ線上に第1内分点18を取り、その点と最近点8の高さ方向(受光センサ3の視線方向)の座標値を比べることで行われる。
【0028】
かかる高低差の検出の結果、高低差があれば、物体5を円錐形と識別し、高低差がなければフェーズ(V)へ移行する。ここで、高低差があるかないかの判断は、高低差が所定の小さな値を超えるか否かで行うこともできる。この際、前記所定の値は、第1内分点18の位置などにより定められる。図3の例では、(a)に示す場合に、前記高低差があり、円錐形と判断され、(b)及び(c)に示す場合には、高低差がないと判断されて、フェーズ(V)へ処理が移行する。
【0029】
(V)「最近点8」と「第2内分点19」との高低差検出
このフェーズにおいて信号処理装置4は、図3に示す3次元画像における最近点8と第2内分点19との高低差を検出する。ここで、第2内分点19とは、前記2次元画像上で輪郭をなす点である輪郭点9と最近点8とを結ぶ3次元画像の輪郭面上の線を内分する点であって、最近点8までの距離よりも輪郭点9までの距離の方が近い位置にあるものをいう。図4の(b)には、物体5が球形物体14である場合の第2内分点19が例示されている。
【0030】
高低差の検出の結果、高低差があれば、物体5を球形と識別し、高低差がなければ円柱形と識別する。ここで、高低差の意味と高低差の有無の判断については、前述したフェーズ(IV)の場合と同様である。図3の例では、図の(b)に示す場合には、最近点8と第2内分点19の間に高低差が認められず円柱形物体13と判断され、図の(c)に示す場合には、最近点8と第2内分点19の間に高低差があり、球形物体14と判断される。
【0031】
以上説明したように、本実施の形態例に係る形状識別システム1では、図3に示したような場合にも3次元画像を用いて適確な形状識別が行われ、また、2次元画像で識別が可能な場合には、情報量の少ない2次元画像で処理が行われるため、高速で性能の良い形状識別が可能である。さらに、3次元画像を用いたフェーズ(IV)及び(V)の識別処理において、各特定形状(円錐、円柱、球)の特徴上明確な差となって現れる最近点8と内分点(18、19)の高低差を、判断の基準としているため、取得される画像データの精度が多少悪化しても、正しい識別が可能であり、従来の曲率10及び傾き11を用いた手法よりも画像データの悪化の影響を受けずらく、識別精度を向上させることができる。
【0032】
本発明の保護範囲は、上記の実施の形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶものである。
【0033】
【発明の効果】
以上、本発明によれば、3次元画像を用いた識別の工程において、各形状間で明確な差として現れる最近点と内分点の高低差により形状の識別が行われるため、輪郭点付近の画像データの精度が悪くても、その影響を受けることが少なく、従来法よりも精度の高い識別を行うことが可能である。
【図面の簡単な説明】
【図1】本形状識別システム1の信号処理装置4で行われる識別処理の流れを示したフローチャートである。
【図2】物体の形状を識別する際に、2次元画像のみで識別が可能なケースを示す図である。
【図3】物体の形状を識別する際に、3次元画像を用いる必要があるケースを示す図である。
【図4】本形状識別システム1における識別処理で用いられる第1内分点18及び第2内分点19を説明するための図である。
【図5】従来の形状識別システム及び本発明を適用した形状識別システムの構成等を説明するための図である。
【図6】従来の形状識別システム1'の信号処理装置4'で行われる識別処理の流れを示したフローチャートである。
【図7】従来の形状識別システム1'において算出される最近点8から輪郭方向への曲率10及び傾き11を説明するための図である。
【符号の説明】
1、1' 形状識別システム
2 レーザ発振器
3 受光センサ
4、4' 信号処理装置
5 物体
6 物体に照射/反射するレーザ光
7 輪郭に照射/反射するレーザ光
8 最近点
9 輪郭点
10 曲率
11 傾き
12 円錐形物体
13 円柱形物体
14 球形物体
15 最近点−輪郭長さ
16 面積重心
17 直線
18 第1内分点
19 第2内分点
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a two-dimensional image of a target object having a shape such as a cone, a cylinder, or a sphere, and a method for identifying the shape of the target object from a three-dimensional image. The present invention relates to a shape identification method and a shape identification system that can improve identification accuracy.
[0002]
[Prior art]
In a conventional image processing method for identifying the shape of a target object, the target object is identified only by two-dimensional image processing using a two-dimensional image or only by three-dimensional image processing using a three-dimensional image. It was. In the former method using only two-dimensional image processing, for example, a method using a two-dimensional image obtained by an infrared sensor or the like is known, and since the amount of information to be handled is small, the processing time until identification can be shortened. However, there is a drawback that the accuracy of identification is inferior.
[0003]
For example, when the shape of the object to be identified is a cone, a cylinder, or a sphere, depending on the viewpoint direction when obtaining a two-dimensional image, all the two-dimensional images appear to have the same shape (circle) And there is no sufficient identification. As a specific example, when shooting a target such as a missile flying at high speed, the target should be a spherical decoy or a cylindrical booster that does not require a shot or should be shot. Although it is necessary to distinguish whether the warhead has a conical shape, as described above, in a two-dimensional image, since they have the same shape depending on the viewing direction, the two-dimensional image processing alone is not sufficient.
[0004]
Accordingly, depending on the target object to be identified, identification using a three-dimensional image is required. By identifying the shape using a three-dimensional image, it is possible to identify a conical shape, a cylindrical shape, and a spherical shape even when the shape is the same depending on the viewing direction described above. The detailed shape can be identified. However, the conventional method of identifying a shape only by processing with a three-dimensional image has a disadvantage that it takes a long processing time due to a large amount of information to be processed. It is not suitable when identification processing is required.
[0005]
As a method for solving such a problem in the conventional method using only two-dimensional image processing and the method using only three-dimensional image processing, there is an identification method described in Japanese Patent Laid-Open No. 2001-160147 by the present inventor. FIG. 5A is a diagram showing a configuration of a shape identification system 1 ′ using such an identification method. This shape identification system 1 ′ is composed of a laser oscillator 2, a light receiving sensor 3, and a signal processing device 4 ′. The laser oscillator 2 irradiates an object 5 whose shape is to be identified, and the light receiving sensor 3 reflects the laser light. The three-dimensional image of the object 5 is acquired by receiving the laser beam, and the signal processing device 4 ′ identifies the shape of the object 5 from the three-dimensional image.
[0006]
FIG. 6 is a flowchart showing a flow of identification processing performed in the signal processing device 4 ′. In the signal processing device 4 ′, first, using the two-dimensional image obtained from the acquired three-dimensional image, the coincidence of the position of the nearest point 8 that is the closest point to the light receiving sensor 3 and the center of gravity and the contour of the image are formed. Based on the inclination of the straight line, etc., a conical shape and a cylindrical shape are identified. If the two-dimensional image cannot be identified, the curvature and inclination from the closest point 8 to the contour direction are calculated using the three-dimensional image, and the cone is determined depending on whether or not the value becomes a significant value. Identify shapes, cylinders, and spheres.
[0007]
FIG. 7 is a diagram for explaining the curvature and inclination from the nearest point 8 to the contour direction. As shown in (a) of the figure, the curvature 10 used for the determination of the shape identification is calculated along the contour from the nearest point 8 to the contour point 9 (the point forming the contour in the two-dimensional image). Further, as shown in (b) of the figure, the slope 11 used for the determination of the shape identification is calculated as the slope from the nearest point 8 to the contour point 9.
[0008]
As described above, the identification method described in Japanese Patent Laid-Open No. 2001-160147 performs identification by two-dimensional image processing when it can be identified by a two-dimensional image, and otherwise three-dimensionally using a three-dimensional image. Identification processing is executed by image processing. Accordingly, the processing speed is always higher than the method of always performing three-dimensional image processing, and the identification capability equivalent to the case of only three-dimensional image processing can be obtained. In such an identification method, only conventional two-dimensional image processing or three-dimensional image processing is obtained. The disadvantages of the process-only method are overcome.
[0009]
[Problems to be solved by the invention]
However, the identification based on the curvature 10 and the slope 11 in the above-described identification method has a problem with accuracy. As shown in FIG. 5 (b), the power of the laser beam that is normally irradiated on the contour of the object 5 and reflected and received by the light receiving sensor 3, that is, the laser beam 7 irradiated / reflected on the contour in the figure is Since it is smaller than the power of the laser beam reflected by other portions and received by the light receiving sensor 3, that is, the laser beam 6 irradiated / reflected on the object in the figure, the acquired contour portion (near the contour point 9) The accuracy of the image data is worse than that of other parts. The above-described curvature 10 and slope 11 are calculated using the image data with poor accuracy, and the appropriate curvature 10 and slope 11 are often not calculated due to the poor precision, and the data accuracy of the contour portion is poor. Had a great influence on shape discrimination. Therefore, the identification accuracy of the identification method based on the curvature 10 and the slope 11 is not so high.
[0010]
Accordingly, an object of the present invention is to perform a shape identification of a target object at high speed and with high performance using a two-dimensional image and a three-dimensional image, and in particular, it is possible to improve identification accuracy using a three-dimensional image. To provide a shape identification method, a shape identification system, and the like.
[0011]
[Means for Solving the Problems]
In order to achieve the above object, one aspect of the present invention is to use a three-dimensional image and determine the nearest point when the shape of a target object cannot be identified only from a two-dimensional image viewed from the sensor viewpoint. It is identified by the difference in height between the inner dividing point located between the contour points and the nearest point. Therefore, according to the present invention, in the identification process using the three-dimensional image, the shape is identified by the difference in height between the nearest point and the internal dividing point that appears as a clear difference between the shapes. Even if the accuracy of the image data is poor, the image data is hardly affected, and it is possible to perform identification with higher accuracy than the conventional method.
[0013]
In order to achieve the above object, another aspect of the present invention provides a laser oscillation device for irradiating a target object with laser light, and the target object by receiving the laser light reflected by the target object. A shape identification system comprising: a sensor that acquires a three-dimensional image of the signal; and a signal processing device that identifies the shape of the target object based on the three-dimensional image, wherein the signal processing device includes: Extracting the nearest point that is a point on the target object and closest to the sensor, obtains the center of gravity of the two-dimensional image of the target object obtained from the three-dimensional image, and extracts the nearest point Is the length from the nearest point on the two-dimensional image to each contour of the two-dimensional image when the coordinates on the two-dimensional image coincide with the coordinates of the calculated area centroid -The contour length is obtained, and when the coordinates of the nearest point on the two-dimensional image and the coordinates of the area centroid do not coincide, or the ratio of the obtained nearest point-contour length maximum value and the minimum value is When not close to 1, a straight line part is extracted from each contour of the two-dimensional image, the inclination of each extracted straight line part is obtained, and if there is a pair with the same inclination in the straight line part, the shape of the target object Is identified as a cylindrical shape, and if there is no pair whose slopes coincide with each other in the straight line portion, the shape of the target object is identified as a conical shape, and the maximum value and the minimum value of the nearest point-contour length When the ratio is close to 1, in the three-dimensional image, a point that internally divides a line on a contour plane connecting a contour point that is a point that forms a contour in the two-dimensional image and the nearest point, and the contour A first position in which the distance to the nearest point is shorter than the distance to the point; A coordinate value in the line-of-sight direction of the sensor in the three-dimensional image of the minute point and the nearest point is obtained, and if there is a difference between the obtained coordinate values, the shape of the target object is identified as a cone. , When there is no difference in the obtained coordinate values, it is a point that internally divides a line on the contour plane connecting the contour point and the nearest point in the three-dimensional image, and more than the distance to the nearest point A coordinate value in the line-of-sight direction of the sensor in the three-dimensional image of the second interior dividing point at a position where the distance to the contour point is shorter and the closest point is obtained, and there is a difference between the obtained coordinate values. If there is, the shape of the target object is identified as a sphere, and if there is no difference in the coordinate values, the shape of the target object is identified as a cylinder.
[0014]
In order to achieve the above object, according to yet another aspect of the present invention, there is provided a laser oscillation device that irradiates a target object with laser light, and the target object by receiving the laser light reflected by the target object. In the shape identification system having a sensor for acquiring a three-dimensional image of an object and a signal processing device for performing shape identification processing of the target object based on the three-dimensional image, the shape identification processing is performed on the signal processing device. A computer program for execution, wherein a nearest point that is a point on the target object and closest to the sensor is extracted from the three-dimensional image, and the target object obtained from the three-dimensional image A first step of obtaining the area centroid of the two-dimensional image, the coordinates of the extracted nearest point on the two-dimensional image, and the coordinates of the obtained area centroid. A second step of obtaining a nearest point-contour length which is a length from the nearest point on the two-dimensional image to each contour of the two-dimensional image, and coordinates of the nearest point on the two-dimensional image When the coordinates of the area centroid do not coincide with each other, or the ratio of the maximum value and the minimum value of the calculated nearest point-contour length is not close to 1, a straight line portion is obtained from each contour of the two-dimensional image. Extract and determine the slope of each extracted straight line portion. If there is a pair that matches the slope in the straight line portion, the shape of the target object is identified as a cylindrical shape, and the straight line portion matches the slope. If there is no pair, the third step of identifying that the shape of the target object is a cone, and the ratio of the maximum value to the minimum value of the nearest point-contour length is close to 1, the three-dimensional image And a contour point which is a point to be contoured in the two-dimensional image and the front A first internal dividing point that internally divides a line on a contour plane connecting to the nearest point, the distance being closer to the nearest point than the distance to the contour point; and the nearest point Determining a coordinate value in the line-of-sight direction of the sensor in the three-dimensional image, and identifying the target object shape as a conical shape if there is a difference in the calculated coordinate value; and When there is no difference in the obtained coordinate values, the point is to internally divide a line on the contour plane connecting the contour point and the nearest point in the three-dimensional image, and the contour is more than the distance to the nearest point. If the coordinate value in the line-of-sight direction of the sensor in the three-dimensional image between the second interior dividing point at a position where the distance to the point is shorter and the nearest point is obtained, and there is a difference between the obtained coordinate values If the shape of the target object is identified as a sphere and there is no difference between the coordinate values, The signal processing apparatus is caused to execute a fifth step of identifying that the shape of the target object is a cylindrical shape.
[0015]
Further objects and features of the present invention will become apparent from the embodiments of the invention described below.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. However, such an embodiment does not limit the technical scope of the present invention. In the drawings, the same or similar elements are denoted by the same reference numerals or reference symbols.
[0017]
The configuration diagram according to the embodiment of the shape identification system 1 using the present invention is the same as that shown in FIG. As shown in the figure, the shape identification system 1 according to the present embodiment includes a laser oscillator 2, a light receiving sensor 3, and a signal processing device 4. In addition, an object 5 in the figure is an object on which the shape identification system 1 identifies a shape, and has a shape such as a cone, a cylinder, or a sphere.
[0018]
The laser oscillator 2 is a device that irradiates the object 5 with laser light, and the light receiving sensor 3 is a sensor that acquires a three-dimensional image of the object 5 by receiving the laser light reflected from the object 5.
[0019]
The signal processing device 4 is a device for identifying a specific shape (cone, cylinder, sphere) of the object 5 from the acquired three-dimensional image, and the content of the identification processing performed by the signal processing device 4 is that of the present invention. It is a feature. The signal processing device 4 includes a computer program that describes the procedure of the identification processing, a storage device that stores the computer program, the three-dimensional image, and the like, and a control device that executes processing according to the computer program. Can be implemented by the system.
[0020]
The shape identification system 1 according to this embodiment configured as described above attempts to identify the shape of the object 5 at high speed and with high accuracy using both the two-dimensional image and the three-dimensional image. In particular, it is intended to obtain high identification accuracy in processing using a three-dimensional image. Hereinafter, the content of the identification process performed by the signal processing device 4 will be described.
[0021]
FIG. 1 is a flowchart showing the flow of identification processing performed by the signal processing device 4 of the shape identification system 1. FIG. 2 is a diagram illustrating a case in which the shape of an object can be identified using only a two-dimensional image. FIG. 3 illustrates the need to use a three-dimensional image when identifying the shape of an object. It is a figure which shows a case. FIGS. 2A and 2B show cases where the object 5 is a conical object 12, a cylindrical object 13, and a spherical object 14, respectively. Hereinafter, description will be made by dividing into phases (I) to (V) shown in FIG.
[0022]
(I) Extracting the nearest point of a 3D image and calculating the center of gravity of a 2D image. First, the signal processing device 4 receives light as shown in FIG. 3A in the 3D image acquired by the light receiving sensor 3. The pixel having the data closest to the sensor 3 (nearest point 8 in FIG. 3) is extracted. Hereinafter, this point will be referred to as the nearest point 8. Next, the signal processing device 4 generates a two-dimensional image of the object 5 from the viewpoint of the light receiving sensor 3 from the three-dimensional image, and the area centroid of the two-dimensional image as shown in FIGS. 16 is calculated. The position (coordinates) of the nearest point 8 obtained here and the area centroid 16 on the two-dimensional image is compared, and if the two positions match, the process proceeds to phase (II). Move to Phase (III).
[0023]
(II) Calculation of the length from the nearest point 8 to the contour Next, the signal processing device 4 calculates the length from the nearest point 8 pixel obtained in the phase (I) to each contour pixel in the two-dimensional image. The point-contour length 15 is obtained, and a short / long ratio which is a ratio between the maximum value and the minimum value of the value of the closest point-contour length 15 is calculated. And if this short / long ratio is not close to 1, it will transfer to phase (III), and if it is close to 1, it will transfer to phase (IV). In the example shown in FIG. 3, the short / long ratio is close to 1 in any of the cases (a), (b), and (c), and the process proceeds to the phase (IV). That is, the shape cannot be identified only with the two-dimensional image, and the identification using the three-dimensional image described later is performed. On the other hand, in the case of (a) and (b) in FIG. 2, the process proceeds to phase (III), and the shape is identified by the two-dimensional image.
[0024]
(III) Calculation of the inclination of the straight line 17 on the outline in the two-dimensional image As shown in FIGS. 2A and 2B, the straight line 17 on the outline in the two-dimensional image is extracted and the inclination thereof is calculated. . As a result, the object 5 is identified as a conical shape if there is no coincidence in the straight line 17, and the object 5 is identified as a cylinder if there is a coincidence. In the example shown in (a) of FIG. 2, the two extracted straight lines 17 have different inclinations, and thus are determined to be conical. On the other hand, in the example shown in (b), the two extracted straight lines are determined. Since the inclinations of 17 match, it is determined that the shape is cylindrical.
[0025]
(IV) Height difference detection between “nearest point 8” and “first interior dividing point 18” As described above, when the shape cannot be identified only by the two-dimensional image, for example, as shown in FIG. When the central axis of the object 12 or the cylindrical object 13 coincides with the line of sight of the light receiving sensor 3, and the two-dimensional image indicates a circle, identification using the three-dimensional image is performed. In this phase, the signal processing device 4 detects a height difference between the closest point 8 and the first inner dividing point 18 in the three-dimensional image shown in FIG.
[0026]
Here, the first interior dividing point 18 is a point that internally divides a line on the contour surface of the three-dimensional image that connects the contour point 9 and the nearest point 8 that are contour points on the two-dimensional image. That is, the distance to the nearest point 8 is closer to the position than the distance to the contour point 9. FIG. 4 is a diagram for explaining the first internal dividing point 18 and the second internal dividing point 19, and the first internal dividing point 18 is illustrated in FIG. Here, a case where the object 5 is a spherical object 14 is shown.
[0027]
Further, the height difference means a difference in the coordinate values in the vertical direction in the three-dimensional image in FIG. 3, in other words, a difference in the coordinate values in the line-of-sight direction of the light receiving sensor 3. The detection of the height difference between the nearest point 8 and the first interior dividing point 18 performed by the signal processing device 4 is specifically 2 in the case where the three-dimensional image is viewed from a direction orthogonal to the line-of-sight direction of the light receiving sensor 3. A two-dimensional image is generated, a first interior dividing point 18 is taken on a line connecting the nearest point 8 and the contour point 9 which form an outline on the two-dimensional image, and the height direction of the point and the nearest point 8 (of the light receiving sensor 3) This is done by comparing the coordinate values of the line of sight.
[0028]
If there is a height difference as a result of such height difference detection, the object 5 is identified as a conical shape, and if there is no height difference, the process proceeds to phase (V). Here, the determination of whether or not there is a height difference can also be made based on whether or not the height difference exceeds a predetermined small value. At this time, the predetermined value is determined by the position of the first inner dividing point 18 and the like. In the example of FIG. 3, in the case shown in (a), the height difference is determined to be a conical shape, and in the cases shown in (b) and (c), it is determined that there is no height difference and the phase ( Processing shifts to V).
[0029]
(V) Height difference detection between “nearest point 8” and “second interior dividing point 19” In this phase, the signal processing device 4 uses the nearest point 8 and the second interior dividing point 19 in the three-dimensional image shown in FIG. Detect height difference of. Here, the second internal dividing point 19 is a point that internally divides a line on the contour surface of the three-dimensional image that connects the contour point 9 and the closest point 8 that form a contour on the two-dimensional image. That is, the distance to the contour point 9 is closer to the position than the distance to the nearest point 8. FIG. 4B illustrates a second interior dividing point 19 when the object 5 is a spherical object 14.
[0030]
As a result of the height difference detection, if there is a height difference, the object 5 is identified as a spherical shape, and if there is no height difference, it is identified as a cylindrical shape. Here, the meaning of the height difference and the determination of the presence or absence of the height difference are the same as in the case of phase (IV) described above. In the example of FIG. 3, in the case shown in FIG. 3B, a height difference is not recognized between the nearest point 8 and the second inner dividing point 19, and it is determined as a cylindrical object 13. In the case shown, there is a height difference between the nearest point 8 and the second interior dividing point 19, and it is determined that the object is a spherical object 14.
[0031]
As described above, in the shape identification system 1 according to the present embodiment, accurate shape identification is performed using a three-dimensional image even in the case shown in FIG. When identification is possible, processing is performed with a two-dimensional image with a small amount of information, so that shape identification with high speed and high performance is possible. Further, in the identification processing of the phases (IV) and (V) using the three-dimensional image, the nearest point 8 and the internal dividing point (18) that appear as distinct differences in the characteristics of each specific shape (cone, cylinder, sphere). 19) is used as a criterion for judgment, so that even if the accuracy of the acquired image data is somewhat deteriorated, correct discrimination is possible, and the image is more than the conventional method using the curvature 10 and the slope 11. It is difficult to be affected by the deterioration of data, and the identification accuracy can be improved.
[0032]
The protection scope of the present invention is not limited to the above-described embodiment, but covers the invention described in the claims and equivalents thereof.
[0033]
【The invention's effect】
As described above, according to the present invention, in the identification process using the three-dimensional image, the shape is identified by the difference in height between the nearest point and the internal dividing point that appears as a clear difference between the shapes. Even if the accuracy of the image data is poor, the image data is hardly affected, and it is possible to perform identification with higher accuracy than the conventional method.
[Brief description of the drawings]
FIG. 1 is a flowchart showing a flow of identification processing performed by a signal processing device 4 of the shape identification system 1;
FIG. 2 is a diagram illustrating a case where identification is possible only with a two-dimensional image when identifying the shape of an object.
FIG. 3 is a diagram illustrating a case where it is necessary to use a three-dimensional image when identifying the shape of an object.
FIG. 4 is a diagram for explaining a first internal dividing point 18 and a second internal dividing point 19 used in the identification processing in the shape identification system 1;
FIG. 5 is a diagram for explaining a configuration and the like of a conventional shape identification system and a shape identification system to which the present invention is applied.
FIG. 6 is a flowchart showing a flow of identification processing performed by a signal processing device 4 ′ of a conventional shape identification system 1 ′.
FIG. 7 is a diagram for explaining a curvature 10 and an inclination 11 from a closest point 8 to a contour direction calculated in a conventional shape identification system 1 ′.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1, 1 'Shape identification system 2 Laser oscillator 3 Light receiving sensor 4, 4' Signal processing device 5 Object 6 Laser beam irradiated / reflected to object 7 Laser beam irradiated / reflected to contour 8 Nearest point 9 Contour point 10 Curvature 11 Inclination 12 Conical object 13 Cylindrical object 14 Spherical object 15 Nearest point-contour length 16 Area center of gravity 17 Straight line 18 First inner dividing point 19 Second inner dividing point

Claims (2)

目標物体に対してレーザ光を照射するレーザ発振装置と、前記目標物体に反射された前記レーザ光を受光することにより前記目標物体の3次元画像を取得するセンサと、前記3次元画像に基づいて前記目標物体の形状を識別する信号処理装置とを有する形状識別システムであって、
前記信号処理装置が、
前記3次元画像から、前記目標物体上の点であって前記センサに最も近い点である最近点を抽出するとともに、前記3次元画像から得られる前記目標物体の2次元画像の面積重心を求め、
前記抽出された最近点の前記2次元画像上における座標と、前記求められた面積重心の座標が一致するとき、前記2次元画像上における前記最近点から前記2次元画像の各輪郭までの長さである最近点−輪郭長さを求め、
前記最近点の2次元画像上における座標と、前記面積重心の座標が一致しないとき、あるいは、前記求められた最近点−輪郭長さの最大値と最小値の比が1に近くないとき、前記2次元画像の各輪郭から直線部を抽出し、前記抽出した各直線部の傾きを求め、前記直線部に前記傾きが一致する対があれば、前記目標物体の形状は円柱形であると識別し、前記直線部に前記傾きが一致する対がなければ、前記目標物体の形状は円錐形であると識別し、
前記最近点−輪郭長さの最大値と最小値の比が1に近いとき、前記3次元画像において、前記2次元画像で輪郭をなす点である輪郭点と前記最近点とを結ぶ輪郭面上の線を内分する点であって、前記輪郭点までの距離よりも前記最近点までの距離の方が短い位置にある第1内分点と、前記最近点の、前記3次元画像における前記センサの視線方向の座標値を求め、前記求められた座標値に差があれば、前記目標物体の形状は円錐形であると識別し、
前記求められた座標値に差がないとき、前記3次元画像において前記輪郭点と前記最近点とを結ぶ輪郭面上の線を内分する点であって、前記最近点までの距離よりも前記輪郭点までの距離の方が短い位置にある第2内分点と、前記最近点の、前記3次元画像における前記センサの視線方向の座標値を求め、前記求められた座標値に差があれば、前記目標物体の形状は球形であると識別し、前記座標値に差がなければ、前記目標物体の形状は円柱形であると識別する
ことを特徴とする形状識別システム。
Based on the three-dimensional image, a laser oscillation device that irradiates the target object with laser light, a sensor that obtains a three-dimensional image of the target object by receiving the laser light reflected by the target object, and A shape identification system having a signal processing device for identifying the shape of the target object,
The signal processing device is
Extracting a closest point that is a point on the target object and closest to the sensor from the three-dimensional image, and obtaining an area centroid of the two-dimensional image of the target object obtained from the three-dimensional image;
When the coordinates of the extracted nearest point on the two-dimensional image coincide with the coordinates of the obtained area centroid, the length from the nearest point on the two-dimensional image to each contour of the two-dimensional image Find the nearest point-contour length,
When the coordinates of the nearest point on the two-dimensional image do not coincide with the coordinates of the area centroid, or when the ratio of the obtained nearest point-contour length maximum value and minimum value is not close to 1, A straight line part is extracted from each contour of the two-dimensional image, and the inclination of each extracted straight line part is obtained. If there is a pair having the same inclination in the straight line part, the shape of the target object is identified as a cylinder. If there is no pair with the same inclination in the straight line part, the shape of the target object is identified as a cone,
When the ratio of the maximum value and the minimum value of the nearest point-contour length is close to 1, on the contour surface connecting the nearest point and the contour point that is the point forming the contour in the two-dimensional image in the three-dimensional image A first internal dividing point at a position where the distance to the nearest point is shorter than the distance to the contour point, and the nearest point in the three-dimensional image. A coordinate value in the direction of the line of sight of the sensor is obtained, and if there is a difference in the obtained coordinate value, the shape of the target object is identified as a cone,
When there is no difference in the obtained coordinate value, the point is to internally divide a line on the contour surface connecting the contour point and the nearest point in the three-dimensional image, and the distance is more than the distance to the nearest point. The coordinate value in the line-of-sight direction of the sensor in the three-dimensional image between the second interior dividing point at a position where the distance to the contour point is shorter and the nearest point is obtained, and there is a difference between the obtained coordinate values. For example, the shape of the target object is identified as a sphere, and if there is no difference in the coordinate values, the shape of the target object is identified as a cylinder.
目標物体に対してレーザ光を照射するレーザ発振装置と、前記目標物体に反射された前記レーザ光を受光することにより前記目標物体の3次元画像を取得するセンサと、前記3次元画像に基づいて前記目標物体の形状識別処理を行うための信号処理装置とを有する形状識別システムにおける、前記形状識別処理を前記信号処理装置に実行させるためのコンピュータプログラムであって、
前記3次元画像から、前記目標物体上の点であって前記センサに最も近い点である最近点を抽出するとともに、前記3次元画像から得られる前記目標物体の2次元画像の面積重心を求める第一の工程と、
前記抽出された最近点の前記2次元画像上における座標と、前記求められた面積重心の座標が一致するとき、前記2次元画像上における前記最近点から前記2次元画像の各輪郭までの長さである最近点−輪郭長さを求める第二の工程と、
前記最近点の2次元画像上における座標と、前記面積重心の座標が一致しないとき、あるいは、前記求められた最近点−輪郭長さの最大値と最小値の比が1に近くないとき、前記2次元画像の各輪郭から直線部を抽出し、前記抽出した各直線部の傾きを求め、前記直線部に前記傾きが一致する対があれば、前記目標物体の形状は円柱形であると識別し、前記直線部に前記傾きが一致する対がなければ、前記目標物体の形状は円錐形であると識別する第三の工程と、
前記最近点−輪郭長さの最大値と最小値の比が1に近いとき、前記3次元画像において、前記2次元画像で輪郭をなす点である輪郭点と前記最近点とを結ぶ輪郭面上の線を内分する点であって、前記輪郭点までの距離よりも前記最近点までの距離の方が短い位置にある第1内分点と、前記最近点の、前記3次元画像における前記センサの視線方向の座標値を求め、前記求められた座標値に差があれば、前記目標物体の形状は円錐形であると識別する第四の工程と、
前記求められた座標値に差がないとき、前記3次元画像において前記輪郭点と前記最近点とを結ぶ輪郭面上の線を内分する点であって、前記最近点までの距離よりも前記輪郭点までの距離の方が短い位置にある第2内分点と、前記最近点の、前記3次元画像における前記センサの視線方向の座標値を求め、前記求められた座標値に差があれば、前記目標物体の形状は球形であると識別し、前記座標値に差がなければ、前記目標物体の形状は円柱形であると識別する第五の工程とを前記信号処理装置に実行させる
ことを特徴とするコンピュータプログラム。
Based on the three-dimensional image, a laser oscillation device that irradiates the target object with laser light, a sensor that obtains a three-dimensional image of the target object by receiving the laser light reflected by the target object, and In a shape identification system having a signal processing device for performing shape identification processing of the target object, a computer program for causing the signal processing device to execute the shape identification processing,
A closest point that is a point on the target object and closest to the sensor is extracted from the three-dimensional image, and an area centroid of the two-dimensional image of the target object obtained from the three-dimensional image is obtained. One process,
When the coordinates of the extracted nearest point on the two-dimensional image coincide with the coordinates of the obtained area centroid, the length from the nearest point on the two-dimensional image to each contour of the two-dimensional image A second step for determining the nearest point-contour length,
When the coordinates of the nearest point on the two-dimensional image do not coincide with the coordinates of the area centroid, or when the ratio of the obtained nearest point-contour length maximum value and minimum value is not close to 1, A straight line part is extracted from each contour of the two-dimensional image, and the inclination of each extracted straight line part is obtained. If there is a pair having the same inclination in the straight line part, the shape of the target object is identified as a cylinder. And a third step of identifying that the shape of the target object is a conical shape if there is no pair having the same inclination in the straight line portion;
When the ratio of the maximum value and the minimum value of the nearest point-contour length is close to 1, on the contour surface connecting the nearest point and the contour point that is the point forming the contour in the two-dimensional image in the three-dimensional image A first internal dividing point at a position where the distance to the nearest point is shorter than the distance to the contour point, and the nearest point in the three-dimensional image. A fourth step of obtaining a coordinate value of the line-of-sight direction of the sensor and identifying the shape of the target object as a cone if there is a difference in the obtained coordinate value;
When there is no difference in the obtained coordinate value, the point is to internally divide a line on the contour surface connecting the contour point and the nearest point in the three-dimensional image, and the distance is more than the distance to the nearest point. The coordinate value in the line-of-sight direction of the sensor in the three-dimensional image between the second interior dividing point at a position where the distance to the contour point is shorter and the nearest point is obtained, and there is a difference between the obtained coordinate values. For example, if the shape of the target object is identified as a sphere, and there is no difference in the coordinate values, the signal processing device is caused to execute a fifth step of identifying that the shape of the target object is a cylinder. A computer program characterized by the above.
JP2001266048A 2001-09-03 2001-09-03 Shape identification method using three-dimensional image, shape identification system, and program thereof Expired - Fee Related JP4402328B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001266048A JP4402328B2 (en) 2001-09-03 2001-09-03 Shape identification method using three-dimensional image, shape identification system, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001266048A JP4402328B2 (en) 2001-09-03 2001-09-03 Shape identification method using three-dimensional image, shape identification system, and program thereof

Publications (2)

Publication Number Publication Date
JP2003076994A JP2003076994A (en) 2003-03-14
JP4402328B2 true JP4402328B2 (en) 2010-01-20

Family

ID=19092419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001266048A Expired - Fee Related JP4402328B2 (en) 2001-09-03 2001-09-03 Shape identification method using three-dimensional image, shape identification system, and program thereof

Country Status (1)

Country Link
JP (1) JP4402328B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107818819B (en) * 2017-10-31 2021-05-18 上海联影医疗科技股份有限公司 Linear implant identification method and device and storage medium
EP4131155A4 (en) * 2020-03-30 2023-06-21 FUJIFILM Corporation Point cloud data processing device, point cloud data processing method, and program
CN113052835B (en) * 2021-04-20 2024-02-27 江苏迅捷装具科技有限公司 Medicine box detection method and system based on three-dimensional point cloud and image data fusion

Also Published As

Publication number Publication date
JP2003076994A (en) 2003-03-14

Similar Documents

Publication Publication Date Title
CN111712731B (en) Target detection method, target detection system and movable platform
CN104541302B (en) Distance prompt Object Segmentation System and method
CN111612728B (en) 3D point cloud densification method and device based on binocular RGB image
US7321669B2 (en) Method and apparatus for refining target position and size estimates using image and depth data
US20210326613A1 (en) Vehicle detection method and device
JP2000207693A (en) Obstacle detector on vehicle
JP5743935B2 (en) Object detection apparatus and object detection method
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
JP6042146B2 (en) Object detection apparatus and object detection method
JP4402328B2 (en) Shape identification method using three-dimensional image, shape identification system, and program thereof
JP2005156199A (en) Vehicle detection method and vehicle detector
WO2020230390A1 (en) Position and attitude estimating device and position and attitude estimating method
JP5867167B2 (en) Shadow detection device
CN116721156A (en) Workpiece position positioning method, device, computer equipment and storage medium
Zheng et al. Verifying and combining different visual cues into a 3-D model.
JP2003281503A (en) Image recognition device for three-dimensional object
JP4412799B2 (en) Aircraft aiming point calculation apparatus and method
JP4034003B2 (en) Flying object image processing apparatus and flying object image processing method
JP2007233487A (en) Pedestrian detection method, device, and program
JP3867410B2 (en) Three-dimensional visual positioning method and apparatus
JP6986557B2 (en) Measuring equipment, measuring methods and programs
JP7053341B2 (en) Processing equipment and programs
JP3614977B2 (en) Specific part recognition device for flying objects
JP2001229388A (en) Matching method for image data
US20200410694A1 (en) Object detection device, object detection system, object detection method, and non-transitory computer-readable medium storing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061124

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20061124

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090728

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091006

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091029

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121106

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121106

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131106

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees