JP6102930B2 - 射影空間監視のための方法および装置 - Google Patents
射影空間監視のための方法および装置 Download PDFInfo
- Publication number
- JP6102930B2 JP6102930B2 JP2014535911A JP2014535911A JP6102930B2 JP 6102930 B2 JP6102930 B2 JP 6102930B2 JP 2014535911 A JP2014535911 A JP 2014535911A JP 2014535911 A JP2014535911 A JP 2014535911A JP 6102930 B2 JP6102930 B2 JP 6102930B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixels
- stereoscopic image
- pixel
- cluster
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F16—ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
- F16P—SAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
- F16P3/00—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
- F16P3/12—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
- F16P3/14—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
- F16P3/144—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using light grids
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F16—ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
- F16P—SAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
- F16P3/00—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
- F16P3/12—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
- F16P3/14—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
- F16P3/142—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10144—Varying exposure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20208—High dynamic range [HDR] image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Alarm Systems (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Burglar Alarm Systems (AREA)
Description
本出願は、米国特許法第119(e)条に基づいて、2011年10月14日に出願され特許出願第61/547,251号を割り当てられた米国仮特許出願、および米国特許法第120条に基づいて、一部継承として2012年7月3日に出願され特許出願第13/541,399号を割り当てられた米国実用特許出願による優先権を主張するものであり、これらの出願はいずれも参照により本明細書に組み込まれる。
本発明は、一般に、マシンビジョンに関し、特に、機械防護または他の物体侵入検知状況で使用されるような射影空間監視に関する。
センサユニット16内の個々の画像センサ18の視野域14は、すべて部分的に重複しており、すべての視野域14によって共通に重複される領域は、先に生じた一次監視領域12を規定する。
したがって、本システムは、小さい配向角θを有するエッジに対応する距離ポイントを抑制するよう構成することができる。
− デプスマップ内の各画素(u,v,Z)が、左カメラの中心を通る線と考えることができる。線(u,v)に沿った第1の視認可能物体の(カメラZ軸に沿った)距離は、Zによって表されて、立体対応関係を用いて算出される。
− 3D空間の角度量子化を生成することで、遮蔽している物体および遮蔽された物体の両方に、同じ検知原理を適用可能にする。
− 保護境界は、各画素線に沿ったラジアル距離の関数として既知であると仮定する。
Input:未処理/平行化画像フレームを供給した画像センサ18と関連づけられた視野域14に対する射影空間ヒストグラム−射影空間ヒストグラムは、規定された保護領域内と見なされる各セルに対する画素カウントを備える。
FOR 列内の各要素
FOR 行内の各要素
IF 現在要素データ>閾値 THEN
現在要素の近傍要素を取得
IF 近傍要素を発見できない THEN
新しい数値ラベルを現在要素に割り当て
新しいラベルの統計カウンタを更新
CONTINUE
ELSE
近傍要素中の最小ラベルを発見
最小ラベルを現在要素に割り当て
すべての近傍ラベルを同等としてマーク
近傍ラベルの全統計カウンタを最小ラベルにマージ
ENDIF
ENDFOR
ENDFOR
FOR 列内の各要素
FOR 行内の各要素
IF 現在要素データ>閾値 THEN
要素を最小等価ラベルと再ラベルづけ
ENDIF
ENDFOR
ENDFOR
初期クラスタが取得されると、クラスタ解析処理を続ける。いくつかの実施形態において、画像処理回路36は、空間クラスタ分割/マージ処理を実行するよう構成される。典型的な状況において、最悪ケースの試験体は、単一クラスタによって表される。しかしながら、試験体の射影サイズが増加するにつれ(例えば、カメラからの距離が短い、または試験体が大型であるため)、(例えば、対称的な左/右エッジ間のエイリアシングにより、水平勾配、および混乱が大きくなるため)単一クラスタを、複数片に分割することができる。最小クラスタ片が、最悪ケース条件下での単一クラスタより依然として大きい場合、それらの断片を別々に扱う必要はない。しかしながら、断片サイズがより小さい場合、(画素レベルではなくクラスタレベルで)さらなるレベルのクラスタリングを実行し、同じ物理的表面からの潜在的断片を関連づける必要がある。
Output:(断片化クラスタの連結後の)更新されたクラスタリスト
For 各クラスタ
IF
検知されたクラスタサイズがaより大きい場合、クラスタを受け入れる
ELSE
//a>Cluster.Size>b
このクラスタを、近傍(例えば、ユークリッド距離<400mm)の他のクラスタと結合し、単一クラスタを形成する
必要な統計情報を更新
最終サイズ>aの場合、このクラスタを保持、そうでなければ破棄
ENDIF
ENDFOR
さらに、クラスタ処理は時間的フィルタリングを組み込むか、時間的フィルタリングによって補うことができ、時間的フィルタリングは、物体検知イベントの何らかの最小残存または時間的条件を保証するための機構として動作する。そのような時間的整合性を求めることによって、保護領域内への潜在的侵入物を、雑音/一時的観測から区別することができる。すなわち、最小物体サイズを満たす検知クラスタ(マージされていてもいなくても)は、ある時間にわたってその残存を確認することによって検証することができる。IEC61494−3規格(および、規格原案IEC−61496−4−3)は、人間が保護領域に(歩いて/走って)アプローチすることが可能な最大速度は、1.6m/sに制限されると明記している。しかしながら、人間が床面を這う最大速度は、本明細書で上記したように、ほんの0.8m/sである。
Ftは、時間tでのフレームを意味する。
1.現在クラスタk=cを設定
2.nskip=n−m、lastMatch=1を設定
3.Ft−1からFt−nにおけるFpに対し
a.フレームFpにおいて、現在クラスタkに最も近いクラスタjを発見
b.クラスタjおよびkの間の距離D(j,k)<lastMatch*dthの場合、k=jおよびlastMatch=1に設定
c.そうでなければ、nskip=nskip−1、lastMatch=lastMatch+1に設定
4.nskip>0の場合、tureを返す
5.そうでなければ、falseを返す
雑音距離データへの連結コンポーネントアルゴリズムの適用は、あるフレームから次のフレームへの大型物体の均一なクラスタリングをもたらすことができる。場合によっては、大型クラスタは、複数の小型クラスタに分割することができ、逆も成り立つ。時間的整合性要件は、分割およびマージが、あるフレームから次のフレームへクラスタ重心位置を変更する場合、侵害される可能性がある。したがって、本明細書で意図する検証アルゴリズムの一実施形態は、さらに、クラスタを解析し、それらクラスタが、複数のクラスタをマージした結果であるか、大型クラスタを直前フレームにおいて分割したのかを確認する。分割/マージ状況が検知されると、クラスタは、時間的整合性チェックの結果にかかわらず有効と見なされる。
b.クラスタマージ:時間tでの所与の(新しい)クラスタが、(移動物体に対する許容差を考慮して)時間t−1でのクラスタの1つまたは複数を完全に包含するか?
クラスタを有効にするために、上記条件が真であるか、またはクラスタが時間的整合性試験を通過する必要がある。これらの試験は、画像処理回路36によって実行され、直前nフレーム中の少なくともmフレームで対応関係を確立する。
L(x,y)は、x列およびy行での左画像画素の輝度値を意味する。
L’は、左画像からの指定されたNCC枠の平均輝度である。
さらに、NCCベース「スコアリング」は、以下のように、数学的に表すことができる。
Input:左平行化画像、L(x,y)、右平行化画像、R(x,y)、およびデプスマップZ(x,y)
Output:更新済デプスマップ、Z(x,y)
FOR 各画素が保護領域内にある
x,yで、デプスマップから差異(dspty)を算出
dsptyを最も近い整数に丸める
Nccスコア(L(x,y),R(x−dspty−1,y))に対してNCCスコア(nsc1)を算出
Nccスコア(L(x,y),R(x−dspty,y))に対してNCCスコア(nsc2)を算出
Nccスコア(L(x,y),R(x−dspty+1,y))に対してNCCスコア(nsc3)を算出
Nccスコア(L(x,y),R(x−dspty+2,y))に対してNCCスコア(nsc4)を算出
max_nscにnsc1、nsc2、nsc3、nsc4の最大値を格納する
max_dsptyにおけるmax_nscに対応する右画像の差異を格納するIF max_nscがnsclに等しい OR max_nscがnsc4に等しい THEN
x,yでのデプスマップをゼロに設定する
CONTINUE
ENDIF
パラボラフィッティングを使用して、NCC副画素の差異をmax_nscおよびmax_dspty+/−1に対応する2つのNCCスコアで補完するx,yでのデプスマップにおけるNCC副画素の差異を格納する
ENDFOR
さらなる態様において、1つまたは複数の実施形態における画像処理回路36は、エピポーラエラー抑制を実行するよう構成される。エピポーラエラー抑制の例示的実装態様は、4つの主要なステップを含む。(1)エッジ検知、(2)エッジの大きさおよび方向の推定、(3)エッジの大きさおよび方向の値から統計値を算出し、低信頼画素にフラグを立てる、および(4)クラスタ抑制
エッジ検知のため、さまざまな手法が可能である。一例において、画像処理回路36は、以下の数式によって表される処理を実行するよう構成される。
Iは、処理される立体画像ペアの左平行化画像である。
Output:射影空間セルごとの非抑制画素の数
FOR 各画素が保護領域内にある
(NCC_WINSIZE × NCC_WINSIZE)近傍画素に対するΜ*θの平均を算出する
(NCC_WINSIZE × NCC_WINSIZE)近傍画素に対するΜ*θの標準偏差、STD、を算出する
IF 平均が平均閾値より大きい OR STDがSTD閾値より大きい
THEN
cell_idにこの画素のセルインデックスを格納する
inside_pixel_count[cell_id]++
ENDIF
ENDFOR
この時点で、画像処理回路36は、クラスタ抑制を実行するための基礎を有する。クラスタ画像処理のための例示的アルゴリズムは、以下の通りである。
Output:抑制後の最終クラスタリスト
FOR 各クラスタ
FOR このクラスタ内の各セル
3×3近傍枠内のinside_pixel_countの合計を算出する
max_sumに最大合計値を保持する
ENDFOR
IF max_sumがinside_pixel_count閾値の合計より小さい THEN
このクラスタを削除する
ENDIF
ENDFOR
画像処理回路36の1つまたは複数の実施形態において実施される、上記で詳細に記したクラスタベース処理は、最小検知可能試験物体のサイズに直接関係し、選択された閾値は、装置の所望の検知能力に対応していることを実証する。画像処理回路402によって生成された、または、画像処理回路36内のデプスマップと関連したさまざまな物体検知パラメータの視点から、そのような処理を見ることはまた、有用である。物体検知閾値は、以下のように分類することができる。
− 量子化閾値:
− Δθ:HFOV(水平視野域)に対する角度量子化
− Δφ:VFOV(垂直視野域)に対する角度量子化
− 例えば、64°×44°のFOVおよび(0.5°×0.5°)の角度量子化に対し、量子化球状ヒストグラム内に合計128×88セルが存在する。
− クラスタリング閾値
− Tpix:画素/線の最小数セルは、(FOV、イメージャ解像度、最小サイズ物体などにより)クラスタリング対象にならなければならない
− Tcells:セルの最小数クラスタは、(FOV、イメージャ解像度、最小サイズ物体などにより)フィルタリング対象にならなければならない
− Note:この閾値は、クラスタごとの画素の総数に左右される可能性がある(例えば、Tpixの合計が、セル内でより大きい場合、Tcellはより小さくなる−この依存度は、指向性照明の場合に有用となる可能性がある)
− 時間的フィルタリング閾値
− Nfilt:検知結果をフィルタリングすべき画像フレームの数
図14は、例示的処理ステップ1402から1416を使用して、例示的フローダイアグラムで上記の処理を示す。図示するステップは、高ならびに低露光を交互に使用して、画像センサ18の立体視ペアから、未処理左ならびに右画像を取り込むステップ、および各そのようなセンサ18から高ならびに低露光画像の対応する画像を融合して、HDR立体画像を取得し、その後、平行化して、平行化されたHDR立体画像を取得するステップを含む。
− FOV:64°H×44°V、ここで”H”および”V”は、水平および垂直を意味する(しかし、教示および処理は、本明細書では、他の参照フレームに等しく適用される)
− イメージャ解像度:740×468
− 焦点距離(f):609.384画素
− 最小物体サイズ:直径200mm
デプスマップから2Dヒストグラムデータを展開する射影ヒストグラム閾値は、以下のように設定される:
− 立体角範囲量子化:(Δθ,Δφ)=(0.5,0.5)、これらの角度量子化に対応する規定されたヒストグラムセルとして理解可能である
− セル寸法=128×88
− セルごとの最大画素/線
− (740/128)×(468/88)〜=5×5画素
上記量子化パラメータを用いて、最大距離で、最悪ケース物体によって射影ヒストグラム内に占めるセルの数を、以下により算出することができる。
− 200/(8000/f)=200/(8000/609.384)〜=15×15画素〜=3×3セルとなる。
− 物体サイズの半分までの遮蔽を可能にするために、総占有度(3×3セル)の50%の最小クラスタ数を必要とし、ここで、この要件は、すでにフラグ立てられた遮蔽物体画素の上部になるにつれ、保守的になることに留意されたい。
上記の閾値は、クラスタリング閾値コンセプトの用途を示す例として機能すると理解すべきである。これらの閾値の値は、装置10の検知能力および感知解像度に関する。したがって、パラメータは、さまざまな光学構成に対して異なっていてもよく、または、異なる実装態様を選択した場合に、パラメータのわずかに異なるセットを使用してもよい。
Claims (31)
- 監視領域に侵入する物体を検知する方法であって、前記方法は、射影空間監視装置によって実行され、前記方法は、
立体画像を画像センサのペアから取り込むステップと、
3次元直交座標で表された距離画素を備えるデプスマップを取得するよう前記立体画像を関連づけるステップと、
各距離画素が、それぞれの画素線に沿ったラジアル距離、および前記立体画像の取得に関連した水平ならびに垂直視野域内の立体角値の対応するペアとして表されるよう、前記距離画素を極座標に変換するステップと、
前記監視領域に対して規定される保護境界内にあるそれらの距離画素をフラグ立てすることによって、フラグ立てされた画素のセットを取得するステップと、
前記水平および垂直視野域の前記立体角範囲を量子化する2次元ヒストグラムの対応するセル内に、前記フラグ立てされた画素を蓄積するステップと、
最小物体サイズ閾値を満たす前記保護境界内の物体の侵入を検知するために前記ヒストグラム内のセルをクラスタリングするステップとを備える、方法。 - 前記ヒストグラム内のセルをクラスタリングするステップは、少なくとも最小数の前記フラグ立てされた画素を蓄積するセルとして対象セルを識別するステップと、前記最小物体サイズ閾値に対応する最小クラスタサイズを満たす対象セルのクラスタとして対象クラスタを識別するステップとを備える、請求項1に記載の方法。
- 前記ヒストグラム内のセルをクラスタリングするステップは、任意の対象クラスタが、定義された時間枠に残存するかどうかを判断し、そうであれば、物体侵入が発生したと判断するステップをさらに備える、請求項2に記載の方法。
- 対象クラスタは、多数の連続する画像フレームのそれぞれにおいて取り込まれる前記立体画像に対して識別され、同じ対象クラスタが、定義された数の画像フレームにわたって残存するかどうかを判断し、そうであれば、物体侵入が発生したと判断することによって、ある時間にわたって前記対象クラスタをフィルタリングするステップをさらに備える、請求項2に記載の方法。
- ある時間にわたって前記対象クラスタをフィルタリングするステップは、同等の対象クラスタが、前記定義した数の画像フレームにわたって残存するかどうかを判断し、そうであれば、物体侵入が発生したと判断するステップをさらに備え、同等の対象クラスタは、前記定義した数の画像フレームにわたって前記ヒストグラムの同じ領域内で分割またはマージする対象クラスタである、請求項4に記載の方法。
- 前記立体画像から緩和画素の1つまたは複数のセットを生成するステップをさらに備え、前記緩和画素は、不良もしくは不信頼であるとしてフラグ立てされた前記立体画像内の画素を表し、さらに、フラグ立てされた画素の前記セット内に含むためにフラグ立てされた前記距離画素と共に、前記ヒストグラムの対応するセル内へ蓄積するためにフラグ立てされた画素の前記セット内に緩和画素の前記1つまたは複数のセットを統合するステップを備え、その結果、任意の所与のクラスタは、距離画素、緩和画素、または両方の組み合わせを蓄積したセルを含む、請求項1に記載の方法。
- 緩和画素の前記1つまたは複数のセットを生成するステップは、使用可能なダイナミックレンジの外にある前記立体画像内の画素、スタックされた前記立体画像内の画素、感度を低減した前記立体画像内の画素、雑音である前記立体画像内の画素、および前記監視領域の遮蔽領域に対応するものとして識別された前記立体画像内の画素の少なくとも1つを検知するステップを備える、請求項6に記載の方法。
- 前記立体画像を取り込むステップは、対応する高露光ならびに低露光立体画像を取り込むステップと、前記対応する高露光ならびに低露光立体画像から高ダイナミックレンジ立体画像を形成するステップとを備え、前記高ダイナミックレンジ立体画像を平行化することによって平行化高ダイナミックレンジ立体画像を取得するステップをさらに備え、その結果、相関処理は、前記平行化高ダイナミックレンジ立体画像について実行される、請求項1に記載の方法。
- 前記平行化高ダイナミックレンジ立体画像内の画素を、距離検知目的のために不良もしくは不信頼と見なされた緩和画素としてフラグ立てするステップをさらに備え、前記緩和画素を、フラグ立てされた画素の前記セットに加えるステップをさらに備え、クラスタリングは、前記距離画素と、フラグ立てされた画素の前記セット内の前記緩和画素との両方を想定する、請求項8に記載の方法。
- 多数の画像フレームのそれぞれにおいて前記立体画像を取り込むステップをさらに備え、それに対応して、そのような画像フレームのそれぞれにおいて平行化高ダイナミックレンジ立体画像を取得するステップと、前記高ダイナミックレンジ立体画像から、もしくは前記平行化高ダイナミックレンジ立体画像から判断される輝度統計に応じて、各画像フレームにおける前記低ならびに高露光立体画像を取り込むために使用される露光タイミングを制御するステップとをさらに備える、請求項8に記載の方法。
- 前記立体画像を取り込むステップは、第1のベースラインで動作する画像センサの第1のペアを使用して1つまたは複数の画像フレーム内に第1の立体画像を取り込むステップを備え、第2のベースラインで動作する画像センサの第2のペアを使用して1つまたは複数の画像フレーム内に重複する第2の立体画像を取り込むステップをさらに備え、前記方法の関連づけるステップ、変換するステップ、取得するステップ、蓄積するステップ、ならびにクラスタリングするステップは、前記第1および第2の立体画像に対して独立して実行され、前記方法は、前記第1の立体画像に対して検知された物体侵入と、前記第2の立体画像に対して検知された物体侵入との間の対応関係の閾値レベルが存在する場合に物体侵入が発生したと判断する、請求項1に記載の方法。
- フラグ立てされた画素の前記セットに含めるためにフラグ立てされた前記デプスマップ内の前記距離画素に対してより高い信頼度でデプス情報を再算出し、前記再算出されたデプス情報を評価して、フラグ立てされた画素の前記セット内の各距離画素が前記保護境界内にあることを検証することによって、物体侵入の偽検知を抑制するステップをさらに備える、請求項1に記載の方法。
- 前記クラスタ内のエピポーラエラーを抑制して、エラー補正クラスタを取得するステップをさらに備える、請求項1に記載の方法。
- 前記監視領域は、各保護境界によって規定される2つの重複する保護領域を備え、歩いているか、もしくは走っている人間を検知するよう構成された検知パラメータを使用して、前記重複する保護領域の第1の領域を監視するステップと、這っているか、もしくは伏せている人間を検知するよう構成された検知パラメータを使用して、前記重複する保護領域の第2の領域を監視するステップとをさらに備える、請求項1に記載の方法。
- 最小物体サイズ閾値を満たす前記保護境界内の物体の侵入を検知するために前記ヒストグラム内のセルをクラスタリングするステップは、雑音由来のクラスタと、物体侵入由来のクラスタとを区別するために、検知されたクラスタを時間フィルタリングするステップを備える、請求項1に記載の方法。
- 監視領域内に侵入する物体を検知するよう構成された射影空間監視装置であって、前記射影空間監視装置は、
立体画像を取り込むよう構成される画像センサと、
前記画像センサと動作可能に関連づけられる画像処理回路とを備え、前記画像処理回路は、
3次元直交座標で表される画素を備えるデプスマップを取得するよう前記立体画像を関連づけ、
各距離画素が、それぞれの画素線に沿ったラジアル距離、および前記立体画像の取得に関連した水平ならびに垂直視野域内の立体角値の対応するペアとして表されるよう、前記距離画素を極座標に変換し、
前記監視領域に対して規定される保護境界内にあるそれらの距離画素をフラグ立てすることによって、フラグ立てされた画素のセットを取得し、
前記水平および垂直視野域の前記立体角範囲を量子化する2次元ヒストグラムの対応するセル内に、前記フラグ立てされた画素を蓄積し、
最小物体サイズ閾値を満たす前記保護境界内の物体の侵入を検知するために前記ヒストグラム内のセルをクラスタリングする、射影空間監視装置。 - 前記画像処理回路は、少なくとも最小数の前記フラグ立てされた画素を蓄積するセルとして対象セルを識別することによって、および前記最小物体サイズ閾値に対応する最小クラスタサイズを満たす対象セルのクラスタとして対象クラスタを識別することによって、前記ヒストグラム内のセルをクラスタリングよう構成される、請求項16に記載の射影空間監視装置。
- 前記画像処理回路は、さらに、任意の対象クラスタが定義された時間枠に残存するかどうかを判断し、そうであれば、物体侵入が発生したと判断することによって、前記ヒストグラム内のセルをクラスタリングするよう構成される、請求項17に記載の射影空間監視装置。
- 前記画像処理回路は、多数の連続する画像フレームのそれぞれにおいて取り込まれる前記立体画像に対して対象クラスタを識別するよう構成され、さらに、同じ対象クラスタが、定義された数の画像フレームにわたって残存するかどうかを判断し、そうであれば、物体侵入が発生したと判断することによって、ある時間にわたって対象クラスタをフィルタリングするよう構成される、請求項17に記載の射影空間監視装置。
- 前記画像処理回路は、さらに、同等の対象クラスタが、前記定義した数の画像フレームにわたって残存するかどうかを判断し、そうであれば、物体侵入が発生したと判断することによって、ある時間にわたって対象クラスタをフィルタリングするよう構成され、同等の対象クラスタは、前記定義した数の画像フレームにわたって前記ヒストグラムの同じ領域内で分割またはマージする対象クラスタである、請求項19に記載の射影空間監視装置。
- 前記画像処理回路は、前記立体画像から緩和画素の1つまたは複数のセットを生成するよう構成され、前記緩和画素は、障害もしくは不信頼であるとしてフラグ立てされた前記立体画像内の画素を表し、さらに、前記画像処理回路は、フラグ立てされた画素の前記セット内に含むためにフラグ立てされた前記距離画素と共に、前記ヒストグラムの対応するセル内へ蓄積するためにフラグ立てされた画素の前記セット内に緩和画素の前記1つまたは複数のセットを統合するよう構成され、その結果、任意の所与のクラスタは、距離画素、緩和画素、または両方の組み合わせを蓄積したセルを含む、請求項16に記載の射影空間監視装置。
- 前記画像処理回路は、使用可能なダイナミックレンジの外にある前記立体画像内の画素、スタックされた前記立体画像内の画素、感度を低減した前記立体画像内の画素、雑音である前記立体画像内の画素、および前記監視領域の遮蔽領域に対応するものとして識別される前記立体画像内の画素の少なくとも1つを検知することによって、緩和画素の前記1つまたは複数のセットを生成するよう構成される、請求項21に記載の射影空間監視装置。
- 前記画像処理回路は、対応する高露光ならびに低露光立体画像を取り込むことによって、ならびに前記対応する高露光ならびに低露光立体画像から高ダイナミックレンジ立体画像を形成することによって前記立体画像を取り込むよう構成され、さらに、前記高ダイナミックレンジ立体画像を平行化することによって平行化高ダイナミックレンジ立体画像を取得するよう構成され、その結果、相関処理は、前記平行化高ダイナミックレンジ立体画像について実行される、請求項22に記載の射影空間監視装置。
- 前記画像処理回路は、距離検知目的のために不良もしくは不信頼と見なされる緩和画素として前記平行化高ダイナミックレンジ立体画像内の画素をフラグ立てするよう構成され、さらに、前記緩和画素を、フラグ立てされた画素の前記セットに加えるよう構成され、前記画像処理回路は、前記距離画素と、画素の前記フラグ立てされたセット内の前記緩和画素との両方を想定してクラスタリングを実行する、請求項23に記載の射影空間監視装置。
- 前記画像処理回路は、多数の連続する画像フレームのそれぞれにおいて前記立体画像を取り込むよう構成され、それに対応して、そのような画像フレームのそれぞれにおいて平行化高ダイナミックレンジ立体画像を取得するよう構成され、前記高ダイナミックレンジ立体画像から、もしくは前記平行化高ダイナミックレンジ立体画像から判断される輝度統計に応じて、各画像フレームにおける前記低ならびに高露光立体画像を取り込むために使用される露光タイミングを制御するよう構成される、請求項23に記載の射影空間監視装置。
- 前記射影監視装置は、1つまたは複数の画像フレームのそれぞれにおいて取得される第1の立体画像として前記立体画像を取り込むために、第1のベースラインで動作する画像センサの第1のペアを備え、さらに、前記1つまたは複数の画像フレームのそれぞれにおいて重複する第2の立体画像を取り込むために、第2のベースラインで動作する画像センサの第2のペアを備え、前記画像処理回路は、前記第1および第2の立体画像を独立して処理するよう構成され、さらに、前記第1の立体画像に対して検知される物体侵入と、前記第2の立体画像に対して検知される物体侵入との間の対応関係の閾値レベルが存在する場合に物体侵入が発生したと判断するよう構成される、請求項16に記載の射影空間監視装置。
- 前記画像処理回路は、フラグ立てされた画素の前記セットに含めるためにフラグ立てされた前記デプスマップ内の前記距離画素に対してより高い信頼度でデプス情報を再算出し、前記再算出されたデプス情報を評価して、フラグ立てされた画素の前記セット内の各距離画素が前記保護境界内にあることを検証することによって、物体侵入の偽検知を抑制するよう構成される、請求項16に記載の射影空間監視装置。
- 前記画像処理回路は、エラー補正クラスタを取得するために、前記クラスタ内のエピポーラエラーを抑制するよう構成される、請求項16に記載の射影空間監視装置。
- 前記監視領域は、各保護境界によって規定される2つの重複する保護領域を備え、前記画像処理回路は、歩いているか、もしくは走っている人間を検知するよう構成される検知パラメータを使用して、前記重複する保護領域の第1の領域を監視するよう構成され、および、這っているか、もしくは伏せている人間を検知するよう構成される検知パラメータを使用して、前記重複する保護領域の第2の領域を監視するよう構成される、請求項16に記載の射影空間監視装置。
- 前記画像処理回路は、前記ヒストグラム内のセルをクラスタリングし、最小物体サイズ閾値を満たす任意のクラスタを検知するよう構成されることに基づいて物体侵入を検知するよう構成され、前記検知されたクラスタのいずれかが、定義された時間枠にわたって残存する場合、物体侵入が発生したと判断するよう構成される、請求項16に記載の射影空間監視装置。
- 前記射影空間監視装置は、前記立体画像を取り込むよう構成される画像センサのペアを備えるセンサユニットを備え、前記画像処理回路をさらに備え、前記射影空間監視装置はさらに、前記センサユニットと通信するよう構成される制御ユニットを備え、前記制御ユニットは、前記センサユニットからの侵入検知シグナリングに応じて1つまたは複数の出力信号を制御する制御回路を備え、前記センサユニットの前記画像処理回路は、前記最小物体サイズ閾値を満たす前記保護境界内の物体の侵入についての前記検知に応じて前記侵入検知シグナリングを生成するよう構成される、請求項16に記載の射影空間監視装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161547251P | 2011-10-14 | 2011-10-14 | |
US61/547,251 | 2011-10-14 | ||
US13/541,399 US9532011B2 (en) | 2011-07-05 | 2012-07-03 | Method and apparatus for projective volume monitoring |
US13/541,399 | 2012-07-03 | ||
PCT/US2012/059906 WO2013056016A1 (en) | 2011-10-14 | 2012-10-12 | A method and apparatus for projective volume monitoring |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017005132A Division JP6264477B2 (ja) | 2011-10-14 | 2017-01-16 | 射影空間監視のための方法および装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015501578A JP2015501578A (ja) | 2015-01-15 |
JP6102930B2 true JP6102930B2 (ja) | 2017-03-29 |
Family
ID=47146691
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014535911A Active JP6102930B2 (ja) | 2011-10-14 | 2012-10-12 | 射影空間監視のための方法および装置 |
JP2017005132A Active JP6264477B2 (ja) | 2011-10-14 | 2017-01-16 | 射影空間監視のための方法および装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017005132A Active JP6264477B2 (ja) | 2011-10-14 | 2017-01-16 | 射影空間監視のための方法および装置 |
Country Status (4)
Country | Link |
---|---|
US (2) | US9501692B2 (ja) |
EP (1) | EP2754125B1 (ja) |
JP (2) | JP6102930B2 (ja) |
WO (1) | WO2013056016A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3534293A1 (de) * | 2018-02-28 | 2019-09-04 | Johannes Plapp | Verfahren und vorrichtung zur ermittlung der position von objekten |
Families Citing this family (62)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012060434A (ja) * | 2010-09-09 | 2012-03-22 | Fuji Xerox Co Ltd | 画素補間装置、画像読取装置、及び画素補間プログラム |
JP5163971B1 (ja) * | 2011-09-12 | 2013-03-13 | オプテックス株式会社 | レーザースキャンセンサ |
US10289924B2 (en) * | 2011-10-17 | 2019-05-14 | Sharp Laboratories Of America, Inc. | System and method for scanned document correction |
KR101981685B1 (ko) * | 2012-10-04 | 2019-08-28 | 삼성전자주식회사 | 디스플레이 장치, 사용자 단말 장치, 외부 장치, 디스플레이 방법, 데이터 수신 방법 및 데이터 전송 방법 |
US9025868B2 (en) * | 2013-02-27 | 2015-05-05 | Sony Corporation | Method and system for image processing to determine a region of interest |
US9652860B1 (en) * | 2013-03-15 | 2017-05-16 | Puretech Systems, Inc. | System and method for autonomous PTZ tracking of aerial targets |
JP5929849B2 (ja) * | 2013-07-08 | 2016-06-08 | 株式会社デンソー | 画像生成装置、画像生成方法及び画像生成プログラム |
JP6265370B2 (ja) * | 2013-08-21 | 2018-01-24 | 国立大学法人富山大学 | 対象物追跡方法及び対象物追跡システム |
US9595125B2 (en) * | 2013-08-30 | 2017-03-14 | Qualcomm Incorporated | Expanding a digital representation of a physical plane |
DE102013017264A1 (de) | 2013-10-17 | 2015-04-23 | Dräger Medical GmbH | Verfahren für die Überwachung eines Patienten innerhalb eines medizinischen Überwachungsbereichs |
FR3013489B1 (fr) * | 2013-11-19 | 2015-12-04 | Sysnav | Procede d'estimation du mouvement d'un objet |
EP3120325B1 (en) * | 2014-03-21 | 2018-06-06 | Omron Corporation | Method and apparatus for detecting and mitigating optical impairments in an optical system |
US9813601B2 (en) | 2014-05-06 | 2017-11-07 | Urugus S.A. | Imaging device for scenes in apparent motion |
US11243294B2 (en) | 2014-05-19 | 2022-02-08 | Rockwell Automation Technologies, Inc. | Waveform reconstruction in a time-of-flight sensor |
US20150334371A1 (en) * | 2014-05-19 | 2015-11-19 | Rockwell Automation Technologies, Inc. | Optical safety monitoring with selective pixel array analysis |
US9696424B2 (en) | 2014-05-19 | 2017-07-04 | Rockwell Automation Technologies, Inc. | Optical area monitoring with spot matrix illumination |
US9921300B2 (en) | 2014-05-19 | 2018-03-20 | Rockwell Automation Technologies, Inc. | Waveform reconstruction in a time-of-flight sensor |
JP6283105B2 (ja) | 2014-05-28 | 2018-02-21 | 京セラ株式会社 | ステレオカメラ装置、ステレオカメラ装置を設置した車両及びプログラム |
DE102015215211B4 (de) | 2014-08-11 | 2021-10-21 | Scm Group S.P.A. | Verfahren zur Sicherheitssteuerung einer Anlage und entsprechendes Sicherheitssystem |
WO2016040997A1 (en) * | 2014-09-15 | 2016-03-24 | Dti Group Limited | Arcing filtering using multiple image capture devices |
WO2016044375A1 (en) * | 2014-09-19 | 2016-03-24 | Illinois Tool Works Inc. | Configurable user detection system |
US9625108B2 (en) | 2014-10-08 | 2017-04-18 | Rockwell Automation Technologies, Inc. | Auxiliary light source associated with an industrial application |
US9978135B2 (en) * | 2015-02-27 | 2018-05-22 | Cognex Corporation | Detecting object presence on a target surface |
US10269257B1 (en) * | 2015-08-11 | 2019-04-23 | Gopro, Inc. | Systems and methods for vehicle guidance |
DE102015216140A1 (de) * | 2015-08-24 | 2017-03-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | 3D-Multiaperturabbildungsvorrichtung |
US11244434B2 (en) * | 2015-08-24 | 2022-02-08 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Multi-aperture imaging device |
US9892488B1 (en) * | 2015-08-28 | 2018-02-13 | Amazon Technologies, Inc. | Multi-camera frame stitching |
EP3138721B1 (en) * | 2015-09-03 | 2018-11-14 | Continental Automotive GmbH | A method and apparatus for glare detection |
US10297020B2 (en) | 2015-09-18 | 2019-05-21 | Datalogic Ip Tech S.R.L. | Stereoscopic system and method for quality inspection of cigarettes in cigarette packer machines |
DE112015006347T5 (de) * | 2015-09-30 | 2017-12-07 | Komatsu Ltd. | Bildaufnahmevorrichtung |
CN105451235A (zh) * | 2015-11-13 | 2016-03-30 | 大连理工大学 | 基于背景更新的无线传感器网络入侵检测方法 |
JP6651814B2 (ja) * | 2015-11-30 | 2020-02-19 | 富士通株式会社 | 領域抽出装置、領域抽出プログラム、及び領域抽出方法 |
US20170171525A1 (en) | 2015-12-14 | 2017-06-15 | Sony Corporation | Electronic system including image processing unit for reconstructing 3d surfaces and iterative triangulation method |
US10257393B2 (en) * | 2016-02-12 | 2019-04-09 | Contrast, Inc. | Devices and methods for high dynamic range video |
US10264196B2 (en) | 2016-02-12 | 2019-04-16 | Contrast, Inc. | Systems and methods for HDR video capture with a mobile device |
JP6642280B2 (ja) * | 2016-05-30 | 2020-02-05 | アイシン精機株式会社 | 画像表示システム |
EP3252364B1 (en) * | 2016-05-31 | 2019-03-27 | Inxpect S.p.A. | Radar apparatus for forming a protection linear barrier and related system |
KR102529119B1 (ko) * | 2016-06-27 | 2023-05-04 | 삼성전자주식회사 | 객체의 깊이 정보를 획득하는 방법, 디바이스 및 기록매체 |
US9860429B1 (en) | 2016-06-30 | 2018-01-02 | Apple Inc. | Scaling of image data in sensor interface based on detection of defective pixels |
WO2018031441A1 (en) | 2016-08-09 | 2018-02-15 | Contrast, Inc. | Real-time hdr video for vehicle control |
US9883112B1 (en) * | 2016-09-22 | 2018-01-30 | Pinnacle Imaging Corporation | High dynamic range imaging |
JP6953274B2 (ja) | 2017-02-01 | 2021-10-27 | ソニーセミコンダクタソリューションズ株式会社 | 撮像システム及び撮像装置 |
CN110226325B (zh) * | 2017-02-01 | 2022-04-15 | 索尼半导体解决方案公司 | 摄像系统和摄像装置 |
US10084805B2 (en) * | 2017-02-20 | 2018-09-25 | Sas Institute Inc. | Computer system to identify anomalies based on computer-generated results |
EP3388863A1 (en) * | 2017-04-10 | 2018-10-17 | Bea S.A. | Sensor for controlling an automatic door |
JP2019015553A (ja) * | 2017-07-05 | 2019-01-31 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法および個体撮像装置 |
US11265530B2 (en) | 2017-07-10 | 2022-03-01 | Contrast, Inc. | Stereoscopic camera |
DE102017129609A1 (de) * | 2017-12-12 | 2019-06-13 | Sick Ag | Erkennen von Veränderungen in einem Erfassungsbereich |
GB201802808D0 (en) | 2018-02-21 | 2018-04-04 | Ev Offshore Ltd | Depth and speed correction of logging data |
US11037316B2 (en) | 2018-03-30 | 2021-06-15 | Canon Kabushiki Kaisha | Parallax calculation apparatus, parallax calculation method, and control program of parallax calculation apparatus |
EP3572971B1 (de) * | 2018-05-22 | 2021-02-24 | Sick Ag | Absichern eines überwachungsbereichs mit mindestens einer maschine |
US10951888B2 (en) | 2018-06-04 | 2021-03-16 | Contrast, Inc. | Compressed high dynamic range video |
EP3578320B1 (de) * | 2018-06-07 | 2021-09-15 | Sick Ag | Konfigurieren einer von einem 3d-sensor überwachten gefahrenstelle |
EP3588365A1 (de) | 2018-06-25 | 2020-01-01 | Sick AG | Optoelektronischer sensor und verfahren zum sicheren auswerten von messdaten |
US10867395B2 (en) * | 2018-09-28 | 2020-12-15 | Glo Big Boss Ltd. | Systems and methods for real-time rigid body motion prediction |
CN109671236A (zh) * | 2018-12-28 | 2019-04-23 | 广东美电贝尔科技集团股份有限公司 | 周界目标物体的检测方法及其系统 |
JP2020181105A (ja) * | 2019-04-25 | 2020-11-05 | キヤノン株式会社 | 投影装置およびその制御方法 |
US11841438B2 (en) | 2019-09-30 | 2023-12-12 | Zoox, Inc. | Power control of sensors using multiple exposures |
US11726186B2 (en) * | 2019-09-30 | 2023-08-15 | Zoox, Inc. | Pixel filtering using multiple exposures |
CN112116617A (zh) * | 2020-08-19 | 2020-12-22 | 吉旗物联科技(上海)有限公司 | 不规则物体阴影检测方法及装置 |
US11373511B2 (en) | 2020-09-14 | 2022-06-28 | PureTech Systems Inc. | Alarm processing and classification system and method |
CN113247720A (zh) * | 2021-06-02 | 2021-08-13 | 浙江新再灵科技股份有限公司 | 基于视频的智能梯控方法及系统 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5625408A (en) * | 1993-06-24 | 1997-04-29 | Canon Kabushiki Kaisha | Three-dimensional image recording/reconstructing method and apparatus therefor |
JPH10143659A (ja) | 1996-11-06 | 1998-05-29 | Komatsu Ltd | 物体検出装置 |
US6177958B1 (en) * | 1998-03-11 | 2001-01-23 | Flashpoint Technology, Inc. | System and method for the automatic capture of salient still images |
US7483049B2 (en) * | 1998-11-20 | 2009-01-27 | Aman James A | Optimizations for live event, real-time, 3D object tracking |
US6829371B1 (en) * | 2000-04-29 | 2004-12-07 | Cognex Corporation | Auto-setup of a video safety curtain system |
US7006950B1 (en) * | 2000-06-12 | 2006-02-28 | Siemens Corporate Research, Inc. | Statistical modeling and performance characterization of a real-time dual camera surveillance system |
JP3795810B2 (ja) * | 2002-02-12 | 2006-07-12 | 株式会社東芝 | 物体検出方法及び装置 |
US7397929B2 (en) * | 2002-09-05 | 2008-07-08 | Cognex Technology And Investment Corporation | Method and apparatus for monitoring a passageway using 3D images |
US7400744B2 (en) * | 2002-09-05 | 2008-07-15 | Cognex Technology And Investment Corporation | Stereo door sensor |
US7623674B2 (en) * | 2003-11-05 | 2009-11-24 | Cognex Technology And Investment Corporation | Method and system for enhanced portal security through stereoscopy |
US8345918B2 (en) * | 2004-04-14 | 2013-01-01 | L-3 Communications Corporation | Active subject privacy imaging |
WO2006014974A2 (en) | 2004-07-26 | 2006-02-09 | Automotive Systems Laboratory, Inc. | Vulnerable road user protection system |
EP2200313A1 (en) | 2004-11-12 | 2010-06-23 | Saab Ab | Image-based movement tracking |
US8432448B2 (en) * | 2006-08-10 | 2013-04-30 | Northrop Grumman Systems Corporation | Stereo camera intrusion detection system |
US8073196B2 (en) * | 2006-10-16 | 2011-12-06 | University Of Southern California | Detection and tracking of moving objects from a moving platform in presence of strong parallax |
DE102006057605A1 (de) | 2006-11-24 | 2008-06-05 | Pilz Gmbh & Co. Kg | Verfahren und Vorrichtung zum Überwachen eines dreidimensionalen Raumbereichs |
EP2161695A4 (en) * | 2007-06-07 | 2011-06-08 | Univ Electro Communications | OBJECT DETECTION DEVICE AND THEREFORE USING TOWER DEVICE |
CN101889453B (zh) * | 2008-06-18 | 2013-11-13 | 松下电器产业株式会社 | 图像处理装置、摄像装置、方法及程序 |
EP2426643A4 (en) * | 2009-04-28 | 2017-07-05 | Nec Corporation | Object position inference device, object position inference method, and program |
EP2275990B1 (de) | 2009-07-06 | 2012-09-26 | Sick Ag | 3D-Sensor |
JP5776173B2 (ja) | 2010-03-01 | 2015-09-09 | 株式会社リコー | 撮像装置及び距離測定装置 |
EP2386876B1 (de) * | 2010-05-04 | 2013-07-10 | Sick AG | Entfernungsmessender optoelektronischer Sicherheitssensor und Verfahren zur Überwachung eines Überwachungsbereichs |
US8427324B2 (en) * | 2010-07-30 | 2013-04-23 | General Electric Company | Method and system for detecting a fallen person using a range imaging device |
DE102010037744B3 (de) * | 2010-09-23 | 2011-12-08 | Sick Ag | Optoelektronischer Sensor |
JP5694834B2 (ja) * | 2011-04-12 | 2015-04-01 | グローリー株式会社 | 物体認識方法及び物体認識装置 |
-
2012
- 2012-10-12 US US13/650,461 patent/US9501692B2/en active Active
- 2012-10-12 EP EP12783749.0A patent/EP2754125B1/en active Active
- 2012-10-12 JP JP2014535911A patent/JP6102930B2/ja active Active
- 2012-10-12 WO PCT/US2012/059906 patent/WO2013056016A1/en active Application Filing
-
2016
- 2016-03-24 US US15/079,954 patent/US20160203371A1/en not_active Abandoned
-
2017
- 2017-01-16 JP JP2017005132A patent/JP6264477B2/ja active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3534293A1 (de) * | 2018-02-28 | 2019-09-04 | Johannes Plapp | Verfahren und vorrichtung zur ermittlung der position von objekten |
EP3543901A3 (de) * | 2018-02-28 | 2020-03-04 | Johannes Plapp | Vorrichtung und verfahren zur robusten ermittlung der position, ausrichtung, identität und ausgewählter zustandsinformationen von objekten |
Also Published As
Publication number | Publication date |
---|---|
JP6264477B2 (ja) | 2018-01-24 |
US9501692B2 (en) | 2016-11-22 |
US20130094705A1 (en) | 2013-04-18 |
JP2015501578A (ja) | 2015-01-15 |
US20160203371A1 (en) | 2016-07-14 |
EP2754125B1 (en) | 2017-01-18 |
WO2013056016A1 (en) | 2013-04-18 |
JP2017085653A (ja) | 2017-05-18 |
EP2754125A1 (en) | 2014-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6264477B2 (ja) | 射影空間監視のための方法および装置 | |
JP6237809B2 (ja) | 射影空間監視のための方法および装置 | |
US10404971B2 (en) | Optoelectronic sensor and method for safe detection of objects of a minimum size | |
JP6554169B2 (ja) | 物体認識装置及び物体認識システム | |
JP6735592B2 (ja) | 画像処理装置及びその制御方法、画像処理システム | |
CN104902246B (zh) | 视频监视方法和装置 | |
US10969762B2 (en) | Configuring a hazard zone monitored by a 3D sensor | |
JP2022120005A (ja) | 深度感知コンピュータビジョンシステム | |
JP4460782B2 (ja) | 侵入監視装置 | |
JP6544257B2 (ja) | 情報処理システム、情報処理方法及び情報処理プログラム | |
JPWO2018042481A1 (ja) | 撮影装置及び撮影方法 | |
US11067717B2 (en) | Optoelectronic sensor and method for a safe evaluation of measurement data | |
JP2019164837A (ja) | 情報処理システム、情報処理方法及び情報処理プログラム | |
US20220036057A1 (en) | Capturing apparatus | |
US20240078697A1 (en) | Localizing an optical marker | |
JP2021193634A (ja) | 情報処理システム、情報処理方法及び情報処理プログラム | |
CN116862980A (zh) | 图像边缘的目标检测框位置优化校正方法、系统、介质及终端 | |
JP2015179065A (ja) | 情報処理システム、情報処理方法、プログラム、および情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150904 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150904 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6102930 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |