JP5910740B2 - 射影空間監視のための方法および装置 - Google Patents
射影空間監視のための方法および装置 Download PDFInfo
- Publication number
- JP5910740B2 JP5910740B2 JP2014519276A JP2014519276A JP5910740B2 JP 5910740 B2 JP5910740 B2 JP 5910740B2 JP 2014519276 A JP2014519276 A JP 2014519276A JP 2014519276 A JP2014519276 A JP 2014519276A JP 5910740 B2 JP5910740 B2 JP 5910740B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- primary
- baseline
- sensor
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012544 monitoring process Methods 0.000 title claims description 107
- 238000000034 method Methods 0.000 title claims description 55
- 238000012545 processing Methods 0.000 claims description 115
- 238000001514 detection method Methods 0.000 claims description 86
- 238000012360 testing method Methods 0.000 claims description 41
- 238000004422 calculation algorithm Methods 0.000 claims description 36
- 230000002950 deficient Effects 0.000 claims description 31
- 230000008569 process Effects 0.000 claims description 27
- 238000012806 monitoring device Methods 0.000 claims description 18
- 230000007246 mechanism Effects 0.000 claims description 8
- 230000000116 mitigating effect Effects 0.000 claims description 8
- 230000003287 optical effect Effects 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 4
- 230000002123 temporal effect Effects 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 description 36
- 230000000875 corresponding effect Effects 0.000 description 28
- 230000007547 defect Effects 0.000 description 15
- 230000004044 response Effects 0.000 description 12
- 239000003550 marker Substances 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000004927 fusion Effects 0.000 description 8
- 230000008901 benefit Effects 0.000 description 7
- 230000015654 memory Effects 0.000 description 6
- 230000035945 sensitivity Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 230000009977 dual effect Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 230000004438 eyesight Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 101000889485 Homo sapiens Trefoil factor 3 Proteins 0.000 description 3
- 102100039145 Trefoil factor 3 Human genes 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 235000019800 disodium phosphate Nutrition 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000003139 buffering effect Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004313 glare Effects 0.000 description 2
- 231100001261 hazardous Toxicity 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000008054 signal transmission Effects 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
- 238000013349 risk mitigation Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000004092 self-diagnosis Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
- G06T7/596—Depth or shape recovery from multiple images from stereo images from three or more stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Burglar Alarm Systems (AREA)
- Alarm Systems (AREA)
- Measurement Of Optical Distance (AREA)
Description
本出願は、米国特許法第119(e)条に基づいて、2011年7月5日に出願され特許出願第61/504,608号を割り当てられた米国仮特許出願、および2011年10月14日に出願され特許出願第61/547,251号を割り当てられた米国仮特許出願による優先権を主張するものであり、これらの出願はいずれも参照により本明細書に組み込まれる。
本発明は、一般に、マシンビジョンに関し、特に、機械防護または他の物体侵入検知状況で使用されるような射影空間監視に関する。
lnE(p)=[w(IL)(g(IL)−lntL)]+[w(IH)(g(IH)−lntH)]/w(IL)+w(IH)
であり、ここで、w:Z→Rは、重み付け関数(例えば、Guassian、hatなど)である。本アルゴリズムは、lnE(p)→[0,4096]でマッピングを継続し、12bit放射照度画像Eを取得する。ここで、オフセット演算およびスケーリング演算を含むことが理解されよう。
Claims (27)
- センシングユニットを備える射影空間監視装置であって、
前記センシングユニットが、
一次監視領域でいずれも重複するそれぞれのセンサ視野域を有し、第1および第2の画像センサが、第1の一次ベースラインを規定する間隔を有する第1の一次ベースラインペアを形成し、第3および第4の画像センサが、第2の一次ベースラインを規定する間隔を有する第2の一次ベースラインペアを形成するよう配置され、さらに、前記第1および前記第3の画像センサが、第1の二次ベースラインを規定する間隔を有する第1の二次ベースラインペアを形成し、前記第2および前記第4の画像センサが、第2の二次ベースラインを規定する間隔を有する第2の二次ベースラインペアを形成するよう配置され、前記一次ベースラインが前記二次ベースラインよりも長い4つの画像センサと、
前記一次ベースラインペアのそれぞれから取得する画像データを使用して前記一次監視領域内の物体を重複して検知するよう構成され、さらに、前記二次ベースラインペアから取得する画像データを使用して遮蔽物体を検知するよう構成される画像処理回路とを備え、
前記遮蔽物体が、前記一次監視領域に対して前記センサ視野域の1つまたは複数を遮断する、射影空間監視装置。 - 前記一次監視領域は、前記センシングユニットが前記一次ベースラインペアを使用して物体を検知する前記センシングユニットからの最小範囲を意味する最小検知距離で境界付けられる、請求項1に記載の射影空間監視装置。
- 前記センシングユニットの前記画像処理回路は、前記第1の一次ベースラインペアによって取得された画像データの立体画像処理を介して導出されたレンジデータ内に、または、前記第2の一次ベースラインペアによって取得された画像データの立体画像処理を介して導出されたレンジデータ内に、物体が存在することを検知することによって、前記一次監視領域内の物体を重複して検知するよう構成される、請求項1に記載の射影空間監視装置。
- 前記センシングユニットの前記画像処理回路は、各二次ベースラインペアに対し、前記二次ベースラインペアにおける前記画像センサの1つから取得する画像内の個々の画素と、前記二次ベースラインペアにおける前記画像センサの他の1つによって取得される画像内において前記個々の画素に対応する近傍画素との間の輝度差を検知することによって、遮蔽物体を検知するよう構成される、請求項1に記載の射影空間監視装置。
- 前記画像センサが、低露出画像フレームと高露出画像フレームとを含む画像フレームを取得するよう構成され、前記画像処理回路は、少なくとも前記一次ベースラインペアによって取得された前記画像フレームに対して、対応する低露出画像フレームと高露出画像フレームとを融合して、高ダイナミックレンジ(HDR)画像を取得し、前記一次ベースラインペアのそれぞれから前記HDR画像のストリームを立体的に処理し、前記一次監視領域内の物体を重複検知する、請求項1に記載の射影空間監視装置。
- 各一次ベースラインペアが立体視チャネルを表し、各立体視チャネルからの前記HDR画像は平行化されており、その結果、前記一次ベースラインペアに含まれる前記画像センサにおける対応する光軸が平行であり、エピポーラ線が前記平行化されたHDR画像における対応する画像行であるエピポーラ幾何に対応する、請求項5に記載の射影空間監視装置。
- 前記画像処理回路は、立体視対応付けアルゴリズムを実行して、各立体視チャネルにおける前記画像センサによって取得された前記平行化されたHDR画像内の対応するシーンポイント間の差異を計算し、前記差異に基づき、前記画像センサの位置に対する前記シーンポイントの3D位置を計算するよう構成されるステレオ画像処理プロセッサ回路を備える、請求項6に記載の射影空間監視装置。
- 前記画像処理回路が、前記画像センサから取得する未処理画像データから、平行化された歪み補正画像データを生成するよう構成され、さらに、前記未処理画像データで使用したのと同じ平行化および歪み補正アルゴリズムに従い変換される前記画像センサに対する不良画素マップを生成し、前記不良画素マップと前記平行化された歪み補正画像データとの間における平行化処理の一貫性を維持するよう構成された、請求項1に記載の射影空間監視装置。
- 前記画像処理回路が、前記画像センサのそれぞれに対する対応する低露出画像フレームと高露出画像フレームとを融合することによって作り出される高ダイナミックレンジ(HDR)画像データから前記平行化された歪み補正画像データを形成するよう構成される、請求項8に記載の射影空間監視装置。
- 前記不良画素マップは、各画像センサに対し、前記画像センサから取得される未処理データから検知されるスタック欠陥画素もしくは雑音画素に関する指示を備え、さらに、前記画像処理回路は、各不良画素マップ内に、所与の画像センサに対して取得される前記平行化された歪み補正画像データ内の画素を飽和閾値と不飽和閾値とに対してチェックするダイナミックレンジテストで不適である画素に関する指示をさらに備えるよう構成される、請求項8に記載の射影空間監視装置。
- 前記不良画素マップは、各画像センサに対し、前記画像センサから取得される未処理画像データから検知されるスタック欠陥画素または雑音画素に関する指示を備え、さらに、前記画像処理回路は、各不良画素マップ内に、前記画像処理回路によって実行されるコントラストチェックで不適である画素に関する指示をさらに備えるよう構成される、請求項8に記載の射影空間監視装置。
- 前記画像処理回路は、それぞれが一次ベースラインペアを備える前記画像センサからの平行化された歪み補正画像データの立体視処理を実行し、前記歪み補正画像データの各画素に対応する3Dレンジデータを備える対応するデプスマップを生成するよう構成されるステレオ画像処理プロセッサを備え、さらに、前記画像処理回路は、前記デプスマップを使用して、1つまたは複数の規定された検知境界内にある画素のクラスタを検知し、任意の検知されたクラスタを規定された最小物体サイズと比較し、前記最小物体サイズに合致する任意の検知されたクラスタを追跡して1つまたは複数の時間的フィルタリング期間にわたって残るかどうかを判断し、残る場合、前記射影空間監視装置内にさらに含まれる制御ユニットに物体侵入状況を指示するよう構成される、請求項8に記載の射影空間監視装置。
- 前記一次ベースラインペアから取得した前記画像データを使用して前記一次監視領域内の物体を重複して検知するために、前記画像処理回路は、各一次ベースラインペアからの画像ペアの立体視処理を実行する単一のステレオ画像処理プロセッサを備え、さらに、前記画像処理回路は、前記ステレオ画像処理プロセッサの動作が適切であるかを検証するための機構として、テスト画像を前記ステレオ画像処理プロセッサに周期的に投入するよう構成される、請求項1に記載の射影空間監視装置。
- 以下の構成の少なくとも1つを使用して、前記一次監視領域のいずれかの側の側面遮蔽領域から発生する物体を遮蔽するリスクを緩和する、
すなわち、前記側面遮蔽領域内での物体検知のために、前記画像センサに対して前記側面遮蔽領域を最小にする接角を有するよう前記センシングユニットを構成する、または、
前記二次ベースラインペアのそれぞれによって取得された前記画像データに対して立体相関処理を実行するよう前記画像処理回路を構成する、請求項1に記載の射影空間監視装置。 - Dは、前記一次監視領域内での物体検知のために、前記一次ベースラインペアから取得した前記画像データの立体相関処理のために使用される最大差異検索範囲を意味し、dは、遮蔽物体検知のために、各二次ベースラインペアから取得した前記画像データに適用される画像差アルゴリズムのために使用される検索窓サイズを意味し、Tは、前記第1および前記第2の一次ベースラインの長さを意味し、tは、前記第1および前記第2の二次ベースラインの長さを意味し、前記センシングユニットは、t/T=D/dとなるよう構成される、請求項1に記載の射影空間監視装置。
- 射影空間監視の方法であって、
一次監視領域でいずれも重複するそれぞれのセンサ視野域を有し、第1および第2の画像センサが、第1の一次ベースラインを規定する間隔を有する第1の一次ベースラインペアを形成し、第3および第4の画像センサが、第2の一次ベースラインを規定する間隔を有する第2の一次ベースラインペアを形成するよう配置され、さらに、前記第1および前記第3の画像センサが、第1の二次ベースラインを規定する間隔を有する第1の二次ベースラインペアを形成し、前記第2および前記第4の画像センサが、第2の二次ベースラインを規定する間隔を有する第2の二次ベースラインペアを形成するよう配置され、前記一次ベースラインが前記二次ベースラインよりも長い4つの画像センサから画像データを取得することと、
前記一次ベースラインペアのそれぞれからの前記画像データの立体視処理に基づいて前記一次監視領域内の物体を重複して検知することと、
前記二次ベースラインペアのそれぞれからの前記画像データを処理することに基づいて遮蔽物体を検知することとを備え、
前記遮蔽物体は、前記一次監視領域に対して前記センサ視野域の1つまたは複数を遮断する、方法。 - 遮蔽物体を検知することは、いずれかの二次ベースラインペアに対し、前記二次ベースラインペアにおける前記画像センサの1つから取得する画像内の個々の画素と、前記二次ベースラインペアにおける前記画像センサの他の1つによって取得される画像内において前記個々の画素に対応する近傍画素との間の輝度差を検知することを備える、請求項16に記載の方法。
- 遮蔽物体を検知することは、いずれかの二次ベースラインペアに対して、前記二次ベースラインペアを備える前記2つの画像センサによって取得された前記画像データの立体視処理を実行することと、そこから取得した対応するレンジデータを評価することとを備える、請求項16に記載の方法。
- 前記一次監視領域内の物体を重複して検知することは、前記第1の一次ベースラインペアによって取得された前記画像データの立体画像処理を介して導出される第1のレンジデータ内に前記物体が存在することを検知することと、さらに、前記第2の一次ベースラインペアによって取得された前記画像データの立体画像処理を介して導出される第2のレンジデータ内に前記物体が存在することを検知することと、一致について前記第1および前記第2のレンジデータを評価することとを備える、請求項16に記載の方法。
- 低露出画像フレームと高露出画像フレームとを使用して各画像センサから画像データを取得することと、対応する低露出画像フレームと高露出画像フレームとを融合して高ダイナミックレンジ(HDR)画像を取得することと、前記一次ベースラインペアのそれぞれからの前記HDR画像のストリームを立体視処理することとをさらに備え、前記一次監視領域内の物体を重複検知する、請求項16に記載の方法。
- 前記画像センサから取得する未処理画像データから、平行化された歪み補正画像データを生成することと、前記未処理画像データで使用したのと同じ平行化および歪み補正アルゴリズムに従い変換される前記画像センサに対する不良画素マップを生成することとをさらに備え、前記不良画素マップと前記平行化された歪み補正画像データとの間における平行化処理の一貫性を維持する、請求項16に記載の方法。
- 前記不良画素マップは、各画像センサに対し、前記画像センサから取得される未処理画像データから検知されるスタック欠陥画素もしくは雑音画素に関する指示を備え、さらに、各不良画素マップ内に、所与の画像センサに対して取得される前記平行化された歪み補正画像データ内の画素を飽和閾値と不飽和閾値とに対してチェックするダイナミックレンジテストで不適である画素に関する指示を備える、請求項21に記載の方法。
- 前記不良画素マップは、各画像センサに対し、前記画像センサから取得される未処理画像データから検知されるスタック欠陥画素または雑音画素に関する指示を備え、さらに、各不良画素マップ内に、コントラストチェックで不適である画素に関する指示を含むことをさらに備える、請求項21に記載の方法。
- それぞれが一次ベースラインペアを備える前記画像センサからの前記平行化された歪み補正画像データを立体視処理することと、前記歪み補正画像データの各画素に対応する3Dレンジデータを備える対応するデプスマップを生成することと、前記デプスマップを使用して、1つまたは複数の規定された検知境界内にある画素のクラスタを検知することと、任意の検知されたクラスタを規定された最小物体サイズと比較することと、前記最小物体サイズに合致する任意の検知されたクラスタを追跡して1つまたは複数の時間的フィルタリング期間にわたって残るかどうかを判断することと、残る場合、制御ユニットに物体侵入状況を指示することとをさらに備える、請求項21に記載の方法。
- 前記一次監視領域内の物体の前記重複検知のために使用されるステレオ画像処理プロセッサに、前記ステレオ画像処理プロセッサの動作が適切であるかを検証するための機構として、テスト画像を周期的に投入することをさらに備える、請求項16に記載の方法。
- 側面遮蔽領域内の物体を検知するために、
前記4つの画像センサの接角が前記側面遮蔽領域を最小にするよう前記4つの画像センサを含むセンサユニットを構成すること、または、
前記二次ベースラインペアのそれぞれによって取得された前記画像データに対して立体相関処理を実行するよう前記センサユニットを構成することの少なくとも1つに基づき前記一次監視領域のいずれかの側の前記側面遮蔽領域から生じる物体遮蔽リスクを緩和することをさらに備える、請求項16に記載の方法。 - 前記4つの画像センサは、左側の2つの画像センサが前記第1の二次ベースラインの間隔で配置されて前記第1の二次ベースラインペアを形成し、右側の2つの画像センサが前記第2の二次ベースラインの間隔で配置されて前記第2の二次ベースラインペアを形成するよう配置され、さらに、前記4つの画像センサは、左側の一方の画像センサが、右側の一方の画像センサとペアとなり、前記第1の一次ベースラインの間隔で前記第1の一次ベースラインペアを形成し、一方、左側の他方の画像センサは、右側の他方の画像センサとペアとなり、前記第2の一次ベースラインの間隔で前記第2の一次ベースラインペアを形成する、請求項16に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161504608P | 2011-07-05 | 2011-07-05 | |
US61/504,608 | 2011-07-05 | ||
US201161547251P | 2011-10-14 | 2011-10-14 | |
US61/547,251 | 2011-10-14 | ||
PCT/US2012/045463 WO2013006649A2 (en) | 2011-07-05 | 2012-07-03 | A method and apparatus for projective volume monitoring |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016067892A Division JP6237809B2 (ja) | 2011-07-05 | 2016-03-30 | 射影空間監視のための方法および装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014523716A JP2014523716A (ja) | 2014-09-11 |
JP5910740B2 true JP5910740B2 (ja) | 2016-04-27 |
Family
ID=46598940
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014519276A Active JP5910740B2 (ja) | 2011-07-05 | 2012-07-03 | 射影空間監視のための方法および装置 |
JP2016067892A Active JP6237809B2 (ja) | 2011-07-05 | 2016-03-30 | 射影空間監視のための方法および装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016067892A Active JP6237809B2 (ja) | 2011-07-05 | 2016-03-30 | 射影空間監視のための方法および装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9532011B2 (ja) |
EP (1) | EP2729915B1 (ja) |
JP (2) | JP5910740B2 (ja) |
CN (2) | CN107093192B (ja) |
WO (1) | WO2013006649A2 (ja) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013006649A2 (en) * | 2011-07-05 | 2013-01-10 | Omron Corporation | A method and apparatus for projective volume monitoring |
ITBO20120299A1 (it) * | 2012-05-31 | 2013-12-01 | Filippo Guerzoni | Dispositivo, sistema e metodo di sorveglianza di un prestabilito volume. |
KR101981685B1 (ko) * | 2012-10-04 | 2019-08-28 | 삼성전자주식회사 | 디스플레이 장치, 사용자 단말 장치, 외부 장치, 디스플레이 방법, 데이터 수신 방법 및 데이터 전송 방법 |
US9565416B1 (en) | 2013-09-30 | 2017-02-07 | Google Inc. | Depth-assisted focus in multi-camera systems |
US9544574B2 (en) * | 2013-12-06 | 2017-01-10 | Google Inc. | Selecting camera pairs for stereoscopic imaging |
EP3120325B1 (en) * | 2014-03-21 | 2018-06-06 | Omron Corporation | Method and apparatus for detecting and mitigating optical impairments in an optical system |
JP6283105B2 (ja) | 2014-05-28 | 2018-02-21 | 京セラ株式会社 | ステレオカメラ装置、ステレオカメラ装置を設置した車両及びプログラム |
ITMI20150028U1 (it) * | 2015-02-10 | 2016-08-10 | Atom Spa | Barriera fotoelettrica perfezionata di sicurezza, specie per macchine di taglio |
DE102015216140A1 (de) * | 2015-08-24 | 2017-03-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | 3D-Multiaperturabbildungsvorrichtung |
US11244434B2 (en) * | 2015-08-24 | 2022-02-08 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Multi-aperture imaging device |
EP3138721B1 (en) * | 2015-09-03 | 2018-11-14 | Continental Automotive GmbH | A method and apparatus for glare detection |
CN107407075B (zh) * | 2015-09-30 | 2020-09-25 | 株式会社小松制作所 | 图像数据生成方法 |
JP6507257B2 (ja) * | 2015-09-30 | 2019-04-24 | 株式会社小松製作所 | 作業車両 |
JP6407176B2 (ja) * | 2016-01-22 | 2018-10-17 | 三菱電機株式会社 | 撮像装置及び故障検出方法、並びにプログラム及び記録媒体 |
DK3455541T3 (da) * | 2016-05-12 | 2021-09-13 | Kando Innovation Ltd | Forbedret sikkerhedsfastgørelse til skæremaskine |
JP6953274B2 (ja) | 2017-02-01 | 2021-10-27 | ソニーセミコンダクタソリューションズ株式会社 | 撮像システム及び撮像装置 |
WO2019139815A1 (en) | 2018-01-12 | 2019-07-18 | Duke University | Apparatus, method and article to facilitate motion planning of an autonomous vehicle in an environment having dynamic objects |
TWI822729B (zh) | 2018-02-06 | 2023-11-21 | 美商即時機器人股份有限公司 | 用於儲存一離散環境於一或多個處理器之一機器人之運動規劃及其改良操作之方法及設備 |
CN108447303B (zh) * | 2018-03-20 | 2021-01-15 | 武汉理工大学 | 基于人眼视觉与机器视觉耦合的外周视野危险识别方法 |
US11738457B2 (en) | 2018-03-21 | 2023-08-29 | Realtime Robotics, Inc. | Motion planning of a robot for various environments and tasks and improved operation of same |
EP3572971B1 (de) * | 2018-05-22 | 2021-02-24 | Sick Ag | Absichern eines überwachungsbereichs mit mindestens einer maschine |
US11911918B2 (en) * | 2018-06-11 | 2024-02-27 | Panasonic Intellectual Property Management Co., Ltd. | Distance-measuring system and distance-measuring method |
JP6983740B2 (ja) * | 2018-09-27 | 2021-12-17 | 株式会社日立製作所 | ステレオカメラシステム、及び測距方法 |
JP7118911B2 (ja) * | 2019-03-08 | 2022-08-16 | 株式会社東芝 | 画像処理装置 |
CN113905855B (zh) | 2019-04-17 | 2023-08-25 | 实时机器人有限公司 | 运动规划图生成用户界面、系统、方法和规则 |
US11726186B2 (en) * | 2019-09-30 | 2023-08-15 | Zoox, Inc. | Pixel filtering using multiple exposures |
US11841438B2 (en) | 2019-09-30 | 2023-12-12 | Zoox, Inc. | Power control of sensors using multiple exposures |
CN111681382A (zh) * | 2020-05-28 | 2020-09-18 | 天津市三源电力设备制造有限公司 | 一种基于视觉分析检测施工现场跨越临时围栏的方法 |
US20220126451A1 (en) * | 2020-10-26 | 2022-04-28 | Realtime Robotics, Inc. | Safety systems and methods employed in robot operations |
CN114648855B (zh) * | 2022-03-18 | 2024-01-05 | 万联天启卫星科技有限公司 | 智慧社区安防综合管理系统及其控制方法 |
WO2024034639A1 (ja) * | 2022-08-10 | 2024-02-15 | パナソニックIpマネジメント株式会社 | 領域検査装置、領域検査方法、及びプログラム |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5625408A (en) | 1993-06-24 | 1997-04-29 | Canon Kabushiki Kaisha | Three-dimensional image recording/reconstructing method and apparatus therefor |
US6177958B1 (en) | 1998-03-11 | 2001-01-23 | Flashpoint Technology, Inc. | System and method for the automatic capture of salient still images |
US7483049B2 (en) | 1998-11-20 | 2009-01-27 | Aman James A | Optimizations for live event, real-time, 3D object tracking |
US6829371B1 (en) | 2000-04-29 | 2004-12-07 | Cognex Corporation | Auto-setup of a video safety curtain system |
US7400744B2 (en) | 2002-09-05 | 2008-07-15 | Cognex Technology And Investment Corporation | Stereo door sensor |
US7397929B2 (en) | 2002-09-05 | 2008-07-08 | Cognex Technology And Investment Corporation | Method and apparatus for monitoring a passageway using 3D images |
US7623674B2 (en) | 2003-11-05 | 2009-11-24 | Cognex Technology And Investment Corporation | Method and system for enhanced portal security through stereoscopy |
US8345918B2 (en) | 2004-04-14 | 2013-01-01 | L-3 Communications Corporation | Active subject privacy imaging |
JP4545503B2 (ja) * | 2004-07-14 | 2010-09-15 | オリンパス株式会社 | 画像生成装置およびその方法 |
EP1779295A4 (en) | 2004-07-26 | 2012-07-04 | Automotive Systems Lab | SYSTEM FOR PROTECTING USERS OF THE ROAD IN A DANGER SITUATION |
JP2006054504A (ja) * | 2004-08-09 | 2006-02-23 | Olympus Corp | 画像生成方法および装置 |
EP2200313A1 (en) * | 2004-11-12 | 2010-06-23 | Saab Ab | Image-based movement tracking |
JP4799236B2 (ja) * | 2006-03-23 | 2011-10-26 | 富士重工業株式会社 | 車載表示システム |
JP2007293672A (ja) * | 2006-04-26 | 2007-11-08 | Toyota Motor Corp | 車両用撮影装置、車両用撮影装置の汚れ検出方法 |
US8432448B2 (en) | 2006-08-10 | 2013-04-30 | Northrop Grumman Systems Corporation | Stereo camera intrusion detection system |
US8073196B2 (en) | 2006-10-16 | 2011-12-06 | University Of Southern California | Detection and tracking of moving objects from a moving platform in presence of strong parallax |
JP4448844B2 (ja) * | 2006-11-22 | 2010-04-14 | 富士フイルム株式会社 | 複眼撮像装置 |
DE102006057605A1 (de) * | 2006-11-24 | 2008-06-05 | Pilz Gmbh & Co. Kg | Verfahren und Vorrichtung zum Überwachen eines dreidimensionalen Raumbereichs |
JP2009048033A (ja) * | 2007-08-22 | 2009-03-05 | Panasonic Corp | 立体画像撮像装置 |
JP4856612B2 (ja) * | 2007-10-29 | 2012-01-18 | 富士重工業株式会社 | 物体検出装置 |
EP2312858B1 (en) | 2008-06-18 | 2012-09-26 | Panasonic Corporation | Image processing apparatus, imaging apparatus, image processing method, and program |
JP5267101B2 (ja) * | 2008-12-18 | 2013-08-21 | マツダ株式会社 | 車両用対象物検出装置 |
JP2010206521A (ja) * | 2009-03-03 | 2010-09-16 | Fujifilm Corp | 撮像装置、画像補正方法およびプログラム |
WO2010126071A1 (ja) | 2009-04-28 | 2010-11-04 | 日本電気株式会社 | 物体位置推定装置、物体位置推定方法及びプログラム |
EP2275990B1 (de) | 2009-07-06 | 2012-09-26 | Sick Ag | 3D-Sensor |
JP5251841B2 (ja) * | 2009-11-19 | 2013-07-31 | オムロン株式会社 | 画像処理装置および画像処理プログラム |
JP5776173B2 (ja) * | 2010-03-01 | 2015-09-09 | 株式会社リコー | 撮像装置及び距離測定装置 |
EP2386876B1 (de) | 2010-05-04 | 2013-07-10 | Sick AG | Entfernungsmessender optoelektronischer Sicherheitssensor und Verfahren zur Überwachung eines Überwachungsbereichs |
US8427324B2 (en) | 2010-07-30 | 2013-04-23 | General Electric Company | Method and system for detecting a fallen person using a range imaging device |
DE102010037744B3 (de) | 2010-09-23 | 2011-12-08 | Sick Ag | Optoelektronischer Sensor |
WO2013006649A2 (en) * | 2011-07-05 | 2013-01-10 | Omron Corporation | A method and apparatus for projective volume monitoring |
-
2012
- 2012-07-03 WO PCT/US2012/045463 patent/WO2013006649A2/en active Application Filing
- 2012-07-03 EP EP12741149.4A patent/EP2729915B1/en active Active
- 2012-07-03 JP JP2014519276A patent/JP5910740B2/ja active Active
- 2012-07-03 CN CN201610948728.6A patent/CN107093192B/zh active Active
- 2012-07-03 US US13/541,399 patent/US9532011B2/en active Active
- 2012-07-03 CN CN201280033381.2A patent/CN103649994B/zh active Active
-
2016
- 2016-03-30 JP JP2016067892A patent/JP6237809B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
EP2729915A2 (en) | 2014-05-14 |
US9532011B2 (en) | 2016-12-27 |
WO2013006649A3 (en) | 2013-09-19 |
US20130076866A1 (en) | 2013-03-28 |
JP2016171575A (ja) | 2016-09-23 |
JP6237809B2 (ja) | 2017-11-29 |
WO2013006649A2 (en) | 2013-01-10 |
CN107093192B (zh) | 2020-06-12 |
CN103649994B (zh) | 2016-11-16 |
CN103649994A (zh) | 2014-03-19 |
CN107093192A (zh) | 2017-08-25 |
EP2729915B1 (en) | 2017-12-27 |
JP2014523716A (ja) | 2014-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6237809B2 (ja) | 射影空間監視のための方法および装置 | |
JP6264477B2 (ja) | 射影空間監視のための方法および装置 | |
JP7136507B2 (ja) | 深度感知コンピュータビジョンシステム | |
CN105473927B (zh) | 用于保障自动化工作的机器的设备和方法 | |
US10404971B2 (en) | Optoelectronic sensor and method for safe detection of objects of a minimum size | |
JP6109357B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6489149B2 (ja) | マシンビジョンシステムのための最小コントラストを保証するための方法および装置 | |
JP6586239B2 (ja) | 撮影装置及び撮影方法 | |
US10969762B2 (en) | Configuring a hazard zone monitored by a 3D sensor | |
US20130194390A1 (en) | Distance measuring device | |
US20140307085A1 (en) | Distance measuring apparatus and method | |
JP6544257B2 (ja) | 情報処理システム、情報処理方法及び情報処理プログラム | |
Lemkens et al. | Multi RGB-D camera setup for generating large 3D point clouds | |
JP6555707B2 (ja) | 瞳孔検出装置、瞳孔検出方法及び瞳孔検出プログラム | |
TW202007970A (zh) | 檢測方法及檢測系統 | |
US20220036057A1 (en) | Capturing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150330 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150714 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150904 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160314 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5910740 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |