JP4681043B2 - 撮像デバイスの位置特定を行うシステムおよび方法 - Google Patents
撮像デバイスの位置特定を行うシステムおよび方法 Download PDFInfo
- Publication number
- JP4681043B2 JP4681043B2 JP2008504315A JP2008504315A JP4681043B2 JP 4681043 B2 JP4681043 B2 JP 4681043B2 JP 2008504315 A JP2008504315 A JP 2008504315A JP 2008504315 A JP2008504315 A JP 2008504315A JP 4681043 B2 JP4681043 B2 JP 4681043B2
- Authority
- JP
- Japan
- Prior art keywords
- light emitting
- pixel
- imaging device
- image
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003384 imaging method Methods 0.000 title claims description 116
- 238000000034 method Methods 0.000 title claims description 40
- 230000010365 information processing Effects 0.000 claims description 17
- 238000004891 communication Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 10
- 230000001360 synchronised effect Effects 0.000 claims description 3
- 239000013598 vector Substances 0.000 description 12
- 238000005259 measurement Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000004397 blinking Effects 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/955—Hardware or software architectures specially adapted for image or video understanding using specific electronic processors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Vascular Medicine (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Description
通信可能なカメラのこうしたネットワークは、温度センサ、加速度計、または音響センサなどの、シーン内の他のセンサノードのロケーションを調査するのに使用することもできる。これらのロケーション推定を使用して、これらのセンサから生成された測定値をよりよく解析し解釈することができる。こうした能力は、建物監視用途で使用されることができ、センサ情報は、エネルギー管理、空気流管理、または侵入検出のために使用することができる。
ラで撮影した画像を検討し、適切な情報を抽出する。この情報は、その後、他の撮像デバイスと交換され、ネットワーク内のノードの相対位置および向きを計算するのに使用される。
図1は、本発明の位置特定システム10の一実施形態の基本要素を示す略図である。システム10は、それぞれが、発光デバイス16および18を取り付けられた2つの撮像デバイス12および14を備える。撮像デバイス12は、撮像デバイス14の表示27および共通基準物体20の表示31を含む画像22を取得する。同様に、撮像デバイス14は、撮像デバイス12の表示29および共通基準物体20の表示33を含む画像24を取得する。
な、カメラ14の焦点に最も密接に対応する画素である。本発明の好ましい実施形態では、エピポーラ画素26は、撮像デバイス14の発光デバイス18に対応する画素のうちの1つの画素であると仮定され、画像22内のカメラ14の表示27の一部である。同様に、エピポーラ画素28は、撮像デバイス14によって撮影された画像24内に現れるような、撮像デバイス12の焦点に最も密接に対応する画素であり、画像24内の撮像デバイス12の表示29の一部である。
撮像デバイス12および14ならびに発光デバイス16および18は、電磁スペクトルの任意の適した周波数で動作してもよく、好ましくは、電磁スペクトルの紫外部分から赤外部分を通ってマイクロ波部分内で動作してもよい。
図2は、識別シーケンスおよび画像取得の相対タイミングを示す略タイミンググラフである。グラフ40は、その出力を変動させている発光デバイス16または18の明滅パターン出力を示す。画像サンプル42は、明滅パターン出力に対する画像取得のタイミングを示す。
好ましい実施形態では、プログラムされたマイクロコントローラは、発光ダイオードを制御して、適した周期を有する2値パターン40を生成する。2値パターン40は、任意の数のビットを有してもよく、実際の数は、同じ画像内で見ることが予想される撮像デバイスの数と、2値パターンを識別するのに必要とされるビデオシーケンスの増加した長さとの兼ね合いである。たとえば、2ビット2値パターンを使用して、最大2つの撮像デバイスを一意に識別することができるだけであるが、2つの画像シーケンスを必要とするだけであろう。他方、24ビットパターンなどの長いビットパターンを使用して、何千もの撮像デバイスを一意に識別できるが、24の連続画像の画像シーケンスが、取得され、解析されることを要求されるであろう。同様に、長い周期のパターンは、画像シーケンスを取得する総時間を増加させるであろう。デジタルカメラのシャッタ速度は、通常、約1〜10ミリ秒の範囲であるため、2値パターン40についての通常の周波数は、約10〜100ミリ秒の範囲にあってよい。
された。この例示的な実施形態では、撮像デバイス12および14は、それぞれ、67ミリ秒間隔で8つの画像のシーケンスを取得する。好ましい実施形態では、発光デバイスの変動する出力を画像取得に同期させる試みは何も行われない。画像シーケンスの各画素を検討して、画像シーケンスの過程にわたって最大輝度と最小輝度を獲得してもよい。これは、赤−緑−青(RGB)カラー画像の全てのチャネルについて行われてもよい。あるいは、緑チャネルなどの、チャネルのうちの1つのチャネルからの画素だけを検討して、白物体の輝度変動の良好な推定を獲得してもよい。各画素について、最大および最小輝度値が獲得されると、画像シーケンスにわたって有意の変動を有する画素が、さらに解析される。特に、画素値は、2値化され、2値化された輝度変動を検討して、輝度変動が、指定シーケンスに整合するかどうかを調べる。
vab=−Rabvab (1)
na=−Rabnb (2)
である。
正規直交行列、すなわち、
Ra=[vabna(vab×na)]
および、
Rb=[−vbanb(vba×nb)]
を構築することも可能である。
Ra=RabRb (3)
になり、次に、Rabについての以下の表現、
Rab=Ra(Rb)T (4)
が得られる。
Iabvab+Ibcvbc−Icavca=0
を形成することを考えることによって、3つのノードA、B、およびCの相対的な位置が取り出されてもよい。ここで、Iab、Ibc、およびIcaは、線分AB、BC、およびCAの長さである。システムは、均質であるため、ノードの構成は、正のスケールファクタまで解くことができるだけである。すなわち、三角形ABCの角度を全て決定することができるが、絶対サイズは決定されない。これは、動き再構成による全ての構造に共通の同じスケールの曖昧さである。この曖昧さを解決するために、さらなる距離測定が必要とされる。この曖昧さを解決する一方法は、画像内で、わかっているサイズの共通物体を識別し、この物体を使用して、絶対距離を提供することである。さらに、画像のうちの1つの中で、人の平均サイズなどのおよそわかっている寸法があることは、スケールの近似解を計算することを可能にする。
ステップ44にて、画像シーケンスが、アクティブノード、すなわち、ネットワーク内の撮像デバイスによって取得される。
限定はしないが、より高い処理能力を装備した別のデバイスなどの処理用の別のデバイスまたは中央ロケーションに送出されてもよい。
ステップ50にて、画像シーケンス内のパッシブノードが、たとえば、限定はしないが、テンプレートマッチングなどの標準的なパターン認識技法を使用することによって識別される。
さらなる実施形態では、撮像デバイスの少なくとも1つは、限定はしないが、180°
の視野を可能にするフィッシュアイレンズなどの視野の増大を可能にする光学系を有してもよい。2つのこうしたデバイスは、たとえば、360°の視野を効率的に提供するために、背中合わせで設置されてもよい。
Claims (26)
- 少なくとも2つの撮像デバイスのロケーションを決定する方法であって、
第1発光デバイスと並置され、情報処理ユニットに動作可能にリンクされた第1撮像デバイスを設けるステップと、
第2発光デバイスに並置され、前記情報処理ユニットに動作可能にリンクされた第2撮像デバイスを設けるステップと、
基準点を設けるステップと、
前記第1撮像デバイスを使用して第1画像を取得するステップであって、同第1画像は、前記基準点に相当する第1基準画素および前記第2撮像デバイスに並置された前記発光デバイスに相当する第1エピポール画素、を有する前記取得するステップと、
前記第2撮像デバイスを使用して第2画像を取得するステップであって、同第2画像は、前記基準点に相当する第2基準画素および前記第1撮像デバイスに並置された前記発光デバイスに相当する第2エピポール画素を有する、前記取得するステップと、
前記基準画素および前記エピポール画素のロケーションを、前記情報処理ユニットに通信するステップと、
前記情報処理ユニット、前記基準画素、および前記エピポール画素を使用して前記ロケーションを決定するステップと、を含む方法。 - 前記第1および第2の撮像デバイスはさらに通信ユニットを備え、前記画素のロケーションは、前記撮像デバイスの画像平面に対する法線に対して、かつ、前記撮像デバイスの焦点を通る法線に関して角度偏倚として提供される請求項1に記載の方法。
- 前記第2発光デバイスの出力を所定のシーケンスで変動させるステップと、
前記第1撮像デバイスによって複数の画像を撮影するステップと、
前記所定のシーケンスに相当する変動を有する前記複数の画像内で少なくとも1つの画素を識別し、それにより、前記第1エピポール画素を識別するステップと、
をさらに含む請求項1に記載の方法。 - 前記基準点は、第3発光デバイスである請求項3に記載の方法。
- 前記出力を変動させるステップは、前記第2発光デバイスによって放出される光の輝度を変動させることを含む請求項3に記載の方法。
- 前記所定のシーケンスは、2元のパターンを含む請求項3に記載の方法。
- 前記第1発光デバイスの出力を所定のシーケンスで変動させるステップをさらに含み、前記第1撮像デバイスに並置された前記発光デバイスの出力は第1の2元パターンに従って変動し、前記第2撮像デバイスに並置された前記発光デバイスの出力は第2の2元パターンに従って変動する請求項6に記載の方法。
- 前記第1の2元パターンは、前記第2の2元パターンの非周期的置換えである請求項7に記載の方法。
- 前記第1および第2の2元パターンは互いに同期する請求項7に記載の方法。
- 前記基準点は、第3の2元パターンに従って変動する出力を有する第3発光デバイスを備える請求項7に記載の方法。
- 前記第1および第2の撮像デバイスは、第1および第2のデジタルカメラを装備した無
線デバイスであり、前記発光デバイスは可視光発光ダイオードであり、前記第1および第2の2元パターンは、非同期型8ビット2元パターンである請求項8に記載の方法。 - 少なくとも2つの撮像デバイスのロケーションを決定するシステムであって、
第1発光デバイスに並置され、情報処理ユニットに動作可能にリンクされた、第1画像を撮影するための第1撮像手段と、
第2発光デバイスに並置され、前記情報処理ユニットに動作可能にリンクされた、第2画像を撮影する第2撮像手段と、
前記第1画像を検討して、共通基準点に相当する第1基準画素および前記第2撮像手段に並置された前記発光デバイスに相当する第1エピポール画素を識別する第1画像処理手段と、
前記第2画像を検討して、前記共通基準点に相当する第2基準画素および前記第1撮像手段に並置された前記発光デバイスに相当する第2エピポール画素を識別する第2画像処理手段と、
前記基準画素および前記エピポール画素のロケーションを前記情報処理ユニットに通信する通信手段と、
前記基準画素および前記エピポール画素を使用して、前記第1および第2の撮像手段の相対位置および向きを獲得する、前記情報処理手段上の位置特定手段と、を備えるシステム。 - 前記第1および第2の撮像手段はさらに通信手段を備え、前記画素のロケーションは、前記撮像デバイスの画像平面に対する法線に関する、かつ、前記撮像デバイスの焦点を通る法線に関する、角度偏倚として提供される請求項12に記載のシステム。
- 前記第2発光手段の出力は、所定のシーケンスで変動し、前記第1撮像手段は、複数の画像を撮影し、前記画像処理手段は、前記所定のシーケンスに相当する変動を有する複数の画像内で少なくとも1つの画素を識別し、それにより、前記第1エピポール画素を識別する請求項12に記載のシステム。
- 前記基準点は、第3発光デバイスである請求項14に記載のシステム。
- 前記第2発光手段によって放出される光の輝度が所定のシーケンスで変動する請求項14に記載のシステム。
- 前記第2発光手段は2元パターンで変動する請求項14に記載のシステム。
- 前記第1発光手段の出力は第1の2元パターンで変動し、前記第2撮像手段に並置された前記発光手段の出力は第2の2元パターンで変動する請求項17に記載のシステム。
- 前記第2の2元パターンは、前記第1の2元パターンの非周期的置換えである請求項18に記載のシステム。
- 前記第1および第2の2元パターンは互いに同期する請求項18に記載のシステム。
- 前記基準点は、第3の2元パターンに従って変動する出力を有する第3発光手段を備える請求項18に記載のシステム。
- 前記第1および第2の撮像手段は、第1および第2のデジタルカメラ搭載無線デバイスであり、前記発光手段は、可視光発光ダイオードであり、前記第1および第2の2元パターンは、非同期型8ビット2元パターンである請求項19に記載のシステム。
- コンピュータ読み取り可能媒体であって、
第1撮像デバイスを使用して第1画像を取得する命令であって、前記第1撮像デバイスは、第1発光デバイスに並置され、情報処理ユニットに動作可能にリンクされる、撮影する命令と、
第2撮像デバイスを使用して第2画像を撮影する命令であって、前記第2撮像デバイスは第2発光デバイスに並置され、前記情報処理ユニットに動作可能にリンクされる、撮影する命令と、
前記第1画像内で、基準点に相当する第1基準画素および前記第2撮像デバイスに並置された前記発光デバイスに相当する第1エピポール画素を識別する命令と、
前記第2画像内で、前記基準点に相当する第2基準画素および前記第1撮像デバイスに並置された前記発光デバイスに相当する第2エピポール画素を識別する命令と、
前記基準画素および前記エピポール画素のロケーションを、前記情報処理ユニットに通信する命令と、
前記情報処理ユニット、前記基準画素、および前記エピポール画素を使用して前記ロケーションを決定する命令と、
を含むコンピュータ読み取り可能媒体。 - 前記第2発光デバイスの出力を所定のシーケンスで変動させる命令と、
前記第1撮像デバイスによって複数の画像を撮影する命令と、
前記所定のシーケンスに相当する変動を有する前記複数の画像内で少なくとも1つの画素を識別する命令であって、それにより、前記第1エピポール画素を識別する、識別する命令と、
をさらに含む請求項23に記載のコンピュータ読み取り可能媒体。 - コンピュータ読み取り可能媒体を備えるコンピュータデバイスであって、
コンピュータ読み取り可能媒体は、
第1撮像デバイスを使用して第1画像を取得する命令であって、前記第1撮像デバイスは、第1発光デバイスに並置され、情報処理ユニットに動作可能にリンクされる、撮影する命令と、
第2撮像デバイスを使用して第2画像を撮影する命令であって、前記第2撮像デバイスは、第2発光デバイスに並置され、前記情報処理ユニットに動作可能にリンクされる、撮影する命令と、
前記第1画像内で、基準点に相当する第1基準画素および前記第2撮像デバイスに並置された前記発光デバイスに相当する第1エピポール画素を識別する命令と、
前記第2画像内で、前記基準点に相当する第2基準画素および前記第1撮像デバイスに並置された前記発光デバイスに相当する第2エピポール画素を識別する命令と、
前記基準画素および前記エピポール画素のロケーションを、前記情報処理ユニットに通信する命令と、
前記情報処理ユニット、前記基準画素、および前記エピポール画素を使用して前記ロケーションを決定する命令と、
を含むコンピュータデバイス。 - 前記第2発光デバイスの出力を所定のシーケンスで変動させる命令と、
前記第1撮像デバイスによって複数の画像を撮影する命令と、
前記所定のシーケンスに相当する変動を有する前記複数の画像内で少なくとも1つの画素を識別する命令であって、それにより、前記第1エピポール画素を識別する、識別する命令と、
をさらに含む請求項25に記載のコンピュータデバイス。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/093,748 US7421113B2 (en) | 2005-03-30 | 2005-03-30 | System and method for localizing imaging devices |
PCT/US2006/011490 WO2006105210A2 (en) | 2005-03-30 | 2006-03-29 | A system and method for localizing imaging devices |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008536112A JP2008536112A (ja) | 2008-09-04 |
JP4681043B2 true JP4681043B2 (ja) | 2011-05-11 |
Family
ID=37054089
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008504315A Expired - Fee Related JP4681043B2 (ja) | 2005-03-30 | 2006-03-29 | 撮像デバイスの位置特定を行うシステムおよび方法 |
Country Status (8)
Country | Link |
---|---|
US (2) | US7421113B2 (ja) |
EP (1) | EP1877955A2 (ja) |
JP (1) | JP4681043B2 (ja) |
KR (1) | KR20080012270A (ja) |
CN (1) | CN101180634B (ja) |
AU (1) | AU2006230285B2 (ja) |
CA (1) | CA2602810A1 (ja) |
WO (1) | WO2006105210A2 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100103258A1 (en) * | 2007-03-21 | 2010-04-29 | Nxp, B.V. | Camera arrangement and method for determining a relative position of a first camera with respect to a second camera |
KR100936275B1 (ko) * | 2007-08-24 | 2010-01-13 | 한국과학기술원 | 동기식 식별마커를 이용한 위치인식장치 및 위치인식방법 |
US8577083B2 (en) | 2009-11-25 | 2013-11-05 | Honeywell International Inc. | Geolocating objects of interest in an area of interest with an imaging system |
US9449233B2 (en) | 2010-12-01 | 2016-09-20 | The Trustees Of The University Of Pennsylvania | Distributed target tracking using self localizing smart camera networks |
CN103019391A (zh) * | 2011-09-22 | 2013-04-03 | 纬创资通股份有限公司 | 利用所撷取键盘影像作为指令输入依据的输入装置及方法 |
CN103512557B (zh) * | 2012-06-29 | 2016-12-21 | 联想(北京)有限公司 | 电子设备间相对位置确定方法及电子设备 |
US9167160B2 (en) * | 2012-11-14 | 2015-10-20 | Karl Storz Imaging, Inc. | Image capture stabilization |
US9845636B2 (en) * | 2013-01-07 | 2017-12-19 | WexEnergy LLC | Frameless supplemental window for fenestration |
US9687950B2 (en) * | 2013-03-13 | 2017-06-27 | Trimble Inc. | System and method for positioning a tool in a work space |
CN104346805B (zh) * | 2013-08-08 | 2018-01-19 | 联想(北京)有限公司 | 一种位置标定方法及电子设备 |
CN104714833B (zh) * | 2013-12-16 | 2018-12-14 | 联想(北京)有限公司 | 一种信息处理方法及装置 |
EP3113485A1 (en) * | 2015-07-03 | 2017-01-04 | LG Electronics Inc. | Mobile terminal and method for controlling the same |
US20170155572A1 (en) * | 2015-11-30 | 2017-06-01 | International Business Machines Corporation | Relative positioning of a mobile computing device in a network |
TWI604417B (zh) * | 2016-08-31 | 2017-11-01 | 國立交通大學 | 估算對極幾何模型的方法及其系統 |
CN108089152B (zh) * | 2016-11-23 | 2020-07-03 | 杭州海康威视数字技术股份有限公司 | 一种设备控制方法、装置及系统 |
US10110994B1 (en) | 2017-11-21 | 2018-10-23 | Nokia Technologies Oy | Method and apparatus for providing voice communication with spatial audio |
WO2019175129A1 (en) * | 2018-03-12 | 2019-09-19 | Koninklijke Philips N.V. | Ultrasound imaging plane alignment using neural networks and associated devices, systems, and methods |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5148591A (en) * | 1981-05-11 | 1992-09-22 | Sensor Adaptive Machines, Inc. | Vision target based assembly |
JPH11211414A (ja) * | 1998-01-30 | 1999-08-06 | Osaka Gas Co Ltd | 位置検出システム |
JP4033582B2 (ja) * | 1998-06-09 | 2008-01-16 | 株式会社リコー | 座標入力/検出装置および電子黒板システム |
US6661913B1 (en) * | 1999-05-05 | 2003-12-09 | Microsoft Corporation | System and method for determining structure and motion using multiples sets of images from different projection models for object modeling |
US6614429B1 (en) * | 1999-05-05 | 2003-09-02 | Microsoft Corporation | System and method for determining structure and motion from two-dimensional images for multi-resolution object modeling |
KR100443142B1 (ko) * | 2000-07-04 | 2004-08-04 | 가시오게산키 가부시키가이샤 | 이미지대조장치 및 방법 |
US6993179B1 (en) * | 2000-08-07 | 2006-01-31 | Koninklijke Philips Electronics N.V. | Strapdown system for three-dimensional reconstruction |
JP4259786B2 (ja) * | 2000-10-04 | 2009-04-30 | 株式会社リコー | 情報取得システム |
US6851999B2 (en) * | 2002-10-04 | 2005-02-08 | Peter Sui Lun Fong | Interactive LED device |
US7228006B2 (en) * | 2002-11-25 | 2007-06-05 | Eastman Kodak Company | Method and system for detecting a geometrically transformed copy of an image |
JP3787700B2 (ja) * | 2002-11-29 | 2006-06-21 | 株式会社 渡守建設 | シールド推進工法における推進体の推進軌跡の計測装置ならびに計測方法 |
JP2004193947A (ja) * | 2002-12-11 | 2004-07-08 | Fuji Xerox Co Ltd | 三次元撮像装置および方法 |
JP4136859B2 (ja) * | 2003-01-10 | 2008-08-20 | キヤノン株式会社 | 位置姿勢計測方法 |
WO2004081868A2 (en) * | 2003-03-11 | 2004-09-23 | Sarnoff Corporation | Method and apparatus for determining camera pose from point correspondences |
JP2004291186A (ja) * | 2003-03-27 | 2004-10-21 | Ntt Docomo Inc | ロボット制御方法、ロボット制御システム、これらに用いて好適なロボット及び制御装置 |
JP4469148B2 (ja) * | 2003-08-06 | 2010-05-26 | パナソニック株式会社 | 監視システム、固定カメラ、移動カメラおよび撮影方法 |
-
2005
- 2005-03-30 US US11/093,748 patent/US7421113B2/en active Active
-
2006
- 2006-03-29 AU AU2006230285A patent/AU2006230285B2/en not_active Ceased
- 2006-03-29 CA CA002602810A patent/CA2602810A1/en not_active Abandoned
- 2006-03-29 KR KR1020077024421A patent/KR20080012270A/ko not_active Application Discontinuation
- 2006-03-29 WO PCT/US2006/011490 patent/WO2006105210A2/en active Application Filing
- 2006-03-29 JP JP2008504315A patent/JP4681043B2/ja not_active Expired - Fee Related
- 2006-03-29 CN CN2006800174153A patent/CN101180634B/zh not_active Expired - Fee Related
- 2006-03-29 EP EP06739949A patent/EP1877955A2/en not_active Withdrawn
-
2008
- 2008-03-12 US US12/046,695 patent/US7522765B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN101180634B (zh) | 2011-10-05 |
US7421113B2 (en) | 2008-09-02 |
US7522765B2 (en) | 2009-04-21 |
US20080159593A1 (en) | 2008-07-03 |
EP1877955A2 (en) | 2008-01-16 |
CA2602810A1 (en) | 2006-10-05 |
AU2006230285B2 (en) | 2011-09-01 |
JP2008536112A (ja) | 2008-09-04 |
KR20080012270A (ko) | 2008-02-11 |
WO2006105210A2 (en) | 2006-10-05 |
WO2006105210A3 (en) | 2007-11-15 |
CN101180634A (zh) | 2008-05-14 |
AU2006230285A1 (en) | 2006-10-05 |
US20060227999A1 (en) | 2006-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4681043B2 (ja) | 撮像デバイスの位置特定を行うシステムおよび方法 | |
US11227172B2 (en) | Determining the relative locations of multiple motion-tracking devices | |
Li et al. | Human sensing using visible light communication | |
US9449233B2 (en) | Distributed target tracking using self localizing smart camera networks | |
CN107113415B (zh) | 用于多技术深度图获取和融合的方法和设备 | |
JP3779308B2 (ja) | カメラ校正システム及び三次元計測システム | |
CN105359516B (zh) | 视觉命令处理 | |
CN109218619A (zh) | 图像获取方法、装置和系统 | |
CN108073890A (zh) | 视频序列中的动作识别 | |
US20060072014A1 (en) | Smart optical sensor (SOS) hardware and software platform | |
CN106781165A (zh) | 一种基于深度传感的室内多摄像头智能联动监控装置 | |
CN111339997A (zh) | 火点区域的确定方法及装置、存储介质和电子装置 | |
US20140333730A1 (en) | Method of 3d reconstruction of a scene calling upon asynchronous sensors | |
Shirmohammadi et al. | Self-localizing smart camera networks | |
Roeper et al. | Privacy-preserving, indoor occupant localization using a network of single-pixel sensors | |
US11490812B2 (en) | Systems and methods for monitoring and detecting symptoms of infectious conditions | |
US10893195B2 (en) | Systems and methods of multi-sensor cameras and remote imagers | |
Le Francois et al. | Top-down illumination photometric stereo imaging using light-emitting diodes and a mobile device | |
AU2011204965B2 (en) | A system and method for localizing imaging devices | |
CN106685528A (zh) | 一种基于可见光通信的监控系统和监控方法 | |
KR20220000212U (ko) | 몰래카메라 탐지시스템용 감지장치 | |
CN215647027U (zh) | 摄像头模组 | |
Riipkema et al. | Pose estimation with radio-controlled visual markers | |
Singh | Deep Scene Understanding using RF and its Fusion with other Modalities | |
Thakral et al. | An Advanced IoT Based Border Surveillance and Intrusion Detection System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110111 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110203 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140210 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |