JP2006172456A - 能動装置を用いた、画像において追跡された物体の識別 - Google Patents

能動装置を用いた、画像において追跡された物体の識別 Download PDF

Info

Publication number
JP2006172456A
JP2006172456A JP2005355647A JP2005355647A JP2006172456A JP 2006172456 A JP2006172456 A JP 2006172456A JP 2005355647 A JP2005355647 A JP 2005355647A JP 2005355647 A JP2005355647 A JP 2005355647A JP 2006172456 A JP2006172456 A JP 2006172456A
Authority
JP
Japan
Prior art keywords
images
series
active device
interest
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005355647A
Other languages
English (en)
Other versions
JP4786322B2 (ja
Inventor
Jean-Luc Meunier
リュック ムニエール ジャン
Frederic Roulland
ルーラン フレデリック
Alba Ferrer-Biosca
フェレル ビオスカ アルバ
James L Crowley
エル クローリー ジェイムズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xerox Corp
Original Assignee
Xerox Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xerox Corp filed Critical Xerox Corp
Publication of JP2006172456A publication Critical patent/JP2006172456A/ja
Application granted granted Critical
Publication of JP4786322B2 publication Critical patent/JP4786322B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/11Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
    • H04B10/114Indoor or close-range type systems
    • H04B10/1149Arrangements for indoor wireless networking of information

Landscapes

  • Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】能動装置を用いて、一連の画像において追跡された物体を識別する。
【解決手段】一連の画像内における物体を識別するための方法であって、視野を有するカメラを用いて記録された一連の画像を受信し、少なくとも幾つかの物体を含む前記一連の画像における関心のある領域を検出し、カメラの前記視野内に位置させられた能動装置からの符号化された伝送を、検出された関心のある領域に位置決めし、一連の画像を出力しながら、その中で識別された、符号化された伝送を用いて、関心のある領域の少なくとも幾つかを識別する、ことを含む方法。
【選択図】図1

Description

本発明は、能動装置を用いて、一連の画像において追跡された物体を識別するための方法及び装置に関する。
文脈コンピューティングの1つの目的は、ソフトウェアのアプリケーションを文脈認識化することである。文脈認識化アプリケーションは、例えば、その現行のユーザ(例えば、男性又は女性)、その位置(例えば、内側対外側)、その環境(例えば、他の装置付近で動作している)、及びこれが実行されている現行の動作(例えば、電話)についての情報を用いることにより、その挙動をユーザに適応させるものである。具体的には、カメラを用いて、ユーザの活動及び反応に関する情報を与えて、装置をより文脈認識化させるのを助けることができる。
しかし、カメラにより記録された画像において、人のような受動的な物体を識別することは、困難であり続けている。この困難さは、首尾よい識別は、カメラに対する物体の位置、照明条件、及び記録された物体の解像度といった多数の要因に依存するという理由のために生じる。一般に、これらの要因の異なる組み合わせは、利用可能な、可能性のあるアプリケーションの数を制限する。したがって、カメラを、物体を識別するための付加的な情報と共に用いて、記録された一連の画像を増強又は補足することにより、このような要因の効果を制限することが有利である。
ここに述べられる種々の実施形態によれば、カメラを、能動装置から受信した伝送と共に用いて、記録された一連の画像において追跡された物体の識別を増強するためのシステム、方法、及び製品が述べられる。
幾つかの実施形態によれば、能動装置は、その位置及びアイデンティティを示す情報を伝送し、これによって、この能動装置付近の又はこれを運ぶ人のような物体の追跡及び識別を可能にする。ここに述べられる1つの特定の実施形態によれば、能動装置からのIR(赤外線)伝送が、一連の画像における識別情報を符号化するのに用いられる。
ここに述べられる他の実施形態によれば、能動装置は、一連の画像において追跡された物体を識別するのに用いられるべき検出された運動を伝送する。運動は、運動センサ、加速度計により検出することができ、又は、能動装置に埋め込むことができる一般的な位置システムにより検出することができる。
有利なことに、これらの実施形態は、能動装置の各ユーザが一連の画像における識別に用いられる能動装置を制御するため、この装置のユーザのプライバシーを維持する。さらに、特定のこれらの実施形態を無線ネットワーク上で同期させて、制御又は識別情報を能動装置に与えることができる。
これらの実施形態及びここに述べられる他の実施形態によれば、一連の画像において物体を識別するための方法、装置、及び製品が提供される。この方法は、視野を有するカメラを用いて記録された一連の画像を受信し、少なくとも幾つかの物体を含む一連の画像において関心のある領域を検出し、カメラの視野に配置された能動装置からの符号化された伝送を検出された関心のある領域に配置し、又は、カメラの視野における能動装置から運動情報を受信し、能動装置からの運動情報を、一連の画像における画像間で検出された関心のある領域の運動と関連させ、一連の画像を出力しながら、そこで識別された符号化された伝送を用いて、又は、運動情報を用いて、関心のある領域の少なくとも幾つかを識別する、ことを含む。
本開示のこれら及び他の態様は、同じ参照番号が同様の部品に適用された添付の図面と併せて以下の説明を読むことにより明らかになるであろう。
以下の表は、詳細な説明のセクションを概説する。
詳細な説明の概説
Figure 2006172456
以下の表は、特許請求の範囲及び図を含み、明細書全体にわたり用いられる術語の定義を示す。
Figure 2006172456
A.動作環境
図1は、能動装置108からのメッセージ・データをもつ一連の画像において追跡された物体106の識別を増強するためのシステム100を示す。図1に示す実施形態においては、カメラ102がそのカメラの視野における物体106の一連の画像を記録する。物体106の各々は、携帯型とすることができ、カメラ102により検出することができる(すなわち、例えば、可視又はIR(赤外線)周波数スペクトルのような、カメラのセンサにより検出することができる周波数スペクトル上で)信号110を射出するようにされたエミッタが埋め込まれた能動装置108(例えば、PDA、携帯電話など)と関連されている。さらに、能動装置108は、ネットワーク・アクセス・ポイント112近傍における又はこれにより通信する、ネットワークによりイネーブルにされる装置との通信チャネルを確立する(例えば、無線又はIR上で)信号を受信及び/又は伝送するようにされた1つ又はそれ以上のトランシーバを含むことができる。
図8は、能動装置108からの運動データをもつ一連の画像において追跡されたオブジェクト106の識別を増強するためのシステムを示す。図8に示す実施形態においては、(図1に示す実施形態と同様に)カメラ102がそのカメラの視野における物体106の一連の画像を記録する。さらに、(図1に示す実施形態と同様に)各々の物体106は、能動装置108と関連されている。図1に示す実施形態におけるようなトランシーバに加えて、能動装置108は、位置/運動センサ107(例えば、運動センサ、加速度計、又はGPS(全地球測位システム))を含む。さらに、能動装置108は、そのトランシーバを用いて、検出された位置/運動センサ情報を計算ユニット114に伝送するようにされている。
図1及び図8に示す種々の動作の実施形態においては、プロセッサ及び一連の画像において記録された物体を追跡し、増強するための命令を格納するメモリをもつ計算ユニット114が、物理的な又は無線媒体により、カメラ102及び/又はネットワーク・アクセス・ポイント112に結合されている。種々の動作の実施形態においては、計算ユニット114は、ネットワーク・アクセス・ポイント112を用いて確立された通信チャネル115及び116により、無線ローカル・エリア・ネットワーク上で能動装置108と通信するようにされている。一実施形態においては、ネットワーク・アクセス・ポイント112は、IEEE802.11標準に基づく無線ローカル・エリア・ネットワーク(WLAN)の一部を形成する。さらに、計算ユニット114は、経路118上で、カメラ102により記録された一連の画像を受信する。カメラ102は、一連の画像を生成するように構成することができる(おそらく他のソフトウェア及び/又はハードウェと併せて)デジタル及び/又はアナログのカメラのあらゆる形態とすることができる。代替的な実施形態においては、経路118上で受け取られた一連の画像は、前にカメラ102により記録された画像配列を記録する格納媒体からストリームされることができる。
図1及び図8に示す種々の動作の実施形態によれば、及び以下に詳細に述べられるように、無線ネットワークは、定められた地理的領域内で、例えば、Bluetoothプロトコルを用いて動作している能動装置108を見出すように適応させることができる。このような装置を見出すことは、能動装置が見出されたときに、動的に識別子を発行することを可能にする。このことは、計算ユニット114により管理されることが要求される能動装置を識別するコードの数を減少させることが有利である。さらに、無線ネットワークを用いて集中制御を強化して、能動装置が、要求時においてのみ(例えば、時間における特定の時点又は周期的な時間間隔で)情報を通信又は伝送するようにすることができる。さらに、このような集中制御を用いて、幾つかの基準に基づいて(例えば、同期信号の受け取りに基づいて、又は、識別子と適合する値に基づいて)通信事象を同期させることができる。このような同期を用いて、能動装置により要求される伝送を減少させて、携帯型の能動装置のバッテリ・パワーを節約できるようにすることが有利である。
B.ビデオ・メッセージ・データにより識別を増強する
図1に示すシステム100の種々の実施形態においては、能動装置108は、物体106(人又は人の顔のような)と関連する識別情報(例えば、ユーザ名又は装置の識別子)を符号化する信号110を射出する。一実施形態においては、システム100の計算ユニット114は、図2に示すフロー図において概説されるように動作する。
最初に、図2の202において、一連の画像が経路118上でカメラ102から受信される。一連の画像には、カメラ102の視野における能動装置108から射出された信号110を符号化したものが記録される。当業者であれば、カメラ102のサンプリング速度の周波数は、符号化された信号110を十分に再構成するために、この符号化された信号110が伝送される周波数の少なくとも2倍(すなわち、ナイキスト周波数)でなければならないことを理解するであろう。図2に204においては、関心のある領域が一連の画像において追跡される。図1の199に示すように、各々の識別された関心のある領域120は、一連の画像からの画像において定められた形状及び位置を有する。関心のある領域は、自動的な方法であるか又はユーザ選択により人為的に検出することができる。
図2の206においては、各々の関心のある領域120がフィルタ処理されて、カメラ102の視野にある能動装置108から射出された信号110の存在を検出する。206において、各々の関心のある領域において検出されたメッセージ・データは、208でデコードされる。デコードされたメッセージ・データは、能動装置又はそのユーザの名前のような、一連の画像において追跡された関心のある領域内の物体の知識を増強する情報を識別する。図1の121に示すように、関心のある領域120は、能動装置106から検出された伝送122及びそのデコードされたメッセージ・データ124と関連される。
図2の210においては、デコードされたメッセージ・データ124は、対応するフィルタ処理された関心のある領域におけるその位置の位置情報と関連される。すなわち、関心のある領域における能動装置から検出された伝送の位置がデコードされ、識別情報124と関連される。最後に、図2の212において、一連の画像が出力されて、例えば、図1の126に示されるデコードされたメッセージ・データを用いて、関心のある領域において追跡された物体を識別する。
B.1 メッセージの符号化
このセクションでは、独立型のメッセージの符号化及び/又は指向された(例えば、集中制御された)メッセージの符号化のための能動装置により用いられる実施形態について述べられる。これらの実施形態の各々は、カメラ102により、記録された一連の画像において検出される関心のある領域においてメッセージ・データを符号化するために、単独で又は組み合わせて用いることができる。独立型のメッセージの符号化は、計算ユニット114からの入力なしで(すなわち、独立型で)、能動装置108からメッセージを伝送するための方法を含む。指向されたメッセージの符号化は、例えば、計算ユニット114のような集中制御要素を用いて、能動装置108からメッセージを伝送するための方法を含む。
B.1(a) 時間を識別子として用いる
第1の実施形態の組においては、能動装置108から伝送されたメッセージ・データは、時間を識別子として用いて符号化される。すなわち、能動装置108は、メッセージが伝送された時間により認識される。より具体的には、メッセージ・データは、各々の能動装置108に対して、信号を伝送するための異なる時間の期間を割り当てることにより、「時間符号化」することができる。これらの実施形態においては、計算ユニット114により関心のある領域において検出されデコードされた信号は、信号が伝送された時間に応じて、対応する能動装置と関連される。能動装置は、例えば、データが伝送されるべき、予め割り振られた時間枠とすることができる。
図3は、能動装置108が異なる時間間隔で信号を射出する1つの方法を示す。能動装置により信号が射出される周波数は、これらが、予め割り振られた時間間隔において検出できる限りは、同じであってもよいし、又は異なっていてもよい。この方法においては、PC(例えば、ネットワーク・アクセス・ポイント112を通る計算ユニット114又はカメラ102)は、例えば、Bluetooth発見機構を用いて、カメラ102付近のPDA(すなわち、能動装置108)を検出する。PC114は、次いで、各々のPDA108に対して、カメラ102において異なる時間間隔で1つずつIR信号を射出するように要求する。PC114は、122及び124で信号をデコードした場合には、伝送時間とPDA108とを相関させる。
より具体的には、図3に示すプロトコルは、以下のように動作する。第1に、PCがPDA1に対してIR伝送による識別を要求する。次いで、PDA1は、所定の時間期間において射出する。この手順は、PDA2のような付加的なPDAに対して繰り返される。PDAが射出している間、PCは、カメラにより記録された一連の画像を処理して、その中に記録されたPDAからのIR伝送を検出する。一連の画像において信号の位置が検出された後、照会されたPDAのリスト及び照会された時間間隔(例えば、PCのメモリ内に格納することができる)を用いて、PDAを識別するために時間期間と適合される。図3に示すプロトコルは、例えば、関心のあるすべての領域が識別されるまで繰り返されて、その後、所定の時間間隔にしたがって更新される。
図4は、能動装置108が、異なる時間間隔で射出する別の方法を示す。この方法においては、図3に示す方法と同様に、すべてのPDAは同じ又は異なる周波数で射出することができる。この方法においては、図3に示す方法とは異なり、各PDAが射出する時間間隔が同期される。例えば、時間間隔は、リード・ユニットによってであるか、或いは、PDA間で実行された交渉によって、異なるPDAに割り当てることができる。リード・ユニットは、例えば、PDAであってもよいし、又は、計算ユニット114であってもよい。
代替的な方法は、図3に示す実施形態と図4に示す実施形態とを組み合わせたものである。この代替的な方法によれば、図3に示す方法は、周期的にPDAを同期させて、PDAが、例えば、予め設定された地理的区域により定められたカメラの視野に入る又はここから離れることになることを通知したときに、ブロードキャスト時間間隔を割り当てるように用いられる。第2の方法は、次いで、PDAが、これらが割り振られた及び/又は交渉されたブロードキャスト時間間隔において識別情報を射出することにより用いられる。
さらに別の方法においては、能動装置108は、オンデマンドで又は列挙による時間共有策によって、カメラ102により検出可能な伝送を射出することができる。列挙は、各PDAにバイナリ識別子を割り振られる二分法検索と同様である。異なる時間間隔にわたり、各PDAは、その期間に対するバイナリ・コードが真である場合にのみ応答する。PDAのバイナリ識別子のすべてのビットが反復される時間間隔のシーケンス後、すべてのPDAを識別することができる。
例えば、1つのプロトコルは、PDAの一群に対して、(a)PCがすべてのPDAに対して、そのバイナリ・コードの最初の桁が1に等しい場合には伝送するように要求する、(b)その識別コードの第1の桁が1に等しいすべてのPDAが特定の時間において伝送する、(c)PCが、PDAから信号が伝送されたかどうかを検出する、(d)信号が検出された場合には、PCは、バイナリ・コードの第1及び第2の桁が1に等しいすべてのPDAを伝送するように要求する、(e)信号が検出されなかった場合には、PCは、第1の桁がゼロであり、第2の桁が1であるすべてのPDAに伝送するように要求する、(f)適切な第1及び第2の桁をもつPDAを特定の時間において射出する、というように動作することができる。
B.1(b) 周波数を識別子として用いる
実施形態の第2の組においては、メッセージ・データは、周波数符号化を用いて能動装置108により符号化される。メッセージ・データは、各々の能動装置108に対して異なる周波数を割り当てることにより「周波数符号化」されて、信号を伝送する。本実施形態においては、計算ユニット114により関心のある領域において検出され、デコードされた信号は、信号が伝送された周波数に応じて、対応する能動装置と関連される。
図5は、各PDA108が、異なる周波数で射出し、これらが次いでカメラ102により記録される1つの実施形態を示す。表1は、例示的なコード・ワードの組及びこれに対応する周波数を示す。したがって、表1を用いて異なる周波数で伝送するためには、各PDA108は、異なる伝送速度で射出する(これは、PDAから射出された光の周波数から区別される)。この方法を用いると、PDAは、意のままに射出することができ(すなわち、同時に又は異なるときに)、その伝送速度に基づいて(例えば、ブリンキング速度)、互いに見分けられる。PDAの伝送速度(例えば、表1に示す)は、PC114のような中央権限により発行されることができ、又は、能動装置がカメラの視野に接近するとき又はこれに入るときに見出された場合には、PDA108により交渉される。PDAにより射出された各信号の周波数は、ナイキストのサンプリング周波数を満たす一組のサンプルを用いて再構成することができる。(例えば、2Hzと12Hzとの間に射出する10のPDAから元の信号を再構成するためには、最小の観察時間は、1秒当たり24の画像を記録するカメラにおいては、1秒にほぼ等しくなるべきである。)
表1
Figure 2006172456
B.1(c) デジタル・コードを識別子として用いる
第3の実施形態においては、メッセージ・データが、PDA108により符号化され、デジタル・コードを用いて、PC114により検出される。すなわち、各PDA108から検出された射出が、一連のバイナリ情報として扱われる(すなわち、光の有無)。本実施形態においては、各PDAは、雑音のあるチャンネルを管理するために、おそらくエラー修正及び検出をもつバイナリのコード・ワードである独自のパターンを射出する。バイナリのコード・ワードの伝送の開始を検出するために、各バイナリ・コード・ワードは周期的とすることができる。すなわち、計算ユニット114によりデコードされるバイナリのコード・ワードのシフトのすべてが、例えば、表2に示すように、4ビットのコード・ワード及びそれらと同等のクラス(すなわち、シフトされた同等物)に対して、単一のアイデンティティとしてデコードされる。或いは、コード・ワードをヘッダとトレーラとの間で伝送して、計算ユニット114によりその開始及び終了を検出することができ、ここでは、該ヘッダと該トレーラとの間の各パターンは、各々の能動装置108又はそのユーザを独自に識別する。
表2
Figure 2006172456
有利なことに、バイナリの周期的なコード・ワードを用いると、計算ユニット114はコード・ワードの第1のビットと同期することが不要になる。さらに、どのような長さのバイナリの周期的なコード・ワードの後にも、伝送側の能動装置のアイデンティティに関して判断をすることができる。一実施形態においては、15ビットのBCH(BoseChaudhuri−Hocqunghem)コードは、1つのワードに対して4までのエラーの検出、及び2つのエラーの修正をもつ127のコード・ワードを許可する(すなわち、BCH(15、7、5)は、7ビットの情報、8ビットの制御、及びコード・ワード間で5の最小距離をもつ15ビットのコード長さを定める)。1秒当たり25フレームの伝送速度(例えば、カメラ102の例示的な捕捉速度)においては、このようなコード・ワードは、15/25秒で伝送することができる。
より具体的には、コード・ワードは、各能動装置108から継続して伝送することができ、各コード・ワードが周期的なものであるために、コード・ワードは、それらの長さに対するビット数の受け取り後に検出及びデコードすることができる。例えば、15ビットのBCH(15、7、5)コード・ワードは、能動装置108と関連させることができる、表3に示す、12の同等なクラスを有し、各同等なクラスは、そのコード・ワードの1つに対してシフト演算を実行することにより引き出すことができる。本実施形態においては、すべてゼロ及びすべて1をもつコード・ワードは廃棄され、これによって、10までのPDAを識別する。すべてゼロのコード・ワード(すなわち、表3におけるクラス1)は、射出しない能動装置が射出するとは予測されないので、省かれる。すべて1のコード・ワード(すなわち、表3におけるクラス12)は、このような信号をデコードすることは、日光又は他の明るい光からの反射の結果とすることができるので、省かれる。
表3
Figure 2006172456
図1を参照すると、本実施形態におけるPDA108は、最初に、図3に示す10の利用可能なクラスのうちの1つを用いて、システム識別子又はユーザ識別子のような情報を符号化し、ここでは、各コード・ワードは15ビット長であり、その中の7ビットが情報を記録し、8ビットが制御を記録する。(例えば、IRを用いて)PDA108により射出されるコード・ワードは、カメラ102により記録され、計算ユニット114により受信される。関心のある領域の追跡後、コード・ワードが122で検出され(エラーが検出された場合には修正され)、次いで、デコードされて、一連の記録された画像において各PDAを識別する。
一般に、s個のエラーを検出するのにd=s+1のコード距離が必要であり、rビットを修正するのにd=2*r+1のコード距離が必要である。コード・ワードは、情報ワードとジェネレータ・マトリックスとの生成物である。エラー検出は、検出されたコード・ワードを、ジェネレータの多項式で除算する(ユークリッド除算を用いて)ことにより実行される。除算の結果がゼロであるのは、検出されたワードがコード・ワードであり、商が対応する情報ワードであることを意味する。除算の結果がゼロでないのは、エラーを意味する。或いは、検出されたワードを制御マトリックスで乗算することによりエラーを検出することができ、ここでは、結果がゼロであるのはエラーがないことを意味し、ゼロであるのはエラーを意味する。計算が、エラーの存在を明らかにした場合には、これらの修正は、用いられた周期コードに依存する(例えば、CDC、BCH)。(BCHについてのさらなる情報は、以下の刊行物、R.C.Bose及びD.K.−Chaudhuriによる「On a Class of Error Correcting Binary Group Codes」Inf.Control、第3巻、68−79ページ、1960年3月、及びW.W.Petersonによる「Encoding and Error−Correction Procedures for the Bose−Chauduri Codes」IRE Trans.Inf.Theory、第IT−6巻、459−470ページ、1960年9月)を参照されたい。)
このセクションで述べられたいずれの方法においても、コード・ワード(例えば、表2又は表3に示されたような)は、能動装置がカメラの視野に接近するとき又は入るときに見出された場合に、PC114のような中央権限によって発行することができ、又は、PDA108により交渉することができる。
B.2 メッセージの検出
一連の画像において符号化された信号を検出することは、検出された関心のある領域に対する連続的な1つ又はそれ以上のフィルタ処理動作により実行される。当業者であれば、PDAから記録された信号は、その色、形状、サイズ、及び強度に応じて異なることになる。さらに、信号観察時間(すなわち、PDAが観察されている時間)においては、PDAが、カメラに対して良好に向けられていないことがあり、又は、PDAが、他のオブジェクトの後に隠れていることがある。検出時間(すなわち、符号化された信号を認識するのに必要な時間)が減少した場合には、このような信号干渉を受信する機会が減る。
図6は、関心のある領域を検出及び追跡するための構造を示す。この構造の一例によれば、PDA108は、PDAのIRポートから、一連のオン/オフ伝送(すなわち、ブリンキング)形態の識別情報を伝送する。一連のオン/オフ伝送は、カメラ102により記録され、計算ユニット114により処理される。上で概説されるように、記録された一連の画像における人のような物体を追跡することは、第1に、関心のある領域(例えば、PDA又はPDAを支持する物体が見出される可能性がある領域)を識別することを含む。関心のある領域が一連の画像において識別されると、一連のフィルタが関心のある領域に適用されて、PDAの伝送が検出される。一般に、図6に示す構造は、(関心のある領域を識別するための)トラッカ602、(PDA信号を検出するための)単一の検出器モジュール604、(コード・ワードから追跡された物体を識別するための)デコーダ・モジュール606、及び追跡された物体116のデータベース(一連の画像において追跡された物体を記録するためのトラックされた物体のデータベース116、という4つの主要な部品を有する。
B.2(a) 領域の追跡
図6に示すように、カメラ102により記録された一連の画像における各々の画像は(すなわち、時間tにおける)、トラッカ602及び検出器604に入力される。さらに、前の画像情報(すなわち、時間t−1における)がトラッカ602に入力される。トラッカは、例えば、INRIA Rhone−AlpesによりホストされるGRAVIR LabsのPRIMA(Perception and Integration for Smart Spaces)プロジェクトの一部として生成されたImaLabソフトウェア開発環境を用いて開発することができる。或いは、トラッカは、2004年5月、チェコ共和国、プラハ所在のInternational Workshop on Performance Evaluation of Tracking and Surveillance、「Robust Vusual Tracking from Dynamic Control of Processing」において、Caporossi他により開示される追跡システムの原理を用いて開発することができる。
一実施形態においては、トラッカ602は、例えば、人を検出し、追跡するための複数の基準を用いてリアルタイムで物体を追跡する、繰り返して用いられる推定器である。トラッカ602における領域検出モジュール610は、ヒストグラムの比率を用いて、一連の画像にわたる明確な色(皮膚のような)を追跡するヒストグラム・モジュール610の比率と、画像の差異を計算する移動追跡モジュール611と、フレーム間で移動する物体を識別する場合に、背景の差異を考慮する背景差異モジュール612とからの出力を組み合わせる。
実施形態の1つの例においては、関心のある領域モジュール614の流れは、Kalmenフィルタのような、繰り返して用いられる推定器を用いて動作する(1965年、Journal of Basic Engineering、第82巻、第Dシリーズ、34−45ページ、Transactions of the ASMEにおける「A New Approach to Linear Filtering and Prediction Problems」という表題のKalmanを参照されたい)。このような、繰り返して用いられる推定器は、(a)予測、(b)観察、(c)観察の予測、(d)観察の検証、(e)推定の更新、という5つの段階を含むことができる。
B.2(b) 信号の検出
再び図6を参照すると、識別された位置と、関心のある領域モジュール614から出力された、それと関連する関心のある領域とが、メモリ内に格納されて、追跡された物体616のデータベースを記録する。検出器モジュール604は、カメラ102により記録された一連の画像から画像に関するデータベース616内に格納された、あらゆる識別された位置及び領域を入力画像として受信する。入力601及び616から、検出器モジュール604は、各々の関心のある領域において伝送されたコード・ワードを識別する。
一実施形態においては、各々の関心のある領域は、検出器604によりフィルタ処理されて、能動装置からの伝送を示すIRスポットの存在を識別する。以下には、一般に、円形の形状であると仮定される(他の形状も可能であるが)、画像におけるIRスポットの存在を検出するための3つの方法が示される。一般に、IRスポット検出方法は、或る画像の領域が、正しい光度(例えば、画像をフィルタ処理して、IRの伝送を識別することにより)、サイズ(例えば、1ピクセルと144ピクセルとの間の領域を考慮することにより)、形状(例えば、円形の形状を考慮することにより)、及び距離(例えば、連続的なフレーム間の距離を用いて、2つのフレームにおいて識別された領域が同じであることを考慮することにより)を有することを示す以下の割り振られたパラメータのあらゆる組み合わせに依存する。
さらに、カメラ102が一連の画像を記録している環境に応じて、4つのパラメータのうちの1つ又はそれ以上が、IRスポットの検出における3つの方法により、多かれ少なかれ厳密に定義される。さらに、カメラ102が記録している環境に応じて、カメラは、識別された、関心のある領域にズーム・インし、より解像度の高い画像を捕捉して、IRスポット検出に対する3つの方法を改善するようにすることができる。
第1の方法においては、検出器モジュール604は、IRスポットの存在を識別するためにカラー・フィルタを用い、このカラー・フィルタは、記録された一連の画像601において、カメラ102により捕捉されたIR信号をフィルタ処理する。当業者であれば、的確なフィルタは、カメラ102により記録されるIR伝送を検出するのに用いられるセンサの記録特性によって決まることを理解するであろう。すなわち、フィルタは、IR伝送を、所定の値の範囲を満たす赤色、緑色、及び青色光の何らかの組み合わせとして知覚するものとして定義される。
第2の方法においては、(Sobelフィルタのような)フィルタは、縁を見出すのに用いられ、(Hough変換)のような変換は、所定の半径をもつ円を見出すのに用いられ、次いで、カラー・フィルタが、検出された円の内側の色を評価するのに用いられる。IRスポットのサイズが優先的に知られていないため、幾つかの半径サイズを用いて、変換を評価し、次いで、最良の候補が選択される。本実施形態の可能性のある計算上の複雑さに対処するために、1フレーム当たり1ビットではなく、mフレーム当たり1ビットを射出することにより、PDAの伝送速度を遅くすることができる。
第3の方法においては、すべての可能性のあるIRスポットは、各々の関心のある領域において計算され、リストに記録される。この方法は、(日光の反射のような)情報を伝送している能動装置をもたない関心のある領域は、デコードすることができる時間にわたり、一連のスポットを生成することはほとんどないことを仮定する。図7は、能動装置から伝送された画像におけるIRスポットの有無を識別するための第3の方法を概説するフロー図である。
最初に、702において、「カラー・フィルタ処理」動作が、或る画像の各々の関心のある領域(ROI)を一組の黒色及び白色のピクセルに分割する。具体的には、ROIにおけるピクセルの光度が所定のしきい値より低い場合には、これは黒色に割り振られ、或いは別の場合には、白色に割り振られる。すなわち、702において、IR伝送がRGB(赤色、緑色、及び青色)測定された信号から単色(例えば、白であるが、他の色を用いてもよい)にマップされる。704において、画像がセグメント化されて、すべての領域のリストが取得される。706において、すべての領域のリストが、サイズ及び形状(又は形態)によりしきい値化されて、一組の可能性のあるIR点を定義する。708において、種々の基準が、リスト内の可能性のあるIR点に適用されて、リスト内の点の間を区別する。最後に、710において、IR点のリストにおいては、これらの対応するコード・ワードが一連のすべて1又はゼロである場合には、排除される。
一実施形態においては、706において、領域が具体的なサイズ(例えば、2ピクセルと144ピクセルとの間)を有し、特定の形態(例えば、丸い)を有する場合には、可能性のあるIR点として識別される。例えば、一実施形態においては、領域の第1及び第2のモーメントが計算される。領域の第2のモーメントは、分散行列を定義し、これは次いで、固有値の率を定義するのに用いることができる。或る領域に対する固有値の率が1にほぼ等しい場合には、この領域は、およそ円の形状であると仮定される。
一実施形態においては、708において、可能性のあるIR点のリストにおける点が、(a)画像配列に現れる新しい領域に属するもの、(b)画像配列に現れる既存の(すなわち、前に検出された)領域に属するもの、及び(c)前に識別された領域であるが、どのようなIRスポットも以前に検出されなかった領域に属するもの、という3つの基準により区別される。基準の割り振りは、連続するフレームにおける領域が同じであるという判断に基づく。この判断は、例えば、Kalmanフィルタを用いて、又は、2つの領域間のピクセル距離を計算することにより行うことができる(例えば、ピクセル距離が、20のように所定のしきい値より小さい場合いは、領域は同じであると仮定される)。
B.2(c) 信号のデコード
再び図6を参照すると、検出器モジュール604が、一連の画像において追跡された物体の識別されたコード・ワードをデータベース616内に記録すると、デコーダ・モジュール606は、データベース616(例えば、ルックアップ表の形態における)内に格納された名前/アイデンティティの参照にコード・ワードを用いて、コード・ワードをデコードする。デコードされたコード・ワードの名前/アイデンティティは、次いで、追跡された物体と併せて記録され、これによって、追跡された物体を識別する(又は、追跡された物体を増強するための情報を与える)。例えば、図1に示すように、一連の画像における関心のある領域の追跡された物体106と共に記録された、PDA108から射出されたコード・ワードの名前/アイデンティティのデコード後、名前/アイデンティティを用いて、追跡された物体に表示を付すことができる(126で「Jan」及び「Mat」と表示が付された物体に示されるように)。
C.伝送された運動データにより識別を増強する
図8に示すシステム800の種々の実施形態においては、アクティブ装置108は、通信チャネル116上で、(人のような)物体106に関連する運動情報を特定する(例えば、座標情報を変更する)検出された運動を伝送する。一実施形態においては、システム800の計算ユニット114は、図9に示すフロー図に概説されるように動作する。
902において、計算ユニット114が、カメラ102から、通信経路118上で、一連の画像を受信する。計算ユニット114により受信された一連の画像は、カメラ102の視野における物体106を記録する。さらに、904において、計算ユニット114が、通信経路115で、及び能動装置108から、検出された位置/運動センサ情報(例えば、位置/運動情報又は絶対位置/運動情報における変化)を、対応する能動装置からの識別情報と併せて受信する。
906においては、計算ユニット114が、一連の画像における関心のある領域を識別する。関心のある領域は、既知の形状検出/分類技術によって自動的に、又は、上述のようにユーザ選択によって人為的に識別することができる。関心のある領域が識別されると、これらは、連続する画像において追跡されて、一連の画像を構成することができるようになる(例えば、画像の差異を計算することにより)。
908においては、計算ユニット114は、能動装置108により伝送された運動情報(すなわち、運動報告情報)を用いて、追跡された物体の識別を増強する。一実施形態においては、各々の能動装置108は、そのアイデンティティを計算ユニット114により登録し、これによって、計算ユニットが、或る物体の伝送された運動を或るアイデンティティと関連させることを可能にする。910においては、一連の画像が出力される一方で、能動装置と関連される位置/運動情報を用いて追跡された関心のある領域を識別する。
例えば、図8に示すように、能動装置108を含む関心のある領域は、最初に、802において、一連の画像における画像において識別される(906で)。次いで、関心のある領域の移動が、806において、画像フレーム間で検出される。最後に、808において、一連の画像において識別された関心のある領域に表示を付すために(例えば、Jan及びMat)、804における(アクティブ装置の識別情報を含む)能動装置の移動報告情報が、806における画像フレーム間で追跡された、検出された関心のある領域と関連される。
D.例示的な実施形態
ここに述べられるシステムの1つの動作の実施形態においては、人が記録された一連の画像において識別される。記録された各々の人がIR信号を伝送する能動装置(PDAのような)を支持する又は着用する。IR信号は、ここに述べられるあらゆる1つの符号化方法又はその組み合わせを用いて、メッセージ・データを符号化する。IR符号化信号は、カメラ102により、一連の画像において記録される。計算ユニット114は、一連の画像における関心のある領域において符号化された信号を検出し、デコードする。デコードされると、メッセージ・データを用いて、対応する関心のある領域における物体を識別する。
メッセージ・データは、例えば、或る時間にわたり、一連の画像に現れる名前、場所、物体、装置、ユーザなど(すなわち、識別情報)を識別することができる。一実施形態においては、識別情報が、関心のある領域における物体付近に配置される。代替的な実施形態においては、音声又はオンデマンド・ラベリングのようなものが用いられる。オンデマンド・ラベリングは、音声又は一連の画像における関心のある領域上のポインタ装置のホバーリングのような何らかのユーザ入力に基づくハイライト表示を含むことができる。
さらに、方法を互いに組み合わせて用いることができ、例えば、一連の画像における能動装置からのデコードされた伝送を、能動装置から伝送された位置/運動情報と組み合わせて、一連の画像において追跡された、関心のある領域の識別を増強することができる。有利なことに、このような組み合わせは、信号干渉を最小にする(例えば、移動する能動装置が、固定の能動装置を隠したことを識別する)。
E.その他
汎用コンピュータを用いて、カメラ102、ネットワーク・アクセス・ポイント112、及び計算ユニット114を含む、ここに述べられるシステムの要素を実施することができる。このような汎用コンピュータは、ハードウェア及びソフトウェアを含む。
能動装置からのメッセージ・データにより、一連の画像において追跡された物体の識別を増強するためのシステムを示す。 能動装置からのメッセージ・データにより、一連の画像において追跡された物体の識別を増強するための図1に示すシステムの計算ユニットにより実行される動作を示すフロー図である。 能動装置が信号を伝送し、この信号が、次いで、カメラにより記録され、デコードされる方法を示す。 能動装置が信号を伝送し、この信号が、次いで、カメラにより記録され、デコードされる方法を示す。 能動装置が信号を伝送し、この信号が、次いで、カメラにより記録され、デコードされる方法を示す。 関心のある領域を検出し、追跡するための構成を示す。 カメラにより記録された画像において、能動装置から伝送されたIR(赤外線)スポットの存在を識別するための1つの方法を概説するフロー図である。 能動装置からの運動データにより、一連の画像において追跡された物体の識別を増強するためのシステムを示す。 能動装置からの運動データにより、画像における物体の識別を増強するための、図8に示すシステムにおける計算ユニットの動作を示すフロー図である。
符号の説明
100:システム
102:カメラ
106:物体
108:能動装置
110:信号
112:ネットワーク・アクセス・ポイント
114:計算ユニット
115:通信チャネル

Claims (3)

  1. 一連の画像内における物体を識別するための方法であって、
    視野を有するカメラを用いて記録された一連の画像を受信し、
    少なくとも幾つかの物体を含む前記一連の画像における関心のある領域を検出し、
    前記カメラの前記視野内に位置させられた能動装置からの符号化された伝送を、前記検出された関心のある領域内に位置決めし、
    符号化された伝送を用いて、その中で識別された、前記関心のある領域の少なくとも幾つかを識別しながら、前記一連の画像を出力する、
    ことを含む方法。
  2. 一連の画像において物体を識別するための方法であって、
    視野を有するカメラを用いて記録された一連の画像を受信し、
    前記カメラの前記視野における能動装置から運動情報を受信し、
    少なくとも幾つかの物体を含む前記一連の画像における関心のある領域を検出し、
    前記能動装置からの前記運動情報を、前記一連の画像における画像間の前記検出された関心のある領域の運動と関連させ、
    前記運動情報を用いて、前記関心のある領域の少なくとも幾つかを識別しながら、前記一連の画像を出力する、
    ことを含む方法。
  3. 一連の画像において物体を識別するための方法であって、
    視野を有するカメラを用いて記録された一連の画像を受信し、
    前記カメラの前記視野における能動装置から運動情報を受信し、
    少なくとも幾つかの物体を含む前記一連の画像における関心のある領域を検出し、
    前記カメラの前記視野に配置された能動装置からの符号化された伝送を、前記検出された関心のある領域内に配置し、
    前記能動装置からの前記運動情報を、前記一連の画像における画像間の前記検出された関心のある領域の運動と関連させ、
    符号化された伝送を用いて、その中で識別された、前記関心のある領域の少なくとも幾つかを識別し、そして、前記運動情報を用いて、該関心のある領域の少なくとも他の幾つかを識別しながら、前記一連の画像を出力する、
    ことを含む方法。
JP2005355647A 2004-12-17 2005-12-09 能動装置を用いた、画像において追跡された物体の識別 Expired - Fee Related JP4786322B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/013367 2004-12-17
US11/013,367 US7505607B2 (en) 2004-12-17 2004-12-17 Identifying objects tracked in images using active device

Publications (2)

Publication Number Publication Date
JP2006172456A true JP2006172456A (ja) 2006-06-29
JP4786322B2 JP4786322B2 (ja) 2011-10-05

Family

ID=35945289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005355647A Expired - Fee Related JP4786322B2 (ja) 2004-12-17 2005-12-09 能動装置を用いた、画像において追跡された物体の識別

Country Status (4)

Country Link
US (1) US7505607B2 (ja)
EP (1) EP1672821B1 (ja)
JP (1) JP4786322B2 (ja)
DE (1) DE602005023700D1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070035612A1 (en) * 2005-08-09 2007-02-15 Korneluk Jose E Method and apparatus to capture and compile information perceivable by multiple handsets regarding a single event
US8351657B2 (en) * 2006-12-29 2013-01-08 Nokia Corporation Method for the viewing of visual information with an electronic device
KR101401968B1 (ko) * 2007-05-16 2014-06-02 삼성전자주식회사 동일한 주파수 환경에서의 유휴 채널 검색 방법 및 그장치
US20090272803A1 (en) * 2008-05-05 2009-11-05 Intelliwave Technologies Inc. Sensor network for managing the location of materials on a construction site
US8791817B2 (en) * 2008-10-22 2014-07-29 Centurylink Intellectual Property Llc System and method for monitoring a location
US8983488B2 (en) 2008-12-11 2015-03-17 Centurylink Intellectual Property Llc System and method for providing location based services at a shopping facility
US9307037B2 (en) * 2009-04-15 2016-04-05 Centurylink Intellectual Property Llc System and method for utilizing attendee location information with an event planner
US8428620B2 (en) 2009-04-22 2013-04-23 Centurylink Intellectual Property Llc Mass transportation service delivery platform
JP5313037B2 (ja) * 2009-05-11 2013-10-09 パナソニック株式会社 電子カメラ、画像処理装置および画像処理方法
US8655693B2 (en) * 2009-07-08 2014-02-18 Centurylink Intellectual Property Llc System and method for automating travel related features
TWI437509B (zh) * 2009-08-18 2014-05-11 Ind Tech Res Inst 光資訊接收方法
US8395651B2 (en) * 2009-10-09 2013-03-12 Cisco Technology, Inc. System and method for providing a token in a video environment
US8615254B2 (en) * 2010-08-18 2013-12-24 Nearbuy Systems, Inc. Target localization utilizing wireless and camera sensor fusion
DE102010053458B4 (de) * 2010-12-03 2023-06-22 Testo SE & Co. KGaA Verfahren zur Aufbereitung von IR-Bildern und korrespondierende Wärmebildkamera
US9922256B2 (en) * 2011-06-30 2018-03-20 Yale University Subject sensing in an environment
US10089327B2 (en) 2011-08-18 2018-10-02 Qualcomm Incorporated Smart camera for sharing pictures automatically
US20130201344A1 (en) * 2011-08-18 2013-08-08 Qualcomm Incorporated Smart camera for taking pictures automatically
US20130100307A1 (en) * 2011-10-25 2013-04-25 Nokia Corporation Methods, apparatuses and computer program products for analyzing context-based media data for tagging and retrieval
US8869240B2 (en) 2011-11-28 2014-10-21 Xerox Corporation Soft method for local secure connection to a device
US10102259B2 (en) 2014-03-31 2018-10-16 International Business Machines Corporation Track reconciliation from multiple data sources
US9332179B2 (en) 2014-06-30 2016-05-03 Qualcomm Incorporated Flash collision detection, compensation, and prevention
DE102014009686A1 (de) * 2014-07-02 2016-01-07 Csb-System Ag Verfahren zur Erfassung schlachttierbezogener Daten an einem Schlachttier
KR102356599B1 (ko) * 2014-12-05 2022-01-28 삼성전자주식회사 이미지의 관심 영역 결정 방법 및 관심 영역 결정 장치
US9786042B2 (en) 2015-01-29 2017-10-10 Honeywell International Inc. Algorithm for measuring wear pin length using an input image
US10478699B2 (en) 2016-04-11 2019-11-19 Brian Janssen Full scale practice and training system, method and software medium utilizing programmable chassis driven drones and tackling dummies in singular and multiple variants such as use by positional players in sole and team-based sports as well as other non-athletic training applications
US10441868B2 (en) 2016-04-11 2019-10-15 Brian Janssen Full scale digital replay and practice system for use by positional players in a team-based sport
US11173376B2 (en) 2016-04-11 2021-11-16 Brian Janssen Full scale practice, training and diagnostic system method and software medium including highlighted progression illuminations and field embedded pressure sensors for use by positional players in sole and team-based sports as well as other non-athletic training applications
EP3982337B1 (fr) * 2020-10-09 2023-09-27 Swiss Timing Ltd Procede et systeme de mesure amelioree du temps de passage sur une ligne de chronometrage

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002290963A (ja) * 2001-03-27 2002-10-04 Denso Corp 画像追跡システム、携帯情報端末、画像追跡装置、及び、追跡画像の撮影方法
JP2002324196A (ja) * 2000-12-22 2002-11-08 Microsoft Corp コンテキスト指向のポリシー決定および施行のための方法およびシステム
JP2004304653A (ja) * 2003-03-31 2004-10-28 Matsushita Electric Ind Co Ltd 撮影システム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5528290A (en) 1994-09-09 1996-06-18 Xerox Corporation Device for transcribing images on a board using a camera based board scanner
DE69519548T2 (de) 1994-09-09 2001-06-13 Xerox Corp., Rochester Verfahren zum Interpretieren handgeschriebener schematischer Benutzerschnittstellenbefehle
US5649706A (en) * 1994-09-21 1997-07-22 Treat, Jr.; Erwin C. Simulator and practice method
US5793630A (en) 1996-06-14 1998-08-11 Xerox Corporation High precision spatially defined data transfer system
US5838472A (en) 1996-07-03 1998-11-17 Spectrix Corporation Method and apparatus for locating a transmitter of a diffuse infrared signal within an enclosed area
US6545705B1 (en) * 1998-04-10 2003-04-08 Lynx System Developers, Inc. Camera with object recognition/data output
US6542621B1 (en) * 1998-08-31 2003-04-01 Texas Instruments Incorporated Method of dealing with occlusion when tracking multiple objects and people in video sequences
US6326946B1 (en) 1998-09-17 2001-12-04 Xerox Corporation Operator icons for information collages
US6005482A (en) 1998-09-17 1999-12-21 Xerox Corporation Surface mounted information collage
US6538676B1 (en) * 1999-10-04 2003-03-25 Intel Corporation Video token tracking system for overlay of metadata upon video data
US7312766B1 (en) * 2000-09-22 2007-12-25 Canadian Space Agency Method and system for time/motion compensation for head mounted displays
US6964022B2 (en) 2000-12-22 2005-11-08 Xerox Corporation Electronic board system
US6517266B2 (en) 2001-05-15 2003-02-11 Xerox Corporation Systems and methods for hand-held printing on a surface or medium
CA2481250C (en) * 2002-04-08 2011-09-27 Newton Security, Inc. Tailgating and reverse entry detection, alarm, recording and prevention using machine vision
US6710713B1 (en) * 2002-05-17 2004-03-23 Tom Russo Method and apparatus for evaluating athletes in competition
US7225414B1 (en) * 2002-09-10 2007-05-29 Videomining Corporation Method and system for virtual touch entertainment
US6757434B2 (en) 2002-11-12 2004-06-29 Nokia Corporation Region-of-interest tracking method and device for wavelet-based video coding
US7063256B2 (en) * 2003-03-04 2006-06-20 United Parcel Service Of America Item tracking and processing systems and methods

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002324196A (ja) * 2000-12-22 2002-11-08 Microsoft Corp コンテキスト指向のポリシー決定および施行のための方法およびシステム
JP2002290963A (ja) * 2001-03-27 2002-10-04 Denso Corp 画像追跡システム、携帯情報端末、画像追跡装置、及び、追跡画像の撮影方法
JP2004304653A (ja) * 2003-03-31 2004-10-28 Matsushita Electric Ind Co Ltd 撮影システム

Also Published As

Publication number Publication date
DE602005023700D1 (de) 2010-11-04
US20060133648A1 (en) 2006-06-22
EP1672821A2 (en) 2006-06-21
EP1672821B1 (en) 2010-09-22
JP4786322B2 (ja) 2011-10-05
EP1672821A3 (en) 2007-07-04
US7505607B2 (en) 2009-03-17

Similar Documents

Publication Publication Date Title
JP4786322B2 (ja) 能動装置を用いた、画像において追跡された物体の識別
US7502053B2 (en) Information-processing device and information-processing system
US9952305B2 (en) Independent beacon based light position system
US8994814B2 (en) Light positioning system using digital pulse recognition
US9218532B2 (en) Light ID error detection and correction for light receiver position determination
CN102749072B (zh) 室内定位方法、装置及系统
US8861976B2 (en) Transmit and receive MIMO protocols for light array communications
US9762321B2 (en) Self identifying modulated light source
CN104661000B (zh) 定位系统、基于定位空间的图像来进行定位的方法及设备
JP4303087B2 (ja) データ信号の送信方法と受信方法及びその装置、システム、プログラム並びに記録媒体
US20180006724A1 (en) Multi-transmitter vlc positioning system for rolling-shutter receivers
US10989800B2 (en) Tracking using encoded beacons
US7940632B2 (en) Recording medium, data use limitating method, and program
US10979145B2 (en) Optical transmitter and optical transmission method
CN108828965A (zh) 定位方法、电子设备及智能家居系统、存储介质
CN114166358B (zh) 一种防疫检查的机器人巡检方法、系统、设备及存储介质
WO2019214645A1 (zh) 用于构建光标签网络的方法及相应的光标签网络
WO2019214644A1 (zh) 基于光标签网络的辅助识别方法
JP2024111470A (ja) 通信システム及び通信方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110613

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110713

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees